MX2013012132A - Metodo de codificacion de imagen, aparato de codificacion de imagen, metodo de decodificacion de imagen, aparato de decodificacion de imagen y aparato de codificacion/decodificacion de imagen. - Google Patents

Metodo de codificacion de imagen, aparato de codificacion de imagen, metodo de decodificacion de imagen, aparato de decodificacion de imagen y aparato de codificacion/decodificacion de imagen.

Info

Publication number
MX2013012132A
MX2013012132A MX2013012132A MX2013012132A MX2013012132A MX 2013012132 A MX2013012132 A MX 2013012132A MX 2013012132 A MX2013012132 A MX 2013012132A MX 2013012132 A MX2013012132 A MX 2013012132A MX 2013012132 A MX2013012132 A MX 2013012132A
Authority
MX
Mexico
Prior art keywords
candidate
fusion
block
image
reference image
Prior art date
Application number
MX2013012132A
Other languages
English (en)
Inventor
Toshiyasu Sugio
Takahiro Nishi
Youji Shibahara
Hisao Sasai
Kyoko Tanikawa
Toru Matsunobu
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Publication of MX2013012132A publication Critical patent/MX2013012132A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/197Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including determination of the initial value of an encoding parameter

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)

Abstract

Este método de codificación de imagen, que genera un flujo de bits mediante la codificación de una imagen en un modo de bloque-por-bloque, contiene: una primera etapa de derivación (S201) para la derivación, como los primeros candidatos de fusión, de los candidatos de fusión que son candidatos para la dirección prevista, el vector de movimiento, y el índice de imagen de referencia utilizado en la codificación de un bloque que será codificado; una segunda etapa de derivación (S202) para la derivación, como los segundos candidatos de fusión, de los candidatos de fusión que tienen un vector preestablecido como un vector de movimiento; una etapa de selección (S203) para la selección, de entre los primeros candidatos derivados de fusión y los segundos candidatos de fusión, de un candidato de fusión que será utilizado en la codificación del bloque que será codificado; y una etapa de codificación (S204) para la adición al flujo de bits de un índice que especifica el candidato seleccionado de fusión.

Description

METODO DE CODIFICACION DE IMAGEN, APARATO DE CODIFICACION DE IMAGEN, METODO DE DECODIFICACION DE IMAGEN, APARATO DE DECODIFICACION DE IMAGEN Y APARATO DE i CODIFICACION/DECODIFICACION DE IMAGEN Campo de la Invención La presente invención se refiere a un método de codificación de imagen y a un método de decodificación de imagen.
Antecedentes de la Invención De manera general, en el procesamiento de codificación de una imagen en movimiento, la cantidad de información es reducida por compresión para lo cual se hace uso de la redundancia de una imagen en movimiento en la dirección espacial y en la dirección temporal. De manera general, la conversión a un dominio de frecuencia es realizada como un método en el cual se hace uso i de la redundancia en la dirección espacial, y la codificación que utiliza la predicción entre imágenes (de aquí en adelante, la predicción es referida como la inter-predicción) es realizada como un método de compresión para el cual se hace uso de la i redundancia en la dirección temporal. En la codificación de inter-predicción, una imagen actual es codificada utilizando, como una imagen dé referencia, una imagen codificada que precede o sigue la imagen actual en orden de tiempo de REF . 244207 visualización. De manera subsiguiente, un vector de movimiento es derivado al realizar la estimación de movimiento en la imagen actual con referencia a una imagen de referencia. Entonces, la redundancia en la dirección temporal es removida o eliminada utilizando la diferencia calculada entre los datos de imagen de la imagen actual y los datos de imagen de predicción que son obtenidos mediante la compensación de movimiento en función del vector derivado de movimiento (véase por ejemplo, NPL 1) . Aquí, en la estimación de movimiento, son calculados los diferentes valores entre los bloques actuales en la imagen actual y los bloques en la imagen de referencia, y es determinado un bloque que tiene el valor más pequeño de diferencia en la imagen de referencia como un bloque de referencia. Entonces, un vector de movimiento es estimado a partir del bloque actual y el bloque de referencia.
Lista de Citas Literatura Sin Patente NPL 1 ITU-T Recommendation H.264 "Advanced video coding for generic audiovisual services" , Marzo 2010.
NPL 2 JCT-VC, "WD3 : Working Draft 3 de High-Efficiency Video Coding", JCTVC-E603 , Marzo 2011.
Sumario de la Invención Problema Técnico Todavía es deseable incrementar la eficiencia de la codificación para la codificación y decodificación de imagen en la cual es utilizada la inter-predicción, más allá de la técnica convencional descrita con anterioridad.
En vista de esto, el objetivo de la presente invención es proporcionar un método de codificación de imagen y un método de decodificación de imagen con los cuales es incrementada la eficiencia de la codificación para la codificación de imagen y la decodificación de imagen utilizando la inter-predicción.
Solución al Problema Un método de codificación de imagen de acuerdo con un aspecto de la presente invención es un método de codificación de imagen para la codificación de una imagen en una base de bloque-por-bloque que genera un flujo de bits, e incluye: derivar, como un primer candidato de fusión, un candidato de fusión en función de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia que han sido utilizados para la codificación! de un bloque que rodea, espacial o temporalmente, el bloque actual que será codificado, el candidato de fusión es una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia para uso en la codificación del bloque actual; derivar, como un segundo candidato de fusión, un candidato de fusión que tiene un vector de movimiento que es un vector predeterminado; seleccionar el candidato de fusión que será utilizado para la codificación del bloque actual a partir del primer candidato derivado de fusión y el segundo candidato derivado de fusión; y acoplar un índice para la identificación del candidato seleccionado de fusión con el flujo de bits.
Debe observarse que estos aspectos generales o específicos pueden ser implementados como un sistema, un método, un circuito integrado, un programa de computadora, un medio de grabación susceptible de ser leído en computadora, tal como una memoria sólo de lectura de disco compacto (CD-ROM) , o como cualquier combinación de un sistema, un método, un circuito integrado, un programa de computadora, y u medio de grabación susceptible de ser leído en computadora.
Efectos Ventajosos de la Invención De acuerdo con un aspecto de la presente invención, puede ser incrementada la eficiencia de la codificación para la codificación y decodificación de imagen utilizando la inter-predicción .
Breve Descripción de las Figuras La Figura 1A es un diagrama que ilustra una lista de imagen de referencia de ejemplo para una imagen B.
La Figura IB es un diagrama que ilustra una lista de imagen de referencia de ejemplo de una dirección de predicción 0 para una imagen B.
La Figura 1C es un diagrama que ilustra una lista de imagen de referencia de ejemplo de una dirección de predicción 1 para una imagen B.
La Figura 2 es un diagrama que ilustra los vectores de movimiento para uso en el modo de predicción de vector de movimiento temporal .
La Figura 3 muestra un vector de movimiento de ejemplo de un bloque vecino para uso en el modo de fusión.
La Figura 4 es un diagrama que ilustra una lista de candidato de bloque de fusión de ejemplo.
La Figura 5 muestra una relación entre el tamaño de una lista de candidato de bloque de fusión y las secuencias asignadas de bits a los índices de candidato de bloque de fusión.
La Figura 6 es un diagrama de flujo que muestra un ejemplo de un proceso para la codificación cuando es utilizado el modo de fusión.
La Figura 7 es un diagrama de flujo que muestra un proceso para la decodificación que utiliza el modo de fusión.
La Figura 8; muestra la sintaxis para el acoplamiento de los índices de candidato de bloque de fusión con un flujo de bits .
La Figura 9 es un diagrama de bloque que muestra una configuración de un aparato de codificación de imagen de acuerdo con la Modalidad 1.
La Figura 10 es un diagrama de flujo que muestra las operaciones de procesamiento del aparato de codificación de imagen de acuerdo con la Modalidad 1.
Las Figuras 11A-11B muestran una lista de candidato de bloque de fusión de ejemplo de acuerdo con la Modalidad 1.
La Figura 12 es un diagrama de flujo que ilustra un proceso para el cálculo de los candidatos de bloque de fusión y el tamaño de una lista de candidato de bloque de fusión de acuerdo con la Modalidad 1.
La Figura 13 es un diagrama de flujo que ilustra un proceso que determina si un candidato de bloque de fusión es o no un candidato utilizable-para-la- fusión y que actualiza el número total de candidatos utilizables-para-la-fusión de acuerdo con la Modalidad 1.
La Figura 14 es un diagrama de flujo que ilustra un proceso que agrega un candidato de bloque de fusión cero de acuerdo con la Modalidad 1.
La Figura 15 es un diagrama de flujo que ilustra un proceso que determina si existe o no un candidato de bloque de fusión cero de acuerdo con la Modalidad 1.
La Figura 16 muestra un ejemplo de un bloque de fusión cero de acuerdo con la Modalidad 1.
La Figura 17 es un diagrama de flujo que ilustra un proceso para la selección de un candidato de bloque de fusión de acuerdo con la Modalidad 1.
La Figura 18 es un diagrama de bloque que muestra una configuración de un aparato de codificación de imagen de acuerdo con la Modalidad 2.
La Figura 19 es un diagrama de flujo que muestra las operaciones de procesamiento del aparato de codificación de imagen de acuerdo con la Modalidad 2.
La Figura 20 es un diagrama de bloque que muestra una configuración de un aparato de decodificación de imagen de acuerdo con la Modalidad 3.
La Figura 21 es un diagrama de flujo que muestra las operaciones de procesamiento del aparato de decodificación de imagen de acuerdo con la Modalidad 3.
La Figura 22 es un diagrama de bloque que muestra una configuración de un aparato de decodificación de imagen de acuerdo con la Modalidad 4.
La Figura 23 es un diagrama de flujo que muestra las operaciones de procesamiento del aparato de decodificación de imagen de acuerdo con la Modalidad 4.
La Figura 24 es un diagrama de bloque que muestra una configuración de un aparato de codificación de imagen de acuerdo con la Modalidad 5.
La Figura 25 es un diagrama de flujo que muestra las operaciones de procesamiento del aparato de codificación de imagen de acuerdo con la Modalidad 5.
Las Figuras 26A-26B muestran una lista de candidato de bloque de fusión de ejemplo de acuerdo con la Modalidad 5.
La Figura 27 es un diagrama de flujo que ilustra un proceso para el cálculo de los candidatos de bloque de fusión y el tamaño de una lista de candidato de bloque de fusión de acuerdo con la Modalidad 5.
La Figura 28 es un diagrama de flujo que ilustra un proceso para la actualización del número total de candidatos utilizables-para-la-fusión de acuerdo con la Modalidad 5.
La Figura 29 es un diagrama de flujo que ilustra un proceso para la adición de un nuevo candidato de acuerdo con la Modalidad 5.
La Figura 30 es un diagrama de bloque que muestra una configuración de un aparato de codificación de imagen de acuerdo con la Modalidad 6.
La Figura 31 es un diagrama de flujo que muestra las operaciones de procesamiento del aparato de codificación de imagen de acuerdo con la Modalidad 6.
La Figura 32 es un diagrama de bloque que muestra una configuración de un aparato de decodificación de imagen de acuerdo con la Modalidad 7.
La Figura 33 es un diagrama de flujo que muestra las operaciones de procesamiento del aparato de decodificación de imagen de acuerdo con la Modalidad 7.
La Figura 34 es un diagrama de flujo que ilustra un proceso para el ajuste del tamaño de una lista de candidato de bloque de fusión de acuerdo con la Modalidad 7.
La Figura 35 es un diagrama de flujo que ilustra un proceso para el cálculo de un candidato de bloque de fusión de acuerdo con la Modalidad 7.
La Figura 36 muestra la sintaxis para el acoplamiento de los índices de candidato de bloque de fusión con un flujo de bits. , La Figura 37 muestra la sintaxis de ejemplo en el caso en donde el tamaño de una lista de candidato de bloque de fusión es fijada en el valor máximo del número total de los candidatos de bloque de fusión.
La Figura 38 es un diagrama de bloque que muestra una configuración de un aparato de decodificación de imagen de acuerdo con la Modalidad 8.
La Figura 39 es un diagrama de flujo que muestra las operaciones de procesamiento del aparato de decodificación de imagen de acuerdo con la Modalidad 8.
La Figura 40 muestra la configuración total de un sistema de suministro de contenido para la implementación de los servicios de distribución de contenido.
La Figura 41 muestra la configuración total de un sistema de radiodifusión digital.
La Figura 42 muestra un diagrama de bloque que ilustra un ejemplo dé una configuración de una televisión.
La Figura 43 es un diagrama de bloque que ilustra un ejemplo de una configuración de una unidad de reproducción/grabación de información que lee y escribe información a partir y en un medio de grabación que es un disco óptico.
La Figura 44 muestra un ejemplo de una configuración de un medio de grabación que es un disco óptico.
La Figura 45A muestra un ejemplo de un teléfono celular .
La Figura 45B es un diagrama de bloque que muestra un ejemplo de una configuración de un teléfono celular.
La Figura 46 ilustra una estructura de los datos multiplexados .
La Figura 47 muestra, de manera esquemática,; como cada flujo es multiplexado en los datos multiplexados.
La Figura 48 muestra como un flujo de video es almacenado en un flujo de los paquetes PES en mayor detalle.
La Figura 49 muestra una estructura de los paquetes TS y los paquetes de origen en los datos mul iplexados. ; La Figura 50 muestra una estructura de datos de una PMT.
La Figura 51 muestra una estructura interna de la información de datos multiplexados.
La Figura 52 muestra una estructura interna de la información de atributo de flujo.
La Figura 53 muestra las etapas para la identificación de los datos de video.
La Figura 54 es un diagrama de bloque que muestra un ejemplo de una configuración de un circuito integrado para la implementación del método de codificación de imagen en movimiento y el método de decodificación de imagen en movimiento de acuerdo con cada una de las modalidades.
La Figura 55 muestra una configuración para el cambio entre las frecuencias de excitación.
La Figura 56 muestra las etapas para la i identificación de los datos de video y el cambio entre las frecuencias de excitación.
La Figura 57 muestra un ejemplo de una tabla de búsqueda en la cual los estándares de datos de video son asociados con las frecuencias de excitación. ¦ La Figura 58A es un diagrama que muestra un ejemplo de una configuración para el compartimiento de un módulo de una unidad de procesamiento de señal .
La Figura 58B es un diagrama que muestra otro ejemplo de una configuración para el compartimiento , de un módulo de la unidad de procesamiento de señal.
Descripción Detallada de la Invención Conocimiento Subyacente que Forma la Base de la Presente Invención En un esquema de codificación de imagen en movimiento ya estandarizado, que es referido como H.264, son utilizados tres tipos de imagen de la imagen I, la imagen P, y la imagen B para la reducción de la cantidad de información mediante compresión.
La imagen I no es codificada por la codificación de inter-predicción. De manera específica, la imagen I es codificada mediante la predicción dentro de la imagen (de aquí en adelante, la predicción es referida como la intra-predicción) . La imagen P es codificada mediante la codificación de inter-predicción con referencia a una imagen codificada que precede o sigue la imagen actual en orden de tiempo de visualización . La imagen B es codificada mediante la codificación de inter-predicción con referencia a dos imágenes codificadas que preceden y siguen la imagen actual en orden de tiempo de visualización.
En la codificación de inter-predicción, es generada una lista de imagen de referencia para la identificación de una imagen de referencia. En una lista de imagen de referencia, los índices de imagen de referencia son asignados a las imágenes codificadas de referencia que serán referidas en la inter-predicción. Por ejemplo, dos listas de imagen de referencia (LO, Ll) son generadas para una imagen B debido a que ésta puede ser codificada con referencia a dos imágenes.
La Figura 1A es un diagrama que ilustra una lista de imagen de referencia de ejemplo para una imagen B. La Figura IB muestra una lista de imagen de referencia de ejemplo 0 (LO) para una dirección de predicción 0 en la predicción bidireccional . En la lista de imagen de referencia 0, el índice de imagen de referencia 0 que tiene un valor de 0 es asignado a una imagen de referencia 0 con un número de orden de visualización 2. El índice de imagen de referencia 0 que tiene un valor de 1 es asignado a una imagen de referencia 1 con un número de orden de visualización 1. El índice de imagen de referencia 0 que tiene un valor de 2 es asignado a una imagen de referencia 2 con un número de orden de visualización 0. En otras palabras, cuando es más corta la distancia temporal de una imagen de referencia de la imagen actual, es más pequeño el índice de imagen de referencia asignado a la imagen de referencia.
Por otro lado, la Figura 1C muestra una lista de imagen de referencia de ejemplo 1 (Ll) para una dirección de predicción 1 en la predicción bidireccional. En la lista de imagen de referencia 1, el índice de imagen de referencia 1 que tiene un valor de 0 es asignado a una imagen de referencia 1 con un número de orden de visualización 1. El índice de imagen de referencia 1 que tiene un valor de 1 es asignado a una imagen de referencia 0 con un número de orden de visualización 2. ?1 índice de imagen de referencia 2 que tiene un valor de 2 es asignado a una imagen de referencia 2 con un número de ordén de visualización 0.
De este modo, es posible asignar los índices de imagen de referencia que tienen valores diferentes entre las direcciones de predicción a una imagen de referencia (las imágenes de referencia 0 y 1 en la Figura 1A) o es posible asignar el índice de imagen de referencia que tiene el mismo valor para ambas direcciones a una imagen de referencia (la imagen de referencia 2 en la Figura 1A) .
En un método de codificación de imagen en movimiento referido como H.264 (véase, NPL 1), un modo de estimación de vector de movimiento se encuentra disponible como el modo de codificación para la inter-predicción de cada bloque actual en una imagen B. En el modo de estimación de vector de movimiento, el valor de diferencia entre los datos de imagen de un bloque actual y los datos de imagen de predicción y el vector de movimiento utilizados para la generación de los datos de imagen de predicción son codificados. En adición, en el modo de estimación de vector de movimiento, la predicción bidireccional y la predicción unidireccional pueden ser realizadas, de manera selectiva. En la predicción bidireccional, es generada una imagen de predicción con referencia a dos imágenes codificadas una de las cuales precede una imagen actual que será codificada y la otra de las cuales sigue la imagen actual. En la predicción unidireccional, es generada una imagen de predicción con referencia a una imagen codificada que precede o sigue una imagen actual que será codificada.
Además, en el método de codificación de imagen en movimiento referido como H.264, puede ser seleccionado un modo de codificación referido como un modo de predicción de vector de movimiento temporal para la derivación de un vector de movimiento en la codificación de una imagen B. El método de codificación de inter-predicción realizado en el modo de predicción de vector de movimiento temporal será descrito más adelante utilizando la Figura 2. La Figura 2 es un diagrama que ilustra los vectores de movimiento para uso en el modo de predicción de vector de movimiento temporal. De manera específica, la Figura 2 muestra un caso en donde es codificado un bloque a en una imagen B2 en el modo de predicción de vector de movimiento temporal.
En la codificación, es utilizado un vector de movimiento vb el cual ha sido utilizado para la codificación de un bloque b localizado en la misma posición en una imagen P3 , que es una imagen de referencia después de la imagen B2, como la posición del bloque a en la imagen B2 (en el caso, de aquí en adelante, el bloque b es referido como un bloque colocalizado del bloque a) . El vector de movimiento vb es un vector de movimiento utilizado para la codificación del bloque b con referencia a una imagen Pl . \ Dos bloques de referencia para el bloque a son obtenidos a partir de una imagen delantera de referencia y una imagen trasera de referencia, es decir, una imagen Pl y una imagen P3 utilizando los vectores de movimiento paralelos al vector de movimiento vb. Entonces, el bloque a es codificado mediante la predicción bidireccional basado en los dos bloques obtenidos de referencia. De manera específica, en la codificación del bloque a, un vector de movimiento val es utilizado para referirse a la imagen Pl, y un vector de movimiento va2 es utilizado para referirse a la imagen P3.
En adición, un modo de fusión es discutido como un modo de inter-predicción para la codificación de cada bloque actual en una imagen B o una imagen P (véase, NPL 2) . En el modo de fusión, un bloque actual es codificado utilizando una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia los cuales son duplicados de aqüellos utilizados para la codificación de un bloque vecino del bloque actual. En este momento, los duplicados del índice y otros del bloque vecino son acoplados con un flujo de bits, de modo que la dirección de movimiento, el vector de movimiento, y el índice de imagen de referencia utilizados para la codificación pueden ser seleccionados en la decodificación. Un ejemplo concreto para esto es dado más adelante con referencia a la Figura 3.
La Figura 3 muestra un vector de movimiento de ejemplo de un bloque vecino para uso en el modo de fusión. En la Figura 3, un bloque vecino A es un bloque codificado localizado en la izquierda inmediata de un bloque actual. Un bloque vecino B es un bloque codificado inmediatamente localizado por encima del bloque actual. Un bloque vecino C es un bloque codificado localizado inmediatamente a la derecha por encima del bloque actual . Un bloque vecino 0 es un bloque codificado localizado inmediatamente a la izquierda por debajo del bloque actual.
El bloque vecino A es un bloque codificado mediante la predicción unidireccional en la dirección de predicción 0. El bloque vecino A tiene un vector de movimiento MvL0_A que tiene la dirección de predicción 0 como un vector de movimiento con respecto a una imagen de referencia indicada por un índice de imagen de referencia RefL0_A de la dirección de predicción 0. Aquí, MvLO indica un vector de movimiento 'que se refiere a una imagen de referencia especificada en una lista de imagen de referencia 0 (LO) . El vector de movimiento MvLl indica un vector de movimiento que se refiere a una imagen de referencia especificada en una lista de imagen de referencia 1 (Ll) .
El bloque vecino B es un bloque codificado mediante la predicción unidireccional en la dirección de predicción 1. El bloque vecino B tiene un vector de movimiento MvLl_B que tiene la dirección de predicción 1 como un vector de movimiento con respecto a una imagen de referencia indicada por un índice de imagen de referencia RefLl_B de la dirección de predicción 1.
El bloque vecino C es un bloque codificado mediante la intra-predicción .
El bloque vecino D es un bloque codificado mediante la predicción unidireccional en la dirección de predicción 0. El bloque vecino D tiene un vector de movimiento MvL0_D que tiene la dirección de predicción 0 como un vector de movimiento con respecto a una imagen de referencia indicada por un índice de imagen de referencia RefL0_D de la dirección de predicción 0.
En este caso, por ejemplo, es seleccionada una combinación de la dirección de predicción, el vector de movimiento y el índice de imagen de referencia, con el cual puede ser codificado el bloque actual con la más alta eficiencia de la codificación como una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia del bloque actual a partir de las direcciones de predicción, los vectores de movimiento y los índices de imagen de referencia del bloque vecinos A-D, y una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia los cuales son calculados utilizando un bloque co-localizado en el modo de predicción de vector de movimiento temporal. Entonces, un índice de candidato de bloque de fusión que indica el bloque seleccionado que tiene la dirección de predicción, el vector de movimiento y el índice de imagen de referencia es acoplado con un flujo de bits.
Por ejemplo, cuando es seleccionado el bloque vecino A, el bloque actual es codificado utilizando el vector de movimiento vL0_A que tiene la dirección de predicción 0 y el índice de imagen de referencia RefL0_A. Entonces, solamente el índice de candidato de bloque de fusión que tiene un valor de 0 que indica el uso del bloque vecino A como se muestra en la Figura 4 es acoplado con un flujo de bits. Con lo cual, es reducida la cantidad de información en una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia.
Además, en el modo de fusión, un candidato que no puede ser utilizado para la codificación (de aquí en adelante, es referido como un candidato inutilizable-para-la-fusión) , y un candidato que tiene una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia idéntico a una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia de cualquier otro bloque de fusión (de aquí en adelante, es referido como un candidato idéntico) son removidos de los candidatos de bloque de fusión como se muestra en la Figura 4.
De este modo, es reducido el número total de los candidatos de bloque de fusión, de modo que puede reducirse la cantidad de código asignados a los índices de candidato de bloque de fusión. Aquí, el término "inutilizable para la fusión" significa (1) que el candidato de bloque de fusión ha sido codificado mediante la intra-predicción, (2) que el candidato de bloque de fusión se encuentra fuera del límite de una rebanada que incluye el bloque actual o el límite de una imagen que incluye el bloque actual, o (3) que el candidato de bloque de fusión todavía será codificado.
En el ejemplo mostrado en la Figura 4, el bloque vecino C es un bloque codificado mediante la intra-predicción. Por lo tanto, el candidato de bloque de fusión que tiene el índice de candidato de bloque de fusión 3 es un candidato inutilizable-para-la-fusión y es eliminado ;de la lista de candidato de bloque de fusión. El bloque vecino D es idéntico en la dirección de predicción, el vector de movimiento, y el índice de imagen de referencia al bloque vecino A. Por lo tanto, el candidato de bloque de fusión que tiene el índice de candidato de bloque de fusión 4 es eliminado de la lista de candidato de bloque de fusión. Como resultado, el número total de los candidatos de bloque de fusión es finalmente de tres, y el tamaño de la lista de candidato de bloque de fusión es establecido en tres. ; Los índices de candidato de bloque de fusión son codificados mediante la codificación de longitud variable al asignar las secuencias de bits de acuerdo con el tamaño de cada lista de candidato de bloque de fusión como se muestra en la Figura 5. De esta manera, en el modo de fusión, la cantidad de código es reducida cambiando las secuencias asignadas de bits a los índices de modo de fusión de acuerdo con el tamaño de cada lista de candidato de bloque de fusión.
La Figura 6 es un diagrama de flujo que muestra un ejemplo de un proceso para la codificación cuando es utilizado el modo de fusión. En la Etapa S1001, los vectores de movimiento, los índices de imagen de referencia y las direcciones de predicción de los candidatos de bloque de fusión son obtenidos a partir de los bloques vecinos y un bloque co- localizado . En la Etapa S1002, los candidatos idénticos y los candidatos inutilizables-para-la-fusión son eliminados de los candidatos de bloque de fusión. En la Etapa S1003, el número total de los candidatos de bloque de fusión después de la remoción es establecido como el tamaño de la lista de candidato de bloque de fusión. En la Etapa S10Ó4, es determinado el índice de candidato de bloque de fusión que será utilizado para la codificación del bloque actual. En la Etapa S1005, es codificado el índice determinado de candidato de bloque de fusión al realizar la codificación de longitud variable en la secuencia de bits de acuerdo con el tamaño de la lista de candidato de bloque de fusión.
La Figura 7 es un diagrama de flujo que muestra un ejemplo de un proceso para la decodificación que utiliza el modo de fusión. En la Etapa S2001, los vectores de movimiento, los índices de imagen de referencia, y las direcciones de predicción de los candidatos de bloque de fusión son obtenidos a partir de los bloques vecinos y un bloque co- localizado . En la Etapa S2002, los candidatos idénticos y los candidatos inutilizables-para-la-fusión son eliminados de los candidatos de bloque de fusión. En la Etapa S2003, el número total de los candidatos de bloque de fusión después de la remoción es establecido como el tamaño de la lista de candidato de bloque de fusión. En la Etapa S2004, el índice de candidato de bloque de fusión que será utilizado para la decodificación de un bloque actual es decodificado a partir de un flujo de bits utilizando el tamaño de la, lista de candidato de bloque de fusión. En la Etapa S2005, la decodificación de un bloque actual es realizada al generar una imagen de predicción utilizando el candidato de bloque de fusión indicado por el índice decodificado de candidato de bloque de fusión.
La Figura 8 muestra la sintaxis para el acoplamiento de los índices de candidato de bloque de fusión con un flujo de bits. En la Figura 8, merge_idx representa un índice de candidato de bloque de fusión, y merge_flag representa un aviso de fusión. NumMergeCand representa el tamaño de una lista de candidato de bloque de fusión. NumMergeCand es establecido en el número total de los candidatos de bloque de fusión después de los candidatos inutilizables-para-la-fusión y los candidatos idénticos son eliminados de los candidatos de bloque de fusión.
El proceso de codificación o decodificación de una imagen es realizado utilizando el modo de fusión en la manera descrita con anterioridad.
Sin embargo, en el modo de fusión, un vector de movimiento para uso en la codificación de un bloque actual es calculado a partir de un candidato de bloque de fusión que rodea el bloque actual. Entonces, por ejemplo, cuando el bloque actual que será codificado es una región fija y su bloque vecino es una región de objeto de movimiento, la eficiencia de la codificación podría disminuir debido a la falta del incremento en la precisión de la predicción en el modo de fusión debido a que los vectores de movimiento utilizables en el modo de fusión son afectados por la región de objeto de movimiento.
Un método de codificación de imagen de acuerdo con un aspecto de la presente invención es un método de codificación de imagen para la codificación de una imagen en una base de bloque-por-bloque que genera un flujo de bits, e incluye: derivar, como un primer candidato de fusión, un candidato de fusión en función de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia que han sido utilizados para la codificación de un bloque que rodea, espacial o temporalmente, el bloque actual que será codificado, el candidato de fusión es una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia para úso en la codificación del bloque actual; derivar, como un segundo candidato de fusión, un candidato de fusión que tiene un vector de movimiento que es un vector predeterminado; seleccionar el candidato de fusión que será utilizado para la codificación del bloque actual a partir del primer candidato derivado de fusión y el segundo candidato derivado de fusión; y acoplar un índice para la identificación del candidato seleccionado de fusión en el flujo de bits.
Con este método, un candidato de fusión que tiene un vector de movimiento, que es un vector predeterminado, puede ser derivado como un segundo candidato de fusión. Por lo tanto, es posible derivar un candidato de fusión que tiene un vector de movimiento y otros para una región fija por ejemplo, como un segundo candidato de fusión. En otras palabras, un bloque actual que tiene un movimiento predeterminado es codificado, de manera eficiente, de modo que puede ser incrementada la eficiencia de la codificación.
Por ejemplo, en la derivación de un candidato de fusión como un segundo candidato de fusión, el segundo candidato de fusión podría ser derivado para cada imagen de referencia referible.
Con esto, un segundo candidato de fusión puede ser derivado para cada imagen de referencia. Por lo tanto, es posible incrementar ¡la variedad de candidatos de fusión de modo que puede ser adicionalmente incrementada la eficiencia de la codificación.
Por ejemplo, el vector predeterminado podría ser un vector cero .
Con esto, un candidato de fusión que tiene un vector de movimiento para una región fija puede ser derivado debido a que el vector predeterminado es un vector cero. Por lo tanto, es posible incrementar adicionalmente la eficiencia de la codificación cuando el bloque actual que será codificado es una región fija. , \ Por ejemplo, el método de codificación de imagen además podría incluir determinar el número máximo de candidatos de fusión; y determinar si el número total del primer candidato derivado de fusión es más pequeño o no que el número máximo; en donde la derivación de un candidato de fusión como un segundo candidato de fusión es efectuada cuando es determinado que el número total del primer candidato de fusión es más pequeño que el número máximo.
Con esto, un segundo candidato de fusión puede ser derivado cuando es determinado que el número total de los primeros candidatos de fusión es más pequeño que el número máximo. En consecuencia, el número total de candidatos de fusión puede ser incrementado dentro de un intervalo que no excede el número máximo, de modo que puede ser incrementada la eficiencia de la codificación.
Por ejemplo , en el acoplamiento, el índice podría ser codificado utilizando el número máximo determinado, y el índice codificado podría acoplarse con el flujo de bits.
Con este método, puede ser codificado un índice para la identificación de un candidato de fusión utilizando el número máximo determinado. En otras palabras, un índice puede ser codificado, de manera independiente, a partir del número total de candidatos de fusión actualmente derivados. Por lo tanto, incluso cuando es perdida la información necesaria para la derivación de un candidato de fusión (por ejemplo, la información sobre un bloque co-localizado) , un índice todavía puede ser decodificado y con lo cual, es mejorada la resistencia de error. Además, un índice puede ser decodificado, de manera independiente, del número total de candidatos de fusión actualmente derivados. En ; otras palabras, un índice puede ser decodificado sin esperar la derivación de candidatos de fusión. En otras palabras, puede generarse un flujo de bits, para lo cual la derivación de candidatos de fusión y la decodificación de los índices pueden ser realizadas en paralelo.
Por ejemplo, en la codificación, la información que indica el número máximo determinado podría ser adicionalmente acoplada con el flujo de bits.
Con esto, la información que indica el número máximo determinado puede ser acoplada con un flujo de bits. Por lo tanto, es posible cambiar los números máximos mediante la unidad adecuada, de modo que puede ser incrementada la eficiencia de la codificación.
Por ejemplo, en la derivación de un primer candidato de fusión, un candidato de fusión que es una combinación de una dirección de predicción, un vector de movimiento,: y un índice de imagen de referencia podría ser derivado como el primer candidato de fusión, la combinación es diferente de una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia de cualquier primer candidato de fusión previamente derivado.
Con esto, un candidato de fusión que es una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia idéntico a una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia de cualquier primer candidato de fusión previamente derivado pueden ser eliminados de los primeros candidatos de fusión. Como resultado, el número total de los segundos candidatos de fusión puede ser incrementado, de modo que puede ser incrementada la variedad de combinaciones de una dirección de predicción, un vector de movimiento y un índice de imagen de referencia para un candidato seleccionable de fusión. Por lo tanto, es posible incrementar adicionalmente la eficiencia de la codificación.
Por ejemplo, el método de codificación de imagen además podría incluir cambiar el proceso de codificación entre un primer proceso de codificación que se conforma en un primer estándar y el segundo proceso de codificación que se conforma en un segundo estándar; y acoplar, con el flujo de bits, la información de identificación que indica ya sea el primer estándar o el segundo estándar en el cual se conforma el proceso de codificación después del cambio, en donde cuando el proceso de codificación es cambiado al primer proceso de codificación, la derivación de un candidato de fusión como un primer candidato de fusión, la derivación de un candidato de fusión como un segundo candidato de fusión, la selección y el acoplamiento son efectuados como el primer proceso de codificación.
Con esto, es posible realizar, en forma intercambiada, el primer proceso de codificación que se conforma en el primer estándar y el segundo proceso de codificación que se conforma en el segundo estándar.
Además, un método de decodificación de imagen de acuerdo con un aspecto de la presente invención es un método para la decodificación, en una base de bloque-por-bloque , de una imagen codificada incluida en un flujo de bits e incluye: derivar, como un primer candidato de fusión, un candidato de fusión en función de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia que han sido utilizados para la decodificación de un bloque que rodea, espacial o temporalmente, el bloque actual que será decodificado, el candidato de fusión es una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia para uso en la decodificación del bloque actual; derivar, como un segundo candidato de fusión, un candidato de fusión que tiene un vector de movimiento que es un vector predeterminado; obtener, a partir del flujo de bits, un índice para la identificación de un candidato de fusión; y seleccionar, en función del índice i obtenido, un candidato de fusión del primer candida'to de fusión y el segundo candidato de fusión, el candidato de fusión será utilizado para la decodificación de un bloque actual .
Con este método, un candidato de fusión que tiene un vector de movimiento que es un vector predeterminado puede ser derivado como un segundo candidato de fusión. Por lo tanto, es posible derivar un candidato de fusión que tiene un vector de movimiento y otros para una región fija como por ejemplo, un segundo candidato de fusión. Esto hace posible decodificar, de manera adecuada, un flujo de bits generado mediante la codificación de un bloque que tiene un movimiento eficientemente predeterminado, de modo que un flujo dé bits codificado con un incremento en la eficiencia de la codificación puede ser decodificado, de manera adecuada.; Por ejemplo, en la derivación de un candidato de fusión como un segundo candidato de fusión, el segundo candidato de fusión podría ser derivado para cada imagen de referencia referible.
Con esto, un segundo candidato de fusión puede ser derivado para cada imagen de referencia. Con lo cual, ; puede I ser incrementada la variedad de candidatos de fusión, dé modo que un flujo de bits codificado con el incremento adi'cional de la eficiencia de la codificación puede ser decodificado, de manera adecuada . l Por ejemplo; el vector predeterminado podría ser un vector cero.
Con esto, un candidato de fusión que tiene un Vector de movimiento para una región fija puede ser derivado debido i a que el vector predeterminado es un vector cero. Por lo tanto, es posible decodificar, de manera adecuada, un! flujo de bits codificado con un incremento en la eficiencia ¡ de la codificación. ! Por ejemplo^ el método de decodificación de imagen además podría incluir: determinar el número máximo de candidatos de fusión; y determinar si el número total del > '. i primer candidato derivado de fusión es más pequeño o rio que ¦ I el número máximo, en, donde la derivación de un candidato de fusión como un segundo candidato de fusión es efectuada cuando es determinado que el número total del primer candidato derivado de fusión es más pequeño que el número máximo . j Con esto, un segundo candidato de fusión puede ser derivado cuando es determinado que el número total de los primeros candidatos de fusión es más pequeño que el número máximo. En consecuencia, el número total de candidatos de fusión puede ser incrementado dentro de un intervalo que no excede el número máximo, de modo que un flujo de bits codificado con un incremento en la eficiencia de la codificación puede ser decodificado, de manera adecuada i Por ejemplo, en la obtención, el índice codificado y acoplado con el flujo de bits podría ser obtenido mediante la decodificación del índice utilizando el número máximo determinado.
Con esto, un índice para la identificación de un candidato de fusión puede ser decodificado utilizando un número máximo determinado. En otras palabras, un índice puede ser decodificado, de manera independiente, del número ( total de candidatos de fusión actualmente derivados. Por lo tanto, incluso cuando es perdida la información necesaria para la derivación de un candidato de fusión (por ejemplo, la información sobre un bloque co-localizado) , un índice todavía puede ser decodificado y con lo cual, es mejorada la resistencia de error. Además, un índice puede ser decodificado sin esperar la derivación de candidatos de fusión, de modo que la derivación de candidatos de fusión y la decodificación de los índices pueden ser realizadas en paralelo.
Por ejemplo, en la determinación del número máximo de un candidato de fusión, el número máximo podría determinarse en función de la información acoplada con el flujo de bits y que indica el número máximo.
Con esto, un número máximo puede ser determinado en función de la información acoplada con un flujo de bits. Por lo tanto, es posible decodificar una imagen codificada utilizando los números máximos cambiados por la unidad adecuada .
Por ejemplo, en la derivación de un candidato de fusión como un primer candidato de fusión, un candidato de fusión que es una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia podría ser derivado como el primer candidato de fusión, la combinación es diferente de una combinación de una dirección de predicción, un vector de movimiento y un índice de imagen de referencia de cualquier primer candidato de fusión previamente derivado.
Con esto, un candidato de fusión que es una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia idéntico a una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia de cualquier primer candidato de fusión previamente derivado pueden ser eliminados de los primeros candidatos de fusión. Como resultado, el número total de los segundos candidatos de fusión puede ser incrementado, de modo que puede ser incrementada la variedad de combinaciones de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia para un candidato seleccionable de fusión. Por lo tanto, es posible decodificar, de manera adecuada, un flujo de bits codificado con el incremento adicional de la eficiencia de la codificación.
Por ejemplo, el método de decodificación de imagen además podría incluir: cambiar un proceso de decodificación entre un primer proceso de decodificación que se conforma en un primer estándar y un segundo proceso de decodificación que se conforma en un segundo estándar, de acuerdo con la información de identificación que es acoplada con el flujo de bits e indica ya sea el primer estándar o el segundo estándar, en donde cuando el proceso de decodificación es cambiado al primer proceso de decodificación, la derivación de un candidato de fusión como un primer candidato de fusión, la derivación de un candidato de fusión como un segundo candidato de fusión, la obtención, y la selección son efectuadas como el primer proceso de decodificación.
Con esto, es posible realizar, en forma intercambiada, el primer proceso de decodificación que se conforma en el primer estándar y el segundo proceso de decodificación que se conforma en el segundo estándar.
Debe observarse que estos aspectos generales o específicos pueden ser implementados como un sistema, un método, un circuito integrado, un programa de computadora, un medio de grabación susceptible de ser leído en computadora tal como una memoria sólo de lectura de disco compacto (CD-ROM) , o como cualquier combinación de un sistema, un método, un circuito integrado, un programa de computadora, y un medio de grabación susceptible de ser leído en computadora.
Un aparato de codificación de imagen y un aparato de decodificación de imagen de acuerdo con un aspecto de la presente invención serán descritos más adelante, de manera específica con referencia a las figuras.
Cada una de las modalidades de ejemplo descritas más adelante muestra un ejemplo específico. Los valores numéricos, las formas, los materiales, los elementos constituyentes, el arreglo y la conexión de los elementos constituyentes, la etapas, el orden de procesamiento de las etapas, etc., mostrados en las siguientes modalidades de ejemplo son simples ejemplos, y por lo tanto, no limitan el concepto inventivo en la presente invención. Además, entre los elementos constituyentes en las siguientes modalidades de ejemplo, los elementos constituyentes no señalados en cualquiera una de las reivindicaciones independientes que definen la parte más genérica del concepto inventivo no son necesariamente requeridos en orden para superar las desventajas.
Modalidad 1 La Figura 9 es un diagrama de bloque que muestra una configuración de un aparato de codificación de imagen de acuerdo con la Modalidad 1. Un aparato de codificación de imagen 100 codifica una imagen en una base de bloqué-por-bloque para generar un flujo de bits.
Como se muestra en la Figura 9, el aparato de codificación de imagen 100 incluye un sustractor 101, una unidad de transformación ortogonal 102, una unidad de cuantificación 103, una unidad de cuantificación inversa 104, una unidad de transformación ortogonal inversa 105, un sumador 106, una memoria de bloque 107, una memoria de cuadro 108, una unidad de intra-predicción 109, una unidad de inter-predicción 110, una unidad de control de inter-predicción 111, una unidad de determinación de tipo de imagen 112, un interruptor 113, una unidad de cálculo de candidato de bloque de fusión 114, una memoria colPic 115 y una unidad de codificación de longitud variable 116.
El sustractor 101 sustrae, en una base de bloque-por-bloque, los datos de imagen de predicción de los datos de imagen de entrada incluidos en una secuencia de imagen de entrada para generar los datos de error de predicción.
La unidad de transformación ortogonal 102 transforma los datos generados de error de predicción de un dominio de imagen en un dominio de frecuencia.
La unidad de cuantificación 103 cuantifica los datos de error de predicción transformados en un dominio de frecuencia .
La unidad de cuantificación inversa 104 realiza la cuantificación inversa de los datos de error de predicción cuantificados por la unidad de cuantificación 103.
La unidad de transformación ortogonal inversa 105 transforma los datos cuantificados inversos de error de predicción de un dominio de frecuencia en un dominio de imagen.
El sumador 106 agrega, en una base de bloque-por-bloque, los datos de imagen de predicción y los datos de error de predicción cuantificados inversos por la unidad de transformación ortogonal inversa 105 para generar los datos reconstruidos de imagen.
La memoria de bloque 107 almacena los ¡ datos reconstruidos de imagen en unidades de un bloque.
La memoria de cuadro 108 almacena los datos reconstruidos de imagen en unidades de un cuadro.
La unidad de determinación de tipo de imagen 112 determina en cuáles de los tipos de imagen de la imagen: I, de la imagen B, y de la imagen P, serán codificados los datos de imagen de entrada. Entonces, la unidad de determinación de tipo de imagen 112 genera la información de tipo de imagen que indica el tipo determinado de imagen.
La unidad de intra-predicción 109 genera los datos de imagen de intra-predicción de un bloque actual al realizar la intra-predicción utilizando los datos reconstruidos de imagen almacenados en la memoria de bloque 107 en unidades de un bloque .
La unidad de inter-predicción 110 genera los datos de imagen de inter-predicción de un bloque actual al realizar la inter-predicción utilizando los datos reconstruidos de imagen almacenados en la memoria de cuadro 108 en unidades de un cuadro y un vector de movimiento derivado por un proceso que incluye la estimación de movimiento.
Cuando un bloque actual es codificado mediante la codificación de intra-predicción, el interruptor 113 da salida a los datos de imagen de intra-predicción generados por la unidad de intra-predicción 109 como los datos de imagen de predicción del bloque actual hacia el sustiractor 101 y el sumador 106. Por otro lado, cuando un bloque actual es codificado mediante la codificación de inter-predicción, el interruptor 113 da salida a los datos de imagen de inter-predicción generados por la unidad de inter-predicción 110 como los datos de imagen de predicción del bloque actual hacia el sustractor 101 y el sumador 106.
La unidad de cálculo de candidato de bloque de fusión 114 deriva los candidatos de bloque de fusión para el modo de fusión utilizando los vectores de movimiento y 1 otros de los bloques vecinos del bloque actual y un vector de movimiento y otros del bloque co-localizado (la información colPic) almacenado en la memoria colPic 115. Además, la unidad de cálculo de candidato de bloque de fusión 114 agrega el candidato derivado de bloque de fusión a una lista de candidato de bloque de fusión. ; Además, la unidad de cálculo de candidato de bloque de fusión 114 deriva, como un nuevo candidato, un candidato de bloque de fusión que tiene una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia para una región fija (de aquí en adelante, es referido como un "candidato de bloque de fusión cero") utilizando un método descrito más adelante. Entonces, la unidad de cálculo de candidato de bloque de fusión 114 agrega el candidato derivado de bloque de fusión cero como un nuevo candidato de bloque de fusión a la lista de candidato de bloque de fusión. Además, la unidad de cálculo de candidato de bloque de fusión 114 calcula el número total de los candidatos de bloque de fusión.
Además, la unidad de cálculo de candidato de bloque de fusión 114 asigna los índices de candidato de bloque de fusión cada uno tiene un valor diferente a los candidatos derivados de bloque de fusión. Entonces, la unidad de cálculo de candidato de bloque de fusión 114 transmite los candidatos de bloque de fusión y los índices de candidato de bloque de fusión a la unidad de control de inter-predicción 111. Además, la unidad de cálculo de candidato de bloque de fusión 114 transmite el número total derivado de los candidatos de bloque de fusión a la unidad de codificación de longitud variable 116.
La unidad de control de inter-predicción 111 selecciona un modo de predicción utilizando el error de predicción que es el más pequeño de un modo de predicción en el cual es utilizado un vector de movimiento derivado por la estimación de movimiento (el modo de estimación de movimiento) y un modo de predicción en el cual es utilizado un vector de movimiento derivado de un candidato de bloque de fusión (modo de fusión) . La unidad de control de inter-predicción 111 también transmite un aviso de fusión que indica sí el modo seleccionado de predicción es o no el modo de fusión a la unidad de codificación de longitud variable 116. Además, la unidad de control de inter-predicción 111 transmite un índice de candidato de bloque de fusión que corresponde con los candidatos determinados de bloque de fusión a la unidad de codificación de longitud variable 116 cuando el modo seleccionado de predicción es el modo de fusión. Además, la unidad de control de inter-predicción 111 transfiere la información colPic que incluye el vector de movimiento y otros del bloque actual a la memoria colPic 115.
La unidad de codificación de longitud variable 116 genera un flujo de bits al realizar la codificación de longitud variable en los datos cuantificados de error de predicción, el aviso de fusión, y la información de tipo de imagen. La unidad de codificación de longitud variable 116 también establece el número total de los candidatos de bloque de fusión como el tamaño de la lista de candidato de bloque de fusión. Además, la unidad de codificación de longitud variable 116 realiza la codificación de longitud variable en un índice de candidato de bloque de fusión que será utilizado para la codificación, al asignar, de acuerdo con el tamaño de la lista de candidato de bloque de fusión, una secuencia de bits al índice de candidato de bloque de fusión.
La Figura 10 es un diagrama de flujo que muestra las operaciones de procesamiento del aparato de codificación de imagen 100 de acuerdo con la Modalidad 1.
En la Etapa S101, la unidad de cálculo de candidato de bloque de fusión 114 deriva los candidatos de bloque de fusión de los bloques vecinos y un bloque co-localizado; de un bloque actual. Además, la unidad de cálculo de candidato de bloque de fusión 114 calcula el tamaño de una lista de candidato de bloque de fusión utilizando un método descrito más adelante.
Por ejemplo, en el caso mostrado en la Figura 3 , la unidad de cálculo de candidato de bloque de fusión 114 selecciona los bloques vecinos A-0 como los candidatos de bloque de fusión. Además, la unidad de cálculo de candidato de bloque de fusión 114 calcula, como un candidato de bloque de fusión, un bloque de fusión co-localizado que tiene un vector de movimiento, un índice de imagen de referencia, y una dirección de predicción que se calculan a partir del vector de movimiento de un bloque co-localizado utilizando el modo de predicción de tiempo.
La unidad de cálculo de candidato de bloque de fusión 114 asigna los índices de candidato de bloque de fusión a los respectivos candidatos de bloque de fusión como es mostrado en en la Figura 11A. A continuación, la unidad de cálculo de candidato de bloque de fusión 114 calcula una lista de candidato de bloque de fusión como es mostrado en en la Figura 11B y el tamaño de la lista de candidato de bloque de fusión al eliminar o remover los candidatos inutilizables-para-la-fusión y los candidatos idénticos y al agregar un nuevo candidato de bloque de fusión1 cero utilizando un método descrito más adelante.
Los códigos más cortos son asignados a los índices de candidato de bloque de fusión de valores más pequeños. En otras palabras, cuando es más pequeño el valor dé un índice de candidato de bloque de fusión, es más pequeña la cantidad de información necesaria para la indicación del índice de candidato de bloque de fusión.
Por otro lado, cuando es más grande el valor !de un índice de candidato de bloque de fusión, es más grande la cantidad de información necesaria para el índice de candidato de bloque de fusión. Por lo tanto, la eficiencia de la codificación será incrementada cuando los índices de candidato de bloque de fusión de valores más pequeños son asignados a los candidatos de bloque de fusión los cuales es más probable que tengan los vectores de movimiento de una precisión más alta y los índices de imagen de referencia de una precisión más alta.
Por lo tanto, un caso posible es que la unidad de cálculo de candidato de bloque de fusión 114 cuente el número total de veces de la selección de cada uno de los candidatos de bloque de fusión como un bloque de fusión, y asigne los índices de candidato de bloque de fusión de valores más pequeños a los bloques con un número total más grande de las veces. De manera específica, esto puede ser conseguido mediante la especificación de un bloque de fusión seleccionado a partir de los bloques vecinos y la asignación de un índice de candidato de bloque de fusión de un valor más pequeño al bloque específico de fusión cuando un bloque actual es codificado.
Cuando un candidato de bloque de fusión no tiene la información tal como un vector de movimiento (por ejemplo, cuando el bloque de fusión ha sido un bloque codificado mediante la intra-predicción, este es localizado fuera del límite de una imagen o el límite de una rebanada, o todavía será codificado) , l candidato de bloque de fusión es inutilizable para la codificación.
En la Modalidad 1, un candidato de bloque de fusión inutilizable para la codificación es referido como un candidato inutilizable-para- la-fusión, y un candidato de bloque de fusión usable para la codificación es referido como el candidato inutilizable-para-la-fusión. En adición, entre una pluralidad de los candidatos de bloque de fusión, un candidato de bloque de fusión idéntico en el vector de movimiento, el índice de imagen de referencia, y la dirección de predicción a cualquier otro bloque de fusión es referido como un candidato idéntico.
En el caso mostrado en la Figura 3, el bloque vecino e es un candidato inutilizable-para-la-fusión debido a que este es un bloque codificado mediante la intra-predicción . El bloque vecino D es un candidato idéntico debido a que éste es idéntico en el vector de movimiento, el índice de imagen de referencia y la dirección de predicción al bloque vecino A.
En la Etapa S102, la unidad de control de inter-predicción 111 selecciona un modo de predicción en función de la comparación, utilizando un método descrito más adelante, entre el error de predicción de una imagen de predicción generada utilizando un vector de movimiento derivado por la estimación de movimiento y el error de predicción de una imagen de predicción generada utilizando un vector de movimiento obtenido a partir de un candidato de bloque de fusión. Cuando el modo seleccionado de predicción es el modo de fusión, la unidad de control de inter-predicción 111 establece el aviso de fusión en 1, y cuando no, la unidad de control de inter-predicción 111 establece el aviso de fusión en 0.
En la Etapa S103, es determinado sí el aviso de fusión es o no 1 (es decir, si el modo seleccionado de predicción es o no el modo de fusión) .
Cuando el resultado de la determinación en la Etapa S103 es verdadero (Si, S103) , la unidad de codificación de longitud variable 116 acopla el aviso de fusión con un flujo de bits en la Etapa S104. De manera subsiguiente, en la Etapa S105, la unidad de codificación de longitud variable 116 asigna las secuencias de bits de acuerdo con el tamaño , de la lista de candidato de bloque de fusión como se muestra en la Figura 5 a los índices de candidato de bloque de fusión de los candidatos de bloque de fusión que serán utilizados para la codificación. Entonces, la unidad de codificación de longitud variable 116 realiza la codificación de longitud variable en la secuencia asignada de bitio.
Por otro lado, cuando el resultado de la determinación en la Etapa S103 es falso (S103, No) , la unidad de codificación de longitud variable 116 acopla la información sobre un aviso de fusión y un modo de estimación de vector de movimiento con un flujo de bits en la Etapa S106.
En la Modalidad 1, un índice de candidato de bloque de fusión que tiene un valor de "0" es asignado al bloque vecino A como es mostrado en (a) en las Figuras 11A-11B. Un índice de candidato de bloque de fusión que tiene un valor de "1" es asignado al bloque vecino B. Un índice de candidato de bloque de fusión que tiene un valor de "2" es asignado al bloque de fusión co- localizado . Un índice de candidato de bloque de fusión que tiene un valor de "3" es asignado al bloque vecino C. Un índice de candidato de bloque de Ifusión que tiene un valor de "4" es asignado al bloque vecino D.
Debe observarse que los índices de candidato de bloque de fusión que tienen este valor podrían ser asignados de otro modo. Por ejemplo, cuando un nuevo candidato de bloque de fusión cero es agregado utilizando un método descrito más adelante, la unidad de codificación de longitud variable 116 podría asignar valores más pequeños a los candidatos preexistentes de bloque de fusión y un valor más grande al nuevo candidato de bloque de fusión cero. En otras palabras, la unidad de codificación de longitud variable 116 podría asignar un índice de candidato de bloque de fusión de un valor más pequeño a un candidato de bloque de fusión preexistente en prioridad para un nuevo candidato. '¦ Además, los candidatos de bloque de fusión no son limitados a los bloques en las posiciones del bloque vecinos A, B, C y D. Por ejemplo, un bloque vecino localizado por encima del bloque vecino izquierdo inferior D PUEDE ser utilizado como un candidato de bloque de fusión. Además, no es necesario utilizar todos los bloques vecinos como los candidatos de bloque de fusión. Por ejemplo, también es posible utilizar sólo los bloques vecinos A y B como los candidatos de bloque de fusión. ! Además, aunque la unidad de codificación de longitud variable 116 acopla un índice de candidato de bloque de fusión con un flujo de bits en la Etapa S105 en la Figura 10 en la Modalidad 1, no siempre es necesario el acoplamiento de este índice de candidato de bloque de fusión con un flujo de bits. Por ejemplo, la unidad de codificación de longitud variable 116 no necesita acoplar un índice de candidato de bloque de fusión con un flujo de bits cuando el tamaño de la lista de candidato de bloque de fusión es "1" . Con lo cual, es reducida la cantidad de información en el índice de candidato de bloque de fusión.
La Figura 12 es un diagrama de flujo que muestra los detalles del proceso en la Etapa S101 en la Figura 10. De manera específica, la Figura 12 ilustra un método de cálculo de los candidatos de bloque de fusión y el tamaño de una lista de candidato de bloque de fusión. La Figura 12 será descrita más adelante.
En la Etapa S 111, la unidad de cálculo de candidato de bloque de fusión 114 determina si un candidato de bloque de fusión [N] es o no un candidato utilizable-para- la-fusión utilizando un método descrito más adelante.
Aquí, N denota un valor de índice para la identificación de cada candidato de bloque de fusión. En la Modalidad 1, N toma valores de 0 a 4. De manera específica, el bloque vecino A en la Figura 3 es asignado a un candidato de bloque de fusión [0] . El bloque vecino B en la Figura 3 es asignado a un candidato de bloque de fusión [1] . El bloque de fusión co- localizado es asignado a un candidato de bloque de fusión [2] . El bloque vecino e en la Figura 3 es asignado a un candidato de bloque de fusión [3] . El bloque vecino D en la Figura 3 es asignado a un candidato de bloque de fusión [4] .
En la Etapa S112, la unidad de cálculo de candidato de bloque de fusión 114 obtiene el vector de movimiento, el índice de imagen de referencia, y la dirección de predicción del candidato de bloque de fusión [N] , y los agrega una; lista de candidato de bloque de fusión.
En la Etapa S113, la unidad de cálculo de candidato de bloque de fusión 114 busca la lista de candidato de bloque de fusión para un candidato inutilizable-para-la-fusión y un candidato idéntico, y elimina el candidato inutilizable-para-la-fusión y el candidato idéntico de la lista de candidato de bloque de fusión como se muestra en las Figuras 11-A11BJ En la Etapa S114, la unidad de cálculo de candidato de bloque de fusión 114 agrega un nuevo candidato de bloque de fusión cero a la lista de candidato de bloque de fusión utilizando un método descrito más adelante. Aquí, cuando es agregado un nuevo candidato de bloque de fusión cero, la unidad de cálculo de candidato de bloque de fusión 114 podría reasignar los índices de candidato de bloque de fusión, de modo que los índices de candidato de bloque de fusión de valores más pequeños son asignados a los candidatos preexistentes de bloque de fusión en prioridad al nuevo candidato. En otras palabras, la unidad de cálculo de candidato de bloque de fusión 114 podría reasignar los índices de candidato de bloque de fusión 50 de manera que un índice de candidato de bloque de fusión de un valor más grande es asignado al nuevo candidato de bloque de fusión cero. Con lo cual, es reducida cantidad de código de los índices de candidato de bloque de fusión.
En la Etapa S115, la unidad de cálculo de candidato de bloque de fusión 114 establece el número total de los candidatos de bloque de fusión después de la adición del candidato de bloque de fusión cero como el tamaño de la lista de candidato de bloque de fusión. En el ejemplo mostrado en la Figura 11, el número total de los candidatos de bloque de fusión calculado utilizando un método descrito más adelante es "5", y el tamaño de la lista de candidato de bloque de fusión es establecido en "5" .
El nuevo candidato de bloque de fusión cero en la Etapa S114 es un candidato recientemente agregado a los candidatos de bloque de fusión utilizando un método descrito más adelante cuando el número total de los candidatos de bloque de fusión es más pequeño que un número máximo de los candidatos de bloque de fusión. De este modo, cuando el número total de los candidatos de bloque de fusión es más pequeño que un número máximo del candidato de bloque de fusión, el aparato de codificación de imagen 100 agrega un nuevo candidato de bloque de fusión cero, de modo que puede ser incrementada la eficiencia de la codificación.
La Figura 13 es un diagrama de flujo que muestra los detalles del proceso en la Etapa Slll en la Figura 12. De manera específica, la Figura 13 ilustra un método de determinación de sí un candidato de bloque de fusión [N] es o no un candidato utilizable-para-la-fusión y que actualiza el número total de candidatos utilizables-para-la-fusión . La Figura 13 será descrita más adelante.
En la Etapa S121, la unidad de cálculo de candidato de bloque de fusión 114 determina si es verdadero o falso que (1) un candidato de bloque de fusión [N] haya sido codificado mediante la intra-predicción, (2) el candidato de bloque de fusión [N] es un bloque fuera del límite de una rebanada que incluye el bloque actual o el límite de una imagen que a su vez incluye el bloque actual, o (3) el candidato de bloque de fusión [N] todavía será codificado. ; Cuando el resultado de la determinación en la Etapa S121 es verdadero (S121, Si), la unidad de cálculo de candidato de bloque de fusión 114 establece el candidato de bloque de fusión [N] como un candidato inutilizable-para- la-fusión en la Etapa S122. Por otro lado, cuando el resultado de la determinación en la Etapa S121 es falso (S121, No), la unidad de cálculo de candidato de bloque de fusión 114 establece el candidato de bloque de fusión [N] como un candidato utilizable-para-la-fusión en la Etapa S123.
La Figura 14 es un diagrama de flujo que muestra los detalles del proceso en la Etapa S114 en la Figura 12. De manera específica, la Figura 14 ilustra un método de adición de un candidato de bloque de fusión cero. La Figura 14 será descrita más adelante. ! En la Etapa S131, la unidad de cálculo de candidato de bloque de fusión 114 determina si el número total de los candidatos de bloque de fusión es más pequeño o no que el número total de candidatos utilizables-para-la-fusión. En otras palabras, la unidad de cálculo de candidato de bloque de fusión 114 determina si el número total de los candidatos de bloque de fusión todavía se encuentra o no por debajo del número máximo de los candidatos de bloque de fusión.
Aquí, cuando el resultado de la determinación ' en la Etapa S131 es verdadero (S131, Si), en la Etapa S132, la unidad de cálculo de candidato de bloque de fusión 114 determina si existe o no un nuevo candidato de bloque de fusión cero que puede ser agregado como un candidato de bloque de fusión a la lista de candidato de bloque de fusión. Aquí, cuando el resultado de la determinación en la Etapa S132 es verdadero (S132, Si), en la Etapa S133, la unidad de I cálculo de candidato de bloque de fusión 114 asigna un índice de candidato de bloque de fusión que tiene un valor al' nuevo candidato de bloque de fusión cero y agrega el > nuevo candidato de bloque de fusión cero a la lista de candidato de bloque de fusión. Además, en la Etapa S134, la unidad de i cálculo de candidato de bloque de fusión 114 incrementa el número total de los candidatos de bloque de fusión en uno.
Por otro lado, cuando el resultado de la determinación en la Etapa S131 o en la Etapa S132 es t falso (S131 o S132, No), el proceso para la adición un candidato de bloque de fusión cero finaliza. De manera específica, cuando el número total de los candidatos de bloque de fusión ha alcanzado el número máximo de los candidatos de bloque de fusión, o cuando no existe el nuevo candidato de bloque de fusión cero, el proceso para la adición un nuevo candidato de bloque de fusión cero finaliza.
La Figura 15 es un diagrama de flujo que muestra los detalles del proceso en la Etapa S132 en la Figura 1'4. De manera específica, la Figura 15 ilustra un método de determinación de sí existe o no un candidato de bloque de fusión cero. La Figura 15 será descrita más adelante.
En la Etapa S141, la unidad de cálculo de candidato de bloque de fusión 114 actualiza el valor de un índice de imagen de referencia refldxLO que tiene la dirección de predicción 0 y el valor de un índice de imagen de referencia refldxLl que tiene la dirección de predicción 1 para uso en la generación de un candidato de bloque de fusión cero. Los índices de imagen de referencia son refldxLO y refldxLl cada uno tiene un valor inicial de "-1", y son incrementados en 11 + 1" cada vez que es realizado el proceso en la Etapa; S141. De manera específica, en primer lugar, la unidad de cálculo de candidato de bloque de fusión 114 agrega, como un candidato de bloque de fusión cero para una región fija, un candidato de bloque de fusión cero que tiene un vector de movimiento que es un vector de valor cero (vector cero) y un índice de imagen de referencia que tiene un valor de 0 ; a una lista de candidato de bloque de fusión. A continuación, la unidad de cálculo de candidato de bloque de fusión 114 agrega, a la lista de candidato de bloque de .fusión, un candidato de bloque de fusión cero que tiene un vector de movimiento que es un vector de valor cero y un índice de imagen de referencia que tiene un valor de 1.
En la Etapa S142, la unidad de cálculo de candidato de bloque de fusión 114 determina si es verdadero o falso que el valor actualizado del índice de imagen de referencia refldxLO que tiene la dirección de predicción 0 es más pequeño que un número máximo de las imágenes de referencia en la lista de imagen de referencia 0 para la dirección de predicción 0, y el valor actualizado del índice de imagen de referencia refldxLl que tiene la dirección de predicción 1 es más pequeño que un número máximo de las imágenes de referencia en la lista de imagen de referencia 1 para la dirección de predicción 1.
Entonces, cuando el resultado de la determinación en la Etapa S142 es verdadero (S142, Si), en la Etapa S143, la unidad de cálculo de candidato de bloque de fusión 114 asigna un vector de movimiento que es un vector de valor cero (0, 0) y el índice de imagen de referencia refldxLO a la dirección de predicción 0 del bloque de fusión cero. Además, en la Etapa S144, la unidad de cálculo de candidato dé bloque de fusión 144 asigna un vector de movimiento que es un vector de valor cero (0, 0) y el índice de imagen de referencia refldxLl a la dirección de predicción 1 del bloque de fusión cero.
De esta manera, la unidad de cálculo de candidato de bloque de fusión 114 calcula un bloque de fusión cero para la predicción bidireccional mediante los procesos en la , Etapa S143 y la Etapa S144. La Figura 16 muestra un ejemplo de un bloque calculado de fusión cero.
En la Etapa S145, la unidad de cálculo de candidato de bloque de fusión 114 determina si la lista de candidato de bloque de fusión ya incluye o no un candidato de bloque de fusión idéntico en el vector de movimiento, el índice de imagen de referencia, y la dirección de predicción al candidato calculado de bloque de fusión cero. En otras palabras, la unidad de cálculo de candidato de bloque de fusión 114 determina si el candidato calculado de bloque de fusión cero es o no un candidato idéntico.
Cuando el resultado de la determinación en Sl45 es falso (S145, No), en la Etapa S146, la unidad de cálculo de candidato de bloque de fusión 114 determina que existe un candidato de bloque de fusión cero.
Por otro lado, cuando el resultado de la determinación en la Etapa S142 es falso (S142, No) [ o el resultado de la determinación en la Etapa S145 es verdadero (S145, Si) , en la Etapa S147, la unidad de cálculo de candidato de bloque de fusión 114 determina que no existe el candidato de bloque de fusión cero.
De este modo, la unidad de cálculo de candidáto de bloque de fusión 114 calcula un candidato de bloque de fusión cero que tiene un vector de movimiento que es un vector de valor cero para cada imagen de referencia referible, y agrega el bloque calculado de fusión cero a una lista de candidato de bloque de fusión. De esta manera, el aparato de codificación de imagen 100 puede incrementar la eficiencia de la codificación en el modo de fusión especialmente cuando el bloque actual que será codificado es una región fija.
La Figura 17 es un diagrama de flujo que muestra los detalles del proceso en la Etapa S102 en la Figura 10. De manera específica, la Figura 17 ilustra un proceso para la selección de un candidato de bloque de fusión. La Figura 17 será descrita más adelante. : En la Etapa S151, la unidad de control de inter-predicción 111 establece un índice de candidato de bloque de fusión en 0, el error mínimo de predicción at él error de predicción (costo) en el modo de estimación de vector de movimiento, y un aviso de fusión at 0. Aquí, el costo es calculado utilizando la siguiente fórmula para un modelo de optimización R-D o, por ejemplo.
(Ecuación 1) j Costo = D + AR : En la ecuación 1, D denota la distorsión de codificación. Por ejemplo, D es la suma de las diferencias absolutas entre los valores originales de píxel del bloque actual que será codificado y los valores de píxel obtenidos mediante la codificación y decodificación del bloque actual utilizando una imagen de predicción generada que utiliza un vector de movimiento. R denota la cantidad de códigos generados. Por ejemplo, R es la cantidad de código necesaria para la decodificación de un vector de movimiento utilizado para la generación de una imagen de predicción. A denota un multiplicador indeterminado de Lagrange.
En la Etapa S152, la unidad de control de inter-predicción 111 determina si el valor de un índice de candidato de bloque de fusión es más pequeño o no que el número total de los candidatos de bloque de fusión de un bloque actual. En otras palabras, la unidad de control de inter-predicción 111 determina si todavía existe o no un candidato de bloque de fusión en el cual el proceso ¡ de la Etapa S153 a la Etapa S155 todavía no ha sido realizado.
Cuando el resultado de la determinación en la Etapa S152 es verdadero (SÍ52, Si), en la Etapa S153, la unidad de control de inter-predicción 111 calcula el costo para un candidato de bloque de fusión al cual es asignado un índice de candidato de bloque de fusión. Entonces, en la Etapa! S154, la unidad de control de inter-predicción 111 determina si el costo calculado para un candidato de bloque de fusión és más pequeño o no que el error mínimo de predicción.
Aquí, cuando el resultado de la determinación en la Etapa S154 es verdadero, (S154, Si), la unidad de control de inter-predicción 111 actualiza el error mínimo de predicción, el índice de candidato de bloque de fusión, y el valor del aviso de fusión en la Etapa S155. Por otro lado, cuando el resultado de la determinación en la Etapa S154 es falso (S154, No) , la unidad de control de inter-predicción 111 no actualiza el error mínimo de predicción, el índice de candidato de bloque de fusión, o el valor del aviso de fusión.
En la Etapa S156, la unidad de control de inter-predicción 111 incrementa el índice de candidato de bloque de fusión en uno, y se repiten en la Etapa S152 a la Etapa S156.
Por otro lado, cuando el resultado de la determinación en la Etapa S152 es falso (S152, No), es ,decir, no existe más el candidato no procesado de bloque de fusión, la unidad de control de inter-predicción 111 fijarnos valores finales del aviso de fusión y el índice de candidato de bloque de fusión en la Etapa S157. i De esta manera, el aparato de codificación de imagen 100 de acuerdo con la Modalidad 1 agrega, a una lista de candidato de bloque de fusión, un nuevo candidato de bloque de fusión que tiene un vector de movimiento y un índice de imagen de referencia para una región fija, de modo que; puede ser incrementada la eficiencia de la codificación. De manera más específica, el aparato de codificación de imagen 100 calcula, para cada imagen de referencia referible, un candidato de bloque de fusión que tiene un vector de movimiento que es un vector de valor cero, y nuevamente agrega el candidato calculado de bloque de fusión a una lista de candidato de bloque de fusión, de modo que puede ser eficientemente incrementada la codificación en el modo de fusión sobre todo cuando un bloque actual es una región fija.
Debe observarse que el ejemplo descrito en la Modalidad 1 en el cual un candidato de bloque de fusión que tiene un vector de movimiento que es un vector de valor cero es calculado como como un vector de movimiento para una región fija no es limitante. Por ejemplo, con la consideración de el agarre de cámara pequeña durante la toma de video, la unidad de cálculo de candidato de bloque de fusión 114 podría calcular un candidato de bloque de íusión que tiene, como un vector de movimiento, un vector predeterminado que tiene un valor ligeramente más grande o más pequeño que un valor de 0 (por ejemplo, un vector de movimiento (0, 1)) como un nuevo candidato en lugar de un candidato de bloque de fusión cero. En este caso, la unidad de codificación de longitud variable 116 podría agregar los parámetros de desplazamiento, por ejemplo, (OffsetX, OffsetY) a un i encabezado u otros de una secuencia, una imagen, o una rebanada. En este caso, la unidad de cálculo de candidato de bloque de fusión 114 calcula un candidato de bloque de fusión que' tiene un vector de movimiento (OffsetX, OffsetY) como un nuevo candidato .
Debe observarse que no es limitante el ejemplo descrito en la Modalidad 1 en el cual el aviso de fusión siempre es acoplado con un flujo de bits en el modo de fusión. Por ejemplo, el modo de fusión podría ser seleccionado de manera forzada en función de la forma del bloque para uso en la inter-predicción de un bloque actual. En este caso, es posible reducir la cantidad de información al no acoplar el aviso de fusión con un flujo de bits.
Debe observarse que no es limitante el ejemplo descrito en la Modalidad 1 en donde es utilizado el modo de fusión en el cual un bloque actual es codificado utilizando una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia copiado de un bloque ¡vecino del bloque actual. Por ejemplo, un modo de fusión de salto podría ser utilizado. En el modo de fusión de salto, un bloque actual es codificado en el mismo modo que en el modo de fusión, utilizando una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia copiado de un bloque vecino del bloque actual con referencia a una lista de candidato de bloque de fusión creará como es mostrado en (b) en la Figura 11. Cuando todos los errores resultantes de predicción son cero para el bloque actual, un aviso de salto establecido en 1 y el aviso de salto y un índice de candidato de bloque de fusión son acoplados con un flujo de. bits. Cuando cualquiera de los errores resultantes de predicción es diferente de cero, un aviso de salto es establecido en 0 y el aviso de salto, un aviso de fusión, un índice de candidato de bloque de fusión, y los errores de predicción son acoplados con un flujo de bits.
Debe observarse que el ejemplo descrito en la Modalidad 1 en donde es utilizado el modo de fusión en el cual un bloque actual es codificado utilizando una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia copiado de un bloque vecino del bloque actual no es limitante. Por ejemplo, un vector de movimiento' en el modo de estimación de vector de movimiento podría ser codificado utilizando una lista de candidato de bloque de fusión creada como es mostrado en (b) en la Figura ll. De manera específica, la diferencia es calculada mediante la substracción de un vector de movimiento de un candidato de bloque de fusión indicado por un índice de candidato de bloque de fusión de un vector de movimiento en el modo de estimación de vector de movimiento. Además, la diferencia calculada y el índice de candidato de bloque de fusión podrían acoplarse con un flujo de bits.
De manera opcional, una diferencia podría calcularse mediante la escala de un vector de movimiento MV_Merge de un candidato de bloque de fusión utilizando un índice de imagen de referencia RefIdx_ME en el modo de estimación de movimiento y un índice de imagen de referencia RefIdxJMerge del candidato de bloque de fusión y sustrayendo un vector de movimiento scaledMV_Merge del candidato de bloque de fusión después de la escala del vector de movimiento en el modo de estimación de movimiento. Entonces, la diferencia calculada y el índice de candidato de bloque de fusión podrían acoplarse con un flujo de bits. La siguiente es una fórmula de ejemplo para la escala.
(Ecuación 2) scaledMV_Merge = MV_Mergex (POC (RefIdx_ME) curPOC)/(POC (RefIdx_Merge) - curPOC) Aquí, POC (RefIdx_ME) denota el orden de visualización de una imagen de referencia indicada por un índice de imagen de referencia RefIdx_ME. POC (RefIdx_Merge) denota el orden de visualización de una imagen de referencia indicada por un índice de imagen de referencia RefIdx_Merge . curPOC denota el orden de visualización de una imagen actual que será codificada.
Debe observarse que el ejemplo descrito en la Modalidad 1 en el cual un candidato de bloque de fusión cero para la predicción bidireccional es generado a partir , de un vector de movimiento que es un vector de valor cero, un índice de imagen de referencia que tiene una dirección de predicción 0, y un índice de imagen de referencia que, tiene una dirección de predicción 1 no es limitante. Por ejemplo, la unidad de cálculo de candidato de bloque de fusión 114 podría generar un candidato de bloque de fusión cero que tiene una dirección de predicción 0 utilizando un vector de movimiento que es un vector de valor cero y un índice de imagen de referencia que tiene una dirección de predicción 0, y podría agregar el candidato de bloque de fusión cero a una lista de candidato de bloque de fusión. Además, en forma similar, la unidad de cálculo de candidato de bloque de fusión 114 podría generar un candidato de bloque de fusión cero que tiene una dirección de predicción 1 utilizando un vector de movimiento que es un vector de valor cero y un índice de imagen de referencia que tiene una dirección de predicción 1, y podría agregar el candidato de bloque de fusión cero a una lista de candidato de bloque de fusión..
Debe observarse que no es limitante el ejemplo descrito en la Modalidad 1 en el cual los candidatos cero de bloque de fusión son generados utilizando un índice de imagen de referencia que tiene un valor inicial de 0 e incrementado en "+1" . Por ejemplo, la unidad de cálculo de candidato de bloque de fusión 114 podría generar los candidatos cero de bloque de fusión en orden de los índices de imagen de referencia asignados a las imágenes de referencia comenzando a partir de un índice de imagen de referencia asignado a la imagen de referencia más cercana a una imagen actual para un índice de imagen de referencia asignado a la más lejana' en el orden de visualización . ¡ Modalidad 2 Aunque la unidad de cálculo de candidato de bloque de fusión 114 determina en la Etapa S145 en la Figura 15 si un candidato de bloque de fusión cero es o no un candidato idéntico en la Modalidad 1, esta determinación no siempre es necesaria. Por ejemplo, la determinación en la Etapa S145 podría ser omitida. Esto reduce la complejidad computacional en la derivación de una lista de candidato de bloque de fusión para el aparato de codificación de imagen 100.
Además, debe observarse que no es limitante la Modalidad 1 en la cual los candidatos cero de bloque de fusión son agregados a una lista de candidato de bloque de fusión hasta que el número total de los candidatos de bloque de fusión alcanza un número máximo de los candidatos de bloque de fusión. Por ejemplo, la unidad de cálculo de candidato de bloque de fusión 114 podría determinar en S131 en la Figura 14 si el número total de los candidatos de bloque de fusión ha sido alcanzado o no un valor predeterminado que umbral el cual es más pequeño que un número máximo de los candidatos de bloque de fusión. Esto ; i reduce la complejidad computacional en la derivación de una lista de candidato de bloque de fusión para el aparato de codificación de imagen 100.
Además, debe observarse que no es limitante la Modalidad 1 en la cual la adición de un candidato de bloque de fusión cero a una lista de candidato de bloque de fusión es finalizada cuando el número total de los candidatos de bloque de fusión alcanza un número máximo de los candidatos de bloque de fusión. Por ejemplo, la determinación en la Etapa S131 en la Figura 14 en cuanto a si el número total de los candidatos de bloque de fusión ha alcanzado o no el número máximo de los candidatos de bloque de fusión podría ser omitida, y la unidad de cálculo de candidato de bloque de fusión 114 podría agregar todos los nuevos candidatos cero de bloque de fusión a la lista de candidato de bloque de fusión hasta que no exista más el nuevo candidato de bloque de fusión cero. Esto ensancha el intervalo de candidatos opcionales de bloque de fusión para el aparato de codificación de imagen 100, de modo que puede ser incrementada la eficiencia de la codificación.
Esta modificación del aparato de codificación de imagen de acuerdo con la Modalidad 1 será descrita, de manera específica, más adelante como un aparato de codificación de imagen de acuerdo con la Modalidad 2.
La Figura 18 es un diagrama de bloque que muestra una configuración de un aparato de codificación de imagen 200 de acuerdo con la Modalidad 2. El aparato de codificación de imagen 200 codifica una imagen en una base de bloque-por-bloque para generar un flujo de bits. El aparato de codificación de imagen 200 incluye una unidad de derivación de candidato de fusión 210, una unidad de control de predicción 220, y una unidad de codificación 230.
La unidad de derivación de candidato de fusión 210 corresponde con la unidad de cálculo de candidato de bloque de fusión 114 en la Modalidad 1. La unidad de derivación de candidato de fusión 210 deriva los candidatos de fusión. La unidad de derivación de candidato de fusión 210 genera una lista de candidato de fusión en la cual, por ejemplo, los índices, cada uno identificando un diferente candidato derivado de fusión (de aquí en adelante, es referido como los índices de candidato de fusión) son asociados con los respectivos candidatos derivados de fusión.
Los candidatos de fusión son candidatos, cada uno es una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia para uso en la codificación de un bloque actual. De manera específica, i cada uno de los candidatos de fusión es una combinación que incluye al menos un conjunto de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia.
Los candidatos de fusión corresponden con los candidatos de bloque, de fusión en la Modalidad 1. La lista de candidato de fusión es la misma que la lista de candidato de bloque de fusión. ' Como se muestra en la Figura 18, la unidad de derivación de candidato de fusión 210 incluye una primera unidad de derivación 211 y una segunda unidad de derivación i 212.
La primera unidad de derivación 211 deriva los primeros candidatos de fusión en función, por ejemplo, de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia que han sido utilizados para la codificación de un bloque que rodea, espacial o temporalmente, el bloque actual. Entonces, por ejemplo, la primera unidad de ; derivación 211 registra los primeros candidatos de fusión derivados de este modo en la lista de candidato de fusión en asociación con los respectivos índices de candidato de fusión.
El bloque éspacialmente vecino es un bloque que se encuentra dentro de una imagen que incluye el bloque actual y los vecinos al bloque actual. De manera específica, los bloques vecinos A-D mostrados en la Figura 3 son ejemplos del bloque éspacialmente vecino.
El bloque temporalmente vecino es un bloque que se encuentra dentro de una imagen diferente de una imagen que incluye el bloque actual y corresponde con el bloque actual. De manera específica, un bloque co-localizado es un ejemplo del bloque temporalmente vecino. i Debe observarse que el bloque temporalmente vecino no necesita ser un bloque localizado en la misma posición as el bloque actual (bloque co-localizado) . Por ejemplo, el bloque temporalmente vecino podría ser un bloque que rodea el bloque co-localizado.
Debe observarse que la primera unidad de derivación 211 podría derivar, como un primer candidato de fusión, una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia que han sido utilizados para la codificación de los bloques que rodean espacialmente el bloque actual excepto los bloques inutilizables-para-la-fusión. Un bloque inutilizable-para-la-fusión es un bloque codificado mediante la intra-predicción, un bloque fuera del límite de una rebanada que incluye el bloque actual o el límite de una imagen que incluye el bloque actual, o un bloque que todavía será codificado. Con esta configuración, la primera unidad de derivación 211 j puede derivar los primeros candidatos de fusión de los bloques adecuados para la obtención de los candidatos de fusión.¦ La segunda unidad de derivación 212 deriva, como un segundo candidato de fusión, un candidato de fusión que tiene un vector de movimiento que es un vector predeterminado. De manera específica, por ejemplo, la segunda unidad de derivación 212 deriva un segundo candidato de fusión para cada imagen de referencia referible. De este modo, el aparato de codificación de imagen 200 puede incrementar la variedad de candidatos de fusión, y con lo cual, incrementa adicionalmente la eficiencia de la codificación.
Debe observarse que la segunda unidad de derivación 212 no necesita derivar un segundo candidato de fusión para cada imagen de referencia referible. Por ejemplo, la segunda unidad de derivación 212 podría derivar los segundos candidatos de fusión para un número predeterminado de las imágenes de referencia.
El vector predeterminado podría ser un vector cero como se describe en la Modalidad 1. Con esto, la segunda unidad de derivación 212 puede derivar un candidato de fusión que tiene un vector de movimiento para una región fija. De esta manera, el aparato de codificación de imagen 200 puede conseguir un incremento adicional de la eficiencia de la codificación cuando el bloque actual que será codificado es una región fija. Debe observarse que el vector predeterminado no necesita ser un vector cero.
Entonces, por ejemplo, la segunda unidad de derivación 212 registra los segundos candidatos de fusión derivados de este modo en la lista de candidato de fusión cada uno en asociación con un diferente índice de candidato de fusión. En este momento, la segunda unidad de derivación 212 podría registrar los segundos candidatos de fusión en la lista de candidato de fusión, de modo que los índices de candidato de fusión asignados a los primeros candidatos de fusión son más pequeños que los índices de candidato de fusión asignados a los segundos candidatos de fusión as ; en la Modalidad 1. Con esto, el aparato de codificación de imagen 200 puede reducir la cantidad de código cuando los primeros candidatos de fusión es más probable que sean seleccionados como el candidato de fusión que será utilizado para la codificación que un segundo candidato de fusión de modo que la eficiencia de la codificación puede ser incrementado!.
La unidad de control de predicción 220 selecciona el candidato de fusión que será utilizado para la codificación ; _ ; i de un bloque actual a partir de los primeros candidatos derivados de fusión y los segundos candidatos de; fusión. En otras palabras, la unidad de control de predicción 220 i j selecciona el candidato de fusión que será utilizado para la codificación de un bloque actual de la lista de candidato de fusión.
La unidad de codificación 230 acopla un índice para la identificación del candidato seleccionado de ¦ fusión (el índice candidato de fusión) con un flujo de bits. Por ejemplo, la unidad de codificación 230 codifica un índice de candidato de fusión utilizando la suma del número total de los primeros candidatos derivados de fusión y el númeroj total de los segundos candidatos derivados de fusión ' (el número total de candidatos de fusión) , y acopla el índice codificado de candidato de fusión con un flujo de bits.
A continuación, las operaciones del aparato de codificación de imagen 200 en la configuración descrita con anterioridad serán descritas más adelante.
La Figura 19 es un diagrama de flujo que muestra las operaciones de procesamiento del aparato de codificación de ¡ 1 i imagen 200 de acuerdo con la Modalidad 2.
En primer lugar, la primera unidad de derivación 211 deriva un primer candidato de fusión (S201) . De manera subsiguiente, la segunda unidad de derivación 212 deriva un segundo candidato de fusión (S202) .
A continuación, la unidad de control de predicción 220 selecciona el candidato de fusión que será utilizado para la codificación de un bloque actual a partir de los primeros candidatos de fusión y los segundos candidatos de fusión (S203) . Por ejemplo, la unidad de control de predicción 220 selecciona un candidato de fusión para el cual el costo representado por la ecuación 1 es un mínimo de la lista de candidato de fusión as en la Modalidad 1.
Finalmente, la unidad de codificación 230 acopla un índice codificado para la identificación del candidato seleccionado de fusión con un flujo de bits (S204) . ; De este modo, el aparato de codificación de imagen 200 de acuerdo con la Modalidad 2 puede derivar, cómo un segundo candidato de fusión, un candidato de fusión que: tiene un vector de movimiento que es un vector predeterminado. Por lo tanto, es posible que el aparato de codificación de imagen 200 derive un candidato de fusión que tiene un vector de movimiento y otros para una región fija como un segundo candidato de fusión, por ejemplo. En otras palabras, es posible que el aparato de codificación de imagen 200 codifique, de manera eficiente, un bloque actual que tiene un movimiento predeterminado, de modo que puede ser incrementada la eficiencia de la codificación.
Modalidad 3 La Figura 20 es un diagrama de bloque que muestra una configuración de un aparato de decodificación de imagen 300 de acuerdo con la Modalidad 3. El aparato de decodifi ación de imagen 300 es un aparato que corresponde con el aparato de codificación de imagen 200 de acuerdo con la Modalidad 1. De manera específica, por ejemplo, el aparato de decodificación de imagen 300 decodifica, en una base de bloque-por-bloque, las imágenes codificadas incluidas en un flujo de bits generado por el aparato de codificación de imagen 100 de acuerdo con la Modalidad 1.
Como se muestra en la Figura 20, el aparato de decodificación de imagen 300 incluye una unidad de decodificación de longitud variable 301, una unidad de i cuantificación inversa 302, una unidad de transformación ortogonal inversa 303, un sumador 304, una memoria de bloque 305, una memoria de cuadro 306, una unidad de intra-predicción 307, una unidad de inter-prediccióri 30&, una unidad de control de inter-predicción 309, un interruptor 310, una unidad de cálculo de candidato de bloque de fusión 311 y una memoria colPic 312.
La unidad de decodificación de longitud variable 301 genera una información de tipo de imagen, un aviso de fusión. y un coeficiente cuantificado al realizar la decodificación de longitud variable en un flujo de bits de entrada. Además, la unidad de decodificación de longitud variable 301 realiza la decodificación de longitud variable en un índice de candidato de bloque de fusión utilizando el número total de los candidatos de bloque de fusión calculado por la unidad de cálculo de candidato de bloque de fusión 311.
La unidad de cuantificación inversa 302 cuantifica el coeficiente cuantificado inverso obtenido mediante la decodificación de longitud variable.
La unidad de transformación ortogonal inversa 303 genera los datos de error de predicción al transformar un coeficiente de transformación ortogonal obtenido p r la cuantificación inversa de un dominio de frecuencia a un dominio de imagen.
La memoria de bloque 305 almacena, en unidadesj de un bloque, los datos decodificados de imagen generados mediante la adición de los datos de error de predicción y los datos de imagen de predicción.
La memoria, de cuadro 306 almacena los i datos decodificados de imagen en unidades de un cuadro. ¡ La unidad de intra-predicción 307 genera los datos de imagen de predicción del bloque actual que será decodificado, al realizar la intra-predicción utilizando los datos decodificados de imagen almacenados en la memoria de bloque 305 en unidades de un bloque.
La unidad de inter-predicción 308 genera los datos de imagen de predicción del bloque actual que será decodificado, al realizar la inter-predicción utilizando los datos decodificados de imagen almacenados en la memoria de cuadro 306 en unidades de un cuadro. ; Cuando un bloque actual es decodificado mediante la í decodificación de intra-predicción, el interruptor 310 da salida a los datos de imagen de intra-predicción generados por la unidad de intra-predicción 307 como los datos de imagen de predicción del bloque actual hacia el sumador 304. Por otro lado, cuando un bloque actual es decodificado mediante la decodificación de inter-predicción, el interruptor 310 da salida a los datos de imagen de inter-predicción generados por la unidad de inter-predicción 308 como los datos de imagen de predicción del bloque actual hacia el sumador 304: ; La unidad de cálculo de candidato de bloque de fusión 311 deriva los candidatos de bloque de fusión de los vectores de movimiento y otros de los bloques vecinos del bloque actual y un vector de movimiento y otros de un bloque co-localizado (la información colPic) almacenado en la memoria colPic 312. Además, la unidad de cálculo de candidato de bloque de fusión 311 agrega el candidato derivado de bloque de fusión a una lista de candidato de bloque de fusión .
Además, la unidad de cálculo de candidato de bloque de fusión 311 deriva, como un candidato de bloque de fusión cero, un candidato de bloque de fusión que tiene una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia para una región fija utilizando un método descrito más adelante. Entonces, la unidad de cálculo de candidato de bloque de fusión 311 agrega el candidato derivado de bloque de fusión cero como un nuevo candidato de bloque de fusión a la lista de candidato de bloque de fusión. Además, la unidad de cálculo de candidato de bloque de ¡fusión 311 calcula el número total de los candidatos dé bloque de fusión .
Además, la unidad de cálculo de candidato de bloque de fusión 311 asigna los índices de candidato dé bloque de fusión cada uno tiene un valor diferente a los candidatos derivados de bloque de fusión. Entonces, la unidad de cálculo de candidato de bloque de fusión 311 transmite los candidatos de bloque de fusión y los cuales los índices de candidato de bloque de fusión han sido asignados a la unidad de control de inter-predicción 309. Además, la unidad de cálculo de candidato de bloque de fusión 311 transmite el número total derivado de los candidatos de bloque de fusión a la unidad de decodificación de longitud variable 301.
La unidad de control de inter-predicción 309 provoca que la unidad de inter-predicción 308 genere una imagen de inter-predicción utilizando la información sobre el modo de estimación de vector de movimiento cuando el aviso de fusión decodificado es "0". Por otro lado, cuando el aviso de fusión es "1", la unidad de control de inter-predicción 309 determina, en función de un índice decodificado de candidato de bloque de fusión, un vector de movimiento, un índice de imagen de referencia, y una dirección de predicción para uso en la inter-predicción a partir de una pluralidad de los candidatos de bloque de fusión. Entonces, la unidad de control de inter-predicción 309 provoca que la unidad de inter-predicción 308 genere una imagen de inter-predicción utilizando el vector determinado de movimiento, el índice de imagen de referencia, y la dirección de predicción. Además, la unidad de control de inter-predicción 309 transfiere la información colPic que incluye el vector de movimiento del bloque actual a la memoria colPic 312. i Finalmente, el sumador 304 genera los datos decodificados de imagen al agregar los datos de imagen de predicción y los datos de error de predicción. \ La Figura 21 es un diagrama de flujo que muestra las operaciones de procesamiento del aparato de decodificación de imagen 300 de acuerdó con la Modalidad 3. [ En la Etapa S301, la unidad de decodificación de longitud variable 301 decodifica un aviso de fusión. i En la Etapa S702, cuando el aviso de fusión es "1" (S302, Si), en la Etapa S303, la unidad de cálculo de candidato de bloque de fusión 311 genera un candidato de bloque de fusión en el mismo modo que en la Etapa S101; en la Figura 10. Además, la unidad de cálculo de candidato de bloque de fusión 311 calcula el número total de los candidatos de bloque de fusión as el tamaño de una lista de candidato de bloque de fusión.
En la Etapa S304, la unidad de decodificación de longitud variable 301 realiza la decodificación de longitud variable en un índice de candidato de bloque de fusión de un flujo de bits utilizando el tamaño de la lista de candidato de bloque de fusión.
En la Etapa S305, la unidad de control de anter-predicción 309 provoca que la unidad de inter-predicción 308 genere una imagen de inter-predicción utilizando el vecjtor de movimiento, el índice de imagen de referencia, y la dirección de predicción del candidato de bloque de fusión indicada por el índice decodificado de candidato de bloque de fusión.' Cuando el aviso de fusión es "0" en la Etapa S302 (S302, No), en la Etapa S306, la unidad de inter-predicción 308 genera una imagen de inter-predicción utilizando la información sobre el modo de estimación de vector de movimiento decodificado por la unidad de decodificación de longitud variable 301.
De manera opcional, cuando el tamaño de una lista de candidato de bloque , de fusión calculado en la Etapa S303 es "1", un índice de candidato de bloque de fusión podría estimarse que será "0" sin que esté siendo decodificado .
De este modo, el aparato de codificación de imagen 300 de acuerdo con la Modalidad 3 agrega, a una lista de candidato de bloque de fusión, un nuevo candidato de bloque de fusión que tiene un vector de movimiento y un índice de imagen de referencia para una región fija. De este modo, el aparato de decodificación de imagen 300 puede decodificar, de manera adecuada, un flujo de bits codificado con un incremento en la eficiencia de la codificación. De manera más específica, un flujo de bits codificado en el modo de fusión con un incremento en la eficiencia puede ser decodificado, de manera adecuada utilizando una lista de candidato de bloque de fusión en la cual un nuevo candidato de bloque de fusión que es calculado para cada imagen de referencia referible y tiene un vector de movimiento que es un vector de valor cero son agregados, sobre todo en el caso en donde un bloque actual es una región fija.
Modalidad 4 Aunque el aparato de decodificación de imagen de acuerdo con la Modalidad 3 incluye los elementos constituyentes como se muestra en la Figura 20, el aparato de decodificación de imagen no necesita incluir todos los i elementos constituyentes. Esta modificación del aparato de decodificación de imagen de acuerdo con la Modalidad 3 será descrita, de manera específica, más adelante como un aparato de decodificación de imagen de acuerdo con la Modalidad 4.
La Figura 22 es un diagrama de bloque que muestra una configuración de un aparato de decodificación de imagen i 400 de acuerdo con la Modalidad 4. El aparato de decodificación de imagen 400 es un aparato que corresponde con el aparato de codificación de imagen 200 de acuerdo con la Modalidad 2. Por ejemplo, el aparato de decodificación de imagen 400 decodifica, en una base de bloque-por-bloque , las imágenes codificadas incluidas en un flujo de bits que son generadas por el aparato de codificación de imagen 200 de acuerdo con la Modalidad 2.
Como se muestra en la Figura 22, el aparato de decodificación de imagen 400 incluye una unidad de derivación de candidato de fusión 410, una unidad de decodificación 420 y una unidad de control de predicción 430.
La unidad de derivación de candidato de fusión 410 corresponde con la unidad de cálculo de candidato de bloque de fusión 311 en la Modalidad 3. La unidad de derivación de candidato de fusión 410 deriva- los candidatos de fusión. La unidad de derivación de candidato de fusión 410 genera una lista de candidato de fusión en la cual, por ejemplo, los índices, cada uno identificando un diferente candidato derivado de fusión (los índices de candidato de fusión) son asociados con los respectivos candidatos derivados de fusión.
Como se muestra en la Figura 22, la unidad de derivación de candidato de fusión 410 incluye una primera unidad de derivación 411 y una segunda unidad de derivación 412.
La primera unidad de derivación 411 deriva los primeros candidatos de fusión en el mismo modo que la primera unidad de derivación 211 en la Modalidad 2. De manera específica, la primera unidad de derivación 411 deriva los primeros candidatos de fusión en función, por ejemplo, de una dirección de predicción, un vector de movimiento y un ndice de imagen de referencia que han sido utilizados para la i decodificación de un bloque que rodea, espacial o temporalmente, el bloque actual que será decodificado . Entonces, por ejemplo, la primera unidad de derivación 411 registra los primeros candidatos de fusión derivados de este modo en la lista de candidato de fusión en asociación con los respectivos índices de candidato de fusión.
La segunda unidad de derivación 412 deriva, cómo un segundo candidato de fusión, un candidato de fusión que tiene un vector de movimiento que es un vector predeterminado. De manera específica, la segunda unidad de derivación 412 deriva un segundo candidato de fusión en el mismo modo que la segunda unidad de derivación 212 en la Modalidad 2. Entonces, por ejemplo, la segunda unidad de derivación 412 registra los segundos candidatos de fusión derivados de este modo en la lista de candidato de fusión cada uno en asociación con un diferente índice de candidato de fusión.
De manera más específica, por ejemplo, la segunda unidad de derivación 412 deriva un segundo candidato de fusión para cada imagen de referencia referible. Con lo cual, es incrementada variedad de candidatos de fusión, de modo que un flujo de bits codificado con el incremento adicional; de la eficiencia de la codificación puede ser decodificado, de manera adecuada.
El vector predeterminado podría ser un Vector cero como se describe en la Modalidad 1. La segunda unidad de derivación 214 de esta manera, se puede derivar un candidato de fusión que tiene un vector de movimiento para una región fija. Con esto, el aparato de decodificación de imagen 400 puede decodificar, de manera adecuada, un flujo de bits codificado con un incremento en la eficiencia de la codificación.
La unidad de decodificación 420 obtiene un 'índice para la identificación de un candidato de fusión de un; flujo de bits. Por ejemplo, la unidad de decodificación 420 obtiene un índice de candidato de fusión mediante la decodificación de un índice codificado de candidato de fusión acoplado con un flujo de bits utilizando la suma del número total de los primeros candidatos derivados de fusión y el número total de los segundos candidatos derivados de fusión (el número total de candidatos de fusión) .
La unidad de control de predicción 430 selecciona, en función del índice obtenido, el candidato de fusión que será utilizado para la decodificación de un bloque actual a partir de los primeros candidatos derivados de fusión y los segundos candidatos de fusión. En otras palabras, la unidad de control de predicción 430 selecciona el candidato de fusión que será utilizado para la decodificación de un bloque i actual de la lista de candidato de fusión.
A continuación, serán explicadas más adelante las operaciones del aparato de decodificación de imagen 400 en la configuración descrita con anterioridad.
La Figura 23 es un diagrama de flujo que muestra las operaciones de procesamiento del aparato de decodificación de imagen 400 de acuerdo con la Modalidad 4. ' : En primer lugar, la primera unidad de derivación 411 deriva un primer candidato de fusión (S401) . De manera subsiguiente, la segunda unidad de derivación 412 deriva un segundo candidato de fusión (S402) . Entonces, la unidad de decodificación 420 obtiene un índice de candidato de fusión de un flujo de bits (S403) . i Finalmente, la unidad de control de predicción 430 selecciona, en función del índice obtenido, el candidato de fusión que será utilizado para la decodificación de un bloque actual a partir de los primeros candidatos de fusión y los segundos candidatos de fusión (S404) .
De este modo, el aparato de decodificación de imagen 400 de acuerdo con la Modalidad 4 puede derivar, como un segundo candidato de fusión, un candidato de fusión que tiene un vector de movimiento que es un vector predeterminado. Por lo tanto, es posible que el aparato de decodificación de imagen 400 derive u candidato de fusión que tiene un ector de movimiento y otros para una región fija como un segundo candidato de fusión, por ejemplo. En otras palabras, es posible que el aparato de decodificación de imagen 400 para decodificar, de manera eficiente, un bloque actual que tiene un movimiento predeterminado, y con lo cual, se decodifica, de manera adecuada, un flujo de bits codificado con un incremento en la eficiencia de la codificación. ¡ Modalidad 5 ' Los candidatos de fusión corresponden coh los candidatos de bloque de fusión en la Modalidad 1. El método de derivación del tamaño de una lista de candidato de bloque de fusión de acuerdo con la Modalidad 5 será descrito más adelante en detalle.
En el modo de fusión de acuerdo con la Modalidad 1, el número total de ;los candidatos de bloque de fusión es establecido como el tamaño de una lista de candidato de bloque de fusión para uso en la codificación o decodificación de un índice de candidato de bloque de fusión. El 'número total de los candidatos de bloque de fusión es determinado después que los candidatos inutilizables-para-la-fusión o los candidatos idénticos son eliminados en función de la información sobre las imágenes de referencia que incluyen un I bloque co-localizado .
Por lo tanto, la discrepancia en la secuencia de bits asignada a un índice de candidato de bloque de fusión es provocada entre un aparato de codificación de imagen y un aparato de decodificación de imagen en el caso en donde exista una diferencia en el número total de los candidatos de bloque de fusión entre el aparato de codificación de imagen y el aparato de decodificacion de imagen. Como resultado, el aparato de decodificación de imagen no puede decodificar un flujo de bits de manera correcta.
Por ejemplo, cuando es perdida la información sobre una imagen de referencia referida como un bloque colocalizado debido al paquete 1055 en una vía de transmisión, el vector de movimiento o el índice de imagen de referencia del bloque co-localizado se vuelven desconocidos. En consecuencia, la información sobre un candidato de bloque de fusión que será generada partir del bloque co-localizádo se vuelve desconocida. En este caso, ya no es posible eliminar en forma correcta los candidatos inutilizables-para-la-fusión o los candidatos idénticos de los candidatos de bloque de fusión en la decodificación. Como resultado, el aparato de decodificación de imagen falla en obtener el tamaño correcto de una lista de candidato de bloque de fusión, y por lo tanto, es imposible decodificar normalmente un índice de candidato de bloque de fusión. j De esta manera, el aparato de codificación de imagen de acuerdo con la Modalidad 5 es capaz de calcular el tamaño de una lista de candidato de bloque de fusión para uso en la codificación o decodificación de un índice de candidato de bloque de fusión, utilizando un método independiente de la información en las imágenes de referencia que incluye un bloque co-localizado . Con lo cual, el aparato de codificación de imagen consigue una resistencia mejorada de error.
La Figura 24 es un diagrama de bloque que muestra una configuración de un aparato de codificación de imagen 500 de acuerdo con la Modalidad 5. Para la Figura 24, los elementos constituyentes en común con la Figura 9 son de notados con los mismos signos de referencia, y la descripción de los mismos es omitida.
Como se muestra en la Figura 24, el aparato de codificación de imagen 500 incluye un sustractor 101, una unidad de transformación ortogonal 102, una unidad de cuantificación 103, una unidad de cuantificación inversa 104, una unidad de transformación ortogonal inversa 105, un sumador 106, una memoria de bloque 107, una memoria de cuadro 108, una unidad de intra-predicción 109, una unidad de inter-predicción 110, una unidad de control de inter-predicción 111, una unidad de determinación de tipo de imagen 112, un interruptor 113, una unidad de cálculo de candidato de bloque de fusión 514, una memoria colPic 115 y una unidad de codificación de longitud variable 516. i La unidad de cálculo de candidato de bloque de fusión 514 deriva los candidatos de bloque de fusión para el modo de fusión utilizando los vectores de movimiento y otros de los bloques vecinos del bloque actual y un vector de movimiento y otros del bloque co-localizado (la información colPic) almacenada en la memoria colPic 115. Entonces, la unidad de cálculo de candidato de bloque de fusión 514 calcula el número total de candidatos utilizables-para-la-fusión utilizando un método descrito más adelante.
Además, la unidad de cálculo de candidato de bloque de fusión 514 asigna los índices de candidato de bloque de fusión cada uno tiene un valor diferente a los candidatos derivados de bloque de fusión. Entonces, la unidad de cálculo de candidato de bloque de fusión 514 transmite los candidatos de bloque de fusión y los índices de candidato de bloque de fusión a la unidad de control de inter-predicción 111. Además, la unidad de cálculo de candidato de bloque de fusión 514 transmite el número total derivado de candidatos utilizables-para-la-fusión a la unidad de codificación de longitud variable 116.
La unidad de codificación de longitud variable 516 genera un flujo de bits al realizar la codificación de longitud variable en los datos cuantificados de error de predicción, el aviso de fusión y la información de tipo de imagen. La unidad de codificación de longitud variable 516 también establece el número total de candidatos utilizables- i para-la-fusión como el tamaño de la lista de candidato de bloque de fusión. Además, la unidad de codificación de longitud variable 516 realiza la codificación de longitud variable en un índice de candidato de bloque de fusión que será utilizado para la codificación, al asignar, de acuerdo con el tamaño de la lista de candidato de bloque de fusión, una secuencia de bits al índice de candidato de bloque de fusión.
La Figura 25 es un diagrama de flujo que muestra las operaciones de procesamiento del aparato de codificación de imagen 500 de acuerdo con la Modalidad 5. Para la Figura 25, las etapas en común con la Figura 10 son derrotadas con los mismos signos de referencia, y la descripción de las mismas es omitida según se ha adecuado.
En la Etapa S501, la unidad de cálculo de candidato de bloque de fusión 514 deriva los candidatos de bloque de fusión de los bloques vecinos y un bloque co-localizado de un bloque actual. Además, la unidad de cálculo de candidato de bloque de fusión 514 calcula el tamaño de una lista de candidato de bloque de fusión utilizando un método descrito más adelante.
Por ejemplo, en el caso mostrado en la Figura 3, la unidad de cálculo de candidato de bloque de fusión 514 selecciona los bloques vecinos A-D COMO los candidatos de bloque de fusión. Además, la unidad de cálculo de candidato de bloque de fusión 514 calcula, como un candidato de bloque de fusión, un bloque de fusión co-localizado que tiene un vector de movimiento y otros que se calculan a partir del vector de movimiento de un bloque co-localizado utilizando el modo de predicción de tiempo.
La unidad de cálculo de candidato de bloque de fusión 514 asigna los índices de candidato de bloque de fusión a los respectivos candidatos de bloque de fusión como es mostrado en la Figura 26A. A continuación, la unidad de cálculo de candidato de bloque de fusión 514 calcula una lista de candidato de bloque de fusión como es mostrado1 en la Figura 26B y el tamaño de la lista de candidato de bloque de fusión mediante la eliminación de los candidatos inutilizables-para-la-fusión y los candidatos idénticos y la adición de los nuevos candidatos utilizando un método descrito más adelanté.
Los códigos más cortos son asignados a los índices de candidato de bloque de fusión de valores más pequeños. En ? otras palabras, cuando es más pequeño el valor de un índice de candidato de bloque de fusión, es más pequeña la cantidad de información necesaria para la indicación del índice de candidato de bloque de fusión.
Por otro lado, cuando es más grande el valor' de un índice de candidato de bloque de fusión, es más grande la cantidad de información necesaria para el índice de candidato de bloque de fusión. Por lo tanto, la eficiencia de la i codificación será incrementada cuando los índices de candidato de bloque de fusión de valores más pequeños son asignados a los candidatos de bloque de fusión que son más probable que tengan los vectores de movimiento de una precisión más alta y los índices de imagen de referencia de una precisión más alta.
Por lo tanto, un caso posible es que la unidad de cálculo de candidato de bloque de fusión 514 cuente el húmero total de veces de la' selección de cada uno de los candidatos de bloque de fusión como un bloque de fusión, y asigne los índices de candidato de bloque de fusión de valoreas más pequeños a los bloques con un número total más grande de las veces. De manera específica, esto puede ser conseguido mediante la especificación de un bloque de fusión seleccionado a partir de los bloques vecinos y mediante la asignación de un índice de candidato de bloque de fusión de un valor más pequeño al bloque específico de fusión cuando un bloque actual es codificado.
Cuando un candidato de bloque de fusión no tienen la información tal como un vector de movimiento (por ejemplo, cuando el bloque de fusión ha sido un bloque codificado mediante la intra-predicción, este es localizado fuera del límite de una imagen o el límite de una rebanada, o todavía será codificado) , el candidato de bloque de fusión es inutilizable para la codificación.
En la Modalidad 5, un candidato de bloque de fusión inutilizable para la codificación es referido como un candidato inutilizable-para-la-fusión, y un candidato de bloque de fusión utilizable para la codificación es referido como un candidato utilizable-para-la-fusión. En adición, entre una pluralidad de los candidatos de bloque de fusión, un candidato de bloque de fusión idéntico en el vector de movimiento, el índice de imagen de referencia, y la dirección i de predicción en cualquier otro bloque de fusión es referido como un candidato idéntico.
En el caso mostrado en la Figura 3, el bloque vecino C es un candidato inutilizable-para-la-fusión debido ;a que este es un bloque codificado mediante la intra-predicción. El bloque vecino D es un candidato idéntico debido a que éste es idéntico en el vector de movimiento, el índice de imagen de referencia, y la dirección de predicción para el bloque vecino A. ; En la Etapa S102, la unidad de control de inter-predicción 111 selecciona un modo de predicción en función de la comparación entre el error de predicción de una imagen de predicción generado utilizando un vector de movimiento derivado mediante la estimación de movimiento y el error de predicción de una imagen de predicción generado utilizando un vector de movimiento obtenido de un candidato de bloque de fusión. Cuando el modo seleccionado de predicción es el modo de fusión, la unidad de control de inter-predicción 111 establece el aviso de fusión en 1, y cuando no, la unidad de control de inter-predicción 111 establece el aviso de fusión en 0.
En la Etapa S103, si es determinado o no el aviso de fusión es 1 (es decir, si el modo seleccionado de predicción es o no el modo de fusión) .
Cuando el resultado de la determinación en la; Etapa S103 es verdadero (Si, S103) , la unidad de codificación de longitud variable 516 acopla el aviso de fusión con un flujo de bits en la Etapa S104. De manera subsiguiente, en la Etapa S505, la unidad de codificación de longitud variable 516 asigna las secuencias de bits de acuerdo con el tamaño de la lista de candidato de bloque de fusión como se muestra en la Figura 5 a los índices de candidato de bloque de fusión de los candidatos de bloque de fusión que serán utilizados para la codificación. Entonces, la unidad de codificación de longitud variable 516 realiza la codificación de longitud variable en la secuencia asignada de bitio.
Por otro lado, cuando el resultado de la determinación en la Etapa S103 es falso (S103, No), la unidad de codificación de longitud variable 516 acopla la información sobre un aviso de fusión y un modo de estimación de vector de movimiento con un flujo de bits en la. Etapa S106.
En la Modalidad 5, un índice de candidato de bloque de fusión que tiene un valor de "0" es asignado al bloque vecino A como es mostrado en (a) en la Figura 26. Ún índice de candidato de bloque de fusión que tiene un valor de f'l" es asignado al bloque vecino B. Un índice de candidato de bloque I de fusión que tiene un valor de "2" es asignado al bloque de fusión co-localizado . Un índice de candidato de bloque de i fusión que tiene un valor de "3" es asignado al bloque yecino C. Un índice de candidato de bloque de fusión qüe tiene un valor de "4" es asignado al bloque vecino D. i Debe observarse que los índices de candidato de bloque de fusión que tienen este valor podrían ser asignados de otro modo. Por ejemplo, cuando un nuevo candidato es agregado utilizando el método descrito en la Modalidad 1 o un método descrito más adelante, la unidad de codificación de longitud variable 516 podría asignar valores más pequeños a los candidatos preexistentes de bloque de fusión y un ; valor más grande al nuevo candidato. En otras palabras, la unidad de codificación de longitud variable 516 podría asignar un índice de candidato de bloque de fusión de un valor más pequeño a un candidato de bloque de fusión preexistente en prioridad para un nuevo candidato. 1 Además, los candidatos de bloque de fusión rio son limitados a los bloques en las posiciones del bloque vecinos ! i A, B, C, y D. Por ejemplo, un bloque vecino localizado por encima del bloque vecino izquierdo inferior D, puede ser utilizado como un candidato de bloque de fusión. Además, no es necesario utilizar todos los bloques vecinos como los candidatos de bloque de fusión. Por ejemplo, también es posible utilizar solamente los bloques vecinos A y B como los candidatos de bloque de fusión.
Además, aunque la unidad de codificación de longitud variable 516 acopla un índice de candidato de bloque de fusión con un flujo de bits en la Etapa S505 en la Figura 25 en la Modalidad 5, no siempre es necesario el acoplamiento de este índice de candidato de bloque de fusión con un flujo de bits. Por ejemplo, la unidad de codificación de longitud variable 116 no necesita acoplar un índice de candidato de bloque de fusión con un flujo de bits cuando el tamaño de la lista de candidato dé bloque de fusión es "1". Con lo¦ cual, es reducida cantidad de información en el índice de candidato de bloque de fusión.
La Figura 27 es un diagrama de flujo que muestra los detalles del proceso en la Etapa S501 en la Figura 25. De manera específica, la Figura 27 ilustra un método de cálculo de los candidatos de bloque de fusión y el tamaño de una lista de candidato de bloque de fusión. La Figura 27 será i descrita más adelante.
En la Etapa S511, la unidad de cálculo de candidato de bloque de fusión 514 determina si un candidato de bloque de fusión [N] es o no un candidato utilizable-para-la-'fusión utilizando un método descrito más adelante. Entonces, la unidad de cálculo de candidato de bloque de fusión 514 actualiza el número total de candidatos utilizables-para-la-fusión de acuerdo con el resultado de la determinación. ; ¡ Aquí, N denota un valor de índice para la identificación de cada candidato de bloque de fusión. En la i Modalidad 5, N toma valores de 0 a 4. De manera específica, ' i el bloque vecino A en la Figura 3 es asignado a un candidato de bloque de fusión [0] . El bloque vecino B en la Figura 3 es asignado a un candidato de bloque de fusión [1] . El bloque de fusión co-localizado es asignado a un candidato dé bloque de fusión [2] . El bloque vecino e en la Figura 3 es asignado a un candidato de bloqye de fusión [3] . El bloque vecino D en la Figura 5 es asignado a un candidato de bloque de fusión [4] .
En la Etapa S512, la unidad de cálculo de candidato de bloque de fusión 514 obtiene el vector de movimiento, el índice de imagen de referencia, y la dirección de predicción del candidato de bloque de fusión [N] , y los agrega una lista de candidato de bloque de fusión.
En la Etapa S513, la unidad de cálculo de candidato de bloque de fusión 514 busca la lista de candidato de bloque de fusión para un candidato inutilizable-para-la-fusión y un candidato idéntico, y elimina el candidato inutilizable-para-la-fusión y el candidato idéntico de la lista de candidato de bloque de fusión como se muestra en la Figura 26.
En la Etapa S514, la unidad de cálculo de candidato de bloque de fusión 514 agrega un nuevo candidato a la lista de candidato de bloque de fusión utilizando un método descrito en la Modalidad 1 o un método descrito más adelante. Aquí, cuando un nuevo candidato es agregado, la unidad de cálculo de candidato de bloque de fusión 514 podría reasignar los índices de candidato de bloque de fusión de modo qüe los índices de candidato de bloque de fusión de valores más pequeños son asignados a los candidatos preexistentes de bloque de fusión en prioridad al nuevo candidato. En 1 otras palabras, la unidad de cálculo de candidato de bloque de fusión 514 podría reasignar los índices de candidato de bloque de fusión de modo que un índice de candidato de bloque de fusión de un valor más grande es asignado al nuevo candidato. Con lo cual, es reducida cantidad de código de los índices de candidato de bloque de fusión.
En la Etapa S515, la unidad de cálculo de candidato de bloque de fusión 514 establece el número total de candidatos utilizables-para-la-fusión calculado en la Etapa S511 as el tamaño de la lista de candidato de bloque de fusión. En el ejemplo mostrado en la Figura 26, el ¡número calculado de candidatos utilizables-para-la-fusión es "4", y í el tamaño de la lista de candidato de bloque dé fusión es establecido en "4".
El nuevo candidato en la Etapa S514 es un candidato recientemente agregado a los candidatos de bloque de fusión utilizando el método, descrito en la Modalidad 1 o un método descrito más adelante cuando el número total de los candidatos de bloque de fusión es más pequeño que el número total de candidatos utilizables-para-la-fusión. El \ nuevo candidato podría ser un candidato de bloque de fusión que tiene un vector de movimiento que es un vector predeterminado (por ejemplo, un vector cero) . Los ejemplos de este 1 nuevo candidato incluyen un bloque vecino localizado por encima de i la izquierda inferior del bloque vecino D en la Figura 3 , un bloque que corresponde con cualquiera de los bloques vecinos A, B, C y D de un bloque co-localizado . Además, los ejemplos de este nuevo candidato además incluyen un bloque que ' tiene un vector de movimiento, un índice de imagen de referencia, una dirección de predicción, y similares, que son obtenidos, de manera estadística, para la totalidad o una cierta región de una imagen de referencia. De esta manera, cuando el número total de los candidatos de bloque de fusión es más pequeño que el número total de candidatos utilizables-para-la-fusión, la unidad de cálculo de candidato de bloque de fusión 514 agrega un nuevo candidato que tiene un nuevo vector de movimiento, un nuevo índice de imagen de referencia, y una I nueva dirección de predicción, de modo que puede ser incrementada la eficiencia de la codificación. j La Figura 28 es un diagrama de flujo que muestra los detalles del proceso en la Etapa S511 en la Figura 27. De manera específica, la Figura 28 ilustra un método de determinación si un candidato de bloque de fusión [N] es o no un candidato utilizable-para-la-fusión y que actualiza el número total de candidatos utilizables-para-la-fusión. La Figura 28 será descrita más adelante.
En la Etapa S521, la unidad de cálculo de candidato de bloque de fusión 514 determina si es verdadero o falso que (1) un candidato de bloque de fusión [N] ácido codificado mediante la intra-predicción, (2) el candidato de bloque de fusión [N] es un bloque fuera del límite de una rebanada que incluye el bloque actual o el límite de una imagen que incluye el bloque actual, o (3) el candidato de bloque de fusión [N] todavía será codificado.
Cuando el resultado de la determinación en la Etapa S21 es verdadero (S521, Si) , la unidad de cálculo de candidato de bloque de fusión 514 establece el candidato de bloque de fusión [N] como un candidato inutilizable-para-la-fusión en la Etapa S522. Por otro lado, cuando el resultado de la determinación en la Etapa S521 es falso (S521, No), la unidad de cálculo de candidato de bloque de . fusión 514 establece el candidato de bloque de fusión [N] como un candidato utilizable-para-la-fusión en la Etapa S523. ! En la Etapa S524, la unidad de cálculo de candidato de bloque de fusión 514 determina si es verdadero o falso que el candidato de bloque de fusión [N] no sea un candidato utilizable-para-la-fusión o un candidato de bloque de fusión co-localizado . Aquí, cuando el resultado de la determinación en la Etapa S524 es verdadero (S524, Si), la unidad de cálculo de candidato de bloque de fusión 514 actualiza el número total de los candidatos de bloque de fusión al incrementarlo en uno* en la Etapa S525. Por otro lado, 'cuando el resultado de la determinación en la Etapa S524 es falso (S524, No), la unidad de cálculo de candidato de bloque de fusión 514 no actualiza el número total de candidatos utilizables-para-la-fusión.
De esta manera, cuando un candidato de bloque de fusión es un bloque de fusión co-localizado, la unidad de cálculo de candidato de bloque de fusión 514 incrementa el número total del candidato utilizable-para-la-fusión én uno sin considerar si el bloque co-localizado es un candidato utilizable-para-la-fusión o un candidato inutilizablé-para-la-fusión. Esto evita la discrepancia de los números de candidatos utilizables-para-la-fusión entre el aparato de codificación de imagen y el aparato de decodificación de imagen incluso cuando es perdida la información sobre un bloque de fusión co-localizado debido a un incidente tal como el paquete 1055. i El número total de candidatos utilizables-para-la-fusión es establecido como el tamaño de la lista de candidato de bloque de fusión en la Etapa S515 mostrada en la Figura 27. Además, el tamaño de la lista de candidato de bloque de fusión es utilizado en la codificación de longitud variable de los índices de candidato de bloque de fusión en la Etapa S505 mostrada en la Figura 25. Esto hace posible que el aparato de codificación de imagen 500 genere un flujo de bits que puede ser normalmente decodificado, de modo que los índices de candidato de bloque de fusión pueden ser obtenidos incluso cuando es perdida la información sobre la imagen de referencia que incluye un bloque co-localizado.
La Figura 29 es un diagrama de flujo que muestra los detalles del proceso en la Etapa S514 en la Figura 27. De manera específica, la Figura 29 ilustra un método de adición de un nuevo candidato. La Figura 29 será descrita más adelante.
En la Etapa S531, la unidad de cálculo de candidato de bloque de fusión 514 determina si el número total de los candidatos de bloque de fusión es o no más pequeño que el número total de candidatos utilizables-para-la-fusión. En otras palabras, la unidad de cálculo de candidato de bloque de fusión 514 determina si el número total del candidato de bloque de fusión todavía se encuentra o no por debajo del i número total de candidatos utilizables-para-la-fusión.
Aquí, cuando el resultado de la determinación! en la Etapa S531 es verdadero (S531, Si), en la Etapa S532, la unidad de cálculo de candidato de bloque de fusión 514 determina si existe , o no un nuevo candidato que puede ser agregado como un candidato de bloque de fusión a la lista de candidato de bloque de fusión. Aquí, cuando el resultado de la determinación en la Etapa S532 es verdadero (S532, Si), en la Etapa S533, la unidad de cálculo de candidato de bloque de fusión 514 asigna un índice de candidato de bloque de fusión al nuevo candidato y agrega el nuevo candidato a la lista de candidato de bloque de fusión. Además, la unidad de calculo i de candidato de bloque de fusión 514 incrementa el número total del candidato de bloque de fusión en uno en la Etapa S534.
Por otro lado, cuando el resultado de la determinación en la Etapa S101 o en la Etapa S532 es falso (S531 o 5532, No), el proceso para la adición un nuevo candidato finaliza. En otras palabras, el proceso para la adición un nuevo candidato finaliza cuando el número total de los candidatos de bloque de fusión calcula el número total de candidatos utilizables-para-la-fusión o cuando no existe un nuevo candidato. ' De esta manera, el aparato de codificación de imagen 500 de acuerdo con la Modalidad 5 es capaz de calcular el I tamaño de una lista de candidato de bloque de fusión para uso en la codificación o decodificación de un índice de candidato de bloque de fusión, utilizando un método independiente de la información en las imágenes de referencia que incluyen un bloque co-localizado. El aparato de codificación de imagen 500 con lo cual, se consigue una resistencia mejorada de i error.
De manera más específica, sin considerar si un bloque de fusión co-localizado es o no un candidato utilizable-para- la-fusión, el aparato de codificación de imagen 500 de acuerdo con la Modalidad 5 incrementa el número total de candidatos utilizables-para-la-fusión en uno cada vez que un candidato de bloque de fusión es determinado como un bloque de fusión co-localizado. Entonces, el aparato de codificación de imagen 500 determina una secuencia de bits que será asignada a un índice de candidato de bloque de fusión, utilizando el número total de candidatos utilizables-para-la- fusión calculado de este modo. De esta manera, el aparato de codificación de imagen 500 es capaz de generar un flujo de bits a partir del cual el índice de candidato de bloque de fusión puede ser normalmente decodificado incluso cuando es perdida la información sobre las imágenes de referencia que incluyen un bloque co-localizado . ' Además, cuando el número total de los candidatos de bloque de fusión es más pequeño que el número total de candidatos utilizables-para-la-fusión, el aparato de codificación de imagen 500 de acuerdo con la Modalidad 5 agrega, como un candidato de bloque de fusión, un ' nuevo candidato que tiene un nuevo vector de movimiento, un. nuevo índice de imagen de referencia, y una nueva dirección de i predicción de modo que la eficiencia de la codificación puede ser incrementado.
Debe observarse que no es limitante el ejemplo descrito en la Modalidad 5 en el cual el aviso de fusión siempre es acoplado con un flujo de bits en el modo de fusión. Por ejemplo, el modo de fusión podría ser seleccionado, de manera forzada, en función de la forma del bloque para uso en la inter-predicción de un bloque actual. En este caso, es posible reducir la cantidad de información al no acoplar el aviso de fusión con un flujo de bits.
Debe observarse que el ejemplo descrito én la Modalidad 5 en donde es utilizado el modo de fusión ¡en el cual un bloque actual es codificado utilizando una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia copiado de un bloque vecino del bloque 'actual no es limitante. Por ejemplo, un modo de fusión de salto podría ser utilizado. En el modo de fusión de salto, un bloque actual es codificado en el mismo modo que en el modo de fusión, utilizando una dirección de predicción, un Jvector de movimiento, y un índice de imagen de referencia copiado de un bloque vecino del bloque actual con referencia a una lista de candidato de bloque de fusión creada como es mostrado en la Figura 26B. Cuando todos los errores resultantes de predicción son cero para el bloque actual, un aviso de salto establecido o colocado en 1 y el aviso de salto y un índice de candidato de bloque de fusión son acoplados con un flujo de bits. Cuando cualquiera de los errores resultantes de predicción es diferente de cero, un aviso de salto es establecido en 0 y el aviso de salto, un aviso de fusión, un índice de candidato de bloque de fusión, y los errores de predicción son acoplados con un flujo de bits. ; Debe observarse que el ejemplo descrito en la Modalidad 5 en donde es utilizado el modo de fusión en el cual un bloque actual es codificado utilizando una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia copiado de un bloque vecino del bloque actual no es limitante. Por ejemplo, un vector de movimiento en el modo de estimación de vector de movimiento podría ser codificado utilizando una lista de candidato dé bloque de fusión creada como es mostrado en en la Figura 26B. De manera específica, la diferencia es calculada mediante la substracción de un vector de movimiento de un candidato de bloque de fusión indicado por un índice de candidato de bloque de fusión de un vector de movimiento en el modo de estimación de vector de movimiento. Además, la diferencia calculada y el índice de candidato de bloque de fusión I podrían acoplarse con un flujo de bits.
De manera opcional, una diferencia podría calcularse mediante la escala de un vector de movimiento MV_Merge¡ de un candidato de bloque de fusión utilizando un índice de imagen de referencia RefIdx_ME en el modo de estimación de movimiento y un índice de imagen de referencia RefIdx_Merge del candidato de bloque de fusión como es representado por la ecuación 2, y mediante la sustracción de un vectpr de movimiento scaledMV_Merge del candidato de bloque de fusión después de la escala del vector de movimiento en el modo de estimación de movimiento. Entonces, la diferencia calculada y el índice de candidato de bloque de fusión podrían acoplarse con un flujo de bits.
Modalidad 6 En la Modalidad 5, el aparato de codificación de imagen determina una secuencia de bits que será asignada a un índice de candidato de bloque de fusión utilizando el número ? total de candidatos utilizables-para-la-fusión incrementado por uno cada vez que un candidato de bloque de fusión es determinado como un bloque de fusión co-localizado, sin considerar si un bloque de fusión co-localizado es o, no un candidato utilizable-para-la-fusión. De manera opcional, por ejemplo, el aparato de codificación de imagen podría determinar una secuencia de bits que será asignada a un índice de candidato de bloque de fusión utilizando el Inúmero total de candidatos utilizables-para-la-fusión calculado incrementando en uno para cada candidato de bloque de fusión sin considerar si el candidato de bloque de fusión es o no un bloque de fusión co-localizado en la Etapa S524 en la Figura 28. En otras palabras, el aparato de codificación de ¡imagen podría asignar una secuencia de bits a un índice de candidato de bloque de fusión utilizando el tamaño de una lista de candidato de bloque de fusión fija en un número máximo¡ N del número total de los candidatos de bloque de fusión. En> otras palabras, el aparato de codificación de imagen podría codificar los índices de candidato de bloque de fusión utilizando el tamaño de una lista de candidato de bloque de fusión fija en un valor máximo N del número total de los candidatos de bloque de fusión sobre la suposición que los candidatos de bloque de fusión son todos los candidatos utilizables-para-la-fusión. | Por ejemplo, en el caso mostrado en la modalidad S, cuando el valor máximo N del número total de los candidatos de bloque de fusión es cinco (el bloque vecino A, el ¡bloque vecino B, el bloque de fusión co-localizado, el bloque vecino C, y el bloque vecino D) , el aparato de codificación de imagen podría codificar los índices de candidato de bloque de fusión utilizando el tamaño de la lista de candidato de bloque de fusión establecido fijamente en cinco. Además, por ejemplo, cuando el valor máximo N del número total de los candidatos de bloque de fusión es cuatro (el bloque vecino A, el bloque vecino B, el bloque vecino C, y el bloque vecino D) , el aparato de codificación de imagen podría codificar los índices de candidato de bloque de fusión utilizando el ¡tamaño de la lista de candidatos de bloque de fusión establecido fijamente en cuatro.
De este modo, el aparato de codificación de ¡imagen podría determinar el tamaño de una lista de candidato de bloque de fusión en función del valor máximo del número; total de los candidatos de bloque de fusión. Por lo tanto, es posible para generar un flujo de bits a partir del cual una unidad de decodificación de longitud variable de un aparato de decodificación de imagen puede decodificar un índice de candidato de bloque de fusión sin la información de referencia sobre un bloque vecino o en un bloque colocalizado, de modo que puede reducirse la complejidad computacional para la unidad de decodificación de longitud ! ? variable .
Esta modificación del aparato de codificación de imagen de acuerdo con la Modalidad 5 será descrita, de manera específica, más adelante como un aparato de codificación de imagen de acuerdo con la Modalidad 6. ! La Figura 30 es un diagrama de bloque que muestra una configuración de un aparato de codificación de imagen 600 de acuerdo con la Modalidad 6. El aparato de codificación de imagen 600 codifica una imagen en una base de bloque-por-bloque para generar un flujo de bits. El aparato de codificación de imagen 600 incluye una unidad de derivación de candidato de fusión 610, una unidad de contrpl de predicción 620, y una unidad de codificación 630.
La unidad de derivación de candidato de fusión 610 corresponde con la unidad de cálculo de candidato de bloque de fusión 514 en la Modalidad 5. La unidad de derivación de candidato de fusión 610 deriva los candidatos de fusión. La unidad de derivación de candidato de fusión 610 genera una lista de candidato de fusión en la cual, por ejemplo, los i ! 1 índices, cada uno identificando un diferente candidato derivado de fusión son asociados con los respectivos candidatos derivados de fusión.
Como se muestra en la Figura 30, la unidad de derivación de candidato de fusión 610 incluye una primera unidad de determinación 611, una primera unidad de derivación i 612, una unidad de especificación 613, una segunda unidad de determinación 614, y una segunda unidad de derivación 6l5.
La primera unidad de determinación 611 determina un número máximo de candidatos de fusión. En otras palabras, la I primera unidad de determinación 611 determina un valor máximo N del número total de los candidatos de bloque de fusión.
Por ejemplo, la primera unidad de determinación 611 i determina un número máximo de los candidatos dé fusión en función de las características de la secuencia de imagen de entrada (tal como una secuencia, una imagen, una rebanada, o un bloque) . De manera opcional, por ejemplo, la primera unidad de determinación 611 podría determinar un número predeterminado como un número máximo de candidatos de fusión.
De manera más específica, la primera unidad de derivación 612 deriva los primeros candidatos de fusión en función, por ejemplo, de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia que han sido utilizados para la codificación de un bloque que rodea, espacial o temporalmente, el bloque actual. De manera I especifica, la primera unidad de derivación 612 deriva los primeros candidatos de fusión dentro de un intervalo en el cual el número total de los primeros candidatos de fusión no excedan el número máximo. Entonces, por ejemplo, la primera unidad de derivación 612 registra los primeros candidatos de fusión derivados de este modo en la lista de candidato de fusión en asociación con los respectivos índices de candidato de fusión.
Debe observarse que la primera unidad de derivación 612 podría derivar, como un primer candidato de fusión, una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia que han sido utilizados para la codificación de los bloques que rodean espacialmente el bloque actual excepto los bloques inutilizables-para-la-fusión. Un bloque inutilizable-p ra-la-fusión es un bloque codificado mediante la intra-predicción, un bloque fuera del límite de una rebanada que incluye el bloque actual o el límite de una imagen que incluye el bloque actual, o un bloque que todavía será codificado. Con esta configuración, la primera unidad de derivación 612 ! puede derivar los primeros candidatos de fusión de los bloques adecuados para la obtención de los candidatos de fusión ¡ ; I Cuando una pluralidad de los primeros candidatos de fusión ha sido derivada, la unidad de especificación 613 especifica un candidato idéntico, es decir, un primer candidato de fusión que es una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia idéntica a una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia de cualquier otro de los primeros candidatos de fusión. Entonces, la unidad de especificación 613 elimina el candidato especificado idéntico de la lista de candidato de fusión. ¡ La segunda unidad de determinación 614 determina si el número total de los primeros candidatos de fusión es o no más pequeño que un número máximo determinado, Aquí, la segunda unidad de determinación 614 determina si el número total de los primeros candidatos de fusión excepto el ¡primer candidato especificado idéntico de fusión es o no más pequeño que el número máximo determinado.
Cuando es determinado que el número total de los primeros candidatos de fusión es más pequeño que el número máximo determinado, la segunda unidad de derivación 615 deriva un segundo candidato de fusión que tiene un vector de movimiento que es un vector predeterminado. De manera específica, la segunda unidad de derivación 615 deriva los segundos candidatos de fusión dentro de un intervalo en el cual la suma del número total de los primeros candidatos de fusión y el número total de los segundos candidatos de fusión no excedan el número máximo. Aquí, la segunda unidad de derivación 615 deriva los segundos candidatos , de fusión dentro de un intervalo en el cual la suma del número total de los primeros candidatos de fusión excepto el candidato idéntico y el número total de los segundos candidatos de fusión no excedan el número máximo.
El vector predeterminado podría ser un vector cero como se describe en la Modalidad 5. Debe observarse que el vector predeterminado no necesita ser un vector cero.
Entonces, por ejemplo, la segunda unidad de derivación 615 registra los segundos candidatos de fusión derivados de este modo en la lista de candidato de fusión cada uno en asociación con un diferente índice de candidato de fusión. En este momento, la segunda unidad de derivación 615 podría registrar los segundos candidatos de fusión; en la lista de candidato de fusión, de modo que los , índices de candidato de fusión asignados a los primeros candidatos de fusión son más pequeños que los índices de candidato de fusión asignados a los segundos candidatos de fusión. Con esto, el aparato de codificación de imagen 600 puede reducir la cantidad de código cuando los primeros candidatos de fusión es más probable que sean seleccionados como el candidato de fusión que será utilizado para la codificación que un segundo candidato de fusión, de modo que puede ser incrementada la eficiencia de la codificación. [ Debe observarse que la segunda unidad de derivación 615 no necesita derivar un segundo candidato de fusión de modo que la suma del número total de los primeros candidatos de fusión y el número total del segundo candidato de fusión iguala el número máximo determinado. Cuando la suma del número total de los primeros candidatos de fusión y el número total del segundo candidato de fusión es más pequeña que el número máximo determinado, por ejemplo, allí podría ser un índice de candidato de fusión con el cual ningún candidato de fusión es asociado.
La unidad de control de predicción 620 selecciona el i candidato de fusión que será utilizado para la codificación de un bloque actual a partir de los primeros candidatos de fusión y los segundos candidatos de fusión. En otras palabras, la unidad de control de predicción 620 selecciona el candidato de fusión que será utilizado paira la codificación de un bloque actual de la lista de candidato de fusión.
La unidad de codificación 630 codifica el ¡índice para la identificación del candidato seleccionado de fusión I (el índice candidato de fusión) utilizando el número máximo determinado. De manera específica, la unidad de codificación 630 realiza la codificación de longitud variable en una secuencia de bits asignada al valor de índice del candidato seleccionado de fusión como se muestra en la, Figura 5.
Además, la unidad de codificación 630 acopla el índice codificado con un flujo de bits. 1 Aquí, la unidad de codificación 630 además podría acoplar la información que indica el número máximo determinado por la primera unidad de determinación 611 con el flujo de bits. De manera específica, por ejemplo, la unidad de codificación 630 podría escribir la información que indica el número máximo en un encabezado de rebanada. Esto hace posible el cambio de los números máximos por la unidad adecuada, de modo que puede ser incrementada la eficiencia de la codificación.
La unidad de codificación 630 no necesita acoplar un número máximo con un flujo de bits. Por ejemplo, cuando el número máximo es especificado en un estándar, o cuando el número máximo es el mismo que un valor por omisión, la ¡unidad de codificación 630 no necesita acoplar la información que indica el número máximo con un flujo de bits. , A continuación, serán descritas más adelante las operaciones del aparato de codificación de imagen 600 ¡ en la configuración descrita con anterioridad.
La Figura 31 es un diagrama de flujo que muestra las operaciones de procesamiento del aparato de codificación de imagen 600 de acuerdo con la Modalidad 6. , En primer lugar, la primera unidad de determinación 611 determina un número máximo de candidatos de fusión (S601) . La primera unidad de derivación 612 deriva un primer candidato de fusión (S602) . Cuando una pluralidad de los primeros candidatos de fusión ha sido derivada, la unidad de especificación 613 especifica un primer candidato de fusión que es un candidato idéntico, es decir, una combinación de una dirección de predicción, un vector de movimiento,: y un índice de imagen de referencia idéntica a una combinación de i una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia de cualquiera otro de los primeros candidatos de fusión (S603) .
La segunda unidad de determinación 614 determina si el número total de los primeros candidatos de fusión excepto el candidato idéntico es o no más pequeño que el jnúmero máximo determinado (S604) . Aquí, cuando es determinado ¡que el número total de los primeros candidatos de fusión excepto el i candidato idéntico es más pequeño que el número máximo determinado (S604, Si), la segunda unidad de derivación 615 deriva, como un segundo candidato de fusión, un candidato de fusión que tiene un vector de movimiento que es un vector I predeterminado (S605) . Por otro lado, cuando es determinado que el número total de los primeros candidatos de fusión excepto el candidato idéntico no es más pequeño que el húmero máximo determinado (S604, No), la segunda unidad de derivación 415 no deriva el segundo candidato de fusión.
Estas Etapas S604 y S605 corresponden con la Etapa S514 en la Modalidad 5.
La unidad de control de predicción 620 selecciona el candidato de fusión que será utilizado para la codificación de un bloque actual a partir de los primeros candidatos de fusión y los segundos candidatos de fusión (S606) L Por ejemplo, la unidad de control de predicción 620 selecciona un candidato de fusión para el cual el costo representado por la ecuación 1 es un mínimo de la lista de candidato de fusión as en la Modalidad 1.
La unidad de codificación 630 codifica un , índice para la identificación del candidato seleccionado de fusión, utilizando el número máximo determinado (S607) . Además, la unidad de codificación 630 acopla el índice codificado icón un flujo de bits. j De este modo, el aparato de codificación de imagen 600 de acuerdo con la Modalidad 6 puede derivar, como un segundo candidato de fusión, un candidato de fusión que tiene un vector de movimiento que es un vector predeterminado. Por lo tanto, es posible que el aparato de codificación de imagen 600 derive un candidato de fusión que tiene un vector de movimiento y otros para una región fija como un segundo candidato de fusión, por ejemplo. En otras palabras, es posible que el aparato de codificación de imagen 600 i ! codifique, de manera eficiente, un bloque actual que tiene un movimiento predeterminado, de modo que puede ser incrementada la eficiencia de la codificación. j Además, el aparato de codificación de imagen 600 de acuerdo con la Modalidad 6 puede codificar un índice para la identificación de un candidato de fusión utilizando un número máximo determinado. 'En otras palabras, un índice puede ser codificado, de manera independiente, del número total de candidatos de fusión actualmente derivados. Por lo tanto, incluso cuando es perdida la información necesaria para la derivación de un candidato de fusión (por ejemplo, la información sobre un bloque co-localizado) , un índice todavía puede ser decodificado y con lo cual, la resistencia de error es mejorada. Además, un índice puede ser decodificado, de manera independiente, del número total de candidatos de fusión actualmente derivados. En otras palabras, un índice puede ser decodificado sin esperar la derivación de candidatos de fusión. En otras palabras, un flujo de bits puede generarse para el cual la derivación de candidatos de fusión y la decodificación de los índices pueden realizarse en paralelo.
Además, con el aparato de codificación de imagen 600 de acuerdo con la Modalidad 6, un segundo candidato de fusión puede ser derivado cuando es determinado que el número; total de los primeros candidatos de fusión es más pequeño que el número máximo. En consecuencia, el número total de candidatos de fusión puede ser incrementado dentro de un intervalo que no excede el número máximo de modo que la eficiencia de la codificación puede ser incrementada. l Además, con el aparato de codificación de imagen 600 de acuerdo con la Modalidad 6, un segundo candidato de fusión puede ser derivado en función del el número total de los primeros candidatos de fusión excepto los primeros candidatos idénticos de fusión. ' Como resultado, el número total de los segundos candidatos de fusión puede ser incrementado de modo que puede ser incrementada la variedad de combinaciones de una dirección de predicción, un vector de movimiento/ y un índice de imagen de referencia para un candidato seleccionable de fusión. Por lo tanto, es posible incrementar adicionalmente la eficiencia de la codificación.
En la Modalidad 6, la unidad de especificación 613 , I incluida en el aparato de codificación de imagen 600 no siempre es necesaria para el aparato de codificación de imagen 600. En otras palabras, la Etapa S603 en el diagrama de flujo mostrado en la Figura 31 no siempre es necesaria.
Incluso en este casó, el aparato de codificación de 'imagen 600 puede codificar un índice para la identificación ¡ de un candidato de fusión utilizando un número máximo determinado de modo que puede ser mejorada la resistencia de error.
Además, en la Modalidad 6, aunque la unidad de especificación 613 especifica un candidato idéntico una vez que la primera unidad de derivación 612 deriva los primeros candidatos de fusión como se muestra en la Figura 31, el proceso no necesita ser realizado en este orden. Por ejemplo, la primera unidad de derivación 612 podría identificar un candidato idéntico en el proceso para la derivación de los primeros candidatos de fusión, y deriva los primeros candidatos de fusión, de manera que el candidato especificado idéntico es excluido de los primeros candidatos de fusión. En otras palabras, la primera unidad de derivación 612 ¡podría derivar, como un primer candidato de fusión, un candidato de fusión que es una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia diferente de una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia de cualquier primer candidato de fusión previamente derivado. De manera más específica, por ejemplo, en el caso en donde un candidato de fusión en función de un bloque vecino izquierdo ya ha sido seleccionado como un primer candidato de f,usión, la primera unidad de derivación 612 podría derivar un candidato de fusión que está basada en un bloque 'vecino superior como un primer candidato de fusión cuando el candidato de fusión en función del bloque vecino superior es i diferente del candidato de fusión que está basado en el bloque vecino izquierdo. De este modo, la primera unidad de derivación 612 puede; eliminar, de los primeros candidatos de fusión, un candidato de fusión que es una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia idéntica a una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia de cualquier primer candidato de fusión previamente derivado. Como resultado, el aparato de codificación de imagén 600 puede incrementar el número' total de los segundos candidatos de fusión, y con lo cual, se ? incrementa la variedad de combinaciones de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia a partir del cual es seleccionado un candidato de fusión. De esta manera, la primera unidad de derivación 612 puede incrementar adicionalmente la eficiencia de la codificación. ' En la Modalidad 6, aunque la derivación de un ¡primer candidato de fusión es seguida por la determinación de si el número total del primer candidato de fusión es o no más pequeño que un número máximo, y posteriormente, p¡or la derivación de un segundo candidato de fusión, el proceso no es necesariamente realizado en este orden. Por ejemplo, en primer lugar, el aparato de codificación de imagen 600 podría derivar un segundo candidato de fusión, y posteriormente, podría registrar el segundo candidato derivado dé fusión en una lista de candidato de fusión. El aparato de codificación de imagen 600 podría derivar, de manera subsiguiente, un primer candidato de fusión, y podría sobrescribir el segundo candidato de fusión registrado en la lista de candidato de fusión con el primer candidato derivado de fusión.
Modalidad 7 ' La Modalidad 7 es diferente en el método de derivación del tamaño de una lista de candidato de bloque de fusión de la Modalidad 3. El método de derivación del tamaño de una lista de candidato de bloque de fusión de acuerdo con la Modalidad 7 será descrito más adelante en detalle. i La Figura 32 los índices de candidato de bloque de fusión con una configuración de un aparato de decodificación de imagen 700 de acuerdo con la Modalidad 7. Para la Figura 32, los elementos constituyentes en común con la Figura 20 son de anotados con los mismos signos de referencia,' y la descripción de los mismos es omitida. '.
El aparato de decodificación de imagen 700 es un aparato que corresponde con el aparato de codificación de imagen 500 de acuerdo con la Modalidad 5. De manera específica, por ejemplo, el aparato de decodificación de imagen 700 decodifica, en una base de bloque-por-bloque, las imágenes codificadas incluidas en un flujo de bits generado por el aparato de codificación de imagen 500 de acuerdo con i la Modalidad 5. ; Como se muestra en la Figura 32, el aparato de decodificación de imagen 700 incluye una unidad de decodificación de longitud variable 701, una unidad de cuantificación inversa 302, una unidad de transformación ortogonal inversa 303, un sumador' 304, una memoria de bloque 305, una memoria de cuadro 306, una unidad de intra-predicción 307, una unidad de inter-predicción 308, una unidad de control de inter-predicción 309, un interruptor 310, una unidad de cálculo de candidato de bloque de fusión 711 y una memoria colPic 312.
La unidad de decodificación de longitud variable 701 genera una información de tipo de imagen, un aviso de fusión, y un coeficiente cuantificado al realizar la decodificación de longitud variable en un flujo de bits de entrada. Además, la unidad de decodificación de longitud variable 701 obtiene un índice de candidato de bloque de fusión al realizar la j decodificación de longitud variable utilizando el :número total de candidatos utilizables-para-la-fusión como se describe más adelante. j La unidad de cálculo de candidato de bloque de fusión 711 deriva los candidatos de bloque de fusión para el modo de fusión de los vectores de movimiento y otros de los bloques vecinos del bloque actual y un vector de movimiento y otros de un bloque co-localizado (la información qolPic) almacenado en la memoria colPic 312, utilizando un método descrito más adelante. Además, la unidad de cálculo de candidato de bloque de fusión 711 asigna los índices de candidato de bloque de fusión cada uno tiene un ' valor diferente a los candidatos derivados de bloque de fusión. Entonces, la unidad de cálculo de candidato de bloque de fusión 711 transmite los candidatos de bloque de fusión! Y l°s índices de candidato de bloque de fusión a la unidad de control de inter-predicción 309. 1 La Figura 33 es un diagrama de flujo que muestra las operaciones de procesamiento del aparato de decodificación de imagen de acuerdo con la Modalidad 7. I En la Etapa S701, la unidad de decodificación de I longitud variable 701 decodifica un aviso de fusión.
En la Etapa S702, cuando el aviso de fusión es "1" (S702, Si), en la Etapa S703, la unidad de cálculo de candidato de bloque de fusión 711 calcula el número total de i candidatos utilizables-para-la-fusión utilizando un método descrito más adelante. Entonces, la unidad de cálculo de candidato de bloque de fusión 711 establece el número calculado de candidatos utilizables-para-la-fusión cómo el tamaño de una lista de candidato de bloque de fusión. j A continuación, en la Etapa S704, la unidad de decodificación de longitud variable 701 realiza la decodificación de longitud variable en un índice de candidato de bloque de fusión a partir de un flujo de bits utilizando el tamaño de la lista de candidato de bloque de fusión.' En la Etapa S705, la unidad de cálculo de candidato de bloque de fusión 711 genera los candidatos de bloque de fusión de los bloques vecinos y un bloque co-localizado del bloque actual que será decodificado utilizando el método descrito |en la Modalidad 1 o la Modalidad 3 o un método descrito más adelante.
En la Etapa S706, la unidad de control de inter-predicción 309 provoca que la unidad de inter-predicción 308 genere una imagen de inter-predicción utilizando el vector de movimiento, el índice de imagen de referencia, y la dirección de predicción del candidato de bloque de fusión indicada por i el índice decodificado de candidato de bloque de fusión.
Cuando el aviso de fusión es "0" en la Etapa S702 (Etapa S702, No), en la Etapa S707, la unidad de inter-predicción 308 genera una imagen de inter-predicción utilizando la información sobre el modo de estimación de vector de movimiento decodificado por la unidad de decodificación de longitud variable 701.
De manera opcional, cuando el tamaño de una lista de candidato de bloque de fusión calculado en la Etapa S703 es "1", podría estimarse que el índice de candidato de bloigue de fusión será "0" sin que esté siendo decodificado.
La Figura 34 es un diagrama de flujo que muestra los i detalles del proceso en la Etapa S703 mostrados en la Figura 33. De manera específica, la Figura 34 ilustra un método de i determinación si un candidato de bloque de fusión [N] es o no un candidato utilizable-para-la-fusión y el cálculo del _ ' i número total de candidatos utilizables-para-la-fusión. La Figura 34 será descrita más adelante. ' En la Etapa S711, la unidad de cálculo de candidato de bloque de fusión 711 determina si es verdadero o falso que (1) un candidato de bloque de fusión [N] ha sido decodificado mediante la intra-predicción, (2) el candidato de bloque de fusión [N] es un bloque fuera del límite de una rebanada que incluye el bloque actual o el límite de una imagen que incluye el bloque actual, o (3) el candidato de bloque de fusión [N] todavía será decodificado .
Cuando el resultado de la determinación en l Etapa S711 es verdadero (S711, Si), la unidad de cálculo de candidato de bloque de fusión 711 establece el candidato de bloque de fusión [N] como un candidato inutilizable-para-la-fusión en la Etapa S712. Por otro lado, cuando el resultado de la determinación en la Etapa S711 es falso (S711, No), la i unidad de cálculo de candidato de bloque de fusión 711 establece el candidato de bloque de fusión [ ] como un candidato utilizable-para-la-fusión en la Etapa S713. i En la Etapa S714, la unidad de calculo de candidato de bloque de fusión 711 determina si es verdadero o falso que el candidato de bloque de fusión [N] no es un candidato utilizable-para-la-fusión o un candidato de bloque de ¡fusión co-localizado . Aquí, cuando el resultado de la determinación en la Etapa S714 es verdadero (S714, Si), la unidad de cálculo de candidato de bloque de fusión 711 actualiza el número total de los candidatos de bloque de fusión al incrementarlo en uno en la Etapa S715. Por otro lado, cuando el resultado de la determinación en la Etapa S714 es! falso (S714, No), la unidad de cálculo de candidato de bloque de fusión 711 no actualiza el número total de candidatos utilizables-para-la-fusión. ! De esta manera, cuando un candidato de bloque de ! fusión es un bloque de fusión co-localizado, la unidad de cálculo de candidato de bloque de fusión 711 incrementa el número total de candidatos utilizables-para-la-fusión en uno sin considerar si el bloque co- localizado es un candidato utilizable-para-la-fusión o un candidato inutilizable-para-la-fusión. Esto evita la discrepancia de los números de candidatos utilizables-para-la-fusión entre el aparato de i codificación de imagen y el aparato de decodificación de imagen incluso cuando es perdida la información sobre un bloque de fusión co-localizado debido a un incidente tal como la pérdida de paquetes . ¡ El número total de candidatos utilizables-para-la-fusión es establecido como el tamaño de una lista de candidato de bloque de fusión en la Etapa S703 mostrada en la Figura 33. Además, el tamaño de la lista de candidato de bloque de fusión es utilizado en la decodificación de longitud variable de los índices de candidato de bloque de fusión en la Etapa S704 mostrada en la Figura 33. Esto hace posible que el aparato de decodificación de imagen 700 decodifique los índices de candidato de bloque de fusión normalmente incluso cuando es perdida la información sobre la imagen de referencia que incluye un bloque co-localizado.
La Figura 35 es un diagrama de flujo que muestra los detalles del proceso en la Etapa S705 mostrada en la Figura 33. De manera específica, la Figura 35 ilustra un método de cálculo de un candidato de bloque de fusión. La Figura 35 será descrita más adelante. I En la Etapa S721, la unidad de cálculo de candidato de bloque de fusión 711 obtiene el vector de movimiento, el índice de imagen de referencia, y la dirección de predicción de un candidato de bloque de fusión [N] , y los agrega una lista de candidato de bloque de fusión. j En la Etapa S722, la unidad de cálculo de candidato de bloque de fusión yil busca la lista de candidato de bloque 1 de fusión para un candidato inutilizable-para-la-fusión y un candidato idéntico, y elimina el candidato inutilizable-para-la-fusión y el candidato idéntico de la lista de candidato de bloque de fusión comó se muestra en la Figura 26.
En la Etapa S723, la unidad de cálculo de candidato i I de bloque de fusión 711 agrega un nuevo candidato a la lista de candidato de bloque de fusión utilizando el método descrito en la Modalidad 1 o la Modalidad 3 o el método como es ilustrado en la Figura 29. ; La Figura 36 muestra la sintaxis de ejemplo para el acoplamiento de los índices de candidato de bloque de fusión con un flujo de bits. En la Figura 36, merge_idx representa I un índice de candidato de bloque de fusión, y mergé_flag representa un aviso de fusión. NumMergeCand representa el tamaño de una lista de candidato de bloque de fusión. En la Modalidad 7, NumMergeCand es establecido en el número , total de candidatos utilizables-para-la-fusión calculado en el flujo del proceso mostrado en la Figura 34. ' De esta manera, el aparato de decodificación de imagen 700 de acuerdo con la Modalidad 7 es capaz de calcular el tamaño de una lista de candidato de bloque de fusión para uso en la codificación o decodificación de un índice de candidato de bloque de fusión, utilizando un ¡método independiente de la información en las imágenes de referencia que incluyen un bloque co-localizado . El aparato de decodificación de imagen 700 por lo tanto puede decodi!ficar, de manera adecuada, un flujo de bits que ha mejorado la resistencia de error.
De manera más específica, sin considerar si un bloque de fusión co-localizado es o no un candidato utilizable-para-la-fusión, el aparato de decodificación de I imagen 700 de acuerdo con la Modalidad 7 incrementa el número total de candidatos utilizables-para-la-fusión en uno cada vez que un candidato de bloque de fusión es determinado como un bloque de fusión co-localizado. Entonces, el aparato de decodificación de imagen 700 determina una secuencia de bits asignada a un índice de candidato de bloque de fusión utilizando el número total de candidatos utilizables-para-la-fusión calculado de este modo. De este modo, el aparato de decodificación de imagen 700 puede decodificar los índices de candidato de bloque de fusión normalmente incluso cuando es perdida la información sobre la imagen de referencija que incluye un bloque co-localizado . í Además, cuando el número total de los candidatos de bloque de fusión es más pequeño que el número total de los candidatos utilizables-para-la-fusión, es posible que el i aparato de decodificación de imagen 700 de acuerdo con la Modalidad 7 decodifique, de manera adecuada, un flujo de bits codificado con un incremento en la eficiencia la codificación al agregar un nuevo candidato que tiene un nuevo vector de movimiento, un nuevo índice de imagen de referencia, y una nueva dirección de predicción.
Modalidad 8 En la Modalidad 7, el aparato de decodificación de imagen determina una secuencia de bits que será asignada a un índice de candidato de bloque de fusión utilizando el número total de candidatos utilizables-para-la-fusión incrementado en uno cada vez que un candidato de bloque de fusión es determinado como un bloque de fusión co-localizado, sin considerar si un bloque de fusión co-localizado es o ¡no un candidato utilizable-para-la- fusión. De manera opcional, por ejemplo, el aparato de decodificación de imagen podría determinar una secuencia de bits que será asignada ¡ a un índice de candidato de bloque de fusión utilizando el número total de candidatos utilizables-para-la-fusión calculado incrementando en uno para cada candidato de bloque de fusión cada candidato de bloque de fusión sin considerar si el candidato de bloque de fusión es o no un bloque dé fusión colocalizado en la Etapa S714 en la Figura 34. En ¡ otras palabras, el aparato de decodificación de imagen podría asignar una secuencia de bits a un índice de candidato de bloque de fusión utilizando el tamaño de una lista de candidato de bloque de fusión fija en un número máximo! N del número total de los candidatos de bloque de fusión. En otras palabras, el aparato de decodificación de imagen podría decodificar los índices de candidato de bloque de fusión utilizando el tamaño de una lista de candidato de bloque de fusión fija en un valor máximo N del número total de los candidatos de bloque de fusión sobre la suposición que los i candidatos de bloque de fusión son todos los candidatos utilizables-para-la-fusión. ! Por ejemplo, en el caso mostrado en la Modalidad 7, cuando el valor máximo N del número total de los candidatos de bloque de fusión es cinco (el bloque vecino A, el bloque vecino B, el bloque de fusión co-localizado, el bloque vecino C y el bloque vecino D) , el aparato de decodificación de imagen podría decodificar los índices de candidato de bloque de fusión utilizando el tamaño de la lista de candidato de bloque de fusión fijamente establecidos en cinco. Por lo tanto, es posible que la unidad de decodificación de longitud variable del aparato ', de decodificación de imagen decodifique un índice de candidato de bloque de fusión de un flujo de bits sin la información de referencia sobre un bloque vecino o en un bloque co-localizado . Como resultado, por ejemplo, la Etapa S714 y la Etapa S715 mostradas en la Figura 34 pueden ser asaltadas, de modo que puede reducirse la complejidad computacional para la unidad de decodificación de longitud variable. : i La Figura 37 muestra la sintaxis de ejemplo en el caso en donde el tamaño de una lista de candidato de bloque í de fusión es fijado en el valor máximo del número total de los candidatos de bloque de fusión. Como puede observarse en la Figura 37, Num ergeCand puede omitirse de la sintaxis cuando el tamaño de una lista de candidato de bloque de fusión es fijado en un valor máximo del número total los candidatos de bloque de fusión.
Esta modificación del aparato de decodificación de imagen de acuerdo con la Modalidad 8 será descrita, de manera específica, más adelante como un aparato de decodificación de imagen de acuerdo con la Modalidad 7. : La Figura 38 es un diagrama de bloque que muestra una configuración de un aparato de decodificación de imagen 800 de acuerdo con la Modalidad 8. El aparato de decodificación de imagen 800 decodifica una imagen codificada que es incluida en un flujo de bits en una base de bloque-por-bloque. De manera específica, por ejemplo, el aparato de decodificación de imagen 800 decodifica, en una base de bloque-por-bloque, las imágenes codificadas incluidas ! en un flujo de bits generado por el aparato de codificación de imagen 600 de acuerdo con la Modalidad 6. El aparato de decodificación de imagen 800 incluye una unidad de derivación de candidato de fusión 810, una unidad de decodificación 820 y una unidad de control de predicción 830. j La unidad de derivación de candidato de fusióin 810 corresponde con la unidad de cálculo de candidato de bloque i de fusión 711 en la Modalidad 7. La unidad de derivación de candidato de fusión 810 deriva los candidatos de fusión. La unidad de derivación de candidato de fusión 810 genera una lista de candidato de fusión en la cual, por ejemplo, los I índices, cada uno identificando un diferente candidato derivado de fusión (los índices de candidato de fusión) son asociados con los respectivos candidatos derivados de fusión.
Como se muestra en la Figura 38, la unidad de derivación de candidato de fusión 810 incluye una primera unidad de determinación 811, una primera unidad de derivación 812, una unidad de especificación 813, una segunda unidad de determinación 814 y una segunda unidad de derivación 815.
La primera unidad de determinación 811 determina un número máximo de candidatos de fusión. En otras palabras, la primera unidad de determinación 811 determina un valor máximo N del número total de los candidatos de bloque de fusión.
Por ejemplo, la primera unidad de determinación 811 podría determinar un número máximo de los candidatos de fusión utilizando el mismo método utilizado por la primera unidad de determinación 611 en la Modalidad 6. De 'manera opcional, por ejemplo, la primera unidad de determinación 811 podría determinar un número máximo en función de la información acoplado con un flujo de bits e indicando un número máximo. De esta manera, el aparato de decodificación de imagen 800 puede decodificar una imagen codificada i utilizando los números máximos cambiados por la unidad adecuada . | Aquí, aunque la primera unidad de determinación 811 es incluida en la unidad de derivación de candidato de fusión 810, la primera unidad de determinación 811 podría ser incluida en la unidad de decodificación 820.
La primera unidad de derivación 812 los primeros candidatos de fusión en el mismo modo que la primera unidad de derivación 612 en la Modalidad 6. De manera específica, la primera unidad de derivación 812 deriva los primeros candidatos de fusión en función, por ejemplo, de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia que han sido utilizados para la decodificación de un bloque que rodea, espacial o temporalmente, el bloque actual que será de.codificado .
Entonces, por ejemplo, la primera unidad de derivación 812 registra los primeros candidatos de fusión derivados de este modo en la lista de candidato de fusión en asociación con los respectivos índices de candidato de fusión.
Debe observarse que la primera unidad de derivación 812 podría derivar, como un primer candidato de fusión, una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia que han sido utilizados para la decodificación de los bloques que rodean espacialmente el bloque actual excepto los bloques inutilizables-para-la- fusión . Con esta configuración, la primera unidad de derivación 812 puede derivar los primeros j candidatos de fusión de los bloques adecuados paira la obtención de los candidatos de fusión. ¡ Cuando una pluralidad de los primeros candidatos de fusión ha sido derivada, la unidad de especificación 813 especifica un candidato idéntico, es decir, un primer candidato de fusión que es una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia idéntica a una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia de cualquier otro de los primeros candidatos de fusión. Entonces, la unidad de especificación 813 elimina el candidato especificado idéntico de la lista de candidato de fusión.
La segunda unidad de determinación 814 determina si el número total de los primeros candidatos de fusión es o no más pequeño que un número máximo determinado. Aquí, la segunda unidad de determinación 814 determina si el número total de los primeros candidatos de fusión excepto el primer candidato especificado idéntico de fusión es o no más péqueño que el número máximo determinado.
Cuando es determinado que el número total de los primeros candidatos de fusión es más pequeño que el número máximo determinado, la segunda unidad de derivación 815 deriva un segundo candidato de fusión que tiene un vector de movimiento que es un vector predeterminado. De manera específica, la segunda unidad de derivación 815 deriva los segundos candidatos de fusión dentro de un intervalo j en el cual la suma del número total de los primeros candidatos de i fusión y el número total de los segundos candidatos de fusión no excedan el número máximo. Aquí, la segunda unidad de derivación 815 deriva los segundos candidatos de fusión dentro de un intervalo en el cual la suma del número total de los primeros candidatos de fusión excepto el candidato idéntico y el número total de los segundos candidatos de fusión no excedan el número máximo. ¡ El vector predeterminado podría ser un vector cero como se describe en la Modalidad 7. De este modo, la segunda unidad de derivación 815 puede derivar de esta manera un candidato de fusión que tiene un vector de movimiento para una región fija. El aparato de decodificación de imagen 800 de este modo, puede decodificar, de manera adecuada, un flujo de bits codificado con un incremento en la eficiencia' de la codificación. Debe observarse que el vector predeterminado no necesita ser un vector cero.
Entonces, por ejemplo, la segunda unidad de derivación 815 registra los segundos candidatos de ¡fusión derivados de este modo en la lista de candidato de fusión cada uno en asociación con un diferente índice de candidato de fusión. En este momento, la segunda unidad de derivación 815 podría registrar los segundos candidatos de fusión en la lista de candidato de fusión, de modo que los índices de candidato de fusión asignados a los primeros candidatos de fusión son más pequeños que los índices de candidato de fusión asignados a los segundos candidatos de fusión. Con esto, el aparato de decodificación de imagen 800 . puede decodificar, de manera adecuada, un flujo de bits codificado con un incremento en la eficiencia de la codificación, i Debe observarse que la segunda unidad de derivación 815 no necesita derivar un segundo candidato de fusión de modo que la suma del número total de los primeros candidatos de fusión y el número total del segundo candidato de fusión iguala el número máximo determinado. Cuando la suma del número total de los primeros candidatos de fusión y el número total del segundo candidato de fusión es más pequeña que el número máximo determinado, por ejemplo, allí podría ser un índice de candidato de fusión con el cual ningún candidato de fusión es asociado. j La unidad de decodificación 820 decodifica un índice codificado y acoplado con un flujo de bits, que es un índice para la identificación de un candidato de fusión, utilizando el número máximo determinado.
La unidad de control de predicción 830 selecciona, en función del índice decodificado, el candidato de ,fusión que será utilizado para la decodificación de un bloque actual de los primeros candidatos de fusión y los segundos candidatos de fusión. En otras palabras, la unidad de cpntrol de predicción 830 selecciona el candidato de fusión qujs será utilizado para la decodificación de un bloque actual de la lista de candidato de fusión. j i A continuación, serán explicadas más adelante las operaciones del aparato de decodificación de imagen 800 en la configuración descrita con anterioridad.
La Figura 39 es un diagrama de flujo que muestra las operaciones de procesamiento del aparato de decodificación de imagen 800 de acuerdo con la Modalidad 8.
En primer lugar, la primera unidad de determinación 811 determina un número máximo de candidatos de fusión (S801) . La primera unidad de derivación 812 deriva un primer candidato de fusión (S802) . Cuando una pluralidad de los primeros candidatos de fusión ha sido derivada, la unidad de especificación 813 especifica un primer candidato de fusión que es un candidato idéntico, es decir, una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia idéntica a una combinación de I una dirección de predicción, un vector de movimiento,1 y un índice de imagen de referencia de cualquiera otro de los primeros candidatos de fusión (S803) .
La segunda unidad de determinación 814 determina si el número total de los primeros candidatos de fusión excepto el candidato idéntico es o no más pequeño que el número máximo determinado (S804) . Aquí, cuando es determinado que el número total de los primeros candidatos de fusión excepto el candidato idéntico es más pequeño que el número máximo Í determinado (S804, Si), la segunda unidad de derivación 815 deriva los segundos candidatos de fusión (S805) . Por otro lado, cuando es determinado que el número total de los j primeros candidatos de fusión excepto el candidato idéntico no es más pequeño que el número máximo determinado ¡(S804, No) , la segunda unidad de derivación 815 no deriva el segundo ¡ candidato de fusión. 1 La unidad de decodificación 820 decodifica un índice codificado y acoplado con un flujo de bits, que es un índice para la identificación de un candidato de fusión, utilizando el número máximo determinado (S806) .
La unidad de control de predicción 830 selecciona, en función del índice decodificado, el candidato de fusión que será utilizado para la decodificación de un bloque 'actual de los primeros candidatos de fusión y los segundos candidatos de fusión (S807) . Por ejemplo, la unidad de control de predicción 830 selecciona un candidato de fusión para el cual el costo representado por la ecuación 1 ; es un mínimo de la lista de candidato de fusión como en la Modalidad 1. ¡ Aunque el proceso es realizado, de manera que la decodificación un índice (S806) es realizada una vez cjue es derivado un candidato de fusión, el proceso no necesita ser efectuado en este orden. Por ejemplo, un candidato de fusión ¡ podría ser derivado (S802 a S805) después de la decodificación de un índice (S806) . De manera opcional, la decodificación un índice (S806) y la derivación de un candidato de fusión (S802 a S805) podrían realizarse en paralelo. Esto incrementa la velocidad de procesamiento para la decodificación.
De este modo, el aparato de decodificación de 'i.magen 800 de acuerdo con la Modalidad 8 puede derivar, como un segundo candidato de fusión, un candidato de fusió que | tiene un vector de movimiento que es un vector predeterminado. Por lo tanto, es posible que el aparato de decodificación de imagen 800 derive un candidato de fusión que tiene un vector de movimiento y otros para una región fija como un segundo candidato de fusión, por ejemplo. En otras palabras, es posible que el aparato de decodificación de imagen 800 para decodificar, de manera eficiente, un bloque actual que tiene un movimiento predeterminado, y con lo cual, se decodifica, de manera adecuada, un flujo de bits codificado con un incremento en la eficiencia de la codificación.
Además, el aparato de decodificación de imagen 800 j de acuerdo con la Modalidad 8 puede decodificar un índice para la identificación de un candidato de fusión, utilizando un número máximo determinado. En otras palabras, un ^índice puede ser decodificado, de manera independiente, del número total de candidatos de fusión actualmente derivados. Por lo tanto, incluso cuando es perdida la información necésaria para la derivación de un candidato de fusión (por ejemplo, la información sobre un bloque co- localizado) , el aparato de decodificación de imagen 800 todavía puede decodificar un índice, y con lo cuál, es mejorada la resistencia de error. Además, el aparato de decodificación de imagen 800 puede decodificar un índice sin esperar la derivación de candidatos de fusión de modo qué la derivación de candidatos de fusión y la decodificación de los índices pueden ser realizadas en paralelo. i Además, el aparato de decodificación de imagen 800 de acuerdo con la Modalidad 8 puede derivar un segundo candidato de fusión cuando es determinado que el número total i de los primeros candidatos de fusión es más pequeño que un número máximo. En consecuencia, el aparato de decodificación de imagen 800 puede incrementar el número total de candidatos de fusión dentro de un intervalo que no excede el número máximo, y puede decodificar, de manera adecuada, un flujo de bits codificado con un incremento en la eficiencia j de la codificación .
Además, el aparato de decodificación de imagen 800 de acuerdo con la Modalidad 8 puede derivar un segundo candidato de fusión en función del número total de los primeros candidatos de fusión excepto los primeros candidatos idénticos de fusión. Como resultado, el aparato de decodificación de imagen 800 puede incrementar el número total de los segundos candidatos de fusión, y con lo cual, se incrementa la variedad de combinaciones de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia a partir del cual es seleccionado un candidato de fusión. Con esto, el aparato de decodificación de imagen 800 de este modo, puede decodificar, de manera adecuada, un flujo de bits codificado con el incremento adicional de la eficiencia de la codificación. j Como en la Modalidad 6, la unidad de especificación 813 incluida en el aparato de decodificación de imagen 800 no siempre es necesaria para el aparato de decodificación de imagen 800 en la Modalidad 8. En otras palabras, la Etapa ! S803 en el diagrama de flujo mostrado en la Figura 39 no siempre es necesaria. Incluso en este caso, el aparato de decodificación de imagen 800 puede decodificar un índice para la identificación de un candidato de fusión utilizando un número máximo determinado de modo que puede ser mejorada la resistencia de error. | Además, en la Modalidad 8, aunque la unidad de especificación 813 especifica un candidato idéntico una vez que la primera unidad de derivación 812 deriva los primeros candidatos de fusión como se muestra en la Figura 39, el proceso no necesita ser realizado en este orden. Por ejemplo, la primera unidad de derivación 812 podría derivar, como un primer candidato de fusión, un candidato de fusión que es una combinación de una dirección de predicción, un vector de i I movimiento, y un índice de imagen de referencia diferente de una combinación de una dirección de predicción, un vector de < I movimiento, y un índice de imagen de referencia de cualquier primer candidato de fusión previamente derivado. De este i modo, la primera unidad de derivación 812 puede eliminar, de los primeros candidatos de fusión, un candidato de fusión que es una combinación dé una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia idéntica a una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia de cualquier primer candidato de fusión previamente derivado, i Como ? i resultado, el aparato de decodificación de imagen 800 puede incrementar el número total de los segundos candidatos de fusión, y con lo cual, se incrementa la variedad de combinaciones de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia a partir del cual es seleccionado un candidato de fusión. El aparato de decodificación de imagen 800 de este modo, puede decodificar, I de manera adecuada, un flujo de bits codificado con el incremento adicional de la eficiencia de la codificación.
En la Modalidad 8, aunque la derivación de un primer candidato de fusión es seguida por la determinación de; si el número total del primer candidato de fusión es o no más pequeño que un número máximo, y posteriormente, por la derivación de un segundo candidato de fusión, el proceso no es necesariamente realizado en este orden. Por ejemplo, en primer lugar, el aparato de decodificación de imagen 800 podría derivar un segundo candidato de fusión, y posteriormente, podría registrar el segundo candidato derivado de fusión en una lista de candidato de fusión. El aparato de decodificación de imagen 800 podría derivar, de manera subsiguiente, un primer candidato de fusión, y podría sobrescribir el segundo candidato de fusión registrado en la lista de candidato dé fusión con el primer candidato derivado de fusión.
Aunque el aparato de codificación de imagen y el aparato de decodificación de imagen de acuerdo con uno: o más aspectos de la presente invención han sido descritos en función de las modalidades, la presente invención no es limitada a las modalidades. Aquellas personas expertas en la técnica aprecian con rapidez que muchas modificaciones de las modalidades de ejemplo o las modalidades en las cuales son combinados los elementos constituyentes de las modalidades de ejemplo son posibles sin apartarse materialmente de las nuevas enseñanzas y ventajas descritas en la presente invención. Todas estas modificaciones y modalidades t'ambién se encuentran dentro de los alcances de uno o más aspectos de la presente invención. i En las modalidades de ejemplo, cada uno de los i elementos constituyentes podría implementarse como una: pieza de hardware dedicado o implementado mediante la ejecución de un programa de software adecuado para el elemento constituyente. Los> elementos constituyentes podrían implementarse mediante una unidad de ejecución del programa tal como una CPU o un procesador que lee y ejecuta un programa de software grabado en un medio de grabación tal como un disco duro b una memoria semiconductora. Aquí, los ejemplos del programa de software que implementa el aparato de codificación de imagen o el aparato de decodificación de imagen en las modalidades incluyen un programa como sigue. i De manera específica, el programa provoca que una j computadora ejecute un método de codificación de imagen que es un método para la codificación de una imagen en una base de bloque-por-bloque para generar un flujo de bits e incluye: derivar, como un primer candidato de fusión, un candidato de fusión que es una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia para uso en la codificación del bloque actual; derivar, como un segundo candidato de fusión, un candidato de fusión que tiene un vector , de movimiento que es un ¡vector predeterminado; seleccionar el candidato de fusión que será utilizado para la codificación del bloque actual a partir del primer candidato derivado de fusión y el segundo candidato derivado de fusión; y acoplar un índice para la identificación del candidato seleccionado de fusión 'en el flujo de bits.
Además, el programa provoca que una computadora ejecute un método de decodificación de imagen que 'es un método para la decodificación, en una base de bloquie-por-bloque, de una imagen codificada incluida en un flujo de bits e incluye: derivar, como un primer candidato de fusión, un candidato de fusión que es una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia para uso en la decodificación del bloque actual; derivar, como un segundo candidato de fusión, un candidato de fusión que tiene un vector de movimiento que es un vector predeterminado; obtener, a partir del flujo de bits, un índice para la identificación de un candidato de fusión; y seleccionar, en función del índice obtenido, un candidato de fusión del primer candidato de fusión y el segundo candidato de fusión, el candidato de fusión será utilizado para la decodificación de un bloque actual. , Modalidad 9 El procesamiento descrito en cada una de las modalidades puede ser simplemente implementado en un sistema independiente de computadoras, mediante la grabación, en un i medio de grabación, de un programa para la implementación de las configuraciones del método de codificación dé imagen en movimiento (el método de codificación de imagen) y el método de decodificación de imagen en movimiento (el méto'do de decodificación de imagen) descrito en cada una de las modalidades. El medio de grabación podría ser cualquier, medio de grabación con la condición que el programa pueda ser grabado, tal como un disco magnético, un disco óptico, un disco magnético óptico, una tarjeta IC, y una memoria semiconductora.
De aquí en adelante, serán descritas j las aplicaciones para el método de codificación de imagen en movimiento (el método de codificación de imagen) y el método de decodificación de imagen en movimiento (el método de decodificación de imagen) descritos en cada una dé las í modalidades y sistemas que utilizan los mismos. El sistema i tiene una característica de que tiene un aparato de codificación y decodificación de imagen que incluye un aparato de codificación de imagen que utiliza el método de codificación de imagen y un aparato de decodificación de imagen que utiliza el método de decodificación de imagen. Otras configuraciones en el sistema pueden ser cambiadas I según se ha adecuado dependiendo de los casos. ¡ La Figura 40 ilustra la configuración total ¡de un sistema de suministro de contenido exlOO para la i implementación de los servicios de distribución de contenido. El área que proporciona servicios de comunicación es dividida en celdas de tamaño deseado, y las estaciones de base exl06, exl07, exl08, exl09, y exllO que son estaciones fijas inalámbricas son colocadas en cada una de las celdas. j El sistema de suministro de contenido exlOO es conectado con dispositivos, tales como una computadora ex 111, un asistente digital personal (PDA, por sus siglas en inglés) ex 112, una cámara exll3, un teléfono celular exll4 y una máquina de juegos exll5, por medio de la Internet xlOl, un proveedor de servicio de Internet exl02, una red de teléfono exl04, así como también, las estaciones de base exl06 a exllO, de manera respectiva. ; Sin embargo, la configuración del sistema de suministro de contenido exlOO no es limitada a la configuración mostrada en la Figura 40, y es aceptable una combinación en la cual son conectados cualquiera de los elementos. En adición, cada dispositivo podría ser directamente conectado con la red de teléfono exl04, en lugar que por medio de las estaciones de base exl06 a exllO las cuales son estaciones fijas inalámbricas. Además > los dispositivos podrían ser interconectados entre sí por medio de una comunicación inalámbrica de corta distancia y otras.
La cámara exll3, tal como una cámara de ¡ video digital, es capaz de capturar video. Una cámara exll6, tal como una cámara digital, es capaz de capturar tanto imágenes fijas como video. Además, el teléfono celular exll4 podría ser el único que cumpla con cualquiera de los estándares tales como el Sistema Global de Comunicaciones Móvilesi (GSM, por sus siglas en inglés) (marca comercial registrada) , el Acceso Múltiple de División de Código (CDMA, por sus siglas i en inglés) , el Acceso Múltiple de División de Código de' Banda Ancha ( -CDMA, por sus siglas en inglés) , la Evolución a Largo Plazo (LTE, por sus siglas en inglés) , y Acceso de Paquete de Alta (HSPA, por sus siglas en inglés) . En ; forma alterna, el teléfono celular exll4 podría ser un Sistema Portátil Personal de Teléfono (PHS, por sus siglas en inglés) .
En el sistema de suministro de contenido exlÓO, un servidor de transferencia exl03 es conectado con la cámara exll3 y otros por medio de la red de teléfono exl04 y la estación de base exl09, lo cual permite la distribución de imágenes de un programa en directo y otros. En esta distribución, el contenido (por ejemplo, el video !de un programa de música en directo) capturado por el usuario que utiliza la cámara exll3 es codificado como se describe con anterioridad en cada una de las modalidades (es decir, la cámara funciona como el aparato de codificación de imagen de acuerdo con un aspecto de la presente invención) , y el contenido codificado es transmitido al serviddr de transferencia exl03. Por otro lado, el servidor de transferencia exl03 realiza la distribución de flujo de los datos transmitidos de contenido a los clientes en función de sus peticiones. la PDA exll2, l la máquina de juegos exll5 que son capaces de decodificar los ; i datos codificados que se mencionan con anterioridad. Cada uno de los dispositivos que ha recibido los datos distribuidos, decodifica y reproduce los datos codificados (es decir, funciona como el aparato de decodificación de imagen de acuerdo con un aspecto de la presente invención) . i Los datos capturados podrían ser codificados por la cámara exll3 o el ; servidor de transferencia exl03 que transmite los datos, o el proceso de codificación podría ser compartido entre la cámara exll3 y el serviddr de I transferencia exl03.- En forma similar, los datos distribuidos podrían ser decodificados por los clientes o el servidor de transferencia exl03, o los procesos de decodificación podrían i ser compartidos entre los clientes y el servidor de transferencia exl03. Además, los datos de las imágenes fijas y del video capturado no sólo por también por la cámara exllfí podrían servidor de transferencia exl03 a través de la computadora exlll. El proceso de codificación podría ser realizado ¡por la cámara exll6, la computadora exlll, o el servidor de transferencia exl03, o podría ser compartido entre ellos.
Además, los procesos de codificación y decodificación podrían ser realizados por un LSI ex500 que es generalmente incluido en cada una de la computadora exlll y i i los dispositivos. El LSI ex500 podría ser configurado a partir de un chip único o una pluralidad de chips . El software para la codificación y decodi icación de i video podría ser integrado en algún tipo de un medio de grabación (tal como un CD-ROM, un disco flexible, y un disco duro) que pueda ser leído por la computadora exlll y otros, ¡y los procesos de codificación y decodificación podrían ser realizados utilizando el software. Además, cuando el teléfono celular exll4 es equipado con una cámara, podrí n ser transmitidos los datos de video obtenidos por la cámara. Los datos de video son datos codificados por el LSI ; ex500 incluido en el teléfono celular exll4.
Además, el servidor de transferencia exl03 podría estar compuesto de servidores y computadoras, y podría descentralizar los datos y podría procesar los datos descentralizados, podría grabar o distribuir los datos.
Como se describe con anterioridad, los clientes podrían recibir y reproducir los datos codificados en el sistema de suministro de contenido exlOO. En otras palabras, los clientes pueden recibir y decodificar la información trasmitida por el usuario, y puede reproducir los datos decodificados en tiempo real en el sistema de suministro de contenido exlOO, de modo que el usuario que no tiene ningún derecho y equipo particular por implementar la radiodifusión personal .
Además del ejemplo del sistema de suministro de contenido exlOO, al menos uno del aparato de codificación de imagen en movimiento (el aparato de codificación de imagen) y el aparato de decodificación de imagen en movimiento (el aparato de decodificación de imagen) descritos en cada úna de las modalidades, podría implementarse en un ¡sistema de radiodifusión digital ex200 ilustrado en la Figura 41. De manera más específica, una estación de radiodifusión ex201 se comunica o transmite, por medio de las ondas de radio con un satélite de radiodifusión ex202, los datos multipléxados obtenidos mediante la multiplexión de los datos de audio y í I otros sobre los datos de video. Los datos de video son los datos codificados por el método de codificación de imagen en movimiento descrito en cada una de las modalidades (es decir, los datos codificados por el aparato de codificación de imagen de acuerdo con un aspecto de la presente invención) .
En función de la recepción de los datos multiplexados, el satélite de radiodifusión ex202 transmite las ondas de radio para la radiodifusión. Entonces, una antena de uso doméstico ex204 con una función de recepción de radiodifusión de satélite recibe las ondas de radio. A continuación, un dispositivo tal como una televisión (receptor) ex300 y un convertidor de señal de televisión (STB) ex217 decodifica los datos recibidos multiplexados, y reproduce los datos decodificados (es decir, funciona como el aparato de decodificación de imagen de acuerdo con un aspecto de la presente invención) .
Además, un lector/grabadora ex218 (i) lee y decodifica los datos multiplexados grabados en un medio de grabación ex215, tal como un DVD y un BD, o (i) también codifica las señales de video en el medio de grabación éx215, i y en algunos casos, escribe los datos obtenidos mediante la multiplexión de una señal de audio en los datos codificados.
El lector/grabadora ex218 puede incluir el aparato de decodificación de imagen en movimiento o el aparato de ; I codificación de imagen en movimiento como se muestra en cada I una de las modalidades. En este caso, las señales reproducidas de video son visualizadas en el monitor ex219, y pueden ser reproducidas por otro dispositivo o sistema utilizando el medio de grabación ex215 en el cual son grabados los datos multiplexados. También es posible implementar el aparato de decodificación de imagen en movimiento en el convertidor de señal de televisión b0xex217 conectado con el cable ex203 para una televisión de cable o para la antena ex204 para la radiodifusión satelital y/o terrestre, para así visualizar las señales de video en el i monitor ex219 de la televisión ex300. El aparato de decodificación de imagen en movimiento podría implementarse i no en el convertidor de señal de televisión bOxbut en la i televisión ex300. : La Figura 42 ilustra la televisión (receptor) ; ex300 I que utiliza el método de codificación de imagen en movimiento i y el método de décodificación de imagen en movimiento descrito en cada una de las modalidades. La televisión; ex300 incluye: un sintonizador ex301 que obtiene o proporciona los datos multiplexados obtenidos mediante la multiplexión de los datos de audio sobre los datos de video, a través ¡de la antena ex204 o el cable ex203, etc., que recibe una radiodifusión; una unidad de modulación/desmodulación ex302 que desmodula los datos recibidos multiplexados o modula los datos en los datos multiplexados que serán suministrados I hacia el exterior; y una unidad ' de multiplexión/desmultiplexión ex303 que desmultiplexa los datos modulados multiplexados en los datos de video y los I datos de audio, o multiplexa los datos de video y los datos de audio codificados1 por una unidad de procesamiento de; señal ex306 en datos. j La televisión ex300 además incluye: una unidad de procesamiento de señal ex306 que incluye una unidad de procesamiento de señal de audio ex304 y una unidad de procesamiento de señal de video ex305 que decodifica los datos de audio y los datos de video y que codifica los datos I de audio y los datos de video, de manera respectiva (que funciona como el aparato de codificación de imagen i y el aparato de decodificación de imagen de acuerdo con los aspectos de la presente invención) ; y una unidad de salida ex309 que incluye un altavoz ex307 que proporciona la¡ señal i decodificada de audio, y una unidad de visualización i ex308 que visualiza la señal de codificada de video, tal como una i visualización. Además, la televisión ex300 incluye una unidad i de interfaz ex317 que incluye una unidad de entrada de operación ex312 que recibe una entrada de una operación de usuario. Además, la televisión ex300 incluye una unidad de control ex310 que controla la totalidad de cada elemento constituyente de la televisión ex300, y una unidad de circuito de abastecimiento de energía ex311 que abastece la energía a cada uno de los elementos. Diferente de la unidad de entrada de operación ex312, la unidad de interfaz ex317 podría incluir: un puente ex313 que es conectado con un dispositivo externo, tal como el lector/grabadora ex2Í;8; una unidad de ranura ex314 que permite el acoplamiento del medio de grabación ex216, tal como una tarjeta SD; una unidad de disco ex315 que sera conectada con un medio externo de grabación, tal como un disco duro; y un módem ex316 que será conectado con una red de teléfono. Aquí, el medio de grabación ex216 puede registrar eléctricamente la información utilizando un elemento de memoria a semiconductora no volátil/volátil para el almacenamiento. Los elementos constituyentes de la televisión ex300 son conectados entre sí a través de un bus sincronizado. ' En primer lugar, será descrita la configuración en í la cual la televisión ex300 decodifica los datos multiplexados que son obtenidos del exterior a través ! de la antena ex204 y otros y reproduce los datos decodificadós . En I la televisión ex300, en función de una operación de usuario a través de un controlador remoto ex220 y otros, la unidad de multiplexión/desmultiplexión ex303 desmultiplexa los datos multiplexados desmodulados por la unidad i de modulación/desmodulación ex302, bajo el control de la unidad de control ex310 que incluye una CPU. Además, la unidad de procesamiento de señal de audio ex304 decodifica los ¡datos desmultiplexados de audio, y la unidad de procesamiento de señal de video ex305 decodifica los datos desmultiplexados de video, utilizando el método de decodificación descrito en cada una de las modalidades, en la televisión ex3Ó0. La unidad de salida ex309 proporciona la señal decodificáda de i video y la señal decodificáda de audio, de manera respectiva. Cuando la unidad de salida ex309 proporciona la señal de video y la señal de audio, las señales podrían ser I temporalmente almacenadas en las memorias intermedias e'x318 y ex319, y otros, de modo que las señales son reproducidas en sincronización entre sí. Además, la televisión ex300 podría leer los datos multiplexados no a través de una red difusión y otros sino partir del medio de grabación ex215 y ex216, tal como un disco magnético, un disco óptico, y una tarjeta SD. A continuación, será descrita una configuración en la cual la televisión ex300 codifica una señal de audio y una se al de video, y transmite lós datos hacia afuera o escribe los¡ datos en un medio de grabación. En la televisión ex300, en función I de una operación de usuario a través del controlador remoto ex220 y otros, la unidad de procesamiento de señal dej audio ex304 codifica una señal de audio, y la unidad de procesamiento de señal de video ex305 codifica una señal de video, bajo el control de la unidad de control i ex310 utilizando el método de codificación descrito en cada úna de las modalidades. La; unidad de multiplexión/desmultiplexión ex303 multiplexa las señales codificadas de video y audio, y proporciona la señal resultante hacia el exterior. Cuando la unidad de multiplexión/desmultiplexión ex303 multiplexa la señal de video y la señal de audio, las señales podrían ser temporalmente almacenadas en las memorias intermedias ex320 y I ex321, y otros, de modo que las señales son reproducidas en sincronización entre sí. Aquí, las memorias intermedias ex318, ex319, ex320, y ex321 podrían ser plurales como es i ilustrado, o al menos una memoria intermedia podría ser compartida en la televisión ex300. Además, los datos podrían ser almacenados en una memoria intermedia, de modo que pudiera ser evitado el exceso y falta de flujo del sistema por ejemplo, entre la unidad de modulación/desmodulación ex302 y la unidad de multiplexión/desmultiplexión ex303¡ Además, la televisión ex300 podría incluir una i configuración para la recepción de una entrada AV a partir de un micrófono o una cámara diferente de la configuración para la obtención de los datos de audio y video dé una radiodifusión o un medio de grabación, y podría codificar los datos obtenidos. Aunque la televisión ex300 puede codificar, multiplexa y proporcionar hacia afuera los datos en la descripción, ésta podría ser capaz sólo de recibir, decodificar y proporcionar hacia el exterior los datos aunque í no podría codificar, multiplexa y proporcionar hacia el exterior los datos . ¡ I Además, cuando el lector/grabadora ex218 'lee o escribe los datos multiplexados a partir o en un medio de grabación, uno de la televisión ex300 y el lector/grabadora ex218 podría decodificar o codificar los datos multiplexados, y la televisión ex300 y el lector/grabadora ex218 podrían compartir la decodificación o codificación. j Como un ejemplo, la Figura 43 ilustra una configuración de una unidad de reproducción/grabación de información ex400 cuando los datos son leídos o escritos a i partir o en un disco óptico. La unidad de reproducción/grabación de información ex400 incluye los elementos constituyentes ex401, ex402, ex403, ex404, ex405, I ex406, y ex407 que serán posteriormente descritos. La cabeza óptica ex401 irradia un sitio de láser en una superficie de grabación del medio de grabación ex215 que es un disco pptico para escribir la información, y detecta la luz reflejada de ¡ la superficie de grabación del medio de grabación ex215 para leer la información. La unidad de grabación de modulación ex402 excita eléctricamente un láser semiconductor incluido en la cabeza óptica ex401, y modula la luz láser de acuerdo con los datos grabados. La unidad de desmodulación de reproducción ex403 amplifica una señal de reproducción obtenida al detectar eléctricamente la luz reflejada ;de la superficie de grabación utilizando un foto-detector incluido en la cabeza óptica ex401, y desmodula la señal de reproducción al separar un componente de señal grabado en el medio de grabación ex215 para reproducir la información necesaria. La memoria intermedia ex404 retiene, en! forma temporal, la información que será grabada en el medio de grabación ex215 y la información reproducida a partir del medio de grabación ex215. El motor de disco ex405 gira el medio de grabación ex215. La unidad de control ser O| ex406 mueve la cabeza óptica ex401 hasta una pista predeterminada I de información mientras controla la impulsión de rotación del motor de disco ex405 para así seguir el sitio de láser. La unidad de control del sistema ex407 controla la totalidad de la unidad de reproduceión/grabación de información ex400. Los procesos de lectura y escritura pueden ser implementadbs por la unidad de control del sistema ex407 utilizando distintas ! informaciones almacenadas en la memoria intermedia ex404 y generando y agregando nueva información según sea nece ario, y por la unidad de grabación de modulación ex402, la unidad i de desmodulación de reproducción ex403, y la unidad de control servo ex406 que registran y reproduce la información a través de la cabeza óptica ex401 mientras están siendo i operadas en un modo coordinado. La unidad de control del sistema ex407 incluye, por ejemplo, un microprocesador, y ejecuta el procesamiento provocando que una computadora ejecute un programa para la lectura y escritura. ; Aunque la cabeza óptica ex401 irradia un sitio de láser en la descripción, ésta podría realizar la grabación de alta densidad utilizando luz de campo cercano.
La Figura 44 ilustra el medio de grabación ex215 que es el disco óptico. En la superficie de grabación del: medio de grabación ex215, las ranuras seguía son espiralmente formadas, y una pista de información ex230 graba por adelantado, la información de dirección que indica la posición absoluta en, el disco de acuerdo con el cambio¡ en la forma de las ranuras de guía. La información de dirección incluye la información que determina las posiciones de los bloques de grabación ex231 que se encuentran en una unidad para la grabación de los datos. La reproducción de la| pista de información ex230 y la lectura de la información de dirección en un aparato que graba y reproduce los ¡ datos I pueden conducir a la determinación de las posiciones de los bloques de grabación. Además, el medio de grabación ex215 incluye un área de grabación de datos ex233, un área de circunferencia interior ex232, y un área de circunferencia exterior ex234. El área de grabación de datos ex233 Jes un área para uso en la grabación de los datos de usuario. El área de circunferencia interior ex232 y el área de circunferencia exterior ex234 que se encuentran dentro y fuera del área de " grabación de datos ex233, de manera respectiva, son para uso específico excepto para la grabación de los datos de usuario. La unidad de reproducción/grabación ? de información 400 lee y escribe los datos codificados de audio y de video, o los datos multiplexados obtenidos mediante la multiplexión de los datos codificados de audio y video, a partir y en el área de grabación de datos ex233 del medio de grabación ex215.
Aunque un disco óptico que tiene una capa, tal como I un DVD y un BD es descrito como un ejemplo en la descripción, el disco óptico no es limitado a este, y podría ser un¡ disco i óptico que tiene una estructura de múltiples capas y la capacidad de ser grabado en una parte diferente ;de la superficie. Además, el disco óptico podría tener una estructura para la grabación/reproducción de múl|tiples dimensiones, tal como la grabación de información utilizando luz de colores con diferentes longitudes de onda en la; misma ! porción del disco óptico y para la grabación de información que tiene diferentes capas a partir de varios ángulos. j " ! Además, un automóvil ex210 que tiene una antena ex205 puede recibir datos del satélite ex202 y otros, y ! reproduce video en un dispositivo de visualización, tal como un sistema de navegación de automóvil ex211 colocado en el automóvil ex210, erí el sistema de radiodifusión digital ex200. Aquí, una configuración del sistema de navegación de automóvil ex211 será una configuración que incluye', por ejemplo, una unidad de recepción GPS de la configuración ilustrada en la Figura 42. Lo mismo será verdadero para la 1 configuración de la computadora exlll, el teléfono celular exll4, y otros.
La Figura 45A ilustra el teléfono celular exll4 que utiliza el método de codificación de imagen en movimiento y i el método de decodificación de imagen en movimiento descrito en las modalidades. El teléfono celular exll4 incluye: una ! antena ex350 para la transmisión y recepción de las ondas de radio a través de la estación de base exllO; una unidad de i cámara ex365 capaz de capturar las imágenes fijas y en movimiento; y una unidad de visualización ex358 tal como una pantalla de cristal líquido que visualiza los datos tales como el video decodificado que es capturado por la unidad de cámara ex365 o recibido por la antena ex350. El teléfono celular exll4 además incluye: una unidad de cuerpo principal que incluye una unidad de tecla de operación ex366; una unidad de salida de audio ex357 tal como un altavoz para la salida de audio; una unidad de entrada de audio ex356 tal como un micrófono para la entrada de audio; una unidad de memoria ex367 que almacena las imágenes capturadas de video o fijas, en la audio grabado, los datos codificados o decodificados del video recibido, las imágenes fijas!, los correos electrónicos u otros; y una unidad de ranura ex364 que es una unidad de interfaz para un medio de grabación que almacena datos en el mismo modo que la unidad de memoria ex367. ; A continuación, será descrito un ejemplo de una configuración del teléfono celular exll4 con referencia una Figura 45B. En el teléfono celular exll4, una unidad de control principal ex360 designada para controlar la totalidad de cada unidad del cuerpo principal que incluye la unidad de visualización ex358 así como también, la unidad de tecla de operación ex366 que es mutuamente conectada, por medio de un I bus sincronizado ex370, con una unidad de circuito de abastecimiento de energía ex361, una unidad de control de entrada de operación ex362, una unidad de procesamiento de señal de video ex355, una unidad de interfaz de cámara ex363, una unidad de control de pantalla de cristal líquido (LED) ex359, una unidad de modulación/desmodulación ex352, una unidad de multiplexión/desmultiplexión ex353, una unidad de procesamiento de señal de audio ex354, una unidad de ranura ex364 y una unidad de memoria ex367.
Cuando una tecla de llamada de final b tecla de energía es encendida mediante la operación de usuario, la unidad de circuito de abastecimiento de energía ex361 suministra a las respectivas unidades energía a parti · de un paquete de baterías para así activar el teléfono celular ex 114.
En el telefono celular exll4, la unidad de procesamiento de señal de audio ex354 convierte las señales I de audio recolectadas por la unidad de entrada de audio ex356 I i en un modo de conversación de voz en señales de audio digital bajo el control de ía unidad de control principal ex360 que incluye una CPU, una ROM y una RAM. Entonces, la unidad de modulación/desmodulación ex352 realiza el procesamiento de espectro de dispersión en las señales de audio digital, y la unidad de transmisión y recepción ex351 realiza la conversión de digital-a-analógica y la conversión de frecuencia en función de los datos, para así transmitir los ; datos resultantes por medio de la antena ex350. Asimismo, jen el teléfono celular exll4, la unidad de transmisión y recepción I ex351 amplifica los datos recibidos por la antena ex350 en un modo de conversación de voz y realiza la conversión de frecuencia y la conversión de analógico-a-digital en los i datos. Entonces, la unidad de modulación/desmodulación; ex352 realiza el procesamiento de espectro inverso de dispersión en los datos, y la unidad de procesamiento de señal de audio ex354 y los convierte en señales de audio analógico para darles salida por medio de la unidad de salida de ¦ audio ex357. ; Además, cuando es transmitido un correo electrónico en el modo de comunicación de datos, los datos de texto del correo electrónico entrado mediante la operación de la unidad de tecla de operación ex366 y otros del cuerpo principal son enviados hacia afuera a la unidad de control principal i ex360 por medio de la unidad de control de entrada de operación ex362. La unidad de control principal ex360 provoca que la unidad de modulación/desmodulación ex352 efectúe el procesamiento de espectro de dispersión en los datos de texto, y la unidad de transmisión y recepción realiza la conversión de digital-a-analógico y la conversión de j frecuencia en los datos resultantes para transmitir los1 datos a la estación de base exllO por medio de la antena ¡ex350. Cuando es recibido un correo electrónico, el procesamiento que es aproximadamente inverso para el procesamiento para la transmisión de un correo electrónico es efectuado en los i datos recibidos, y los datos resultantes son proporcionados a la unidad de visualización ex358. ¡ Cuando el video, las imágenes fijas, o video y audio i en el modo de comunicación de datos es o son transmitidos, la unidad de procesamiento de señal de video ex355 comprime y 1 codifica las señales de video suministradas a partir ,de la unidad de cámara ex3'65 utilizando el método de codificación de imagen en movimiento mostrado en cada una dé las modalidades (es décir, funciona como el aparato de codificación de imagen de acuerdo con el aspecto de la presente invención) , y transmite los datos codificados de video a la unidad de multiplexión/desmultiplexión ex35:3. En contraste, cuando la unidad de cámara ex365 captura el video, las imágenes fijas, y otros, la unidad de procesamiento de señal de audio ex354 codifica las señales de ¡audio recolectadas por la unidad de entrada de audio ex356, y transmite los datos codificados de audio a la unidad de multiplexión/desmultiplexión ex353.
La unidad de multiplexión/desmultiplexión ¡ ex353 multiplexa los datos codificados de video suministrados a partir de la unidad de procesamiento de señal de video! ex355 y los datos codificados de audio suministrados a partir de la unidad de procesamiento de señal de audio ex354, utilizando un método predeterminado. Entonces, la unidad de modulación/desmodulación (la unidad de circuito ¡ de modulación/desmodulación) ex352 realiza el procesamiento de espectro de dispersión en los datos multiplexados , ¡ y la i unidad de transmisión y recepción ex351 realiza la conversión de digital -a-analógico y la conversión de frecuencia én los datos para así transmitir los datos resultantes por medio de la antena ex350. ¦ ; i Cuando se reciben los datos de un archivo de ! video que se encuentran enlazados con una página web y otros en el modo de comunicación de datos o cuando se recibe un correo electrónico con video y/o audio acoplado, con el propósito de decodificar los datos multiplexados recibidos por medio < de la antena ex350, la unidad de multiplexión/desmultiplexión , ex353 desmultiplexa los datos multiplexados en un flujo de bits de datos de video y un flujo de bits de datos de audio, y suministra a la unidad de procesamiento de señal de i video ex355 los datos codificados de video y a la unidad de procesamiento de señal de audio ex354 los datos codificados de audio, a través del bus sincronizado ex370. La unidad de procesamiento de señal de video ex355 decodifica la señal de video utilizando un método de decodificación de imagen en movimiento que corresponde con el método de codificación de imagen en movimiento mostrado en cada una de las modalidades (es decir, funciona como el aparato de decodificación de imagen de acuerdo con el aspecto de la presente invención) , y posteriormente, la unidad de visualización ex358 visjualiza por ejemplo, las imágenes de video y fijas incluidas en el archivo de video enlazado con la página web por medio de la i unidad de control LED ex359. Además, la unidad de procesamiento de señal de audio ex354 decodifica la señal de audio, y la unidad de salida de audio ex357 proporciona el audio .
Además, en forma similar a la televisión ex30Ó, una terminal tal como el teléfono celular exll4 probablemente tiene 3 tipos de configuraciones de implementación que incluyen no sólo (i) una terminal de transmisión y recepción que incluye tanto un! aparato de codificación como un aparato de decodificación, sino también (ii) una terminal de transmisión que incluye sólo un aparato de codificación y (iii) una terminal de recepción que incluye sólo un aparato de decodificación. Aunque el sistema de radiodifusión digital I i ex200 recibe y transmite los datos multiplexados obtenidos mediante la multiplexión de los datos de audio sobre los datos de video en la descripción, los datos multiplexados podrían ser datos obtenidos mediante la multiplexión \ no de i los datos de audio sino de los datos de carácter relacionados con el video sobre los datos de video, y podrían ser no los i datos multiplexados sino los datos de video por sí mismos.
Como tal, el método de codificación de imagen en movimiento y el método de decodificación de imagen en movimiento en cada una de las modalidades pueden ser utilizados en cualquiera de los dispositivos y sistemas descritos. De esta manera, pueden ser obtenidas las ventajas descritas en cada una de las modalidades. i i Además, la presente invención no es limitada ! a las modalidades, y varias modificaciones y revisiones son posibles sin apartarse del alcance de la presente invención.
Modalidad 10 J Los datos de video pueden generarse mediante el cambio, según sea necesario, entre (i) el método de I codificación de imagen en movimiento o el aparato de codificación de imagen en movimiento mostrados en cada una de las modalidades y (ii) el método de codificación de imagen en movimiento o el aparato de codificación de imagen en movimiento de conformidad con un estándar diferente, tal como MPEG-2, MPEG-4 AVC, y VC-1. | Aquí, cuando una pluralidad de los datos de video que se conforma en los diferentes estándares es generada y posteriormente es decodificada, los métodos de decodificación necesitan ser seleccionados para conformarse eri los respectivos estándares. Sin embargo, debido a que no puede ser detectado en cual estándar se conforma cada uno I de la pluralidad de los datos de video que serán decodificados , existe un problema que un método adecuado de decodifijcación no puede ser seleccionado. ! Con el propósito de resolver el problema, los; datos ¡ multiplexados que son obtenidos mediante la multiplexión de los datos de audio y otros sobre los datos de video, ^tienen una estructura que incluye la información de identificación que indica en cual estándar se conforman los datos de video. i La estructura específica de los datos multiplexados que incluye los datos de video generados en el método de ' i codificación de imagen en movimiento y por medio del aparato de codificación de imagen en movimiento mostrado en cada una de las modalidades será descrita de aquí en adelanté. Los datos multiplexados son un flujo digital en el formato de Flujo de Transporte MPEG-2. i La Figura 46 ilustra una estructura de los datos multiplexados. Como és ilustrado en la Figura 46, los ! datos multiplexados pueden ser obtenidos mediante la multiplexión al menos en uno de un flujo de video, un flujo de audio, un flujo de gráficos de presentación (PG, por sus siglas en inglés) y un flujo de gráficos interactivos. El flujo de i video representa el video primario y el video secundario de una película, el flujo de audio (IG) representa una parte de audio primario y la parte de audio secundario qué será mezclada con la parte de audio primario, y el flujo de í gráficos de presentación representa los subtítulos de la película. Aquí, el video primario es el video normal que será visualizado en una pantalla, y el video secundario es el video que será visualizado en una ventana más pequeña! en el i video primario. Además, el flujo de gráficos interactivos representa una pantalla interactiva que será generada mediante la colocación de los componentes GUI en una pantalla. El flujo de video es codificado en el método de codificación de imagen en movimiento o por medio del aparato de codificación de imagen en movimiento mostrado en c ela una 1 de las modalidades, o en el método de codificación de imagen en movimiento o por medio del aparato de codificación de imagen en movimiento de conformidad con un estándar convencional, tal como MPEG-2, MPEG-4 AVC, y VC-1. Eli flujo de audio es codificado de acuerdo con un estándar, tali como Dolby-AC-3, Dolby PCM lineal.
Cada flujo "incluido en los datos multiplexados es identificado mediante una PID. Por ejemplo, 0x1011 es distribuido al flujo de video que será utilizado para el video de una película, 0x11 00 a OxlllF son distribuidos a los flujos de audio, 0x1200 a 0xl21F son distribuidos a los flujos de gráficos de presentación, 0x1400 a 0xl41F son distribuidos a los flujos de gráficos interactivos, OxlBOO a OxlBlF son distribuidos a los flujos de video que j serán utilizados para el video secundario de la película, y OxlAOO a OxlAlF son distribuidos a los flujos de audio que j serán utilizados para el audio secundario que será mezclado con el audio primario. | La Figura 47 ilustra, de manera esquemática, la manera como son multiplexados los datos. En primer lugar, un flujo de video ex235 compuesto de cuadros de video y un flujo de audio ex238 compuesto de cuadros de audio son transformados en un flujo de los paquetes PES ex236 y un flujo de los paquetes PES ex239, y además en los paquetes TS ex2 7 y los paquetes TS ex240, de manera respectiva. En; forma similar, los datos de un flujo de gráficos de presentación ex241 y los datos de un flujo de gráficos interactivos ¡ ex244 son transíorinados en un flujo de los paquetes PES ex242 y un flujo de los paquetes PES ex245, y además en dos paquetes TS ex243 y los paquetes TS ex246, de manera respectiva. Estos paquetes TS son multiplexados en un flujo para obtener los datos multiplexados ex247. ¡ La Figura 48 ilustra la manera como es almacenádo un flujo de video en un flujo de los paquetes PES en1 mayor detalle. La primera barra en la Figura 48 muestra un flujo de cuadros de video en un flujo de video. La segunda j barra muestra el flujo de los paquetes PES. Como es indicado por las flechas de notadas como yyl, yy2 , yy3 , e yy4 en la Figura 48, el flujo de video es dividido en imágenes como las imágenes I, las imágenes B, y las imágenes P cada una de las cuales es una unidad de presentación de video, y las imágenes son almacenadas en una carga útil de cada uno de los paquetes PES. Cada uno de los paquetes PES tiene un encabezado PES, y i el encabezado PES almacena una activa muy la Marca de Tiempo de Presentación (PTS, por sus siglas en inglés) que indica el tiempo de visualización de la imagen, y una Marca de Tiempo de Decodificación (DTS, por sus siglas en inglés) que indica el tiempo de decodificación de la imagen.
La Figura 49 ilustra un formato de los paquetees TS que serán finalmente escritos sobre los datos multiplexados .
Cada uno de los paquetes TS es un paquete de longitud fija de 188-bytes que incluye un encabezado TS de 4-bytes que ' tiene información, tal como una PID para la identificación de un flujo y una carga útil TS de 184-bytes para el almacenamiento de los datos. Los paquetes PES son divididos y almacenados en las cargas útiles TS, de manera respectiva. Cuando es utilizada una SO ROM, cada uno de los paquetes TS le es dado un TP_Extra_Header de 4-bytes, de esta manera, se originan I paquetes de origen de 192-bytes. Los paquetes de origen son escritos en los datos multiplexados. El TP_Extra_Header almacena la información tal como una Arrival_Time_Stamp (ATS) . La ATS muestra el tiempo de inicio de transferencia en ¡ el cual cada uno de los paquetes TS será transferido a un filtro PID. Los paquetes de origen son colocados en los datos multiplexados como es mostrado en la parte inferior de la Figura 49. Los números que se incrementan a partir ¡de la í parte delantera de los datos multiplexados son ll!amados números de paquete de origen (SPNs) .
Cada uno de los paquetes TS incluidos en los datos multiplexados incluye no sólo los flujos de audio, ¡video, : I subtítulos y otros, sino también una Tabla de Asociación de programa (PAT, por sus siglas en inglés) , una Tabla de Mapa de programa (PMT, por sus siglas en inglés) , y una Referencia de Reloj de programa, (PCR, por sus siglas en inglés). La PAT muestra que indica una PID en una PMT utilizada en los: datos multiplexados, y una PID de la PAT por sí misma es registrada como cero. La PMT almacena las PIDs de los flujos de video, audio, subtítulos y otros incluidos en los ¡ datos i multiplexados, y la información de atributo de los flujos que corresponden con las PIDs. La PMT también tiene varios descriptores que se refieren a los datos multiplexados. Los descriptores tienen información tal como la información de control de copia que muestra si el copiado de los I datos multiplexados es ermitido o no. La PCR almacena la información de tiempo STC que corresponde con un ATS que muestra cuando es transferido cuando el paquete PCRi a un decodificador, con el propósito de conseguir la sincronización entre un Reloj de Tiempo de Llegada que es un eje de tiempo de las ATSs, y un Reloj de de Sistema (STC) que es un eje de tiempo de las PTSs y OTSs.
La Figura 50 ilustra la estructura de datos ¡ de la PMT en detalle. Un encabezado PMT es situado en la I parte superior de la PMT. El encabezado PMT describe la longitud de los datos incluidos en la PMT y otros. Una pluralidad de descriptores que se refieren a los datos multiplexados es situada después del encabezado PMT. La información tal como la información de control de copia es descrita en los descriptores. Después de los descriptores, una pluralidad de i I piezas de información de flujo que se refieren a los flujos incluidos en los datos multiplexados es desechada. Cada pieza de la información de flujo incluye descriptores de flujo, cada uno describe la información, tal como el tipo de ; flujo que identifica un códec de compresión de un flujo, una PID de flujo, y la información de atributo de flujo (tal cqmo la velocidad de cuadro o la relación entre dimensiones) . Los descriptores de flujo son iguales en número al número de flujos en los datos multiplexados.
Cuando los datos multiplexados son grabados en un i ! medio de grabación y otros, estos son grabados junto con los archivos de información de datos multiplexados.
Cada uno de los archivos de información de datos multiplexados es la información de manejo de los I datos multiplexados como se muestra en la Figura 51. Los archivos de información de datos multiplexados se encuentran en una correspondencia de uno a uno con los datos multiplexados, y cada uno de los archivos incluye la información de I datos multiplexados, la información de atributo de flujo y un mapa de entrada. j Como es ilustrado en la Figura 51, la información de datos multiplexados incluye la velocidad del sistema, el i tiempo de inicio de reproducción y el tiempo final de reproducción. La velocidad del sistema indica la velocidad máxima de transferencia en la cual un decodificador objetivo de que será posteriormente descrito transfiere los ¡ datos multiplexados a un filtro PID . Los intervalos de las ATSs incluidas en los datos multiplexados son establecidos para que no sean más grandes que la velocidad del sistema. El tiempo de inicio de reproducción indica una PTS en un cuadro de video en la parte delantera de los datos multiplexadós . Un intervalo de un cuadro es agregado a una PTS en un cuadro de video en el final de los datos multiplexados, y la PTS es colocada en el tiempo final de reproducción.
Como se muestra en la Figura 52, una pieza de la información de atributo es registrada en la información de atributo de flujo, para cada PID de cada flujo incluido en los datos multiplexados . Cada pieza de la información de i atributo tiene diferente información que depende ¡si el correspondiente flujo es un flujo de video, un flujo de audio, un flujo de gráficos de presentación, o un flujo de gráficos interactivos. Cada pieza de la información de atributo de flujo de video lleva la información que incluye I qué tipo de códec de compresión es utilizado para la comprensión del flujo de video, y la resolución, la reilación I entre dimensiones y la velocidad de cuadro de las piezas de los datos de imagen que son incluidos en el flujo de Cada pieza de la información de atributo de flujo de audio lleva la información que incluye qué tipo de códec de compresión es utilizado para la compresión del flujo de audio, la manera como son incluidos muchos canales en el flujo de audio, qué idioma soporta el flujo de audio, y qué tan alta es la frecuencia de muestreo. La información de atributo de flujo dé video y la información de atributo de flujo de audio son utilizadas para la inicialización de un decodificador antes que el reproductor reproduzca la información.
En la presente modalidad, los datos multiplexados que serán utilizados son de un tipo de flujo incluido en la PMT. Además, cuando los datos multiplexados son grabados en un medio de grabación, es utilizada la información de atributo de flujo de video incluida en la información de datos multiplexados. De manera más específica, el método de codificación de imagen en movimiento o el aparato de codificación de imagen en movimiento descritos en cada una de í las modalidades incluye una etapa o una unidad para la distribución de la información única que indica los datos de video generados por el método de codificación de imagen en movimiento o el aparato de codificación de imagen en movimiento en cada una de las modalidades, hacia el tipo de i flujo incluido en la P T o la información de atributo de flujo de video. Con la configuración, los datos de video generados por el método de codificación de imagen en movimiento o el aparato de codificación de imagen en movimiento que son descritos en cada una de las modalidades pueden ser distinguidos de los datos de video que se conforman en otro estándar.
Además, la Figura 53 ilustra las etapas del método de decodificación de imagen en movimiento de acuerdo con la presente modalidad. En la Etapa exSlOO, el tipo de > flujo incluido en la PMT o la información de atributo de flujo de video incluida en la información de datos multiplexados son obtenidos a partir de los datos multiplexados. A i continuación, en la Etapa exSlOl, es determinado si el tipo de flujo o la información de atributo de flujo de video indica que los datos multiplexados son generados o no por el i método de codificación de imagen en movimiento o el aparato de codificación de imagen en movimiento en cada una de las modalidades. Cuando es determinado que el tipo de fluj!o o la información de atributo de flujo de video indica que los datos multiplexados son generados por el método de I codificación de imagen en movimiento o el aparato de i codificación de imagen en movimiento en cada Una de las modalidades, en la Etapa exS102, la decodificacion es realizada por medio del método de decodificación de imagen en movimiento en cada una de las modalidades. Además, cuando el tipo de flujo o la información de atributo de flujo de video indican la conformidad con los estándares convencionales, tales como MPEG-2, MPEG-4 AVC, y VC-1, en la Etapa exS103, la decodificación es realizada por medio de un método de decodificación de imagen en movimiento de conformidad con los estándares convencionales. | Como tal, la distribución de un nuevo valor único al tipo de flujo o la información de atributo de flujo de ! video permite la determinación de si el método de decodificación de imagen en movimiento o el aparato de decodificación de imagen en movimiento que es descrito en cada una de las modalidades puede realizar o no la decodificación. Incluso cuando son i entrados los datos multiplexados que se conforman en un estándar diferente, puede ser seleccionado un método o aparato adecuado de decodificación. De esta manera, se vuelve posible la decodificación de la información sin algún error. Además, el método o aparato de codificación de imagen en movimiento, o el método o aparato de decodificación de imagen en movimiento en la presente modalidad pueden ser utiljizados en los dispositivos y sistemas descritos con anterioridad.
Modalidad 11 Cada uno del método de codificación de imagen en movimiento, del aparato de codificación de imagen en movimiento, del método de decodificación de imagen en i movimiento y del aparato de decodificación de imagen en movimiento en cada una de las modalidades es típicamente conseguido en la forma de un circuito integrado o un circuito Integrado de Gran Escala (LSI) . Como un ejemplo del LSI, la Figura 54 ilustra una configuración del LSI ex500 que es elaborado en un chip . El LSI ex500 incluye los elementos ex501, ex502, ex503, ex504, ex505, ex506, ex507, ex508 y ex509 que serán descritos más adelante, y los elementos son conectados entre sí a través de un bus ex510. La unidad de circuito de abastecimiento de energía ex505 es activada al suministrar a cada uno de los elementos la energía cuando la unidad de circuito de abastecimiento de energía ex505 es encendida.
Por ejemplo, cuando es realizada la codificación, el LSI ex500 recibe una señal AV de un micrófono exll7, una cámara exll3, y otros a través de un AV 10 ex509 bajo el control de una unidad de control ex501 que incluye una CPU ex502, un controladór de memoria ex503, un controlador de flujo ex504, y una unidad de control de frecuencia de excitación ex512. La señal recibida AV es temporalmente almacenada en una memoria externa ex511, tal como una SDRAM. Bajo el control de la unidad de control ex501, los datos almacenados son segmentados en porciones de datos de acuerdo i con la cantidad de procesamiento y la velocidad qué será transmitida a una unidad de procesamiento de señal !ex507. Entonces, la unidad de procesamiento de señal ex507 codifica una señal de audio y/o una señal de video. Aqu'í, la codificación de la señal de video es la codificación descrita en cada una de las modalidades. Ademas, la unidad de procesamiento de señal ex507 en algunas ocasiones multiplexa los datos codificados de audio y los datos codificados de video, y un flujo 10 ex506 proporciona los ¡ datos multiplexados hacia afuera. Los datos multipléxados proporcionados son transmitidos a la estación de base jexl07, o son descritos en el medio de grabación ex215. Cuando son multipléxados conjuntos de datos, los datos deben ser temporalmente almacenados en la memoria intermedia ex508, de modo que los conjuntos de datos son sincronizados entre1 sí.
Aunque la memoria ex511 es un elemento exterior al LSI ex500, éste podría ser incluido en el LSI ex500. La memoria intermedia ex508 no es limitada a una memoria intermedia, sino que podría estar compuesta de las memorias í i intermedias. Además, el LSI ex500 podría ser elaborado en un chip o una pluralidad de chips. j Además, aunque la unidad de control ex501 incluye la CPU ex502, el controlador de memoria ex503, el controlador de I flujo ex504, la unidad de control de frecuencia de excitación ex512, la configuración de la unidad de control ex501 ', no es I limitada a esta. Por ejemplo, la unidad de procesamiento de señal ex507 además podría incluir una CPU. La inclusión de otra CPU en la unidad de procesamiento de señal ex507¡ puede mejorar la velocidad de procesamiento. Además, como otro ejemplo, la CPU ex502 podría servir o ser una parte ¡de la unidad de procesamiento de señal ex507, y, por ejemplo, podría incluir una unidad de procesamiento de señal de audio. i En este caso, la unidad de control ex501 incluye la unidad de procesamiento de señal ex507 o la CPU ex502 que incluye una parte de la unidad dé procesamiento de señal ex507¿ j El hombre utilizado aquí es LSI, aunque también podría ser llamado IC, LSI de sistema, súper LSI, o ultra LSI en función del grado de integración.
Además, los modos para conseguir la integración no son limitados al LSI, y un circuito específico ;o un procesador de uso general y así sucesivamente también podrían ¡ conseguir la integración. La Serie de Compuerta Programable de Campo (FPGA, por sus siglas en inglés) que puede ser programada después de la manufactura de los LSIs i o un procesador reconfigurable que permite la reconfiguración de la conexión o la configuración de un LSI pueden ser utilizados para el mismo propósito.
En el futuro, con el avance en la tecnología de semiconductores, una tecnología de nueva marca podría reemplazar el LSI. Los bloques funcionales pueden ser i integrados utilizando esta tecnología. La posibilidad es que la presente invención sea aplicada a la biotecnología, i Modalidad 12 Cuando son decodificados los datos de i video generados en el método de codificación de imagen en movimiento o por medio del aparato de codificación de imagen i en movimiento descrito en cada una de las modalidades, comparados cuando son decodificados los datos de video gue se i conforman en un estándar convencional, tal como MPEG-2 , : MPEG- 4 AVC, y VC-1, la cantidad de procesamiento probablemente se incrementa. De está manera, el LSI ex500 necesita ser colocado en una frecuencia de excitación más alta que la frecuencia de la CPU ex502 que será utilizada cuando son decodificados los datos de video de conformidad con el estándar convencional. Sin embargo, cuando la frecuencia de excitación es colocada más alta, existe un problema en el que se incrementa el consumo de energía. i Con el propósito de resolver el problema, el aparato de decodificación de imagen en movimiento, tal como la televisión ex300 y el LSI ex500 es configurado- para determinar en cual estándar se conforman los datos de ¡video, y el cambio entre las frecuencias de excitación de acuerdo con el estándar determinado. La Figura 55 ilustra una configuración ex800 en la presente modalidad. Una unidad de i cambio de frecuencia de excitación ex803 coloca o establece una frecuencia de excitación en una frecuencia de excitación más alta cuando los datos de video son generados por el método de codificación de imagen en movimiento o el aparato de codificación de imagen en movimiento descrito en cada una : i de las modalidades. Entonces, la unidad de cambio de frecuencia de excitación ex803 instruye a una unidad de proceso de decodificación ex801 para que ejecute el método de decodificación de imagen en movimiento descrito en cada una de las modalidades a fin de decodificar los datos de video.
Cuando los datos de video se conforman en el estándar convencional, la unidad de cambio de frecuencia de excitación ex803 coloca una frecuencia de excitación en una frecúencia I de derivación más baja que la frecuencia de los datos de video generados por el método de codificación de imagen en movimiento o el aparato de codificación de imagén en movimiento descrito en cada una de las modalidades. Entonces, la unidad de cambio de frecuencia de excitación i ex803 instruye a la unidad de procesamiento de decodificacióri ex802 que se conforma en el estándar convencional para que decodifique los datos de video.
De manera más específica, la unidad de cambio de frecuencia de excitación ex803 incluye la CPU ex502 y la unidad de control de frecuencia de excitación ex512 ' en la Figura 54. Aquí, cada unidad de procesamiento de decodificación ex801 que ejecuta el método de decodifijcación de imagen en movimiento descrito en cada una dé las modalidades y la unidad de procesamiento de decodificación ¡ ex802 que se conforma en el estándar convencional corresponden con la unidad de procesamiento de señal ex507 en la Figura 54. La CPU ex502 determina en cual estándar se conforman los datos de video. Entonces, la unidad de control de frecuencia de excitación ex512 determina una frecuencia de excitación en función de una señal de la CPU ex502. Además, la unidad de procesamiento de señal ex507 decodifica los datos de video en función de la señal de la CPU ex502. Por ejemplo, la información de identificación descrita en la Modalidad 10 es probablemente utilizada para la identificación de los datos de video. La información de identificación no es limitada a la descrita en la Modalidad 10 sino que podría ser cualquier información con la condición que la información indique en cual estándar se conforman los datos de video. Por ejemplo, cuando en cual estándar se conforman los datos de video puede ser determinado en función de una señal externa que determina que los datos de video son utilizados para una televisión o un disco, etc., la determinación podría ser tomada en función de esta señal externa. Además, la CPU ex502 selecciona una frecuencia de excitación en función, por ejemplo, de una tabla de búsqueda en la cual son asociados los estándares de los datos de ¡video ¡ con las frecuencias de excitación como se muestra ¡en la i Figura 57. La frecuencia de excitación puede ser seleccionada mediante el almacenamiento de la tabla de búsqueda ¡en la memoria intermedia ex508 y en una memoria interna de u LSI, y con referencia a una tabla de búsqueda por medio de ía CPU ex502.
La Figura 56 ilustra las etapas para la ejecución de un método en la presente modalidad. En primer lugar, en la Etapa exS200, la unidad de procesamiento de señal . ex507 obtiene la información de identificación de los datos multiplexados . A continuación, en la Etapa exS201, l¡a CPU ex502 determina si los datos de video son generados o; no a ! través del método :, de codificación y el aparato de codificación descritos en cada una de las modalidades, en ¦ ¡ función de la información de identificación. Cuando los ! datos de video son generados por el método de codificación de imagen en movimiento y el aparato de codificación de imagen en movimiento descrito en cada una de las modalidades, en la j Etapa exS202, la CPU ex502 transmite una señal para el ajuste de la frecuencia de excitación en una frecuencia de excitación más alta para la unidad de control de frecuencia de excitación ex512. Entonces, la unidad de control de frecuencia de excitación ex512 coloca o establece la frecuencia de excitación en la frecuencia de excitación más alta. Por otro lado, cuando la información de identificación indica que los datos de video se conforman en el estándar I convencional, tales como MPEG-2, MPEG-4 AVC, y VC-1, ¡en la Etapa exS203, la CPU ex502 transmite una señal que coloca la ¡ frecuencia de excitación en una frecuencia más baja de excitación para la unidad de control de frecuencia de excitación ex512. Entonces, la unidad de control de frecuencia de excitación ex512 coloca o establece la frecuencia de excitación en una frecuencia más baja de excitación que la frecuencia en el caso en donde los da 't jos de video son generados por el método de codificación de imagen en movimiento y el ; aparato de codificación de imagen en movimiento que son descritos en cada una de las modalidades.
Además, junto con la conmutación de las frecuencias de excitación, el efecto de conservación de energía puede ser mejorado al cambiar la tensión que será aplicada al LSI¡ex500 o un aparato que incluye el LSI ex500. Por ejemplo, cuando la frecuencia de excitación es colocada más baja, la tensión que será aplicada al LSI ex500 o el aparato que incluye el LSI ex500 es probablemente colocada en una tensión más baja que la tensión en el caso en donde la frecuencia de excitación es colocada más alta.
Además, cuando la cantidad de procesamiento para la decodificación es más grande, la frecuencia de excitación podría ser colocada más alta, y cuando la cantidad de procesamiento para la decodificación es más pequeña, la frecuencia de excitación podría ser colocada más baja c mo el método para la colocación o establecimiento de la frecuencia de excitación. De esta manera, el método de colocaciónj no es limitado a los descritos con anterioridad. Por ejemplo, cuando la cantidad de procesamiento para la decodificación de j los datos de video de conformidad con MPEG-4 AVC es más grande que la cantidad de procesamiento para la decodificación de los datos de video generados por el método de codificación de imagen en movimiento y el aparato de codificación de imagen en movimiento descrito en cada üna de las modalidades, la frecuencia de excitación es probablemente colocada en orden inverso a la colocación descrita con anterioridad. i Además, el método para la colocación o establecimiento de la frecuencia de excitación no es limitado al método para la colocación de la frecuencia de excitación más baja. Por ejemplo, cuando la información de identificación indica que los datos de video son generados i I I por el método de codificación de imagen en movimiento y el aparato de codificación de imagen en movimiento descrito en cada una de las modalidades, la tensión que será aplicada al LSI ex500 o al aparato que incluye el LSI ex5Ó0 es probablemente colocada más alta. Cuando la información de identificación indica que los datos de video se conforman en el estándar convencional, tal como MPEG-2, MPEG-4 AVC, y VC- 1, la tensión que será aplicada al LSI ex500 o al aparado que incluye el LSI ex500 es probablemente colocada más baja|. Como otro ejemplo, cuando la información de identificación indica que los datos de video es generada por el método de codificación de imagen en movimiento y el aparato de : i codificación de imagen en movimiento descrito en cada üna de las modalidades, la excitación de la CPUex502 probablemente no tiene que ser suspendida. Cuando la información de identificación indica que los datos de video se conforman en 11 ' ¡ ! i el estándar convencional, tal como MPEG-2, MPEG-4 AVC, ! y VC- 1, la excitación de la CPU ex502 es probablemente suspendida en un tiempo dado debido a que la CPU ex502 tiene una capacidad adicional de procesamiento. Incluso cuando la información de identificación indica que los datos de ! video son generados por el método de codificación de imagen en movimiento y el aparato de codificación de imagen en movimiento descrito en cada una de las modalidades, en el caso en donde la CPU ex502 tiene una capacidad adicional de procesamiento, la excitación de la CPU ex502 es probablemente suspendida en un tiempo dado. En este caso, el tiempo de suspensión es probablemente colocado más corto que el tiempo en el caso en donde cuando la información de identificación indica que los datos de video se conforman en el estándar convencional, tal como MPEG-2, MPEG-4 AVC, y VC-1. i En consecuencia, el efecto de conservación de energía puede ser mejorado al cambiar entre las frecuencias de excitación de acuerdo con el estándar en el cual se conforman los datos de video. Además, cuando el LSI ex500 o el aparato que incluye el LSI ex500 es excitado utilizando la batería, la vida de, la batería puede ser extendida con el ' i efecto de conservación de energía. 1 Modalidad 13 j Existen casos en donde una pluralidad de los; datos de video que se conforman en diferentes estándares, es i proporcionada a los dispositivos y sistemas, tales como una televisión y un teléfono celular. Con el propósito de permitir la decodificación de la pluralidad de los datos de video que se conforman en los diferentes estándares, la unidad de procesamiento de señal ex507 del LSI ex500 necesita conformarse en los respectivos estándares. Sin embargó, los problemas de incremento en la escala del circuito del LSI ex500 y el incremento en el costo se generan con el uso ndividual de las unidades de procesamiento de señal ex507 que se conforman en los respectivos estándares.
Con el propósito de resolver el problema, lo que es concebido es una configuración en la cual la unidad de procesamiento de decodificación para la implementación del método de decodificación de imagen en movimiento descrito en cada una de las modalidades y la unidad de procesamiento de j decodificación que se conforma en el estándar convencional, tal como MPEG-2, MPEG-4 AVC, y VC-1 son parcialmente compartidas. Ex900 en la Figura 58A muestra un ejemplo! de la configuración. Por ejemplo, el método de decodificación de imagen en movimiento descrito en cada una de las modalidades y el método de decodificación de imagen en movimiento que se conforma en MPEG-4 AVC tienen parcialmente en comúri, los detalles de procesamiento, tales como la codificación de entropía, la cuantificación inversa, el filtrado desbloqueo y la precisión compensada de movimiento. Los detalles del procesamiento que será compartido probablemente incluyen el uso de una unidad de proceso de decodificación ex902 que se conforma en MPEG-4 AVC. En contraste, una unidad dedicada de I procesamiento de decodificación ex901 es probablemente utilizada para otro procesamiento único para un aspecto 1 de la presente invención. Debido a que el aspecto de la presente invención es caracterizado por la cuantificación inversa en particular, por ejemplo, la unidad dedicada de procesamiento de decodificación ex901 es utilizada para la cuantificación i ? inversa. De otro modo, la unidad de procesamiento de decodificación es probablemente compartida para una : de la decodificación de entropía, el filtrado desbloqueo y la compensación de movimiento o todo el procesamiento. La ¡unidad de procesamiento de decodificación para la implementación del j método de decodificación de imagen en movimiento descrita en cada una de las modalidades podría ser compartida por el procesamiento que será compartido, y una unidad dedicada de i procesamiento de decodificación podría ser utilizada para el procesamiento único para el procesamiento de MPEG-4 Además, exlOOO en la Figura 58B muestra otro ejemplo en el que el procesamiento es parcialmente compartido! Este ejemplo utiliza una configuración que incluye una Unidad dedicada de procesamiento de decodificación exlOOÍ que i soporta el procesamiento único para un aspecto de la presente invención, una unidad dedicada de procesamiento de decodificación exl002 que soporta el procesamiento único para otro estándar convencional, y una unidad de proceso de i decodificación exl003 que soporta el procesamiento qué será compartido entre el método de decodificación de imagen en movimiento de acuerdo con el aspecto de la presente invención y el método convencional de decodificación de imagen en movimiento. Aquí, las unidades dedicadas de procesamiento de decodificación exlOOI y exl002 no son necesariamente especializadas para « el procesamiento de acuerdo con el j aspecto de la presente invención y el procesamiento del estándar convencional, de manera respectiva, podrían ser las únicas capaces de implementar el procesamiento general. Además, la configuración de la presente modalidad puecle ser implementada por el LSI ex500.
Como tal, la reducción de la escala de circuito de un LSI y la reducción del costo son posibles al compartir la unidad de procesamiento de decodificación para el i procesamiento que será compartido entre el método de decodificación de imagen en movimiento de acuerdo con el aspecto de la presente invención y el método de decodificación de imagen en movimiento de conformidad el i estándar convencional.
Aplicabilidad Industrial El método de codificación de imagen y el método de decodificación de imagen de acuerdo con un aspecto jde la presente invención son venta osamente aplicables al método de codificación de imagen en movimiento y un método de decodificación de imagen en movimiento.
Lista de Signos de Referencia ! 100, 200, 500, 600 Aparato de codificación de imagen 101 Sustractor ! 102 Unidad de transformación ortogonal 103 Unidad de cuantificación 104, 302 Unidad de cuantificación inversa 105, 303 Unidad de transformación ortogonal inversa 106, 304 Sumador 107, 305 Memoria de bloque 108, 306 Memoria de cuadro 109, 307 Unidad de intra-predicción ¡ 110, 308 Unidad de inter-predicción 111, 309 Unidad de control de inter-predicción 112 Unidad de determinación de tipo de imagen ¡ i 113,310 Interruptor ¡ 114, 311, 514, 711 Unidad de cálculo de candidato de bloque de fusión 115, 312 Memoria colPic { 116,516 Unidad de codificación de longitud variable 210, 410, 610, 810 Unidad de derivación de candidato de fusión 211, 411, 612, 812 Primera unidad de derivación ' I 212, 412, 615, 815 Segunda unidad de derivación 220, 430, 620, 830 Unidad de control de predicción 230, 630 Unidad de codificación 300, 400, 700, 800 Aparato de decodificación de i imagen j 301, 701 Unidad de decodificación de longitud variable 420, 820 Unidad de decodificación 611,811 Primera unidad de determinación 613, 813 Unidad de especificación 614, 814 Segunda unidad de determinación Se hace constar que con relación a esta fecha, mejor método conocido por la solicitante para llevar¡ a i práctica la citada invención, es el que resulta claro ; de presente descripción de la invención.

Claims (1)

  1. REIVINDICACIONES ¡ Habiéndose descrito la invención como antecede, se reclama como propiedad lo contenido en las siguientes reivindicaciones : 1. Un método de codificación de imagen para la codificación de una imagen en una base de bloque-por-bloque para generar un flujo de bits, caracterizado porque comprende : i derivar, como un primer candidato de fusiqn, un candidato de fusión en función de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia que han sido utilizados para la codificación! de un bloque que rodea, espacial o temporalmente, el bloque actual que será codificado, el candidato de fusión es una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia para uso en la codificación del bloque actual; ¡ derivar, como un segundo candidato de fusión, un candidato de fusión que tiene un vector de movimiento que es i un vector predeterminado; j seleccionar el candidato de fusión que : será utilizado para la codificación del bloque actual a partir del primer candidato derivado de fusión y el segundo candidato derivado de fusión; y acoplar un índice para la identificación del candidato seleccionado de fusión con el flujo de bits, en donde en la derivación de un candidato de fusión como un segundo candidato de fusión, el segundo candidato de fusión es derivado para cada imagen de referencia referible. 2. El método de codificación de imagen de conformidad con la reivindicación 1, caracterizado porgue el vector predeterminado es un vector cero. ! 3. El método de codificación de image !n de I conformidad con la reivindicación 1 ó 2, caracterizado además porque comprende : ! determinar el número máximo de candidatos de fusión; y determinar si el número total del primer candidato derivado de fusión es más pequeño o no que el número máximo, en donde la derivación de un candidato de fusión como un segundo candidato de fusión es efectuada cuando es determinado que el número total del primer candidato de fusión es más pequeño que el número máximo. 4. El método de codificación de imagen de conformidad con la reivindicación 3, caracterizado porque en i el acoplamiento, el índice es codificado utilizando el número máximo determinado, y el índice codificado es acoplado con el flujo de bits. 5. El método de codificación de imagen de conformidad con la reivindicación 3 ó 4, caracterizado porque en el acoplamiento, la información que indica el húmero máximo determinado además es acoplada con el flujo de bits. i 6. El método de codificación de imagen de conformidad con cualquiera una de las reivindicaciones 1-5, caracterizado porque en la derivación de un candidato de fusión como un primer candidato de fusión, un candidato de fusión que es una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia es derivado como el primer candidato de fusión, la combinación es diferente de una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia de cualquier primer candidato de fusión previamente derivado. i 7. El método de codificación de imagen de conformidad con la reivindicación 1, caracterizado porque además comprende : j cambiar un proceso de codificación entre un primer proceso de codificación que se conforma en un primer estándar y un segundo proceso de codificación que se conforma en un segundo estándar; y j i I acoplar, con el flujo de bits, la información de identificación que indica ya sea el primer estándar ! o el segundo estándar en el cual se conforma el proceso de codificación después del cambio, en donde cuando el proceso de codificación es cambiado al primer proceso de codificación, la derivación de I un candidato de fusión como un primer candidato de fusión, la derivación de un candidato de fusión como un segundo candidato de fusión, la selección, y el acoplamiento son efectuados como el primer proceso de codificación. 8. Un aparato de codificación de imagen que codifica una imagen en una base de bloque-por-bloque para generar un flujo de bits, caracterizado porque comprende: J I una primera unidad de derivación configurada^ para derivar, como un primer candidato de fusión, un candidato de fusión en función de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia que han sido utilizados para la codificación de un bloque que rodea, espacial o temporalmente, el bloque actual que ¡ será i codificado, el candidato de fusión es una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia para uso en la codificación del bloque actual ; una segunda unidad de derivación configurada para derivar, como un segundo candidato de fusión, un candidato de I fusión que tiene un vector de movimiento que es un vector predeterminado; una unidad de control de predicción configurada para seleccionar el candidato de fusión que será utilizado para la codificación del bloque actual a partir del primer candidato derivado de fusión y eí segundo candidato derivado de fusión; : ! y i I una unidad de codificación configurada para ajcoplar porque comprende : j ¦ la decodificación del bloque actual; ¡ derivar, como un segundo candidato de fusión, un candidato de fusión que tiene un vector de movimiento que es un vector predeterminado; j obtener, a partir del flujo de bits, un índice para la identificación de un candidato de fusión; y I seleccionar,; en función del índice obtenido, un candidato de fusión del primer candidato de fusión y el segundo candidato de fusión, el candidato de fusióri será utilizado para la decodificación de un bloque actual, en donde en la derivación de un candidato de fusión como un segundo candidato de fusión, el segundo candidato de i fusión es derivado para cada imagen de referencia referible. 10. El método de decodificación de imagen de conformidad con la reivindicación 9, caracterizado porque el vector predeterminado es un vector cero. 11. El método de decodificación de imagen de conformidad con la reivindicación 9 ó 10, caracterizado i además porque comprende : j determinar él número máximo de candidatos de fusión; y i determinar si el número total del primer candidato derivado de fusión es más pequeño o no que el número máximo, en donde la derivación de un candidato de fusión como un segundo candidato de fusión es efectuada cuando es j determinado que el número total del primer candidato derivado de fusión es más pequeño que el número máximo. ¡ 12. El método de decodificación de imagen de conformidad con la reivindicación 11, caracterizado porque en la obtención, el índice codificado y acoplado con el flujo de bits es obtenido mediante la decodificación del índice utilizando el número máximo determinado. 13. El método de decodificación de imagen de conformidad con la reivindicación 11 u 12, caracterizado porque en la determinación del número máximo de de fusión, el número máximo es determinado en función jde la información acoplada con el flujo de bits y que indica el número máximo. 14. El método de decodificación de imagen de conformidad con cualquiera una de las reivindicaciones 9-13, caracterizado porque en la derivación de un candidato de fusión como un primer candidato de fusión, un candidato de fusión que es una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia es derivado como el primer candidato de fusióri, la combinación es diferente de una combinación de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia de cualquier primer candidato de fusión previamente derivado. 15. El método de decodificación de imagén de conformidad con la reivindicación 9, caracterizado porque además comprende : j cambiar un proceso de decodificación entre un primer i proceso de decodificación que se conforma en un primer I estándar y un segundo proceso de decodificación que se conforma en un segundo estándar, de acuerdo con la información de identificación que es acoplada con el flujo de bits e indica ya sea el primer estándar o el segundo estándar, en donde cuando el proceso de decodif es cambiado al primer proceso de decodificación, la ión de un candidato de fusión como un primer candidato de fusión, la derivación de un candidato de fusión como un segundo candidato de fusión, la obtención, y la seleccióíi son efectuadas como el primer proceso de decodificación. 16. Un aparato de decodificación de imagen que decodifica, en una base de bloque-por-bloque, una imagen codificada incluida en un flujo de bits, caracterizado porque comprende : j una primera unidad de derivación configurada; para derivar, como un primer candidato de fusión, un candidato de fusión en función de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia que han sido utilizados para la decodificación de un bloque que rodea, espacial o temporalmente, el bloque actual que será decodificado, el candidato de fusión es una combinación de una dirección de predicción, un vector de movimiento,; y un índice de imagen de referencia para uso en la decodifilación ! del bloque actual; ¡ una segunda unidad de derivación configurada para derivar, como un segundo candidato de fusión, un candidato de fusión que tiene un: vector de movimiento que es un vector predeterminado; una unidad de decodificación configurada para obtener, a partir del flujo de bits, un índice para la identificación de un candidato de fusión; y una unidad de control de predicción seleccionar, en función del índice obtenido, fusión del primer candidato de fusión y el segundo candidato de fusión, el candidato de fusión será utilizado para la decodificación de un bloque actual, en donde la segunda unidad de derivación es configurada para derivar el segundo candidato de fusión para cada imagen de referencia referible. 17. Un aparato de codificación y decodificación de imagen, caracterizado porque comprende: un aparato de codificación de imagen que codifica una imagen en una base de bloque-por-bloque para generar un flujo de bits, el aparato comprende: ¡ una primera unidad de derivación configurada para derivar, como un primer candidato de fusión, un candidato de fusión en función de una dirección de predicción, un vector de movimiento, y un índice de imagen de referencia que han sido utilizados para la codificación de un bloque que rodea, espacial o temporalmente, el bloque actual que I será codificado, el candidato de fusión es una combinación de una dirección de predicción, un vector de movimiento, y un índice ! i de imagen de referencia para uso en la codificación del bloque actual ; j una segunda unidad de derivación configurada,' para derivar, como un segundo candidato de fusión, un candidato de fusión que tiene un vector de movimiento que es un vector predeterminado; ¡ una unidad de control de predicción configurada para seleccionar el candidato de fusión que será utilizado la codificación del bloque actual a partir del primer candidato derivado de fusión y el segundo candidato derivado de fusión; y una unidad de codificación configurada para acoplar un índice para la identificación del candidato seleccionado de fusión con el flujo de bits; y el aparato de decodificación de imagen de conformidad con la reivindicación 16, en donde la segunda unidad de derivación es configurada para derivar el segundo candidato de fusión para cada imagen de referencia referible. 18. Un método de codificación de imagen para la codificación de un bloque actual, caracterizado porque comprende : I Í derivar un primer candidato que tiene un primer vector de movimiento que ha sido utilizado para codificar un primer bloque; derivar un segundo candidato que tiene un segundo ! vector de movimiento y un primer valor de índice de imagen de referencia que identifica una primera imagen de referencia que corresponde con el segundo vector de movimiento, el segundo vector de movimiento es un primer vector cero; j derivar un tercer candidato que tiene un tercer vector de movimiento y un segundo valor de índice de imagen de referencia que identifica una segunda imagen de referencia i que corresponde con el tercer vector de movimiento, el tercer vector de movimiento es un segundo vector cero, el primer valor de índice de imagen de referencia es diferente del segundo valor de índice de imagen de referencia; y codificar un índice que corresponde con un que tiene un vector de movimiento, en donde el vector de movimiento es utilizado para codificar el bloque actual, y en donde el candidato es uno de una pluralidad de candidatos que tienen el primer candidato, el segundo candidato y el tercer candidato. ! 19. Un método de decodificación de imagen para la decodificación de un bloque actual, caracterizado porque comprende : ! derivar un primer candidato que tiene un primer vector de movimiento que ha sido utilizado para decodificar un primer bloque; i derivar un ¡segundo candidato que tiene un segundo un candidato que tiene un vector de movimiento, en donde el i, vector de movimiento es utilizado para decodificar el i actual, y ! en donde el- candidato es uno de una pluralidad de • i candidatos que tienen el primer candidato, el segundo candidato y el tercer • candidato. , I I I 20. Un método de derivación de vector de movimiento, caracterizado porque comprende: derivar un ' primer candidato que tiene un pjrimer vector de movimiento] que ha sido utilizado para decodificar un primer bloque; j derivar un ¡segundo candidato que tiene un ségundo vector de movimiento y un primer valor de índice de imagen de referencia que identifica una primera imagen de referencia que corresponde con, el segundo vector de movimiento, el segundo vector de movimiento es un primer vector cero; derivar un ¡ tercer candidato que tiene un tercer vector de movimiento; y un segundo valor de índice de imagen de referencia que idéntifica una segunda imagen de referencia que corresponde con el tercer vector de movimiento1, el tercer vector de movimiento es un segundo vector cero, el primer valor de índice de : imagen de referencia es diferentje del segundo valor de índice de imagen de referencia, y J derivar un vector de movimiento que es utilizado para decodificar el bloque actual, en donde un candidato que tiene el vector de movimiento es uno de una pluralidad de candidato$ que tiene el primer candidato, el segundo candidato y el tercer candidato. 21. Un aparato de codificación de imagen que codifica un bloque actual, caracterizado porque comprende: un primer derivador configurado para derivar un primer candidato que tiene un primer vector de movimiento que ha sido utilizado para codificar un primer bloque; ! ! un segundo i derivador configurado para deriv'ar un " ' i segundo candidato que tiene un segundo vector de movimiento y un primer valor de' índice de imagen de referencia que identifica una primera imagen de referencia que corresponde I j con el segundo vector de movimiento, el segundo vector de movimiento es un primer vector cero; un tercer derivador configurado para derivar un tercer candidato que tiene un tercer vector de movimiento y un segundo valor de índice de imagen de referencia que identifica una segunda imagen de referencia que corresponde con el tercer vector de movimiento, el tercer vector de movimiento es un segundo vector cero, el primer valor de índice de imagen de referencia es diferente del segundo, valor de índice de imagen de referencia; y | un codificador configurado para codificar un índice que corresponde con un candidato que tiene un vector de movimiento, en donde el vector de movimiento es utilizado para codificar el bloque actual, y en donde el candidato es uno de una pluralidad de candidatos que tienen el primer candidato, el segundo candidato y el tercer candidato. ; 22. Un aparato de decodificación de imagen que decodifica un bloque actual, caracterizado porque comprende: un primer derivador configurado para derivar un primer candidato que tiene un primer vector de movimiento que ha sido utilizado para decodificar un primer bloque; un segundo derivador configurado para derivar un segundo candidato qué tiene un segundo vector de movimiento y un primer valor de índice de imagen de referencia que identifica una primera imagen de referencia que corresponde con el segundo vector de movimiento, el segundo vector de movimiento es un primer vector cero; ¡ j un tercer derivador configurado para derivar un tercer candidato que tiene un tercer vector de movimiento y un segundo valor de índice de imagen de referencia que I identifica una segunda imagen de referencia que corresponde con el tercer vector de movimiento, el tercer vector de movimiento es un segundo vector cero, el primer valor de índice de imagen de referencia es diferente del segundo valor de índice de imagen de referencia; y i un decodifícador configurado para decodificar un índice codificado que corresponde con un candidato que tiene un vector de movimiento, en donde el vector de movimiento es utilizado para decodificar el bloque actual, y i en donde el candidato es uno de una pluralidad de candidatos que tienen el primer candidato, el segundo candidato y el tercer candidato. i 23. Un aparato de derivación de vector de movimiento, caracterizado porque comprende: un primer derivador configurado para derivar un primer candidato que tiene un primer vector de movimiento que ha sido utilizado para decodificar un primer bloque; I un segundo derivador configurado para derivar un segundo candidato que tiene un segundo vector de movimiento y un primer valor de índice de imagen de referencia que identifica una primera imagen de referencia que corresponde con el segundo vector de movimiento, el segundo veedor de movimiento es un primer vector cero; J un tercer derivador configurado para derivjar un tercer candidato que tiene un tercer vector de movimiento y un segundo valor de índice de imagen de referencia que identifica una segunda imagen de referencia que corresponde con el tercer vector de movimiento, el tercer vector de movimiento es un segundo vector cero, y el primer valor de índice de imagen de referencia es diferente del segundo valor de índice de imagen de referencia, y un cuarto derivador configurado para derivar un vector de movimiento que es utilizado para decodificar el bloque actual, ! en donde un candidato que tiene el vector de movimiento es uno de una pluralidad de candidatos que j tiene el primer candidato, el segundo candidato y el tercer candidato . ! 24. Un circuito integrado, caracterizado porque comprende : un primer derivador configurado para derivar un primer candidato que tiene un primer vector de movimiento que I puede utilizarse para la decodificación de un primer bloque; un segundo derivador configurado para derivar un segundo candidato que tiene un segundo vector de movimiento y un primer valor de índice de imagen de referencia que identifica una primera imagen de referencia que corresponde con el segundo vector de movimiento, el segundo vector de movimiento es un primer vector cero; ¦ un tercer derivador configurado para derivar un tercer candidato que tiene un tercer vector de movimiento y i un segundo valor de índice de imagen de referencia que identifica una segunda imagen de referencia que corresponde con el tercer vector de movimiento, el tercer vector de i movimiento es un segundo vector cero, el primer valor de índice de imagen de referencia es diferente del segundó valor de índice de imagen de referencia; y un decodificador configurado para decodificar un índice codificado que corresponde con un candidato que1 tiene un vector de movimiento, ¡ en donde el vector de movimiento es utilizado para decodificar el bloque actual, y en donde el candidato es uno de una pluralidad de candidatos que tienen el primer candidato, el segundo candidato y el tercer candidato. ¡
MX2013012132A 2011-05-27 2012-05-24 Metodo de codificacion de imagen, aparato de codificacion de imagen, metodo de decodificacion de imagen, aparato de decodificacion de imagen y aparato de codificacion/decodificacion de imagen. MX2013012132A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161490777P 2011-05-27 2011-05-27
PCT/JP2012/003386 WO2012164880A1 (ja) 2011-05-27 2012-05-24 画像符号化方法、画像符号化装置、画像復号方法、画像復号装置、および、画像符号化復号装置

Publications (1)

Publication Number Publication Date
MX2013012132A true MX2013012132A (es) 2013-10-30

Family

ID=47258757

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2013012132A MX2013012132A (es) 2011-05-27 2012-05-24 Metodo de codificacion de imagen, aparato de codificacion de imagen, metodo de decodificacion de imagen, aparato de decodificacion de imagen y aparato de codificacion/decodificacion de imagen.

Country Status (15)

Country Link
US (9) US9615107B2 (es)
EP (5) EP4213483A1 (es)
JP (2) JP5865366B2 (es)
KR (1) KR101896734B1 (es)
CN (1) CN103518376B (es)
BR (1) BR112013027344B1 (es)
CA (3) CA3062382C (es)
DK (1) DK2717575T3 (es)
ES (4) ES2769378T3 (es)
MX (1) MX2013012132A (es)
MY (1) MY173463A (es)
PL (4) PL3614665T3 (es)
TR (1) TR201819396T4 (es)
TW (1) TW201311008A (es)
WO (1) WO2012164880A1 (es)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9066110B2 (en) 2011-03-08 2015-06-23 Texas Instruments Incorporated Parsing friendly and error resilient merge flag coding in video coding
EP2698999B1 (en) 2011-04-12 2017-01-04 Sun Patent Trust Motion-video encoding method, motion-video encoding apparatus, motion-video decoding method, motion-video decoding apparatus, and motion-video encoding/decoding apparatus
JP5865366B2 (ja) * 2011-05-27 2016-02-17 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 画像符号化方法、画像符号化装置、画像復号方法、画像復号装置、および、画像符号化復号装置
US10264276B2 (en) 2011-06-14 2019-04-16 Samsung Electronics Co., Ltd. Method and apparatus for encoding motion information and method and apparatus for decoding same
US9866859B2 (en) * 2011-06-14 2018-01-09 Texas Instruments Incorporated Inter-prediction candidate index coding independent of inter-prediction candidate list construction in video coding
PL2728878T3 (pl) 2011-06-30 2020-06-15 Sun Patent Trust Sposób dekodowania obrazów, sposób kodowania obrazów, urządzenie do dekodowania obrazów, urządzenie do kodowania obrazów oraz urządzenie do kodowania/dekodowania obrazów
WO2013011640A1 (ja) 2011-07-18 2013-01-24 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置および画像符号化復号装置
MX2013010003A (es) 2011-08-11 2013-12-06 Panasonic Corp Metodo de codificacion de imagenes, metodo de decodificacion de imagenes, aparato de codificacion de imagenes, aparato de decodificacion de imagenes y aparato de codificacion y decodificacion de imagenes.
BR112014008403B1 (pt) 2011-10-19 2022-05-10 Sun Patent Trust Método de codificação de imagem, aparelho de codificação de imagem, método de decodificação de imagem, e aparelho de decodificação de imagem
JP2013118627A (ja) * 2011-10-31 2013-06-13 Jvc Kenwood Corp 動画像復号装置、動画像復号方法、動画像復号プログラム、受信装置、受信方法及び受信プログラム
JP5846133B2 (ja) * 2012-01-18 2016-01-20 株式会社Jvcケンウッド 動画像復号装置、動画像復号方法、及び動画像復号プログラム、並びに、受信装置、受信方法、及び受信プログラム
JP5846132B2 (ja) * 2012-01-18 2016-01-20 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム、並びに、送信装置、送信方法、及び送信プログラム
JP5633597B2 (ja) * 2012-04-12 2014-12-03 株式会社Jvcケンウッド 動画像復号装置、動画像復号方法、動画像復号プログラム、受信装置、受信方法及び受信プログラム
HUE062452T2 (hu) 2012-04-12 2023-11-28 Jvckenwood Corp Mozgókép kódoló készülék, mozgókép kódoló eljárás, mozgókép kódoló program, adó, adási eljárás, adási program, és mozgókép dekódoló készülék, mozgókép dekódoló eljárás, mozgókép dekódoló program, vevõ, vételi eljárás, vételi program
JP6020323B2 (ja) * 2012-04-12 2016-11-02 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、送信装置、送信方法及び送信プログラム
JP6569677B2 (ja) * 2014-08-28 2019-09-04 日本電気株式会社 ブロックサイズ決定方法及びプログラム
EP3202143B8 (en) * 2014-11-18 2019-09-25 MediaTek Inc. Method of bi-prediction video coding based on motion vectors from uni-prediction and merge candidate
MA41611A (fr) * 2015-02-23 2018-01-02 Omthera Pharmaceuticals Inc Préparations en milli-capsules comprenant des acides gras polyinsaturés libres
KR20190044533A (ko) 2017-10-20 2019-04-30 주식회사 케이티 비디오 신호 처리 방법 및 장치
CN112166612A (zh) * 2018-05-23 2021-01-01 株式会社Kt 用于处理视频信号的方法和设备
US11394959B2 (en) * 2018-06-29 2022-07-19 Kt Corporation Method and apparatus for processing video signal
KR20230008900A (ko) * 2019-03-12 2023-01-16 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 삼각형 예측을 위한 비디오 코딩 방법 및 장치

Family Cites Families (150)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0314018B1 (en) 1987-10-30 1993-09-01 Nippon Telegraph And Telephone Corporation Method and apparatus for multiplexed vector quantization
FR2725577B1 (fr) 1994-10-10 1996-11-29 Thomson Consumer Electronics Procede de codage ou de decodage de vecteurs mouvement et dispositif de codage ou de decodage mettant en oeuvre ledit procede
US5995080A (en) 1996-06-21 1999-11-30 Digital Equipment Corporation Method and apparatus for interleaving and de-interleaving YUV pixel data
JP3263807B2 (ja) 1996-09-09 2002-03-11 ソニー株式会社 画像符号化装置および画像符号化方法
US6148026A (en) 1997-01-08 2000-11-14 At&T Corp. Mesh node coding to enable object based functionalities within a motion compensated transform video coder
JPH10224800A (ja) 1997-02-07 1998-08-21 Matsushita Electric Ind Co Ltd 動きベクトル符号化方法および復号化方法
US6043838A (en) * 1997-11-07 2000-03-28 General Instrument Corporation View offset estimation for stereoscopic video coding
JP4004653B2 (ja) 1998-08-03 2007-11-07 カスタム・テクノロジー株式会社 動きベクトル検出方法および装置、記録媒体
US6192148B1 (en) 1998-11-05 2001-02-20 Winbond Electronics Corp. Method for determining to skip macroblocks in encoding video
US6192080B1 (en) 1998-12-04 2001-02-20 Mitsubishi Electric Research Laboratories, Inc. Motion compensated digital video signal processing
US6594313B1 (en) 1998-12-23 2003-07-15 Intel Corporation Increased video playback framerate in low bit-rate video applications
JP4487374B2 (ja) 1999-06-01 2010-06-23 ソニー株式会社 符号化装置及び符号化方法並びに多重化装置及び多重化方法
US6842483B1 (en) 2000-09-11 2005-01-11 The Hong Kong University Of Science And Technology Device, method and digital video encoder for block-matching motion estimation
JP2002152750A (ja) 2000-11-10 2002-05-24 Matsushita Electric Ind Co Ltd 動きベクトル検出方法および装置
CN1913633B (zh) 2001-11-06 2011-06-01 松下电器产业株式会社 运动图像编码方法
ES2665693T3 (es) * 2001-11-06 2018-04-26 Panasonic Intellectual Property Corporation Of America Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento
JP4015934B2 (ja) 2002-04-18 2007-11-28 株式会社東芝 動画像符号化方法及び装置
JP2004088722A (ja) 2002-03-04 2004-03-18 Matsushita Electric Ind Co Ltd 動画像符号化方法および動画像復号化方法
KR100931746B1 (ko) 2002-04-19 2009-12-14 파나소닉 주식회사 움직임 벡터 계산방법
US20040146109A1 (en) * 2002-04-19 2004-07-29 Satoshi Kondo Method for calculation motion vector
TWI259726B (en) 2002-04-19 2006-08-01 Matsushita Electric Ind Co Ltd Motion vector derivation method
US20040001546A1 (en) 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
CN1666532A (zh) * 2002-07-02 2005-09-07 松下电器产业株式会社 图像编码方法和图像解码方法
US8406301B2 (en) 2002-07-15 2013-03-26 Thomson Licensing Adaptive weighting of reference pictures in video encoding
WO2004008773A1 (ja) 2002-07-11 2004-01-22 Matsushita Electric Industrial Co., Ltd. フィルタリング強度の決定方法、動画像符号化方法、および動画像復号化方法
AU2003281133A1 (en) 2002-07-15 2004-02-02 Hitachi, Ltd. Moving picture encoding method and decoding method
US7154952B2 (en) 2002-07-19 2006-12-26 Microsoft Corporation Timestamp-independent motion vector prediction for predictive (P) and bidirectionally predictive (B) pictures
US7023921B2 (en) 2002-08-06 2006-04-04 Motorola, Inc. Method and apparatus for determining block match quality
KR100976017B1 (ko) * 2002-08-08 2010-08-17 파나소닉 주식회사 동화상의 부호화 방법 및 복호화 방법
KR100506864B1 (ko) * 2002-10-04 2005-08-05 엘지전자 주식회사 모션벡터 결정방법
EP1562385B1 (en) 2002-11-01 2014-07-02 Panasonic Corporation Motion picture encoding method and motion picture decoding method
KR100985236B1 (ko) 2002-11-25 2010-10-04 파나소닉 주식회사 움직임 보상 방법, 화상 부호화 방법 및 화상 복호화 방법
MXPA05008404A (es) 2003-02-18 2005-10-05 Nokia Corp Metodo de codificacion de imagen.
KR100693669B1 (ko) 2003-03-03 2007-03-09 엘지전자 주식회사 피일드 매크로 블록의 레퍼런스 픽쳐 결정 방법
US7266147B2 (en) 2003-03-31 2007-09-04 Sharp Laboratories Of America, Inc. Hypothetical reference decoder
EP1644835A4 (en) 2003-07-15 2011-12-07 Thomson Licensing MOTION ESTIMATION WITH FAST SEARCH BLOCK COMPARISON
US7426308B2 (en) 2003-07-18 2008-09-16 Microsoft Corporation Intraframe and interframe interlace coding and decoding
KR100579542B1 (ko) 2003-07-29 2006-05-15 삼성전자주식회사 블럭 간의 상관성을 고려한 움직임 추정 장치 및 방법
US7746929B2 (en) 2003-08-05 2010-06-29 Trident Microsystems (Far East) Ltd. Video encoding and decoding methods and corresponding devices
US8064520B2 (en) 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
CN1225127C (zh) 2003-09-12 2005-10-26 中国科学院计算技术研究所 一种用于视频编码的编码端/解码端双向预测方法
FR2860678A1 (fr) 2003-10-01 2005-04-08 Thomson Licensing Sa Procede de codage differentiel
GB2407006A (en) 2003-10-08 2005-04-13 Sony Uk Ltd Communicating streamed payload data and packet based auxiliary data
JP3675464B2 (ja) 2003-10-29 2005-07-27 ソニー株式会社 動画像符号化装置および動画像符号化制御方法
TWI330976B (en) 2003-12-05 2010-09-21 Trident Microsystems Far East Method and apparatus for encoding/decoding dynamic graphic content
US7301482B1 (en) 2003-12-12 2007-11-27 Marvell International Ltd. Circuits, architectures, systems, methods, algorithms and software for conditional modulation coding
JP2005184042A (ja) 2003-12-15 2005-07-07 Sony Corp 画像復号装置及び画像復号方法並びに画像復号プログラム
US8175444B2 (en) 2004-01-14 2012-05-08 Samsung Electronics Co., Ltd. Method of reproducing from storage medium storing interactive graphics stream activated in response to user's command
KR100608050B1 (ko) 2004-01-14 2006-08-02 삼성전자주식회사 사용자의 요구에 의해 활성화되는 인터랙티브 그래픽스트림을 저장한 저장 매체, 재생 장치 및 그 재생 방법
EP1583367A1 (en) 2004-03-30 2005-10-05 Matsushita Electric Industrial Co., Ltd. Motion estimation employing line and column vectors
DE602004030993D1 (de) 2004-04-30 2011-02-24 Panasonic Corp Bewegungsschätzung unter Verwendung von adaptiven räumlichen Verfeinerungsvektoren
JP4145275B2 (ja) 2004-07-27 2008-09-03 富士通株式会社 動きベクトル検出・補償装置
TWI250423B (en) 2004-07-30 2006-03-01 Ind Tech Res Inst Method for processing video images
TWI268715B (en) * 2004-08-16 2006-12-11 Nippon Telegraph & Telephone Picture encoding method, picture decoding method, picture encoding apparatus, and picture decoding apparatus
EP1638333A1 (en) 2004-09-17 2006-03-22 Mitsubishi Electric Information Technology Centre Europe B.V. Rate adaptive video coding
JP4375305B2 (ja) 2004-10-26 2009-12-02 ソニー株式会社 情報処理装置および情報処理方法、記録媒体、並びに、プログラム
JP4148228B2 (ja) 2005-02-10 2008-09-10 ソニー株式会社 画像記録装置、画像再生制御装置、画像記録再生制御装置、これらの装置の処理方法およびその方法をコンピュータに実行させるプログラム
US7660354B2 (en) 2005-05-11 2010-02-09 Fang Shi Temporal error concealment for bi-directionally predicted frames
US8761258B2 (en) 2005-06-17 2014-06-24 The Hong Kong University Of Science And Technology Enhanced block-based motion estimation algorithms for video compression
US9661376B2 (en) 2005-07-13 2017-05-23 Polycom, Inc. Video error concealment method
EP1753242A2 (en) 2005-07-18 2007-02-14 Matsushita Electric Industrial Co., Ltd. Switchable mode and prediction information coding
US7697783B2 (en) 2005-07-26 2010-04-13 Sony Corporation Coding device, coding method, decoding device, decoding method, and programs of same
US20070025444A1 (en) 2005-07-28 2007-02-01 Shigeyuki Okada Coding Method
JP2008011455A (ja) 2006-06-30 2008-01-17 Sanyo Electric Co Ltd 符号化方法
JP4401336B2 (ja) 2005-08-31 2010-01-20 三洋電機株式会社 符号化方法
JP4570532B2 (ja) 2005-08-02 2010-10-27 パナソニック株式会社 動き検出装置、動き検出方法、集積回路およびプログラム
US20070030894A1 (en) 2005-08-03 2007-02-08 Nokia Corporation Method, device, and module for improved encoding mode control in video encoding
JP2007142637A (ja) 2005-11-16 2007-06-07 Matsushita Electric Ind Co Ltd 画像情報符号化装置
EP1980112B1 (en) 2006-02-02 2012-10-24 Thomson Licensing Method and apparatus for adaptive weight selection for motion compensated prediction
WO2007092192A2 (en) 2006-02-02 2007-08-16 Thomson Licensing Method and apparatus for motion estimation using combined reference bi-prediction
US20070200949A1 (en) 2006-02-21 2007-08-30 Qualcomm Incorporated Rapid tuning in multimedia applications
JP4757080B2 (ja) 2006-04-03 2011-08-24 パナソニック株式会社 動き検出装置、動き検出方法、動き検出集積回路および画像符号化装置
WO2007124491A2 (en) 2006-04-21 2007-11-01 Dilithium Networks Pty Ltd. Method and system for video encoding and transcoding
CN101090491B (zh) 2006-06-16 2016-05-18 香港科技大学 用于视频压缩的增强的基于块的运动估计算法
KR20070120416A (ko) 2006-06-19 2007-12-24 엘지전자 주식회사 비디오 신호 디코딩 방법 및 장치, 비디오 신호 인코딩방법 및 장치
EP2030450B1 (en) 2006-06-19 2015-01-07 LG Electronics Inc. Method and apparatus for processing a video signal
DE102006043707A1 (de) * 2006-09-18 2008-03-27 Robert Bosch Gmbh Verfahren zur Datenkompression in einer Videosequenz
US8250618B2 (en) 2006-09-18 2012-08-21 Elemental Technologies, Inc. Real-time network adaptive digital video encoding/decoding
US8213509B2 (en) 2006-10-06 2012-07-03 Calos Fund Limited Liability Company Video coding on parallel processing systems
US9319700B2 (en) 2006-10-12 2016-04-19 Qualcomm Incorporated Refinement coefficient coding based on history of corresponding transform coefficient values
US8599926B2 (en) 2006-10-12 2013-12-03 Qualcomm Incorporated Combined run-length coding of refinement and significant coefficients in scalable video coding enhancement layers
US8565314B2 (en) 2006-10-12 2013-10-22 Qualcomm Incorporated Variable length coding table selection based on block type statistics for refinement coefficient coding
US8325819B2 (en) 2006-10-12 2012-12-04 Qualcomm Incorporated Variable length coding table selection based on video block type for refinement coefficient coding
KR101023263B1 (ko) 2006-10-30 2011-03-21 니폰덴신뎅와 가부시키가이샤 예측 참조 정보 생성방법, 동영상 부호화 및 복호방법, 그들의 장치 및 그들의 프로그램을 기록한 기억매체
JP2008199587A (ja) 2007-01-18 2008-08-28 Matsushita Electric Ind Co Ltd 画像符号化装置、画像復号化装置および方法
JP5025286B2 (ja) 2007-02-28 2012-09-12 シャープ株式会社 符号化装置及び復号装置
TW200845758A (en) 2007-05-03 2008-11-16 Nat Univ Chung Cheng Fast intra coding algorithms for dynamic definition adjustment
KR101403341B1 (ko) 2007-03-28 2014-06-09 삼성전자주식회사 영상의 부호화, 복호화 방법 및 장치
WO2008127597A2 (en) 2007-04-12 2008-10-23 Thomson Licensing Method and apparatus for context dependent merging for skip-direct modes for video encoding and decoding
WO2008136178A1 (ja) 2007-04-26 2008-11-13 Panasonic Corporation 動き検出装置、動き検出方法、及び動き検出プログラム
JP2008283490A (ja) 2007-05-10 2008-11-20 Ntt Docomo Inc 動画像符号化装置、方法及びプログラム、並びに動画像復号化装置、方法及びプログラム
WO2008156548A1 (en) 2007-06-12 2008-12-24 Thomson Licensing Methods and apparatus supporting multi-pass video syntax structure for slice data
KR101495886B1 (ko) * 2007-07-19 2015-02-26 한국전자통신연구원 하향링크 프레임 생성 방법 및 셀 탐색 방법
EP2210421A4 (en) 2007-10-16 2013-12-04 Lg Electronics Inc METHOD AND APPARATUS FOR PROCESSING A VIDEO SIGNAL
KR101228020B1 (ko) 2007-12-05 2013-01-30 삼성전자주식회사 사이드 매칭을 이용한 영상의 부호화 방법 및 장치, 그복호화 방법 및 장치
CN101198064A (zh) 2007-12-10 2008-06-11 武汉大学 一种分辨率分层技术中的运动矢量预测方法
KR20090095012A (ko) 2008-03-04 2009-09-09 삼성전자주식회사 연속적인 움직임 추정을 이용한 영상 부호화, 복호화 방법및 장치
JP2009218873A (ja) 2008-03-11 2009-09-24 Nec Personal Products Co Ltd デジタル放送受信機、および、プログラム
WO2009115901A2 (en) * 2008-03-19 2009-09-24 Nokia Corporation Combined motion vector and reference index prediction for video coding
CN102067601B (zh) 2008-04-11 2014-03-12 汤姆森特许公司 视频编码和解码中模板匹配预测(tmp)的方法和装置
PL2288163T3 (pl) 2008-05-07 2015-11-30 Lg Electronics Inc Sposób i urządzenie do dekodowania sygnału wideo
PT104083A (pt) 2008-06-02 2009-12-02 Inst Politecnico De Leiria Método para transcodificar imagens de vídeo h.264/avc em mpeg-2
CN102308580B (zh) 2009-02-05 2016-05-04 汤姆森特许公司 用于自适应模式视频编码和解码的方法和装置
CN101931803B (zh) 2009-06-26 2013-01-09 华为技术有限公司 视频图像运动信息获取方法、装置及设备、模板构造方法
KR101452859B1 (ko) 2009-08-13 2014-10-23 삼성전자주식회사 움직임 벡터를 부호화 및 복호화하는 방법 및 장치
US9060176B2 (en) 2009-10-01 2015-06-16 Ntt Docomo, Inc. Motion vector prediction in video coding
EP2490449A1 (en) 2009-10-16 2012-08-22 Sharp Kabushiki Kaisha Video coding device and video decoding device
TWI566586B (zh) 2009-10-20 2017-01-11 湯姆生特許公司 一序列形象的現時區塊之寫碼方法和重建方法
KR101459714B1 (ko) 2009-10-28 2014-11-13 에스케이텔레콤 주식회사 공간 분할을 이용한 움직임 벡터 부호화/복호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
KR101441905B1 (ko) 2009-11-18 2014-09-24 에스케이텔레콤 주식회사 후보 예측 움직임 벡터 집합 선택을 이용한 움직임 벡터 부호화/복호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
JPWO2011061880A1 (ja) 2009-11-19 2013-04-04 三菱電機株式会社 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法
US9288495B2 (en) 2009-11-24 2016-03-15 Sk Telecom Co., Ltd. Adaptive secondary prediction-based image encoding/decoding method, device and recording medium
WO2011064673A1 (en) 2009-11-30 2011-06-03 France Telecom Method of and apparatus for encoding video frames, method of and apparatus for decoding video frames
CN101860754B (zh) 2009-12-16 2013-11-13 香港应用科技研究院有限公司 运动矢量编码和解码的方法和装置
EP2514209A4 (en) 2009-12-17 2014-03-26 Ericsson Telefon Ab L M METHOD AND DEVICE FOR VIDEO CODING
US9036692B2 (en) 2010-01-18 2015-05-19 Mediatek Inc. Motion prediction method
BR112012019560B1 (pt) 2010-02-05 2021-08-24 Telefonaktiebolaget Lm Ericsson Método para gerenciar candidatos a vetor de movimento predito, e, aparelhos de codificação e de decodificação de vídeo
KR20120129944A (ko) 2010-02-10 2012-11-28 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
US8995527B2 (en) 2010-02-19 2015-03-31 Qualcomm Incorporated Block type signalling in video coding
CN102439978A (zh) 2010-03-12 2012-05-02 联发科技(新加坡)私人有限公司 运动预测方法
CN102210910B (zh) 2010-04-02 2013-02-13 重庆融海超声医学工程研究中心有限公司 一种超声换能器
KR101752418B1 (ko) 2010-04-09 2017-06-29 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
KR102415787B1 (ko) * 2010-05-04 2022-06-30 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
US9124898B2 (en) * 2010-07-12 2015-09-01 Mediatek Inc. Method and apparatus of temporal motion vector prediction
KR101861714B1 (ko) 2010-09-02 2018-05-28 엘지전자 주식회사 영상 부호화 및 복호화 방법과 이를 이용한 장치
US10104391B2 (en) 2010-10-01 2018-10-16 Dolby International Ab System for nested entropy encoding
US20120082228A1 (en) 2010-10-01 2012-04-05 Yeping Su Nested entropy encoding
JP2012109720A (ja) 2010-11-16 2012-06-07 Panasonic Corp 画像変換装置、画像再生装置及び画像変換方法
US8824558B2 (en) 2010-11-23 2014-09-02 Mediatek Inc. Method and apparatus of spatial motion vector prediction
US8976873B2 (en) 2010-11-24 2015-03-10 Stmicroelectronics S.R.L. Apparatus and method for performing error concealment of inter-coded video frames
US8711940B2 (en) 2010-11-29 2014-04-29 Mediatek Inc. Method and apparatus of motion vector prediction with extended motion vector predictor
US9509995B2 (en) 2010-12-21 2016-11-29 Intel Corporation System and method for enhanced DMVD processing
US9049455B2 (en) 2010-12-28 2015-06-02 Panasonic Intellectual Property Corporation Of America Image coding method of coding a current picture with prediction using one or both of a first reference picture list including a first current reference picture for a current block and a second reference picture list including a second current reference picture for the current block
KR102390352B1 (ko) * 2011-01-07 2022-04-25 엘지전자 주식회사 영상 정보 부호화 방법 및 복호화 방법과 이를 이용한 장치
WO2012095467A1 (en) * 2011-01-12 2012-07-19 Canon Kabushiki Kaisha Video encoding and decoding with low complexity
US9319716B2 (en) 2011-01-27 2016-04-19 Qualcomm Incorporated Performing motion vector prediction for video coding
US9066110B2 (en) * 2011-03-08 2015-06-23 Texas Instruments Incorporated Parsing friendly and error resilient merge flag coding in video coding
EP3139611A1 (en) 2011-03-14 2017-03-08 HFI Innovation Inc. Method and apparatus for deriving temporal motion vector prediction
US9648334B2 (en) 2011-03-21 2017-05-09 Qualcomm Incorporated Bi-predictive merge mode based on uni-predictive neighbors in video coding
US9143795B2 (en) 2011-04-11 2015-09-22 Texas Instruments Incorporated Parallel motion estimation in video coding
EP2698999B1 (en) 2011-04-12 2017-01-04 Sun Patent Trust Motion-video encoding method, motion-video encoding apparatus, motion-video decoding method, motion-video decoding apparatus, and motion-video encoding/decoding apparatus
HUE037619T2 (hu) 2011-05-24 2018-09-28 Velos Media Int Ltd Képkódoló eljárás, képkódoló berendezés, képdekódoló eljárás, képdekódoló berendezés és képkódoló/dekódoló berendezés
JP5865366B2 (ja) * 2011-05-27 2016-02-17 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 画像符号化方法、画像符号化装置、画像復号方法、画像復号装置、および、画像符号化復号装置
US10264276B2 (en) 2011-06-14 2019-04-16 Samsung Electronics Co., Ltd. Method and apparatus for encoding motion information and method and apparatus for decoding same
US9866859B2 (en) 2011-06-14 2018-01-09 Texas Instruments Incorporated Inter-prediction candidate index coding independent of inter-prediction candidate list construction in video coding
US9282338B2 (en) 2011-06-20 2016-03-08 Qualcomm Incorporated Unified merge mode and adaptive motion vector prediction mode candidates selection
CN103636218B (zh) 2011-06-30 2017-07-28 Jvc建伍株式会社 图像解码装置和图像解码方法
KR102464103B1 (ko) 2011-06-30 2022-11-04 가부시키가이샤 제이브이씨 켄우드 화상 부호화 장치, 화상 부호화 방법, 화상 부호화 프로그램, 화상 복호 장치, 화상 복호 방법 및 화상 복호 프로그램
US20140241434A1 (en) 2011-10-11 2014-08-28 Mediatek Inc Method and apparatus of motion and disparity vector derivation for 3d video coding and hevc
JP5870047B2 (ja) * 2013-01-08 2016-02-24 住友ゴム工業株式会社 空気入りタイヤ

Also Published As

Publication number Publication date
US10708598B2 (en) 2020-07-07
EP3614665B1 (en) 2022-03-23
US11979582B2 (en) 2024-05-07
CA2834123A1 (en) 2012-12-06
EP4213483A1 (en) 2023-07-19
KR101896734B1 (ko) 2018-09-07
US9615107B2 (en) 2017-04-04
US11570444B2 (en) 2023-01-31
DK2717575T3 (en) 2019-01-28
ES2769378T3 (es) 2020-06-25
EP3410718B8 (en) 2020-04-01
EP4007276B1 (en) 2023-07-05
JP5865366B2 (ja) 2016-02-17
US20190124335A1 (en) 2019-04-25
US20210360257A1 (en) 2021-11-18
ES2703799T3 (es) 2019-03-12
CA2834123C (en) 2020-02-11
MY173463A (en) 2020-01-26
CN103518376A (zh) 2014-01-15
US20200288142A1 (en) 2020-09-10
ES2959039T3 (es) 2024-02-19
US10034001B2 (en) 2018-07-24
EP2717575A1 (en) 2014-04-09
PL3614665T3 (pl) 2022-07-04
US20170163987A1 (en) 2017-06-08
JP6089312B2 (ja) 2017-03-08
US9838695B2 (en) 2017-12-05
JP2016040966A (ja) 2016-03-24
PL3410718T3 (pl) 2020-06-01
TWI562612B (es) 2016-12-11
PL2717575T3 (pl) 2019-03-29
US10721474B2 (en) 2020-07-21
CA3197949A1 (en) 2012-12-06
PL4007276T3 (pl) 2023-12-11
ES2769378T8 (es) 2022-05-19
US20230128151A1 (en) 2023-04-27
CA3062382C (en) 2023-07-25
KR20140026429A (ko) 2014-03-05
US20130010869A1 (en) 2013-01-10
EP3410718B1 (en) 2019-11-27
JPWO2012164880A1 (ja) 2015-02-23
BR112013027344A2 (pt) 2017-01-17
US20190124334A1 (en) 2019-04-25
EP2717575A4 (en) 2014-10-15
BR112013027344B1 (pt) 2022-05-10
EP4007276A1 (en) 2022-06-01
BR112013027344A8 (pt) 2017-07-11
CN103518376B (zh) 2017-08-22
CA3062382A1 (en) 2012-12-06
US10595023B2 (en) 2020-03-17
EP3410718A1 (en) 2018-12-05
EP3614665A1 (en) 2020-02-26
EP2717575B1 (en) 2018-10-10
ES2911670T3 (es) 2022-05-20
US11115664B2 (en) 2021-09-07
WO2012164880A1 (ja) 2012-12-06
TR201819396T4 (tr) 2019-01-21
US20180295366A1 (en) 2018-10-11
TW201311008A (zh) 2013-03-01
US20180063533A1 (en) 2018-03-01

Similar Documents

Publication Publication Date Title
AU2012264031B2 (en) Image encoding method, image encoding device, image decoding method, image decoding device, and image encoding/decoding device
AU2012260302B2 (en) Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
JP6754978B2 (ja) 動画像復号化方法、および動画像復号化装置
AU2016202666B2 (en) Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus
AU2012291454B2 (en) Video encoding method, video encoding apparatus, video decoding method, video decoding apparatus, and video encoding/decoding apparatus
MX2013012132A (es) Metodo de codificacion de imagen, aparato de codificacion de imagen, metodo de decodificacion de imagen, aparato de decodificacion de imagen y aparato de codificacion/decodificacion de imagen.
CN108040259B (zh) 图像编码方法以及图像编码装置
MX2013012124A (es) Metodo de codificacion de video, aparato de codificacion de video, metodo de decodificacion de video, aparato de decodificacion de video y aparato de codificacion/decodificacion de video.
MX2013010231A (es) Metodo de codificacion de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, metodo de decodificacion de imagenes en movimiento, aparato de decodificacion de imagenes en movimiento y aparato de codificacion y decodificacion de imagenes en movimiento.
MX2013009864A (es) Metodo de codificacion de imagenes en movimiento, metodo de decodificacion de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, aparato de decodificacion de imagenes en movimiento y aparato de codificacion y decodificacion de imagenes en movimiento.
MX2013001709A (es) Metodo de codificacion de imagenes en movimiento, metodo de decodificacion de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, aparato de decodificacion de imágenes en movimiento, y aparato de codificacion y decodificacion de imagenes en movimiento.
MX2013001659A (es) Metodo de codificacion de imagen, metodo de decodificacion de imagen, aparato de codificacion de imagen, y aparato de decodificacion de imagen.

Legal Events

Date Code Title Description
FG Grant or registration
GB Transfer or rights
PD Change of proprietorship

Owner name: PANASONIC INTELLECTUAL PROPERTY CORPORATION OF AME