ES2636917T3 - Un método y un aparato para descodificar/codificar una señal de video - Google Patents

Un método y un aparato para descodificar/codificar una señal de video Download PDF

Info

Publication number
ES2636917T3
ES2636917T3 ES07745743.0T ES07745743T ES2636917T3 ES 2636917 T3 ES2636917 T3 ES 2636917T3 ES 07745743 T ES07745743 T ES 07745743T ES 2636917 T3 ES2636917 T3 ES 2636917T3
Authority
ES
Spain
Prior art keywords
visualization
prediction
image
information
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES07745743.0T
Other languages
English (en)
Inventor
Byeong Moon Jeon
Seung Wook Park
Han Suh Koo
Yong Joon Jeon
Ji Ho Park
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Application granted granted Critical
Publication of ES2636917T3 publication Critical patent/ES2636917T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

Un método para descodificar datos de video multi-visualización en una corriente de video multi-visualización, que comprende: recibir la corriente de datos de video multi-visualización que incluye una imagen de acceso aleatorio que incluye una sección de acceso aleatorio y un indicador de perfil, haciendo la sección de acceso aleatorio referencia solamente a secciones correspondientes a un mismo tiempo y a una visualización diferente de la imagen de acceso aleatorio, indicando el indicador de perfil que una corriente de video recibida es la corriente de datos de video multi-visualización; obtener una banderola de acceso aleatorio para predicción inter-visualización, indicando la banderola de acceso aleatorio si una imagen es la imagen de acceso aleatorio; obtener información de inicialización para la sección de acceso aleatorio en base a la banderola de acceso aleatorio y al indicador de perfil, representando la información de inicialización una información que reconoce una estructura predictiva entre una pluralidad de visualizaciones, incluyendo la información de inicialización una información de número de visualización y una información de identificación de visualización; obtener información tipo indicativa de si la sección de acceso aleatorio ha sido predicha a partir de una imagen de referencia o de dos imágenes de referencia; inicializar una lista de imagen de referencia para predicción inter-visualización usando la información de número de visualización, la información de identificación de visualización y la información tipo; caracterizado por que el método comprende además: obtener información de modificación para la lista de imagen de referencia inicializada a partir de la corriente de datos de video multi-visualización, representando la información de modificación cómo asignar un índice de referencia en la lista de imagen de referencia inicializada; determinar un valor de modificación de asignación para modificar el índice de referencia en la lista de imagen de referencia inicializada según la información de modificación; modificar la lista de imagen de referencia inicializada para la predicción inter-visualización usando el valor de modificación de asignación determinado; determinar un valor de predicción de un macrobloque en la imagen de acceso aleatorio en base a la lista de imagen de referencia inicializada modificada, y descodificar el macrobloque usando el valor de predicción; en donde la información de inicialización se obtiene a partir de un área de extensión de una cabecera de secuencia.

Description

5
10
15
20
25
30
35
40
45
50
55
60
65
DESCRIPCION
Un metodo y un aparato para descodificar/codificar una senal de video CAMPO TECNICO
La presente invencion se refiere a un metodo para descodificar/codificar una senal de video y a un aparato para el mismo.
TECNICA ANTERIOR
Codificacion compresiva significa una serie de tecnicas de procesamiento de senal para transmitir informacion digitalizada a traves de un circuito de comunicacion, o para almacenar informacion digitalizada de una forma adecuada para un medio de almacenaje. Los objetos para la codificacion compresiva incluyen audio, video, texto y similares. En particular, una tecnica para llevar a cabo codificacion compresiva sobre una secuencia se conoce como compresion de secuencia de video. La secuencia de video esta generalmente caracterizada por tener redundancia espacial y redundancia temporal.
El documento “Modelo de Video Multivision Conjunto (JFVM) 1 (06/08/11)”, VETRO ET AL., JOINT VIDEO TEAM (JVT) OF ISO/IEC MPEG & ITU-T VCEG(ISO/IEC JTC1/SC29/WG11 AND ITU-T SG 16 Q6), num. JVT-T208, 17 de Agosto de 2006 (), XP030006640, trata de la extension para listas de imagenes de referencia en codificacion de video multi-visualizacion.
El documento “ITU-T Recommendatio H.264: Codificacion avanzada de video para servicios audiovisuales genericos”, INTERNET CITATION, 1 de Marzo de 2005 (=), XP008095420, divulga reordenacion de imagenes para listas de imagenes de referencia para prediccion temporal en AVC.
EXPOSICION DE LA INVENCION
OBJETO TECNICO
El objeto de la presente invencion es el de incrementar la eficiencia de codificacion de una senal de video. SOLUCION TECNICA
El objeto mencionado anteriormente ha sido resuelto mediante la combinacion de caractensticas de la reivindicacion independiente. Las realizaciones preferidas estan definidas en las reivindicaciones dependientes.
EFECTOS VENTAJOSOS
En la codificacion de una senal de video, la presente invencion permite que la codificacion se lleve a cabo mas eficientemente al ejecutar prediccion de inter-visualizacion usando informacion de visualizacion para identificar una visualizacion de una imagen. Y, definiendo de nuevo la informacion de nivel indicativa de informacion para que una estructura jerarquica proporcione escalabilidad de visualizacion, la presente invencion esta capacitada para proporcionar una secuencia de una visualizacion adecuada para un usuario. Ademas, definiendo una visualizacion correspondiente al nivel mas bajo como visualizacion de referencia, la presente invencion proporciona compatibilidad con un descodificador convencional. Ademas, la presente invencion aumenta la eficiencia de codificacion decidiendo si se va a predecir una imagen de una visualizacion virtual al llevar a cabo prediccion inter-visualizacion. En caso de prediccion de una imagen de una visualizacion normal, la presente invencion permite una prediccion mas precisa, reduciendo con ello el numero de bits que han de ser transmitidos.
BREVE DESCRIPCION DE LOS DIBUJOS
La Figura 1 es un diagrama esquematico de bloques de un aparato para descodificar una senal de video segun la presente invencion;
La Figura 2 es un diagrama de informacion de configuracion para un video multi-visualizacion agregable a una corriente de bits codificada de video multi-visualizacion segun una realizacion de la presente invencion;
La Figura 3 es un diagrama de bloques interno de una unidad 620 de construccion de lista de imagen de referencia segun una realizacion de la presente invencion;
La Figura 4 es un diagrama de una estructura jerarquica de informacion de nivel para proporcionar escalabilidad de visualizacion de una senal de video segun una realizacion de la presente invencion;
La Figura 5 es un diagrama de una configuracion de unidad NAL que incluye informacion de nivel dentro de un area de extension de una cabecera de NAL segun una realizacion de la presente invencion;
La Figura 6 es un diagrama de una estructura predictiva global de una senal de video multi-visualizacion segun una realizacion de la presente invencion, para explicar un concepto de grupo de imagen de inter- visualizacion;
La Figura 7 es un diagrama de una estructura predictiva segun una realizacion de la presente invencion, para explicar un concepto de grupo de imagen de inter-visualizacion recien definido;
La Figura 8 es un diagrama esquematico de bloques de un aparto para descodificar un video multi- visualizacion usando informacion de identificacion de grupo de imagen inter-visualizacion segun una realizacion de la presente invencion;
La Figura 9 es un diagrama de flujo de un proceso para la construccion de una lista de imagen de referencia
5
10
15
20
25
30
35
40
45
50
55
60
65
segun una realizacion de la presente invencion;
La Figura 10 es un diagrama para explicar un metodo de inicializacion de una lista de imagen de referencia cuando una seccion actual es una seccion P segun una realizacion de la presente invencion;
La Figura 11 es un diagrama para explicar un metodo de inicializacion de una lista de imagen de referencia cuando una seccion actual es una seccion B segun una realizacion de la presente invencion;
La Figura 12 es un diagrama de bloques interno de una unidad 630 de reordenacion de lista de imagen de referencia segun una realizacion de la presente invencion;
La Figura 13 es un diagrama de bloques interno de una unidad 643B o 645B de cambio de asignacion de mdice de referencia segun una realizacion de la presente invencion;
La Figura 14 es un diagrama para explicar un proceso para reordenar una lista de imagen de referencia usando informacion de visualizacion segun una realizacion de la presente invencion;
La Figura 15 es un diagrama de bloques interno de una unidad 630 de reordenacion de lista de imagen de referencia segun otra realizacion de la presente invencion;
La Figura 16 es un diagrama de bloques interno de una unidad 970 de reordenacion de lista de imagen de referencia para prediccion inter-visualizacion segun una realizacion de la presente invencion;
La Figura 17 y la Figura 18 son diagramas de sintaxis para reordenacion de lista de imagen de referencia segun una realizacion de la presente invencion;
La Figura 19 es un diagrama de sintaxis para reordenacion de lista de imagen de referencia segun otra realizacion de la presente invencion;
La Figura 20 es un diagrama para un proceso de obtencion de un valor de diferencia de iluminacion de un bloque actual segun una realizacion, pero que no forma parte de la presente invencion;
La Figura 21 es un diagrama de flujo de un proceso para realizar compensacion de iluminacion de un bloque actual segun una realizacion, pero que no forma parte de la presente invencion;
La Figura 22 es un diagrama de un proceso para obtener un valor de prediccion de diferencia de iluminacion de un bloque actual usando informacion para un bloque contiguo segun una realizacion, pero que no forma parte de la presente invencion;
La Figura 23 es un diagrama de flujo de un proceso para realizar compensacion de iluminacion usando informacion para un bloque contiguo segun una realizacion, pero que no forma parte de la presente invencion; La Figura 24 es un diagrama de flujo de un proceso para realizar compensacion de iluminacion usando informacion para un bloque contiguo segun otra realizacion, pero que no forma parte de la presente invencion; La Figura 25 es un diagrama de un proceso para predecir una imagen actual usando una imagen de una visualizacion virtual segun una realizacion, pero que no forma parte de la presente invencion;
La Figura 26 es un diagrama de flujo de un proceso para sintetizar una imagen en una visualizacion virtual al realizar prediccion inter-visualizacion en MVC segun una realizacion, pero que no forma parte de la presente invencion;
La Figura 27 es un diagrama de flujo de un metodo de ejecucion de una prediccion ponderada segun un tipo de seccion en codificacion de senal de video;
La Figura 28 es un diagrama de tipos de macrobloque admisibles en codificacion de senal de video segun la presente invencion;
La Figura 29 y la Figura 30 son diagramas de sintaxis para ejecutar una prediccion ponderada segun un tipo de seccion recien definido conforme a una realizacion, pero que no forma parte de la presente invencion;
La Figura 31 es un diagrama de flujo de un metodo de ejecucion de prediccion ponderada usando informacion de banderola indicativa de si se ha de ejecutar prediccion ponderada inter-visualizacion en codificacion de senal de video;
La Figura 32 es un diagrama para explicar un metodo de prediccion ponderada conforme a informacion de banderola indicativa de si se va a ejecutar una prediccion ponderada usando informacion para una imagen en una visualizacion diferente a la de una imagen actual segun una realizacion, pero que no forma parte de la presente invencion;
La Figura 33 es un diagrama de sintaxis para ejecutar una prediccion ponderada segun una informacion de banderola recien definida conforme a una realizacion, pero que no forma parte de la presente invencion;
La Figura 34 es un diagrama de flujo de un metodo de ejecucion de una prediccion ponderada conforme a un tipo de unidad NAL (capa de abstraccion de red) segun una realizacion, pero que no forma parte de la presente invencion;
La Figura 35 y la Figura 36 son diagramas de sintaxis para ejecutar una prediccion ponderada en caso de que el tipo de unidad NAL sea para codificacion de video multi-visualizacion segun una realizacion, pero que no forma parte de la presente invencion;
La Figura 37 es un diagrama parcial de bloques de un aparato de descodificacion de senal de video conforme a un tipo de seccion recien definido segun una realizacion, pero que no forma parte de la presente invencion; La Figura 38 es un diagrama de flujo para explicar un metodo de descodificacion de una senal de video en el aparato mostrado en la Figura 37;
La Figura 39 es un diagrama de un modo de prediccion de macrobloque segun una realizacion, pero que no forma parte de la presente invencion;
La Figura 40 y la Figura 41 son diagramas de sintaxis que tienen un tipo de seccion y un modo de macrobloque aplicados a los mismos;
La Figura 42 es un diagrama de realizaciones a las que se aplican los tipos de seccion de la Figura 41;
La Figura 43 es un diagrama de varias realizaciones del tipo de seccion incluido en los tipos de seccion
5
10
15
20
25
30
35
40
45
50
55
60
65
mostrados en la Figura 41;
La Figura 44 es un diagrama de un macrobloque admisible para un tipo mixto de seccion mediante prediccion de dos predicciones mixtas conforme a una realizacion, pero que no forma parte de la presente invencion;
Las Figuras 45 a 47 son diagramas de un tipo de macrobloque de un macrobloque existente en una seccion mixta por prediccion de dos predicciones mixtas conforme a una realizacion, pero que no forma parte de la presente invencion;
La Figura 48 es un diagrama parcial de bloques de un aparato de codificacion de una senal de video segun un tipo de seccion recien definido conforme a una realizacion, pero que no forma parte de la presente invencion;
La Figura 49 es un diagrama de flujo de un metodo de codificacion de una senal de video en el aparato mostrado en la Figura 48.
MEJOR MODO DE LLEVAR A CABO LA INVENCION
Para conseguir estas y otras ventajas, y en conformidad con el proposito de la presente invencion, segun se materializa y se describe ampliamente, un metodo de descodificacion de una senal de video multi-visualizacion incluye las caractensticas definidas en la reivindicacion 1.
Para conseguir mejor esas y otras ventajas, y conforme al proposito de la presente invencion, un aparato para descodificar datos de multi-visualizacion en una corriente de video multi-visualizacion incluye las caractensticas definidas en la reivindicacion 9.
MODO DE LA INVENCION
Ahora se hara referencia con detalle a las realizaciones preferidas de la presente invencion, de las que se han ilustrado ejemplos en los dibujos que se acompanan.
La tecnica de comprimir y codificar datos de senales de video considera redundancia espacial, redundancia temporal, redundancia escalable, y redundancia inter-visualizacion. Y, tambien esta capacitada para llevar a cabo codificacion por compresion por consideracion de una redundancia mutua entre visualizaciones en el proceso de codificacion por compresion. La tecnica para la codificacion por compresion, que considera la redundancia inter- visualizacion, es justamente una realizacion de la presente invencion. Y, la idea tecnica de la presente invencion es aplicable a la redundancia temporal, la redundancia escalable, etc.
Centrandonos en una configuracion de una corriente de bits en H.264/AVC, existe una estructura de capa separada denominada NAL (capa de abstraccion de red) entre una VCL (capa de codificacion de video) que trata del propio proceso de codificacion de imagen en movimiento, y un sistema inferior que transporta y almacena informacion codificada. Una senal de salida procedente de un proceso de codificacion son datos de vCl y son mapeados por una unidad NAL con anterioridad al transporte o almacenaje. Cada unidad NAL incluye datos de video comprimidos o RBSP (carga util de secuencia de bytes en bruto: datos resultantes de la compresion de una imagen en movimiento) que son los datos correspondientes a informacion de cabecera.
La unidad NAL incluye basicamente una cabecera de NAL y una RBSP. La cabecera de NAL incluye informacion de banderola (nal_ref_idc) indicativa de si se ha incluido una seccion como imagen de referencia de la unidad NAL, y un identificador (nal_unit_type) que indica un tipo de unidad NAL. Los datos originales comprimidos estan almacenados en la RBSP. Y, el bit de arrastre de RBSP se anade a una ultima porcion de la RBSP para representar una longitud de la RBSP como multiplicacion de 8 bits. Al igual que el tipo de la unidad NAL, existe imagen de IDR (refresco de descodificacion instantanea), SPS (conjunto de parametros de secuencia), PPS (conjunto de parametros de imagen), SEI (informacion de incremento suplementario), o similar.
En la estandarizacion, se establecen restricciones para diversos perfiles y niveles para habilitar la implementacion de un producto objetivo con un coste apropiado. En este caso, un descodificador debe cumplir la restriccion decidida conforme al perfil y al nivel correspondientes. De ese modo, se definen dos conceptos, “perfil” y “nivel”, para indicar una funcion o un parametro para representar hasta donde puede el descodificador hacer frente a un rango de una secuencia comprimida. Y, un indicador de perfil (profile_idc) puede identificar que una corriente de bits esta basada en un perfil previamente descrito. El indicador de perfil significa una banderola indicativa de un perfil en el que esta basada una corriente de bits. Por ejemplo, en H.264/AVC, si un indicador de perfil es 66, esto significa que una corriente de bits esta basada en un perfil basico. Si un indicador de perfil es 77, esto significa que una corriente de bits esta basada en un perfil principal. Si un indicador de perfil es 88, esto significa que una corriente de bits esta basada en un perfil ampliado. Y, el identificador de perfil puede estar incluido en un conjunto de parametros de secuencia.
De ese modo, con el fin de tratar una corriente de video multi-visualizacion, se necesita identificar si un perfil de una corriente de bits de entrada es un perfil multi-visualizacion. Si el perfil de la corriente de bits de entrada es el perfil multi-visualizacion, es necesario anadir sintaxis que permita que se transmita al menos una informacion adicional para multi-visualizacion. En ese caso, el perfil multi-visualizacion indica un modo de perfil que maneja video multi- visualizacion como tecnica de modificacion de la H.264/AVC. En MVC, puede resultar mas eficaz anadir sintaxis como informacion adicional para un modo de MVC en vez de sintaxis incondicional. Por ejemplo, cuando un
5
10
15
20
25
30
35
40
45
50
55
60
65
indicador de perfil de AVC indica un perfil multi-visualizacion, si se anada informacion para un video multi- visualizacion, esta capacitado para incrementar la eficiencia de la codificacion.
Un conjunto de parametros de secuencia indica informacion de cabecera que contiene un cruce de informacion sobre codificacion de una secuencia global tal como un perfil, un nivel, y similar. Una imagen de movimiento comprimida completa, es decir, una secuencia, podna empezar en una cabecera de secuencia. De ese modo, un conjunto de parametros de secuencia correspondiente a informacion de cabecera podna llegar a un descodificador antes de que lleguen los datos referentes al conjunto de parametros. A saber, la RBSP del conjunto de parametros de secuencia juega un papel de informacion de cabecera para los datos resultantes de la compresion de imagen en movimiento. Una vez que se ha introducido una corriente de bits, un indicador de perfil identifica preferentemente en cual de una pluralidad de perfiles esta basada la corriente de bits de entrada. De ese modo, anadiendo una parte para decidir si una corriente de bits de entrada se refiere a un perfil multi-visualizacion (por ejemplo, “si (profile_idc==MULTI_VIEW_PROFILE)”) para sintaxis, se decide si la corriente de bits de entrada se refiere al perfil multi-visualizacion. Se pueden anadir varias clases de informacion de configuracion solamente si se considera que la corriente de bits de entrada esta relacionada con el perfil multi-visualizacion. Por ejemplo, si esta capacitada para anadir un numero de visualizaciones totales, un numero de imagenes de referencia de inter-visualizacion (List0/1) en caso de un grupo de imagenes de inter-visualizacion, un numero de imagenes de referencia de inter-visualizacion (List0/1) en caso de un grupo de imagenes de no inter-visualizacion, y similares. Y, diversas informaciones para visualizacion son utilizables para la generacion y gestion de una lista de imagen de referencia en un bufer de imagen descodificada.
La Figura 1 es un diagrama esquematico de bloques de un aparato para descodificar una senal de video conforme a la presente invencion.
Con referencia a la Figura 1, un aparato para descodificar una senal de video segun la presente invencion incluye un analizador 100 de NAL, una unidad 200 de descodificacion de entropfa, una unidad 300 de cuantificacion inversa/transformada inversa, una unidad 400 de intra-prediccion, una unidad 500 de filtro de desbloqueo, una unidad 600 de bufer de imagen descodificada, una unidad 700 de inter-prediccion, y similares.
La unidad 600 de bufer de imagen descodificada incluye una unidad 610 de almacenaje de imagen de referencia, una unidad 620 de construccion de lista de imagen de referencia, una unidad 650 de gestion de imagen de referencia, y similares. Y, la unidad 620 de construccion de lista de imagen de referencia incluye una unidad 625 de deduccion de variable, una unidad 630 de inicializacion de lista de imagen de referencia, y una unidad 640 de reordenacion de lista de imagen de referencia.
Y, la unidad 700 de inter-prediccion incluye una unidad 710 de compensacion de movimiento, una unidad 720 de compensacion de iluminacion, una unidad 730 de prediccion de diferencia de iluminacion, una unidad 740 de prediccion de smtesis de visualizacion, y similares.
El analizador 100 de NAL lleva a cabo analisis por medio de la unidad NAL para descodificar una secuencia de video recibida. En general, al menos un conjunto de parametros de secuencia y al menos un conjunto de parametros de imagen son transferidos a un descodificador con anterioridad a que la cabecera de seccion y los datos de seccion sean descodificados. En este caso, varias clases de informaciones de configuracion pueden estar incluidas en un area de cabecera de NAL o en un area de extension de una cabecera de NAL. Puesto que MVC es una tecnica de modificacion respecto a una tecnica de AVC convencional, puede ser mas eficiente anadir las informaciones de configuracion en caso de una corriente de bits de MVC solamente en vez de una adicion incondicional. Por ejemplo, esta capacitado para anadir informacion de banderola para identificar una presencia, o no presencia, de una corriente de bits de MVC en el area de cabecera de NAL o en el area de extension de la cabecera de NAL. Solamente si una corriente de bits de entrada es una corriente de bits codificada de video multi-visualizacion conforme a la informacion de banderola, esta capacitado para anadir informaciones de configuracion para un video multi-visualizacion. Por ejemplo, las informaciones de configuracion pueden incluir informacion de nivel temporal, informacion de nivel de visualizacion, informacion de identificacion de grupo de imagen inter-visualizacion, informacion de identificacion de visualizacion, y similares. Esto se explica en detalle con referencia a la Figura 2 como sigue.
La Figura 2 es un diagrama de informacion de configuracion para un video multi-visualizacion agregable a una corriente de bits codificada de video multi-visualizacion conforme a una realizacion de la presente invencion. Los detalles de la informacion de configuracion para un video multi-visualizacion se explican en la descripcion que sigue.
En primer lugar, la informacion de nivel temporal indica informacion para que una estructura jerarquica proporcione escalabilidad temporal a partir de una senal de video ((l)). A traves de la informacion de nivel temporal, esta capacitado para proporcionar a un usuario secuencias sobre varias zonas de tiempo.
La informacion de nivel de visualizacion indica informacion para que una estructura jerarquica proporcione escalabilidad de visualizacion a partir de una senal de video (<2)). En un video multi-visualizacion, es necesario definir una nivel para un tiempo y un nivel para que una visualizacion proporcione a un usuario varias secuencias
5
10
15
20
25
30
35
40
45
50
55
60
65
temporales y de visualizacion. En caso de definir la informacion de nivel mencionada con anterioridad, esta en condiciones de usar escalabilidad temporal y escalabilidad de visualizacion. Con ello, un usuario esta capacitado para seleccionar una secuencia en un momento y una visualizacion espedficos, o una secuencia seleccionada puede ser restringida mediante una condicion.
Las informaciones de nivel pueden ser establecidas de diversas maneras conforme a una condicion espedfica. Por ejemplo, la informacion de nivel puede ser establecida de manera diferente conforme a una ubicacion de camara o un alineamiento de camara. Y, la informacion de nivel puede ser determinada mediante consideracion de dependencia de visualizacion. Por ejemplo, un nivel para una visualizacion que tenga una imagen I en un grupo de imagen de inter-visualizacion se establece en 0, un nivel para una visualizacion que tenga una imagen P en el grupo de imagen de inter-visualizacion se establece en 1, y un nivel para una visualizacion que tenga una imagen B en el grupo de imagen de inter-visualizacion se establece en 2. Ademas, las informaciones de nivel pueden ser establecidas aleatoriamente sin basarse en ninguna condicion especial. La informacion de nivel de visualizacion va a ser explicada en detalle con referencia a la Figura 4 y a la Figura 5 mas adelante.
La informacion de identificacion de grupo de imagen de inter-visualizacion indica informacion para identificar si una imagen codificada de una unidad NAL actual es un grupo (<3)) de imagen de inter-visualizacion. En este caso, el grupo de imagen de inter-visualizacion significa una imagen codificada en la que todas las secciones hacen referencia solamente a secciones con el mismo numero de orden de imagen. Por ejemplo, el grupo de imagen de inter-visualizacion significa una imagen codificada que se refiere a secciones de una visualizacion diferente solamente sin hacer referencia a secciones de una visualizacion actual. En un proceso de descodificacion de un video multi-visualizacion, puede ser necesario un acceso aleatorio de inter-visualizacion. La informacion de identificacion de grupo de imagen de inter-visualizacion puede ser necesaria para realizar un acceso aleatorio eficiente. Y, la informacion de referencia inter-visualizacion puede ser necesaria para prediccion inter-visualizacion. De ese modo, se puede usar informacion de identificacion de grupo de imagen de inter-visualizacion para obtener la informacion de referencia de inter-visualizacion. Ademas, la informacion de identificacion de grupo de imagen inter- visualizacion puede ser usada para anadir imagenes de referencia para prediccion inter-visualizacion en la construccion de una lista de imagen de referencia. Ademas, la informacion de identificacion de grupo de imagen inter-visualizacion puede ser usada para gestionar las imagenes de referencia anadidas para la prediccion inter- visualizacion. Por ejemplo, las imagenes de referencia pueden ser clasificadas en grupos de imagenes de inter- visualizacion y grupos de imagenes de no inter-visualizacion, y las imagenes de referencia clasificadas pueden ser marcadas a continuacion de modo que las que no puedan ser usadas para la prediccion inter-visualizacion, no seran utilizadas. Mientras tanto, la informacion de identificacion de grupo de imagen de inter-visualizacion es aplicable a un hipotetico descodificador de referencia. Los detalles de la informacion de identificacion de grupo de imagen de inter- visualizacion van a ser explicados con referencia a la Figura 6, mas adelante.
La informacion de identificacion de visualizacion significa informacion para discriminar una imagen en una visualizacion actual de una imagen en una visualizacion diferente ((4)). En codificacion de una senal de video, se puede usar POC (numero de orden de imagen) o “frame_num” para identificar cada imagen. En caso de una secuencia de video multi-visualizacion, se puede ejecutar prediccion inter-visualizacion. Asf, se necesita informacion de identificacion para discriminar una imagen en una visualizacion actual de una imagen en otra visualizacion. De ese modo, es necesario definir informacion de identificacion de visualizacion para identificar una visualizacion de una imagen. La informacion de identificacion de visualizacion puede ser obtenida a partir de un area de cabecera de una senal de video. Por ejemplo, el area de cabecera puede ser un area de cabecera de NAL, un area de extension de una cabecera de NAL, o un area de cabecera de seccion. La informacion para una imagen de una visualizacion diferente a la de una imagen actual, se obtiene usando la informacion de identificacion de visualizacion, y esta capacitada para descodificar la senal de video usando la informacion de la imagen de la visualizacion diferente. La informacion de identificacion de visualizacion es aplicable a un proceso global de codificacion/descodificacion de la senal de video. Y, la informacion de identificacion de visualizacion puede ser aplicada a codificacion de video multi- visualizacion usando la “frame_num” que considera una visualizacion en vez de considerar un identificador de visualizacion espedfico.
Mientras tanto, la unidad 200 de descodificacion de entropfa lleva a cabo descodificacion de entropfa sobre una corriente de bits analizada, y a continuacion deduce un coeficiente de cada macrobloque, un vector de movimiento, y similares. La unidad 300 de cuantificacion inversa/transformada inversa obtiene un valor de coeficiente transformado al multiplicar un valor cuantificado recibido por una constante, y a continuacion transforma el valor del coeficiente inversamente para reconstruir un valor de pixel. Usando el valor de pixel reconstruido, la unidad 400 de intra- prediccion realiza una intra prediccion a partir de una muestra descodificada dentro de una imagen actual. Mientras tanto, la unidad 500 de filtro de desbloqueo se aplica a cada macrobloque codificado para reducir la distorsion de bloque. Un filtro alisa un borde de bloque para incrementar la calidad de imagen de una trama descodificada. La seleccion de un proceso de filtrado depende de la intensidad lfmite y del gradiente de una muestra de imagen en torno a un lfmite. Las imagenes, a traves del filtrado, son presentadas a la salida o almacenadas en la unidad 600 de bufer de imagen descodificada para ser usadas como imagenes de referencia.
La unidad 600 de bufer de imagen descodificada juega un papel en el almacenaje o la apertura de las imagenes previamente codificadas para realizar una inter prediccion. En este caso, para almacenar las imagenes en la unidad
5
10
15
20
25
30
35
40
45
50
55
60
65
600 de bufer de imagen descodificada o para abrir las imagenes, se usan los “frame_num” y POC (numero de orden de imagen) de cada imagen. As^ puesto que existen imagenes en una visualizacion diferente a la de la imagen actual entre las imagenes previamente codificadas, puede ser utilizable la informacion de visualizacion para identificar una visualizacion de una imagen, junto con el “frame_num” y el POC. La unidad 600 de bufer de imagen descodificada incluye la unidad 610 de almacenaje de imagen de referencia, la unidad 620 de construccion de lista de imagen de referencia, y la unidad 650 de gestion de imagen de referencia. La unidad 610 de almacenaje de imagen de referencia almacena imagenes a las que se va a referir para la codificacion de la imagen actual. La unidad 620 de construccion de lista de imagen de referencia construye una lista de imagenes de referencia para la prediccion inter-imagen. En codificacion de video multi-visualizacion, se puede necesitar prediccion inter- visualizacion. De ese modo, si una imagen actual hace referencia a una imagen de otra visualizacion, puede ser necesario reconstruir una lista de imagen de referencia para la prediccion inter-visualizacion. En este caso, la unidad 620 de construccion de lista de imagen de referencia puede usar informacion para visualizacion en la generacion de la lista de imagen de referencia para la prediccion inter-visualizacion. Los detalles de la unidad 620 de construccion de lista de imagen de referencia van a ser explicados con relacion a la Figura 3 en lo que sigue.
La Figura 3 es un diagrama de bloques interno de una unidad 620 de construccion de lista de imagen de referencia conforme a una realizacion de la presente invencion.
La unidad 620 de construccion de lista de imagen de referencia incluye la unidad 625 de deduccion de variable, la unidad 630 de inicializacion de lista de imagen de referencia, y la unidad 640 de reordenacion de lista de referencia.
La unidad 625 de deduccion de variable deduce variables usadas para inicializacion de lista de imagen de referencia. Por ejemplo, la variable puede ser deducida usando “frame_num” que indica un numero de identificacion de imagen. En particular, las variables FrameNum y FrameNumWrap pueden ser utilizables para cada imagen de referencia de corto plazo. En primer lugar, la variable FrameNum es igual a un valor de un elemento de sintaxis frame_num. La variable FrameNumWrap puede ser usada para que la unidad 600 de bufer de imagen descodificada asigne un numero pequeno a cada imagen de referencia. Y, la variable FrameNumWrap puede ser deducida a partir de la variable FrameNum. Asf, esta en condiciones de deducir una variable PicNum utilizando la variable FrameNum deducida. En este caso, la variable PicNum puede significar un numero de identificacion de una imagen usada por la unidad 600 de bufer de imagen descodificada. En caso de indicar una imagen de referencia de largo plazo, puede ser utilizable una variable LongTermPicNum.
Con el fin de construir una lista de imagen de referencia para prediccion inter-visualizacion, esta se encuentra capacitada para deducir una primera variable (por ejemplo, ViewNum) para construir una lista de imagen de referencia para prediccion inter-visualizacion. Por ejemplo, esta en condiciones de deducir una segunda variable (por ejemplo, ViewId) usando “view_id” para identificar una visualizacion de una imagen. En primer lugar, la segunda variable puede ser igual a un valor del elemento de sintaxis “view_id”. Y, se puede usar una tercera variable (por ejemplo, ViewIdWrap) para que la unidad 600 de bufer de imagen descodificada asigne un numero pequeno de identificacion de visualizacion a cada imagen de referencia y puede ser deducida a partir de la segunda variable. En este caso, la primera variable ViewNum puede significar un numero de identificacion de visualizacion de una imagen usada por la unidad 600 de bufer de imagen descodificada. Mas aun, dado que un numero de imagenes de referencia usadas para prediccion inter-visualizacion en codificacion de video multi-visualizacion puede ser relativamente mas pequeno que el usado para prediccion temporal, este puede no definir otra variable para indicar un numero de identificacion de visualizacion de una imagen de referencia de largo plazo.
La unidad 630 de inicializacion de lista de imagen de referencia inicializa una lista de imagen de referencia usando las variables mencionadas con anterioridad. En este caso, un proceso de inicializacion para la lista de imagen de referencia puede diferir en funcion del tipo de seccion. Por ejemplo, en caso de descodificacion de una seccion P, esta puede estar capacitada asignar un mdice de referencia en base a un orden de descodificacion. En caso de descodificacion de una seccion B. esta capacitada para asignar un mdice de referencia en base a un orden de salida de imagen. En caso de inicializacion de una lista de imagen de referencia para prediccion inter-visualizacion, esta capacitada para asignar un mdice a una imagen de referencia en base a la primera variable, es decir, la variable deducida a partir de la informacion de visualizacion.
La unidad 640 de reordenacion de lista de imagen de referencia juega un papel en el incremento de la eficacia de compresion asignando un mdice mas pequeno a una imagen a la que se hace referencia frecuentemente en la lista de imagen de referencia inicializada. Esto se debe a que se asigna un bit pequeno si el mdice de referencia para codificacion resulta ser mas pequeno.
Y, la unidad 640 de reordenacion de lista de imagen de referencia incluye una unidad 642 de comprobacion de tipo de seccion, una unidad 643 de reordenacion de lista-0 de imagen de referencia, y una unidad 645 de reordenacion de lista-1 de imagen de referencia. Si se introduce una lista de imagen de referencia inicializada, la unidad 642 de comprobacion de tipo de seccion comprueba el tipo de una seccion que va a ser descodificada y a continuacion decide si debe reordenar una lista-0 de imagen de referencia o una lista-1 de imagen de referencia. De ese modo, la unidad 643, 645 de reordenacion de listas-0/1 de imagen de referencia realiza la reordenacion de la lista-0 de imagen de referencia si el tipo de seccion no es una seccion I, y tambien realiza la reordenacion de la lista-1 de
5
10
15
20
25
30
35
40
45
50
55
60
65
imagen de referencia adicionalmente si el tipo de seccion es una seccion B. De ese modo, tras la finalizacion de un proceso de reordenacion, se construye una lista de imagen de referencia.
La unidad 643, 645 de reordenacion de lista0/1 de imagen de referencia incluye una unidad 643A, 645A de obtencion de informacion de identificacion y una unidad 643B, 645B de cambio de asignacion de mdice de referencia, respectivamente. Las unidad 643A, 645A de obtencion de informacion de identificacion recibio informacion de identificacion (reordering_of_pic_num_idc) indicativa de un metodo de asignacion de un mdice de referencia si la reordenacion de una lista de imagen de referencia se lleva a cabo conforme a informacion de banderola indicativa de si se debe ejecutar la reordenacion de la lista de imagen de referencia. Y, la unidad 643B, 645B de cambio de asignacion de mdice de referencia reordena la lista de imagen de referencia cambiando una asignacion de un mdice de referencia segun la informacion de identificacion.
Y, la unidad 640 de reordenacion de lista de imagen de referencia es operable por medio de otro metodo. Por ejemplo, la reordenacion puede ser ejecutada comprobando el tipo de unidad NAL transferido con anterioridad al paso a traves de la unidad 642 de comprobacion de tipo de seccion, y clasificando a continuacion el tipo de unidad NAL en un caso de NAL de MVC y en un caso de NAL de no MVC.
La unidad 650 de gestion de imagen de referencia gestiona imagenes de referencia para ejecutar inter prediccion de manera mas flexible. Por ejemplo, puede usarse un metodo de operacion de control de gestion de memoria y un metodo de ventana deslizante. Esto se hace para gestionar una memoria de imagen de referencia y una memoria de imagen de no referencia unificando las memorias en una sola memoria, y para realizar una gestion eficiente de la memoria con una memoria pequena. En codificacion de video multi-visualizacion, puesto que las imagenes en una direccion de visualizacion tienen el mismo numero de orden de imagen, la informacion para identificar una visualizacion de cada una de las imagenes es utilizable para marcar las imagenes en una direccion de visualizacion. Y, las imagenes de referencia manejadas de la manera que antecede pueden ser usadas por la unidad 700 de inter- prediccion.
La unidad 700 de mter-prediccion lleva a cabo inter prediccion usando imagenes de referencia almacenadas en la unidad 600 de bufer de imagen descodificada. Un macrobloque inter-codificado puede ser dividido en particiones de macrobloque. Y, cada una de las particiones de macrobloque puede ser pronosticada a partir de una o dos imagenes de referencia. La unidad 700 de inter-prediccion incluye la unidad 710 de compensacion de movimiento, la unidad 720 de compensacion de iluminacion, la unidad 730 de prediccion de diferencia de iluminacion, la unidad 740 de prediccion de smtesis de visualizacion, la unidad 750 de prediccion ponderada, y similares.
La unidad 710 de compensacion de movimiento compensa un movimiento de un bloque actual usando informaciones transferidas desde la unidad 200 de descodificacion de entropfa. Los vectores de movimiento de bloques contiguos al bloque actual se extraen desde una senal de video, y a continuacion se deduce un predictor de vector de movimiento del bloque actual a partir de los vectores de movimiento de los bloques contiguos. Y, el movimiento del bloque actual se compensa usando el predictor de vector de movimiento deducido y un vector de movimiento diferencial deducido a partir de la senal de video. Y, esta se encuentra en condiciones de realizar la compensacion de movimiento usando una imagen de referencia o una pluralidad de imagenes. En codificacion de video multi-visualizacion, en caso de que una imagen actual haga referencia a imagenes de diferentes visualizaciones, se encuentra capacitada para realiza compensacion de movimiento usando informacion de la lista de imagen de referencia para la prediccion inter-visualizacion almacenada en la unidad 600 de bufer de imagen descodificada. Y, tambien esta capacitada para realizar compensacion de movimiento usando informacion de visualizacion para identificar una visualizacion de la imagen de referencia. Un modo directo consiste en un modo de codificacion para predecir informacion de movimiento de un bloque actual a partir de la informacion de movimiento para un bloque codificado. Puesto que este metodo esta capacitado para ahorrar un numero de los bits requeridos para codificar la informacion de movimiento, se incrementa la eficiencia de la compresion. Por ejemplo, un modo de direccion temporal predice informacion de movimiento para un bloque actual usando una correlacion de informacion de movimiento en una direccion temporal. Usando un metodo similar a este metodo, la presente invencion esta capacitada para predecir informacion de movimiento para un bloque actual usando una correlacion de informacion de movimiento en una direccion de visualizacion.
Mientras tanto, en caso de que una corriente de bits de entrada corresponda a un video multi-visualizacion, dado que las secuencias de visualizacion respectivas se obtienen mediante diferentes camaras, se genera una diferencia de iluminacion mediante factores internos y externos de las camaras. Para evitar esto, la unidad 720 de compensacion de iluminacion compensa la diferencia de iluminacion. Al realizar la compensacion de iluminacion, esta en condiciones de usar informacion de banderola indicativa de si se debe realizar compensacion de iluminacion sobe una capa espedfica de una senal de video. Por ejemplo, esta en condiciones de realizar una compensacion de iluminacion usando informacion de banderola indicativa de si ha de realizar compensacion de iluminacion sobre una seccion correspondiente o un macrobloque. Al realizar la compensacion de iluminacion usando la informacion de banderola, la compensacion de iluminacion es aplicable a varios tipos de macrobloque (por ejemplo, modo inter 16x16, modo de salto B, modo directo, etc.).
Al realizar compensacion de iluminacion, esta en condiciones de usar informacion para un bloque contiguo o
5
10
15
20
25
30
35
40
45
50
55
60
65
informacion para un bloque en una visualizacion diferente a la de un bloque actual, para reconstruir el bloque actual. Y, tambien esta en condiciones de usar un valor de diferencia de iluminacion del bloque actual. En este caso, si el bloque actual hace referencia a bloques de una visualizacion diferente, esta en condiciones de realizar compensacion de iluminacion usando la informacion de lista de imagen de referencia para la prediccion inter- visualizacion almacenada en la unidad 600 de bufer de imagen descodificada. En este caso, el valor de diferencia de iluminacion del bloque actual indica una diferencia entre un valor de pixel medio del bloque actual y un valor de pixel medio de un bloque de referencia correspondiente al bloque actual. Como ejemplo de uso del valor de diferencia de iluminacion, el valor de prediccion de diferencia de iluminacion del bloque actual se obtiene usando bloques contiguos al bloque actual, y se usa un valor de diferencia (diferencia de iluminacion residual) entre el valor de diferencia de iluminacion y el valor de prediccion de diferencia de iluminacion. Con ello, la unidad de descodificacion esta capacitada para reconstruir el valor de diferencia de iluminacion del bloque actual usando la diferencia de iluminacion residual y el valor de prediccion de diferencia de iluminacion. Al obtener un valor de prediccion de diferencia de iluminacion de un bloque actual, esta capacitada para usar informacion respecto a un bloque contiguo. Por ejemplo, esta capacitada para predecir un valor de diferencia de iluminacion de un bloque actual usando un valor de diferencia de iluminacion de un bloque contiguo. Con anterioridad a la prediccion, se comprueba si un mdice de referencia del bloque actual es igual al del bloque contiguo. Segun sea el resultado de la comprobacion, esta decide entonces la clase de bloque contiguo o el valor que va a ser usado.
La unidad 740 de prediccion de smtesis de visualizacion se usa para sintetizar imagenes en una visualizacion virtual usando imagenes de una visualizacion contigua a una visualizacion de una imagen actual, y para predecir la imagen actual usando las imagenes sintetizadas en la visualizacion virtual. La unidad de descodificacion esta capacitada para decidir si debe sintetizar una imagen en una visualizacion virtual conforme a un identificador de prediccion de smtesis inter-visualizacion transferido desde una unidad de codificacion. Por ejemplo, si view_synthesize_pred_flag = 1 o view_syn_pred_flag = 1, se sintetiza una seccion o un macrobloque en una visualizacion virtual. En este caso, cuando el identificador de prediccion de smtesis inter-visualizacion informa de que se va a generar una visualizacion virtual, esta capacitada para generar una imagen en la visualizacion virtual usando informacion de visualizacion para identificar una visualizacion de la imagen. Y, al predecir una imagen actual a partir de las imagenes sintetizadas en la visualizacion virtual, esta capacitada para usar la informacion de visualizacion para el uso de la imagen en la visualizacion virtual como imagen de referencia.
La unidad 750 de prediccion ponderada se usa para compensar el fenomeno de que la calidad de imagen de una secuencia se degrade considerablemente en caso se codificacion de la secuencia cuya luminosidad vana temporalmente. En MVC, se puede llevar a cabo prediccion ponderada para compensar una diferencia de luminosidad a partir de una secuencia en una visualizacion diferente, asf como realizarla para una secuencia cuya luminosidad vane temporalmente. Por ejemplo, el metodo de prediccion ponderada puede ser clasificado en metodo de prediccion ponderada explfcita y metodo de prediccion ponderada implfcita.
En particular, el metodo de prediccion ponderada explfcita puede usar una imagen de referencia o dos imagenes de referencia. En caso de usar una imagen de referencia, se genera una senal de prediccion a partir de la multiplicacion de una senal de prediccion correspondiente a compensacion de movimiento por un coeficiente de peso. En caso de usar dos imagenes de referencia, se genera una senal de prediccion a partir de la adicion de un valor de desviacion a un valor resultante de multiplicar una senal de prediccion correspondiente a compensacion de movimiento por un coeficiente de peso.
Y, la prediccion ponderada implfcita realiza una prediccion ponderada usando una distancia desde una imagen de referencia. Como metodo de obtencion de la distancia desde la imagen de referencia, esta capacitada para usar POC (numero de orden de imagen) indicativo de un orden de salida de imagen, por ejemplo. En este caso, el POC puede ser obtenido considerando identificacion de una visualizacion de cada imagen. Al obtener un coeficiente de peso para una imagen en una visualizacion diferentes, esta capacitada para usar informacion de visualizacion para identificar una visualizacion de una imagen para obtener una distancia entre visualizaciones de las imagenes respectivas.
En codificacion de senal de video, la informacion de profundidad es utilizable para una aplicacion espedfica o para otro proposito. En este caso, la informacion de profundidad puede significar informacion capaz de indicar una diferencia de disparidad inter-visualizacion. Por ejemplo, esta capacitada para obtener un vector de disparidad mediante prediccion inter-visualizacion, Y, el vector de disparidad obtenido debera ser transferido a un aparato de descodificacion para compensacion de disparidad de un bloque actual. Mas aun, si se obtiene un mapa de profundidad y a continuacion se transfiere al aparato de descodificacion, el vector de disparidad puede ser inferido desde el mapa de profundidad (o mapa de disparidad) sin transferir el vector de disparidad al aparato de descodificacion. En este caso, resulta ventajoso dado que el numero de bits de informacion de profundidad que van a ser transferidos al aparato de descodificacion, puede reducirse. Asf, deduciendo el vector de disparidad a partir del mapa de profundidad, esta capacitada para proporcionar un nuevo metodo de compensacion de disparidad. De ese modo, en caso de usar una imagen de una visualizacion diferente en el transcurso de la deduccion del vector de disparidad a partir del mapa de profundidad, se puede usar informacion de visualizacion para identificar una visualizacion de la imagen.
5
10
15
20
25
30
35
40
45
50
55
60
65
Las imagenes inter-pronosticadas o intra-pronosticadas a traves del proceso explicado con anterioridad, se seleccionan conforme a un modo de prediccion para reconstruir una imagen actual. En la descripcion que sigue, se explican varias realizaciones que proporcionan un metodo de descodificacion eficiente de una senal de video.
La Figura 4 es un diagrama de una estructura jerarquica de informacion de nivel para proporcionar escalabilidad de visualizacion de una senal de video conforme a una realizacion de la presente invencion.
Haciendo referencia a la Figura 4, la informacion de nivel para cada visualizacion puede ser decidida considerando informacion de referencia inter-visualizacion. Por ejemplo, puesto que es imposible descodificar una imagen P y una imagen B sin una imagen I, esta capacitada para asignar “nivel=0” a una visualizacion de base de la que el grupo de imagen de inter-visualizacion es la imagen I, “nivel=1” a una visualizacion de base de la que el grupo de imagen inter-visualizacion es la imagen P, y “nivel=2” a una visualizacion de base cuyo grupo de imagen de inter- visualizacion es la imagen B. Mas aun, tambien esta en condiciones de decidir informacion de nivel de forma aleatoria conforme a un estandar espedfico.
La informacion de nivel puede ser decidida aleatoriamente conforme a un estandar espedfico o sin ningun estandar. Por ejemplo, en caso de que la informacion de nivel se decida en base a una visualizacion, esta capacitada para establecer una visualizacion V0 como visualizacion de base a nivel de visualizacion 0, una visualizacion de imagenes pronosticadas usando imagenes de una visualizacion a nivel de visualizacion 1, y una visualizacion de imagenes pronosticadas usando imagenes de una pluralidad de visualizaciones a nivel de visualizacion 2. En este caso, se puede necesitar al menos una secuencia de visualizacion que tenga compatibilidad con un descodificador convencional (por ejemplo, H.264/AVC, MPEG-2, MPEG-4, etc.). Esta visualizacion de base resulta ser una base de codificacion multi-visualizacion, que puede corresponder a una visualizacion de referencia para prediccion de otra visualizacion. Se puede configurar una secuencia correspondiente a una visualizacion de base en MVC (codificacion de video multi-visualizacion) segun una corriente de bits independiente al ser codificada mediante un esquema de codificacion de secuencia convencional (MPEG-2, MPEG-4, H.263, H264, etc.). Una secuencia correspondiente a una visualizacion de base es compatible con H.264/AVC o puede no serlo. Mas aun, una secuencia de una visualizacion compatible con H.264/AVC corresponde a una visualizacion de base.
Segun puede apreciarse en la Figura 4, esta capacitada para establecer una visualizacion V2 de imagenes pronosticadas usando imagenes de la visualizacion V0, una visualizacion V4 de imagenes pronosticadas usando imagenes de la visualizacion V2, una visualizacion V6 de imagenes pronosticadas usando imagenes de la visualizacion V4, y una visualizacion V7 de imagenes pronosticadas usando imagenes de la visualizacion V6 a nivel de visualizacion 1. Y, esta capacitada para establecer una visualizacion V1 de imagenes pronosticadas usando imagenes de las visualizaciones V0 y V2, y una visualizacion V3 pronosticada de la misma manera, y una visualizacion V5 pronosticada de la misma manera a nivel de visualizacion 2. De ese modo, en caso de que el descodificador de un usuario sea incapaz de visualizar una secuencia de video multi-visualizacion, descodifica secuencias de la visualizacion correspondientes al nivel de visualizacion 0 solamente. En caso de que el descodificador del usuario este restringido por informacion de perfil, esta capacitado para descodificar la informacion de un nivel de visualizacion restringido solamente. En ese caso, un perfil significa que los elementos tecnicos para algoritmo en un proceso de codificacion/descodificacion de video estan estandarizados. En particular, el perfil consiste en un conjunto de elementos tecnicos requeridos para descodificar una secuencia de bits de una secuencia comprimida y puede ser un tipo de sub-estandarizacion.
Segun otra realizacion de la presente invencion, la informacion de nivel puede variar segun la ubicacion de una camara. Por ejemplo, suponiendo que las visualizaciones V0 y V1 sean secuencias obtenidas mediante una camara situada en posicion frontal, que las visualizaciones V2 y V3 sean secuencias localizadas en la parte trasera, que las visualizaciones V4 y V5 sean secuencias localizadas en el lado izquierdo, y que las visualizaciones V6 y V7 sean secuencias localizados en el lado derecho, esta capacitada para establecer las visualizaciones V0 y V1 a nivel de visualizacion 0, las visualizaciones V2 y V3 a nivel de visualizacion 1, las visualizaciones V4 y V5 a nivel de visualizacion 2, y las visualizaciones V6 y V7 a nivel de visualizacion 3. Alternativamente, la informacion de nivel puede variar conforme al alineamiento de la camara. Alternativamente, la informacion de nivel puede ser decidida aleatoriamente, no en base a ningun estandar espedfico.
La Figura 5 es un diagrama de una configuracion de una unidad NAL que incluye informacion de nivel dentro de un area de extension de una cabecera de NAL conforme a una realizacion de la presente invencion.
Con referencia a la Figura 5, una unidad NAL incluye basicamente una cabecera de NAL y una RBSP. La cabecera de NAL incluye informacion de banderola (nal_ref_idc) indicativa de si esta incluida una seccion que se convierte en una imagen de referencia de la unidad NAL, y un identificador (nal_unit_type) indicativo de un tipo de unidad NAL. Y, la cabecera de NAL puede incluir ademas informacion de nivel (view_level) indicativa de informacion para que una estructura jerarquica proporcione escalabilidad de visualizacion.
Los datos originales comprimidos se almacenan en la RBSP, y se anade un bit de arrastre de RBSP a una ultima porcion de la RBSP para representar una longitud de la RBSP como numero de multiplicacion de 8 bits. Al igual que los tipos de unidad NAL, existen IDR (refresco de descodificacion instantaneo), SPS (conjunto de parametros de
5
10
15
20
25
30
35
40
45
50
55
60
65
secuencia), PPS (conjunto de parametros de imagen), SEI (informacion de mejora suplementaria), etc.
La cabecera de NA;L incluye informacion para un identificador de visualizacion, Y, una secuencia de video de un nivel de visualizacion correspondiente se descodifica con referencia al identificador de visualizacion en el transcurso de la realizacion de la descodificacion conforme a un nivel de visualizacion.
La unidad NAL incluye una cabecera de NAL 51 y una capa de seccion 53. La cabecera de NAL 51 incluye una extension 52 de cabecera de NAL. Y, la capa de seccion 53 incluye una cabecera de seccion 54 y datos de seccion 55.
La cabecera de NAL 51 incluye un identificador (nal_unit_type) indicativo de un tipo de unidad NAL. Por ejemplo, el identificador que indica el tipo de unidad NAL puede ser un identificador tanto para codificacion escalable como para codificacion de video multi-visualizacion. En este caso, la extension 52 de cabecera de NAL puede incluir informacion de banderola que discrimine si una NAL actual es la NAL para la codificacion de video escalable o la NAL para la codificacion de video multi-visualizacion. Y, la extension 52 de cabecera de NAL puede incluir informacion de extension para la NAL actual conforme a la informacion de banderola. Por ejemplo, en caso de que la NAL actual sea la NAL para la codificacion de video multi-visualizacion conforme a la informacion de banderola, la extension 52 de cabecera de NAL puede incluir informacion de nivel (view_level) indicativa de informacion para que una estructura jerarquica proporcione escalabilidad de visualizacion.
La Figura 6 es un diagrama de una estructura predictiva global de una senal de video multi-visualizacion segun una realizacion de la presente invencion para explicar el concepto de grupo de imagen inter-visualizacion.
Con referencia a la Figura 6, T0 a T100 sobre el eje horizontal indican tramas segun el tiempo y S0 a S7 sobre el eje vertical indican tramas segun visualizacion. Por ejemplo, las imagenes en T0 significan tramas capturadas por diferentes camaras sobre la misma zona de tiempo T0, mientras que las imagenes en S0 significan secuencias capturadas por una sola camara en diferentes zonas de tiempo. Y, las flechas del dibujo indican direcciones predictivas y ordenes predictivos de las respectivas imagenes. Por ejemplo, una imagen P0 en una visualizacion S2 sobre una zona de tiempo T0 es una imagen pronosticada a partir de I0, que se convierte en una imagen de referencia de una imagen P0 en una visualizacion S4 en la zona de tiempo T0. Y, esta se convierte en una imagen de referencia de las imagenes B1 y B2 en zonas de tiempo T4 y T2 en la visualizacion 52, respectivamente.
En un proceso de descodificacion de video multi-visualizacion, se puede necesitar un acceso aleatorio de inter- visualizacion. Asf, debena ser posible un acceso aleatorio a una visualizacion, minimizando el esfuerzo de descodificacion. En este caso, se puede necesitar un concepto de grupo de imagen de inter-visualizacion para realizar un acceso eficiente. El grupo de imagen de inter-visualizacion significa una imagen codificada en la que todas las secciones hacen referencia solamente a secciones con el mismo numero de orden de imagen. Por ejemplo, el grupo de imagen inter-visualizacion significa una imagen codificada que se refiere a secciones en una visualizacion diferente solamente sin que haga referencia a secciones en una visualizacion actual. En la Figura 6, si una imagen I0 en una visualizacion So sobre una zona de tiempo T0 es un grupo de imagen inter-visualizacion, todas las imagenes de diferentes visualizaciones sobre la misma zona de tiempo, es decir, la zona de tiempo T0, se convierten en grupos de imagen inter-visualizacion. Segun otro ejemplo, si una imagen I0 en una visualizacion S0 sobre una zona de tiempo T8 es un grupo de imagen inter-visualizacion, todas las imagenes en visualizaciones diferentes sobre la misma zona de tiempo, es decir la zona de tiempo T8, son grupos de imagen inter-visualizacion. De igual modo, todas las imagenes en T16, ..., T96, y T100 se convierten en grupos de imagen inter-visualizacion tambien.
La Figura 7 es un diagrama de una estructura predictiva segun una realizacion de la presente invencion para explicar un concepto de grupo de imagen inter-visualizacion recien definido.
En una estructura predictiva global de MVC, GOP puede empezar con una imagen I. Y, la imagen I es compatible con H.264/AVC. Asf, todos los grupos de imagen inter-visualizacion compatibles con H.264/AVC pueden convertirse siempre en la imagen I. Mas aun, en caso de que las imagenes I sean reemplazadas por una imagen P, se habilita una codificacion mas eficiente. En particular, la codificacion mas eficiente se habilita usando la estructura predictiva que habilita GOP para que empiece con la imagen P compatible con H.264/AVC.
En este caso, si se redefine el grupo de imagen inter-visualizacion, todas las secciones se convierten en imagen codificada capacitada para hacer referencia no solo a una seccion de una trama en la misma zona de tiempo sino tambien a una seccion en la misma visualizacion sobre una zona de tiempo diferente. Mas aun, en caso de referirse a una seccion en una zona de tiempo diferente en una misma visualizacion, esta puede ser restringida al grupo de imagen inter-visualizacion compatible con H.264/AVC solamente. Por ejemplo, una imagen P en un instante de tiempo T8 en una visualizacion S0 de la Figura 6 puede convertirse en un grupo de imagen inter-visualizacion recien definido. De igual modo, una imagen P en un instante de tiempo T96 en una visualizacion S0 o una imagen P en un instante de tiempo T100 en una visualizacion S0 puede convertirse en un grupo de imagen inter-visualizacion recien definido. Y, el grupo de imagen inter-visualizacion puede ser definido solamente si este es una visualizacion de base.
5
10
15
20
25
30
35
40
45
50
55
60
65
Despues de que el grupo de imagen inter-visualizacion ha sido descodificado, todas las imagenes codificadas secuencialmente son descodificadas a partir de las imagenes descodificadas antes que el grupo de imagen inter- visualizacion en un orden de salida sin inter-prediccion.
Considerando la estructura de codificacion global del video multi-visualizacion mostrado en la Figura 6 y en la Figura 7, puesto que la informacion de referencia de inter-visualizacion de un grupo de imagen inter-visualizacion difiere de la de un grupo de imagen de no inter-visualizacion, es necesario discriminar el grupo de imagen inter-visualizacion y el grupo de imagen de no inter-visualizacion entre sf, conforme a la informacion de identificacion de grupo de imagen inter-visualizacion.
La informacion de referencia de inter-visualizacion alude a la informacion capacitada para reconocer una estructura predictiva entre imagenes de inter-visualizacion. Esta se puede obtener a partir de un area de datos de una senal de video. Por ejemplo, esta se puede obtener a partir de un area de conjunto de parametros de secuencia. Y, la informacion de referencia de inter-visualizacion puede ser reconocida usando el numero de imagenes de referencia y de informacion de visualizacion para las imagenes de referencia. Por ejemplo, se obtiene el numero de visualizaciones totales, y la informacion de visualizacion para identificar cada visualizacion puede ser obtenida a continuacion en base al numero de visualizaciones totales. Y, esta capacitada para obtener el numero de imagenes de referencia para una direccion de referencia para cada visualizacion. Segun sea el numero de imagenes de referencia, esta capacitada para obtener la informacion de visualizacion para cada una de las imagenes de referencia. De esta manera, se puede obtener la informacion de referencia de inter-visualizacion. Y, la informacion de referencia de inter-visualizacion puede ser reconocida mediante discriminacion de un grupo de imagen de inter- visualizacion y un grupo de imagen de no inter-visualizacion. Esta puede ser reconocida usando informacion de identificacion de grupo de imagen de inter-visualizacion indicativa de si una seccion descodificada de una NAL actual es un grupo de imagen inter-visualizacion. Los detalles de la informacion de identificacion del grupo de imagen inter- visualizacion se explican con referencia a la Figura 8, como sigue.
La Figura 8 es un diagrama esquematico de bloques de un aparato para descodificacion de un video multi- visualizacion usando informacion de identificacion de grupo de imagen inter-visualizacion segun una realizacion de la presente invencion.
Con referencia a la Figura 8, un aparato de descodificacion segun una realizacion de la presente invencion incluye una unidad 81 de decision de corriente de bits, una unidad 82 de obtencion de informacion de identificacion de grupo de imagen inter-visualizacion, y una unidad 83 de descodificacion de video multi-visualizacion.
Si se introduce una corriente de bits, la unidad 81 de decision de corriente de bits decide si la corriente de bits de entrada es una corriente de bits codificada mediante codificacion de video escalable o una corriente de bits codificada por codificacion de video multi-visualizacion. Esto puede ser decidido mediante la informacion de banderola incluida en la corriente de bits.
La unidad 82 de obtencion de informacion de identificacion de grupo de imagen inter-visualizacion esta capacitada para obtener informacion de identificacion de grupo de imagen inter-visualizacion si la corriente de bits de entrada es la corriente de bits para una codificacion de video multi-visualizacion como resultado de la decision. Si la informacion de identificacion de grupo de imagen inter-visualizacion obtenida es “verdadera”, esto significa que una seccion codificada de una NAL actual es un grupo de imagen inter-visualizacion. Si la informacion de identificacion de grupo de imagen inter-visualizacion obtenida es “falsa”, esto significa que una seccion codificada de una NAL actual es un grupo de imagen de no inter-visualizacion. La informacion de identificacion de grupo de imagen inter-visualizacion puede ser obtenida a partir de un area de extension de una cabecera de NAL o de un area de capa de seccion.
La unidad 83 de descodificacion de video multi-visualizacion descodifica un video multi-visualizacion de acuerdo con la informacion de identificacion de grupo de imagen inter-visualizacion. Segun una estructura de codificacion global de una secuencia de video multi-visualizacion, la informacion de referencia de inter-visualizacion de un grupo de imagen inter-visualizacion difiere de la de un grupo de imagen de no inter-visualizacion. Asf, esta capacitada para usar la informacion de identificacion de grupo de imagen inter-visualizacion con la adicion de imagenes de referencia para que la prediccion inter-visualizacion genere una lista de imagen de referencia, por ejemplo. Y, esta tambien capacitada para usar la informacion de identificacion de grupo de imagen inter-visualizacion para gestionar las imagenes de referencia para la prediccion inter-visualizacion. Ademas, la informacion de identificacion de grupo de imagen inter-visualizacion es aplicable a un hipotetico descodificador de referencia.
Segun otro ejemplo de uso de la informacion de identificacion de grupo de imagen inter-visualizacion, en caso de usar informacion de una visualizacion diferente para cada proceso de descodificacion, es utilizable la informacion de referencia inter-visualizacion incluida en un conjunto de parametros de secuencia. En este caso, se puede necesitar informacion para discriminar si una imagen actual es un grupo de imagen inter-visualizacion o un grupo de imagen de no inter-visualizacion, es decir, informacion de identificacion de grupo de imagen inter-visualizacion. Asf, esta capacitada para usar diferente informacion de referencia inter-visualizacion para cada proceso de descodificacion.
5
10
15
20
25
30
35
40
45
50
55
60
65
La Figura 9 es un diagrama de flujo de un proceso para generar una lista de imagen de referencia segun una realizacion de la presente invencion.
Con referencia a la Figura 9, la unidad 600 de bufer de imagen descodificada juega un papel en el almacenaje o la apertura de imagenes previamente codificadas para realizar prediccion inter-imagen.
En primer lugar, las imagenes codificadas con anterioridad a la imagen actual se almacenan en la unidad 610 de almacenaje de imagen de referencia para ser usadas como imagenes de referencia (S91).
En codificacion de video multi-visualizacion, dado que algunas de las imagenes previamente codificadas estan en una visualizacion diferente a la de la imagen actual, se puede usar informacion de visualizacion para identificar una visualizacion de una imagen, para utilizar esas imagenes como imagenes de referencia. Asf, el descodificador podna obtener informacion de visualizacion para identificar una visualizacion de una imagen (S92). Por ejemplo, la informacion de visualizacion puede incluir “view_id” para identificar una visualizacion de una imagen.
La unidad 600 de bufer de imagen descodificada necesita deducir una variable usada para generar una lista de imagen de referencia. Puesto que se puede necesitar prediccion inter-visualizacion para codificacion de video multi- visualizacion, si una imagen actual se refiere a una imagen de una visualizacion diferente, puede ser necesario generar una lista de imagen de referencia para prediccion inter-visualizacion. En este caso, la unidad 600 de bufer de imagen descodificada necesita deducir una variable usada para generar la lista de imagen de referencia para la prediccion inter-visualizacion usando la informacion de visualizacion obtenida (S93).
Se puede generar una lista de imagen de referencia para prediccion temporal o una lista de imagen de referencia para prediccion inter-visualizacion mediante un metodo diferente conforme al tipo de seccion de una seccion actual (S94). Por ejemplo, si el tipo de seccion es una seccion P/SP, se genera una lista 0 de imagen de referencia (S95). En caso de que el tipo de seccion sea una seccion B, se genera una lista 0 de imagen de referencia y una lista 1 de imagen de referencia (S95). En caso de que el tipo de seccion sea una seccion B, se genera una lista 0 de imagen de referencia y una lista 1 de imagen de referencia (S96). En este caso, la lista 0 o 1 de imagen de referencia puede incluir la lista de imagen de referencia para prediccion temporal solamente, o ambas, la lista de imagen de referencia para prediccion temporal y la lista de imagen de referencia para prediccion mter-visualizacion. Esto se va a explicar en detalle con referencia a la Figura 8 y a la Figura 9 mas adelante.
La lista de imagen de referencia inicializada se somete a un proceso para asignar un numero mas pequeno a una imagen referida frecuentemente para incrementar mas una tasa de compresion (S97). Y, esto se puede denominar proceso de reordenacion para una lista de imagen de referencia, lo que se va a explicar en detalle con referencia a las Figuras 12 a 19 mas adelante. La imagen actual se descodifica usando la lista de imagen de referencia reordenada y la unidad 600 de bufer de imagen decodificada necesita gestionar las imagenes de referencia descodificadas para operar un bufer mas eficazmente (S98). Las imagenes de referencia gestionadas mediante el proceso anterior, son lefdas por la unidad 700 de inter-prediccion para ser usadas para inter-prediccion. En codificacion de video multi-visualizacion, la inter-prediccion puede incluir prediccion inter-visualizacion. En ese caso, es utilizable la lista de imagen de referencia para prediccion inter-visualizacion.
Ejemplos detallados de un metodo de generacion de una lista de imagen de referencia conforme a un tipo de seccion, van a ser explicados con referencia a la Figura 10 y a la Figura 11, como sigue.
La Figura 10 es un diagrama para explicar un metodo de inicializacion de una lista de imagen de referencia cuando una seccion actual es una seccion P conforme a una realizacion de la presente invencion.
Con referencia a la Figura 10, el tiempo se ha indicado mediante T0, T1, ..., TN, mientras que la visualizacion se ha indicado mediante V0, V1, ..., V4. Por ejemplo, una imagen actual indica una imagen en un instante T3 en una visualizacion V4. Y, un tipo de seccion de la imagen actual es una seccion P. “PN” es una abreviatura de una variable PicNum, “LPN” es una abreviatura de una variable LongTermPicNum, y “VN” es una abreviatura de una variable ViewNum. Un numero unido a una porcion extrema de cada una de las variables indica un mdice indicativo de un instante de cada imagen (para PBN o LPN) o una visualizacion de cada imagen (para VN). Esto es aplicable a la Figura 11 de la misma manera.
Se puede generar una lista de imagen de referencia para prediccion temporal o una lista de imagen de referencia para prediccion inter-visualizacion de una manera diferente conforme a un tipo de seccion de una seccion actual. Por ejemplo, un tipo de seccion en la Figura 12 es una seccion P/SP. En este caso, se genera una lista 0 de imagen de referencia. En particular, la lista 0 de imagen de referencia puede incluir una lista de imagen de referencia para prediccion temporal y/o una lista de imagen de referencia para prediccion inter-visualizacion. En la presente realizacion, se supone que una lista de imagen de referencia incluye tanto una lista de imagen de referencia para prediccion temporal como una lista de imagen de referencia para prediccion inter-visualizacion.
Existen varios metodos para ordenar imagenes de referencia. Por ejemplo, las imagenes de referencia pueden ser alineadas segun un orden de descodificacion o de salida de imagen. Alternativamente, las imagenes de referencia
5
10
15
20
25
30
35
40
45
50
55
60
65
pueden ser alineadas en base a una variable deducida usando informacion de visualizacion. Alternativamente, las imagenes de referencia pueden ser alineadas conforme a informacion de referencia inter-visualizacion indicativa de una estructura de prediccion inter-visualizacion.
En caso de una lista de imagen de referencia para prediccion temporal, las imagenes de referencia de corto plazo y las imagenes de referencia de largo plazo pueden ser alineadas en base a un orden de descodificacion. Por ejemplo, estas pueden ser alineadas conforme a un valor de una variable PicNum o LongTermPicNum deducido a partir de un valor indicativo de un numero de identificacion de imagen (por ejemplo, frame_num o Longtermframeidx). En primer lugar, las imagenes de referencia de corto plazo pueden ser inicializadas con anterioridad a las imagenes de referencia de largo plazo. Se puede establecer un orden de alineamiento de las imagenes de referencia de corto plazo a partir de una imagen de referencia que tenga el valor mas alto de la variable PicNum hasta una imagen de referencia que tenga el valor de variable mas bajo. Por ejemplo, las imagenes de referencia de corto plazo pueden ser alineadas por orden de PN1 que tenga una variable mas alta, PN2 que tenga una variable intermedia, y PN0 que tenga la variable mas baja entre PN0 a PN2. Se puede establecer un orden de alineamiento de imagenes de referencia de largo plazo a partir de una imagen de referencia que tenga el valor mas bajo de la variable LongTermPicNum hasta una imagen de referencia que tenga el valor de variable mas alto. Por ejemplo, las imagenes de referencia de largo plazo pueden ser alineadas por orden de LPN0 que tenga la variable mas alta y LPN1 que tenga una variable mas baja.
En caso de una lista de imagen de referencia para prediccion inter-visualizacion, las imagenes de referencia pueden ser alineadas en base a una primera variable ViewNum deducida usando informacion de visualizacion. En particular, las imagenes de referencia pueden ser alineadas por orden de una imagen de referencia que tenga un valor de primera variable (ViewNum) mas alto hasta una imagen de referencia que tenga el valor de primera variable (ViewNum) mas bajo. Por ejemplo, las imagenes de referencia pueden ser alineadas por orden de VN3 que tenga una variable mas alta, VN2, VN1 y VN0 que tengan una variable mas baja entre VN0, VN1, VN2 y VN3.
De ese modo, ambas listas, la lista de imagen de referencia para prediccion temporal y la lista de imagen de referencia para prediccion inter-visualizacion pueden ser gestionadas como una sola lista de imagen de referencia. Alternativamente, ambas listas, la lista de imagen de referencia para prediccion temporal y la lista de imagen de referencia para prediccion inter-visualizacion pueden ser gestionadas como listas de imagen de referencia separadas, respectivamente. En caso de gestion de ambas listas, la lista de imagen de referencia para prediccion temporal y la lista de imagen de referencia para prediccion inter-visualizacion, como una sola lista de imagen de referencia, estas pueden ser inicializadas segun un orden o simultaneamente. Por ejemplo, en caso de inicializacion de ambas, la lista de imagen de referencia para la prediccion temporal y la lista de imagen de referencia para la prediccion inter-visualizacion segun un orden, la lista de imagen de referencia para prediccion temporal se inicializa de modo preferente, y la lista de imagen de referencia para prediccion inter-visualizacion se inicializa despues de forma adicional. Este concepto es aplicable a la Figura 11 tambien.
Ahora se va a explicar el caso de que un tipo de seccion de una imagen actual sea una seccion B, con referencia a la Figura 11, como sigue.
La Figura 11 es un diagrama para explicar un metodo de inicializacion de una lista de imagen de referencia cuando una seccion actual es una seccion B segun una realizacion de la presente invencion.
Con referencia a la Figura 9, en caso de que el tipo de seccion sea una seccion B, se genera una lista 0 de imagen de referencia y una lista 1 de imagen de referencia. En este caso, la lista 0 de imagen de referencia o la lista 1 de imagen de referencia puede incluir una lista de imagen de referencia para prediccion temporal solamente, o ambas, una lista de imagen de referencia para prediccion temporal y una lista de imagen de referencia para prediccion inter- visualizacion.
En el caso de la lista de imagen de referencia para prediccion temporal, el metodo de alineamiento de imagen de referencia de corto plazo puede diferir del metodo de alineamiento de imagen de referencia de largo plazo. Por ejemplo, en caso de imagenes de referencia de corto plazo, las imagenes de referencia pueden ser alineadas conforme a un numero de orden de imagen (abreviadamente en lo que sigue, POC). En caso de imagenes de referencia de largo plazo, las imagenes de referencia pueden ser alineadas conforme a un valor de una variable (LongtermPicNum). Y, las imagenes de referencia de corto plazo pueden ser inicializadas con anterioridad a las imagenes de referencia de largo plazo.
En el orden de alineamiento de imagenes de referencia de corto plazo de la lista 0 de imagen de referencia, las imagenes de referencia estan preferentemente alineadas desde una imagen de referencia que tiene el valor de POC mas alto hasta la imagen de referencia que tiene el valor de POC mas bajo entre las imagenes de referencia que tienen valores de POC mas pequenos que el de la imagen actual, y a continuacion alineadas desde una imagen de referencia que tiene un valor de POC mas bajo hasta una imagen de referencia que tiene un valor de POC mas alto entre las imagenes de referencia que tienen los valores de POC mayores que el de la imagen actual. Por ejemplo, las imagenes de referencia pueden ser alineadas preferentemente desde un PN1 que tienen los valores de POC mas pequenos que el de la imagen actual hasta PN0, y a continuacion alineadas desde PN3 que tienen el valor de
5
10
15
20
25
30
35
40
45
50
55
60
65
POC mas bajo en las imagenes de referencia PN3 y PN4 que tengan un valor de POC mas pequeno que el de una imagen actual, hasta PN4.
En el orden de alineamiento de imagenes de referencia de largo plazo de la lista 0 de imagen de referencia, las imagenes de referencia se alinean desde una imagen de referencia que tiene una variable LongtermPicNum mas baja hasta una imagen de referencia que tiene una variable mas alta. Por ejemplo, las imagenes de referencia se alinean desde LPN0 que tiene un valor mas bajo en LPN0 y LPN1 hasta LPN1 que tiene una segunda variable mas baja.
En el caso de la lista de imagen de referencia para prediccion inter-visualizacion, las imagenes de referencia pueden ser alineadas en base a una primera variable ViewNum deducida usando informacion de visualizacion. Por ejemplo, en el caso de la lista 0 de imagen de referencia para prediccion inter-visualizacion, las imagenes de referencia pueden ser alineadas desde una imagen de referencia que tenga un valor de primera variable mas alto entre las imagenes de referencia que tienen valores de primera variable mas bajos que el de una imagen actual, hasta una imagen de referencia que tiene un valor de primera variable mas bajo. Las imagenes de referencia son despues alineadas desde una imagen de referencia que tiene un valor de primera variable mas bajo entre las imagenes de referencia que tienen valores de primera variable mayores que el de la imagen actual, hasta una imagen de referencia que tiene un valor de primera variable mas alto. Por ejemplo, las imagenes de referencia se alinean preferentemente desde VN1 que tiene un valor de primera variable mas alto en VN0 y VN1 que tienen valores de primera variable mas pequenos que el de la imagen actual, hasta VN0 que tiene un valor de primera variable mas bajo y despues se alinean desde VN3 que tiene un valor de primera variable mas bajo en vN3 y VN4 que tienen valores de primera variable mayores que el de la imagen actual, hasta VN4 que tiene un valor de primera variable mas alto.
En el caso de la lista 1 de imagen de referencia, el metodo de alineamiento de la lista 0 de referencia explicado con anterioridad es aplicable de manera similar.
En primer lugar, en el caso de la lista de imagen de referencia para prediccion temporal, en el orden de alineamiento de imagenes de referencia de corto plazo de la lista 1 de imagen de referencia, las imagenes de referencia se alinean preferiblemente desde una imagen de referencia que tiene un valor de POC mas bajo hasta una imagen de referencia que tiene un valor de POC mas alto entre las imagenes de referencia que tienen valores de POC mayores que el de una imagen actual, y despues se alinean desde una imagen de referencia que tiene un valor de POC mas alto hasta una imagen de referencia que tiene un valor de POC mas bajo entre las imagenes de referencia que tienen valores de POC mas pequenos que el de la imagen actual. Por ejemplo, las imagenes de referencia pueden ser preferentemente alineadas desde el PN3 que tenga un valor de POC mas bajo en las imagenes de referencia PN3 y PN4 que tienen valores de POC mayores que el de una imagen actual, hasta PN4, y despues alineadas desde el PN1 que tenga un valor de POC mas alto en las imagenes de referencia PN0 y PN1 que tienen valores de POC mayores que el de la imagen actual, hasta PN0.
En el orden de alineamiento de imagenes de referencia de largo plazo de la lista 1 de imagen de referencia, las imagenes de referencia se alinean desde una imagen que tiene una variable LongtermPicNum mas baja hasta una imagen de referencia que tenga una variable mas alta. Por ejemplo, las imagenes de referencia se alinean desde el LPN0 que tiene un valor mas bajo en LPN0 y LPN1, hasta el LPN1 que tiene una variable mas bajo.
En el caso de la lista de imagen de referencia para prediccion inter-visualizacion, las imagenes de referencia pueden ser alineadas en base a una primera variable ViewNum deducida usando informacion de visualizacion. Por ejemplo, en el caso de la lista 1 de imagen de referencia para la prediccion inter-visualizacion, las imagenes de referencia pueden ser alineadas desde una imagen de referencia que tenga un primer valor de variable mas bajo entre las imagenes de referencia que tienen valores de primera variable mayores que el de una imagen actual, hasta una imagen de referencia que tenga un valor de primera variable mas alto. Las imagenes de referencia se alinean a continuacion desde una imagen de referencia que tiene un valor de primera variable mas alto entre las imagenes de referencia que tienen valores de primera variable mas pequenos que el de la imagen actual, hasta una imagen de referencia que tiene un valor de primera variable mas bajo. Por ejemplo, las imagenes de referencia se alinean preferentemente desde el VN3 que tiene un valor de primera variable mas bajo en VN3 y VN4 que tienen valores de primera variable mayores que el de una imagen actual, hasta el VN4 que tiene un valor de primera variable mas alto, y a continuacion se alinean desde el VN1 que tiene un valor de primera variable mas alto en VN0 y VN1 que tienen valores de primera variable mas pequenos que el de la imagen actual, hasta el VN0 que tiene un valor de primera variable mas bajo.
La lista de imagen de referencia inicializada por medio del proceso que antecede, se transfiere a la unidad 64'0 de reordenacion de lista de imagen de referencia. La lista de imagen de referencia inicializada se reordena a continuacion para una codificacion mas eficiente. El proceso de reordenacion consiste en reducir la tasa de bits asignando un numero pequeno a una imagen de referencia que tenga la probabilidad mas alta de ser seleccionada como imagen de referencia operando un bufer de imagen descodificada. Se van a explicar varios metodos de reordenacion de una lista de imagen de referencia con relacion a las Figuras 12 a 19 como sigue.
5
10
15
20
25
30
35
40
45
50
55
60
65
La Figura 12 es un diagrama de bloques interno de la unidad 640 de reordenacion de lista de imagen de referencia conforme a una realizacion de la presente invencion.
Con referencia a la Figura 12, la unidad 640 de reordenacion de lista de imagen de referencia incluye una unidad 642 de comprobacion de tipo de seccion, una unidad 643 de reordenacion de lista 0 de imagen de referencia, y una unidad 645 de reordenacion de lista 1 de imagen de referencia.
En particular, la unidad 643 de reordenacion de lista 0 de imagen de referencia incluye una primera unidad 643A de obtencion de informacion de identificacion, y una primera unidad 643B de cambio de asignacion de mdice de referencia. Y, la unidad 645 de reordenacion de lista 1 de imagen de referencia incluye una segunda unidad 645A de obtencion de identificacion y una segunda unidad 645B de cambio de asignacion de mdice de referencia.
La unidad 642 de comprobacion de tipo de seccion comprueba el tipo de seccion de una seccion actual. A continuacion se decide si debe reordenar una lista 0 de imagen de referencia y/o una lista 1 de imagen de referencia segun el tipo de seccion. Por ejemplo, si el tipo de seccion de una seccion actual es una seccion I, tanto la lista 0 de imagen de referencia como la lista 1 de imagen de referencia no se reordenan. Si el tipo de seccion de una seccion actual es una seccion P, se reordena la lista 0 de imagen de referencia solamente. Si el tipo de seccion de una seccion actual es una seccion B, se reordenan ambas, tanto la lista 0 de imagen de referencia como la lista 1 de imagen de referencia.
La unidad 643 de reordenacion de lista 0 de imagen de referencia se activa si la informacion de banderola para ejecutar la reordenacion de la lista 0 de imagen de referencia es “verdadera” y si el tipo de seccion de la seccion actual no es la seccion I. La primera unidad 643A de obtencion de informacion de identificacion obtiene informacion de identificacion indicativa de un metodo de asignacion de mdice de referencia. La primera unidad 643B de cambio de asignacion de mdice de referencia cambia un mdice de referencia asignado a cada imagen de referencia de la lista 0 de imagen de referencia de acuerdo con la informacion de identificacion.
De igual modo, la unidad 645 de reordenacion de lista 1 de imagen de referencia se activa si la informacion de banderola para ejecutar la reordenacion de la lista 1 de imagen de referencia es “verdadera” y si el tipo de seccion de la seccion actual es la seccion B. La segunda unidad 645A de obtencion de informacion de identificacion obtiene informacion de identificacion indicativa de un metodo de asignacion de mdice de referencia. La segunda unidad 645B de cambio de asignacion de mdice de referencia cambia un mdice de referencia asignado a cada una de las imagenes de referencia de la lista 1 de imagen de referencia conforme a la informacion de identificacion.
De ese modo, la informacion de lista de imagen de referencia usada para inter-prediccion real se genera a traves de la unidad 643 de reordenacion de lista 0 de imagen de referencia y de la unidad 645 de reordenacion de lista 1 de imagen de referencia.
Un metodo de cambio de un mdice de referencia asignado a cada imagen de referencia mediante la primera o la segunda unidad 643B o 645B de cambio de asignacion de mdice de referencia, va a ser explicado con referencia a la Figura 13, como sigue.
La Figura 13 es un diagrama de bloques interno de una unidad 643B o 645B de cambio de asignacion de mdice de referencia segun una realizacion de la presente invencion. En la descripcion que sigue, la unidad 643 de reordenacion de lista 0 de imagen de referencia y la unidad 645 de reordenacion de lista 1 de imagen de referencia, se explican conjuntamente.
Con referencia a la Figura 13, cada una de entre la primera y la segunda unidades 643B y 645B de cambio de asignacion de mdice de referencia incluye una unidad 644A de cambio de asignacion de mdice de referencia para prediccion temporal, una unidad 644B de cambio de asignacion de mdice de referencia para imagen de referencia de largo plazo, una unidad 644C de cambio de asignacion de mdice de referencia para prediccion inter-visualizacion, y una unidad 644D de terminacion de cambio de asignacion de mdice de referencia. De acuerdo con las informaciones de identificacion obtenidas por la primera y la segunda unidades 643A y 645A de obtencion de informacion de identificacion, se activan partes del interior de la primera y la segunda unidades 643B y 645B de cambio de asignacion de mdice referencia, respectivamente. Y, el proceso de reordenacion sigue siendo ejecutado hasta que se introduce informacion de identificacion para que termine el cambio de asignacion de mdice de referencia.
Por ejemplo, si se recibe informacion de identificacion para cambiar la asignacion de un mdice de referencia para prediccion, procedente de la primera o la segunda unidad 643A o 645A de obtencion de informacion de identificacion, se activa la unidad 644A de cambio de asignacion de mdice de referencia para prediccion temporal. La unidad 644A de cambio de asignacion de mdice de referencia para prediccion temporal obtiene una diferencia de numero de imagen conforme a la informacion de identificacion recibida. En este caso, la diferencia de numero de imagen significa una diferencia entre un numero de imagen de una imagen actual y un numero de imagen pronosticado. Y, el numero de imagen pronosticado puede indicar un numero de una imagen de referencia asignado justamente antes. De ese modo, esta capacitada para cambiar la asignacion del mdice de referencia usando la
5
10
15
20
25
30
35
40
45
50
55
60
65
diferencia de numero de imagen obtenida. En este caso, la diferencia de numero de imagen puede ser anadida/subs^da al/del numero de imagen pronosticada conforme a la informacion de identificacion.
Segun otro ejemplo, si se recibe informacion de identificacion para cambiar la asignacion de un mdice de referencia a una imagen de referencia de largo plazo designada, la unidad 644B de cambio de asignacion de mdice de referencia para una imagen de referencia de largo plazo se activa. La unidad 644B de cambio de asignacion de mdice de referencia para imagen de referencia de largo plazo obtiene un numero de imagen de referencia de largo plazo de una imagen designada conforme al numero de identificacion.
Segun otro ejemplo, si se recibe informacion de identificacion para cambiar la asignacion de un mdice de referencia para prediccion inter-visualizacion, la unidad 644C de de cambio de asignacion de mdice de referencia para prediccion inter-visualizacion se activa. La unidad 644C de cambio de asignacion de mdice de referencia para prediccion inter-visualizacion obtiene diferencia de informacion de visualizacion de acuerdo con la informacion de identificacion. En este caso, la diferencia de informacion de visualizacion significa una diferencia entre un numero de visualizacion de una imagen actual y un numero de visualizacion pronosticado. Y, el numero de visualizacion pronosticado puede indicar un numero de visualizacion de una imagen de referencia asignado justamente antes. De ese modo, esta capacitada para cambiar la asignacion de un mdice de referencia usando la diferencia de informacion de visualizacion obtenida. En este caso, la diferencia de informacion de visualizacion puede ser anadida/substrafda al/del numero de visualizacion pronosticado de acuerdo con la informacion de identificacion.
Segun otro ejemplo, si se recibe informacion de identificacion para terminacion de un cambio de asignacion de mdice de referencia, la unidad 644D de terminacion de cambio de asignacion de mdice de referencia se activa. La unidad 644D de terminacion de cambio de asignacion de mdice de referencia termina el cambio de asignacion de un mdice de referencia de acuerdo con la informacion de identificacion recibida. Asf, la unidad 640 de reordenacion de lista de imagen de referencia genera informacion de lista de imagen de referencia.
De ese modo, las imagenes de referencia usadas para prediccion inter-visualizacion pueden ser gestionadas junto con imagenes de referencia usadas para prediccion temporal. Alternativamente, las imagenes de referencia usadas para prediccion inter-visualizacion pueden ser gestionadas por separado de las imagenes de referencia usadas para prediccion temporal. Para ello, se pueden necesitar nuevas informaciones para gestionar las imagenes de referencia usadas para prediccion inter-visualizacion. Esto se va a explica con relacion a las Figuras 15 a 19 mas adelante.
Los detalles de la unidad 644C de cambio de asignacion de mdice de referencia para prediccion inter-visualizacion se explican con referencia a la figura 14, como sigue.
La Figura 14 es un diagrama para explicar un proceso para reordenar una lista de imagen de referencia usando informacion de visualizacion conforme a una realizacion de la presente invencion.
Con referencia a la Figura14, si el numero de visualizacion VN de una imagen actual es 3, si el tamano de un bufer de imagen descodificada DPBsize es 4, y si el tipo de seccion de una seccion actual es una seccion P, se explica en lo que sigue un proceso de reordenacion para una lista 0 de imagen de referencia.
En primer lugar, un numero de visualizacion inicialmente pronosticado es “3”, es decir, el numero de visualizacion de la imagen actual. Y, un alineamiento inicial de la lista 0 de imagen de referencia para prediccion inter-visualizacion es “4, 5, 6, 2” ((1)). En este caso, si se recibe informacion de identificacion para cambiar la asignacion de un mdice de referencia para prediccion inter-visualizacion substrayendo una diferencia de informacion de visualizacion, se obtiene “1” como diferencia de informacion de visualizacion de acuerdo con la informacion de identificacion recibida. Se calcula un numero de visualizacion recien pronosticado (=2) restando la diferencia de informacion de visualizacion (=1) del numero de visualizacion pronosticado (=3). En particular, se asigna un primer mdice de la lista 0 de imagen de referencia para prediccion inter-visualizacion a una imagen de referencia que tiene el numero de visualizacion 2. Y, una imagen previamente asignada al primer mdice puede ser movida a una parte mas posterior de la lista 0 de imagen de referencia. Asf, la lista 0 de imagen de referencia reordenada es “2, 5, 6, 4” ((2)). Posteriormente, si se recibe informacion de identificacion para cambiar la asignacion de un mdice de referencia para prediccion inter-visualizacion restando la diferencia de informacion de visualizacion, se obtiene “-2” como diferencia de informacion de visualizacion de acuerdo con la informacion de identificacion. A continuacion se calcula numero de visualizacion recien pronosticado (=4) restando la diferencia de informacion de visualizacion (=-2) del numero de visualizacion pronosticado (=2). En particular, se asigna un segundo mdice de la lista 0 de imagen de referencia para prediccion inter-visualizacion a una imagen de referencia que tiene el numero de visualizacion 4. Con ello, la lista 0 de imagen de referencia reordenada es “2, 4, 6, 5” ((3)). Posteriormente, si se recibe informacion de identificacion para terminar el cambio de asignacion de mdice de referencia, se genera la lista 0 de imagen de referencia que tiene la lista 0 de imagen de r3eferencia reordenada como fin, de acuerdo con la informacion de identificacion recibida ((4)). Con ello, el orden de la lista 0 de imagen de referencia finalmente generada para prediccion inter-visualizacion es “2, 4, 6, 5”.
Segun otro ejemplo de reordenacion del resto de las imagenes despues de que el primer mdice de la lista 0 de imagen de referencia para prediccion inter-visualizacion haya sigo asignado, una imagen asignada a cada mdice
5
10
15
20
25
30
35
40
45
50
55
60
65
puede ser movida a una posicion justamente por detras de la imagen correspondiente. En particular, se asigna un segundo mdice a una imagen que tiene un numero de visualizacion de 4, se asigna un tercer mdice a una imagen (numero de visualizacion 5) a la que asigno el segundo mdice, y se asigna un cuarto mdice a una imagen (numero de visualizacion 6) a la que se asigno el tercer mdice. Con ello, la lista 0 de imagen de referencia reordenada se convierte en “2, 4, 5, 6”. Y, se puede ejecutar un proceso de reordenacion subsiguiente de la misma manera.
La lista de imagen de referencia generada por medio del proceso explicado con anterioridad, se usa para inter- prediccion. Tanto la lista de imagen de referencia para prediccion inter-visualizacion como la lista de imagen de referencia para prediccion temporal pueden ser gestionadas como una sola lista de imagen de referencia. Alternativamente, cada una de entre lista de imagen de referencia para prediccion mter-visualizacion y cada lista de imagen de referencia para prediccion temporal, puede ser gestionada como una lista de imagen de referencia separada. Esto se explica con referencia a las Figuras 15 a 19, como sigue.
La Figura 15 es un diagrama de bloques interno de una unidad 640 de reordenacion de lista de imagen de referencia segun otra realizacion de la presente invencion.
Con referencia a la Figura 15, a efectos de gestionar una lista de imagen de referencia para prediccion inter- visualizacion como lista de imagen de referencia separada, se pueden necesitar nuevas informaciones. Por ejemplo, se reordena una lista de imagen de referencia para prediccion temporal, y a continuacion se reordena, en algunos casos, una lista de imagen de referencia para prediccion inter-visualizacion.
La unidad 640 de reordenacion de lista de imagen de referencia incluye basicamente una unidad 910 de reordenacion de lista de imagen de referencia para prediccion temporal, una unidad 960 de comprobacion de un tipo de NAL, y una unidad 970 de reordenacion de lista de imagen de referencia para prediccion inter-visualizacion.
La unidad 910 de reordenacion de lista de imagen de referencia para prediccion temporal incluye una unidad 642 de comprobacion de un tipo de seccion, una tercera unidad 920 de obtencion de informacion de identificacion, una tercera unidad 930 de cambio de asignacion de mdice de referencia, una cuarta unidad 940 de obtencion de informacion de identificacion, y una cuarta unidad 950 de cambio de asignacion de mdice de referencia. La tercera unidad 930 de cambio de asignacion de mdice de referencia incluye una unidad 930A de cambio de asignacion de mdice de referencia para prediccion temporal, una unidad 930B de cambio de asignacion de mdice de referencia para una imagen de referencia de largo plazo, y una unidad 930C de terminacion de cambio de asignacion de mdice de referencia. De igual modo, la cuarta unidad 950 de cambio de asignacion de mdice de referencia incluye una unidad 950A de cambio de asignacion de mdice de referencia para prediccion temporal, una unidad 950B de cambio de asignacion de mdice de referencia para imagen de referencia de largo plazo, y una unidad 950C de terminacion de cambio de asignacion de mdice de referencia.
La unidad 910 de reordenacion de lista de imagen de referencia para prediccion temporal reordena las imagenes de referencia usadas para prediccion temporal. Las operaciones de la unidad 910 de reordenacion de lista de imagen de referencia para prediccion temporal son identicas a las de la unidad 640 de reordenacion de lista de referencia mencionada anteriormente, mostrada en la Figura 10, excepto las informaciones para las imagenes de referencia para prediccion inter-visualizacion. Asf, los detalles de la unidad 910 de reordenacion de lista de imagen de referencia para prediccion temporal se van a omitir en la descripcion que sigue.
La unidad 960 de comprobacion de tipo de NAL comprueba el tipo de NAL de una corriente de bits recibida. Si el tipo de NAL es una NAL para codificacion de video multi-visualizacion, las imagenes de referencia usadas para la prediccion inter-visualizacion son reordenadas mediante la unidad 970 de reordenacion de lista de imagen de referencia para prediccion temporal. La lista de imagen de referencia generada para la prediccion inter-visualizacion, se usa para inter-prediccion junto con la lista de imagen de referencia generada por la unidad 910 de reordenacion de lista de imagen de referencia para prediccion temporal. Mas aun, si el tipo de NAL no es la NAL para codificacion de video multi-visualizacion, la lista de imagen de referencia para la prediccion inter-visualizacion no se reordena. En este caso, se genera solamente una lista de imagen de referencia para prediccion temporal. Y, la unidad 970 de reordenacion de lista de imagen de referencia de prediccion inter-visualizacion reordena imagenes de referencia usadas para prediccion inter-visualizacion. Esto se explica en detalle con referencia a la Figura 16 como sigue.
La Figura 16 es un diagrama de bloques interno de la unidad 970 de reordenacion de lista de imagen de referencia para prediccion inter-visualizacion conforme a una realizacion de la presente invencion.
Con referencia a la Figura 16, la unidad 970 de reordenacion de lista de imagen de referencia para prediccion inter- visualizacion incluye una unidad 642 de comprobacion del tipo de seccion, una quinta unidad 971 de obtencion de informacion de identificacion, una quinta unidad 972 de cambio de asignacion de mdice de referencia, una sexta unidad 973 de obtencion de informacion de identificacion, y una sexta unidad 974 de cambio de asignacion de mdice de referencia.
La unidad 642 de comprobacion de tipo de seccion comprueba el tipo de seccion de una seccion actual. Si es asf, se decide a continuacion si se debe ejecutar reordenacion de una lista 0 de imagen de referencia y/o de una lista 1 de
5
10
15
20
25
30
35
40
45
50
55
60
65
imagen de referencia conforme al tipo de seccion. Los detalles de la unidad 642 de comprobacion del tipo de seccion pueden inferidos a partir de la Figura 10, los cuales han sido omitidos en la descripcion que sigue.
Cada una de las unidades quinta y sexta 971 y 973 de obtencion de informacion de identificacion obtiene informacion de identificacion indicativa de un metodo de asignacion de mdice de referencia. Y, cada una de las unidades quinta y sexta 972 y 974 de cambio de asignacion de mdice de referencia cambia un mdice de referencia asignado a cada imagen de referencia de la lista 0 y/o de la lista 1 de imagen de referencia. En este caso, el mdice de referencia puede significar un numero de visualizacion de una imagen de referencia solamente. Y, la informacion de identificacion indicativa del metodo de asignacion de mdice de referencia puede ser informacion de banderola. Por ejemplo, si la informacion de banderola es cierta, se cambia la asignacion de un numero de visualizacion. Si la informacion de banderola es falsa, se puede terminar un proceso de reordenacion de un numero de visualizacion. Si la informacion de banderola es cierta, cada una de las unidades quinta y sexta 972 y 974 de cambio de asignacion de mdice de referencia puede obtener una diferencia de numero de visualizacion acorde con la informacion de banderola. En este caso, la diferencia de numero de visualizacion significa una diferencia entre un numero de visualizacion de una imagen actual y un numero de visualizacion de una imagen pronosticada. Y, el numero de visualizacion de la imagen pronosticada puede significar un numero de visualizacion de una imagen de referencia asignado justamente antes. Esta se encuentra entonces capacitada para cambiar la asignacion de numero de visualizacion usando la diferencia de numero de visualizacion. En este caso, la diferencia de numero de visualizacion puede ser anadida/substrafda al/del numero de visualizacion de la imagen pronosticada de acuerdo con la informacion de identificacion.
De ese modo, para gestionar la lista de imagen de referencia para la prediccion inter-visualizacion como lista de imagen de referencia separada, es necesario definir de nuevo una estructura de sintaxis. Como realizacion de los contenidos explicados en la Figura 15 y en la Figura 16, la sintaxis se explica con referencia a la Figura 17, la Figura 18 y la Figura 19, como sigue.
La Figura 17 y la Figura 18 son diagramas de sintaxis para reordenacion de lista de imagen de referencia conforme a una realizacion de la presente invencion.
Con referencia a la Figura 17, una operacion de la unidad 910 de reordenacion de lista de imagen de referencia para prediccion temporal, mostrada en la Figura 15, ha sido representada como sintaxis. En comparacion con los bloques mostrados en la Figura 15, la unidad 642 de comprobacion de tipo de seccion corresponde a S1 y S6, y la cuarta unidad 940 de obtencion de informacion de identificacion corresponde a S7. Los bloques internos de la tercera unidad 930 de cambio de asignacion de mdice de referencia corresponden a S3, S4 y S5, respectivamente. Y, los bloques internos de la cuarta unidad 950 de cambio de asignacion de mdice de referencia corresponden a S8, S9 y S10, respectivamente.
Con referencia a la Figura 18, las operaciones de la unidad 960 de comprobacion del tipo de NAL y de la unidad 970 de reordenacion de lista de imagen de referencia inter-visualizacion, han sido representadas como sintaxis. En comparacion con los bloques respectivos mostrados en la Figura 15 y la Figura 16, la unidad 960 de comprobacion de tipo de NAL corresponde a S11, la unidad 642 de comprobacion de tipo de seccion corresponde a S13 y S16, la quinta unidad 971 de obtencion de informacion de identificacion corresponde a S14, y la sexta unidad 973 de obtencion de informacion de identificacion corresponde a S17. La quinta unidad 972 de cambio de asignacion de mdice de referencia corresponde a S15 y la sexta unidad 974 de cambio de asignacion de mdice de referencia corresponde a S18.
La Figura 19 es un diagrama de sintaxis para reordenacion de lista de imagen de referencia conforme a otra realizacion de la presente invencion.
Con referencia a la Figura 19, las operaciones de la unidad 960 de comprobacion del tipo de NAL y de la unidad 970 de reordenacion de lista de imagen de referencia inter-visualizacion, han sido representadas como sintaxis. En comparacion con los bloques respectivos mostrados en la Figura 15 y la Figura 16, la unidad 960 de comprobacion de tipo de NAL corresponde a S21, la unidad 642 de comprobacion de tipo de seccion corresponde a S22 y S25, la quinta unidad 971 de obtencion de informacion de identificacion corresponde a S23, y la sexta unidad 973 de obtencion de informacion de identificacion corresponde a S26. La quinta unidad 972 de cambio de asignacion de mdice de referencia corresponde a S24 y la sexta unidad 974 de cambio de asignacion de mdice de referencia corresponde a S27.
Segun se ha mencionado en la descripcion que antecede, la lista de imagen de referencia para prediccion inter- visualizacion puede ser usada por la unidad 700 de inter-prediccion, y es utilizable para llevar a cabo compensacion de iluminacion tambien. La compensacion de iluminacion es aplicable en el transcurso de la realizacion de estimacion de movimiento/compensacion de movimiento. En caso de que una imagen actual use una imagen de referencia en una visualizacion diferente, esta capacitada para realizar la compensacion de iluminacion de una manera mas eficiente usando la lista de imagen de referencia para la prediccion inter-visualizacion. Las compensaciones de iluminacion conforme a las realizaciones de la presente invencion van a ser explicadas en lo que sigue.
5
10
15
20
25
30
35
40
45
50
La Figura 20 es un diagrama para un proceso de obtencion de un valor de diferencia de iluminacion de un bloque actual.
Compensacion de iluminacion significa un proceso para descodificar una senal de video compensada en movimiento adaptativamente conforme a un cambio de iluminacion. Y, esto es aplicable a una estructura predictiva de una senal de video, por ejemplo, prediccion inter-visualizacion, prediccion intra-visualizacion, y similar.
Compensacion de iluminacion significa un proceso para descodificar una senal de video usando una diferencia de iluminacion residual y un valor de prediccion de diferencia de iluminacion correspondiente a un bloque que va a ser descodificado. En este caso, el valor de prediccion de diferencia de iluminacion puede ser obtenido a partir de un bloque contiguo al bloque actual. Se puede decidir un proceso para obtencion de un valor de prediccion de diferencia de iluminacion a partir del bloque contiguo, usando informacion de referencia para el bloque contiguo, y se puede tomar en consideracion una secuencia y una direccion en el transcurso de busqueda de bloques contiguos. El bloque contiguo significa un bloque ya descodificado y tambien significa un bloque descodificado considerando redundancia dentro de la misma imagen durante una visualizacion o un tiempo o una secuencia descodificada considerando redundancia dentro de imagenes diferentes.
En la comparacion de similitudes ente un bloque actual y un bloque de referencia candidato, se debera tener en cuenta una diferencia de iluminacion entre dos bloques. Con el fin de compensar la diferencia de iluminacion, se ejecuta una nueva estimacion/compensacion de movimiento. Se puede encontrar un nuevo SAD usando la Formula 1.
[Formula 1]
imagen1
[Formula 2]
w+S-l k+7-1
NewSADfa y) = £ £ |{/& x, + x,n+ y)}|
!-M j-x 1
En este caso, “Mcurr” indica un valor medio de pixel de un bloque actual y “Mref” indica un valor medio de pixel de un bloque de referencia., “f(i,j)” indica un valor de pixel de una bloque actual y “r(i+x, j+y)” indica un valor de pixel de un bloque de referencia. Al realizar estimacion de movimiento en base al nuevo SAD segun la Formula 2, esta capacitada para obtener un valor medio de diferencia de pixel entre el bloque actual y el bloque de referencia. Y, el valor medio de diferencia de pixel obtenido puede ser denominado como valor de diferencia de iluminacion (C_offset).
En caso de realizar estimacion de movimiento a la que se aplica compensacion de iluminacion, se genera un valor de diferencia de iluminacion y un vector de movimiento. Y, la compensacion de iluminacion se ejecuta segun la Formula 3 usando el valor de diferencia de iluminacion y el vector de movimiento.
[Formula 3]
NewR(i,j) = {'f(iJ)-Mgar}-{r(i + x,J+/)-Mt,#(m+x',n+y)}
= (/(*> J) - r(i +*' J + y')} - {Mcltr - Mrtf {m+x\ n+/)}
= if(?J) ~ KJ’ + , J + /)) -10 _ offset
5
10
15
20
25
30
35
40
45
50
55
60
En este caso, NewR(i,j) indica un valor (residual) de error compensado de iluminacion y (x', y') indica un vector de movimiento.
Un valor de diferencia de iluminacion (Mcurr-Mref) debera ser transferido a la unidad de descodificacion. La unidad de descodificacion lleva a cabo la compensacion en iluminacion de la manera siguiente:
[Formula 4]
f,(iJ) = {NewR''(xl,y,,i,j) + r(i + x,J + y,)) + {Mfllr-Myf(m + x,I?2+y>)}
= {NewR"(x',y',iJ) + r(i+ x', J+ y')} + 1C_offset
En la Formula 4, NewR”(i,j) indica un valor (residual) de error compensado en iluminacion reconstruido y f'(i,j) indica un valor de pixel de un bloque actual reconstruido.
Con vistas a reconstruir un bloque actual, un valor de diferencia de iluminacion debera ser transferido a la unidad de descodificacion. Y, el valor de diferencia de iluminacion puede ser pronosticado a partir de informacion de los bloques contiguos. Con el fin de reducir aun mas el numero de bits para codificar el valor de diferencia de iluminacion, esta capacitada para enviar un valor de diferencia (RIC_offset) entre el valor de diferencia de iluminacion del bloque actual (IC_offset) y el valor de diferencia de iluminacion del bloque contiguo (prediC_offset) solamente. Esto se ha representado como formula 5.
[Formula 5]
imagen2
La Figura 21 es un diagrama de flujo de un proceso para llevar a cabo compensacion de iluminacion de un bloque actual.
Con referencia a la Figura 21, en primer lugar, se deduce a partir de una senal de video, un valor de diferencia de iluminacion de un bloque contiguo que indica un valor medio de diferencia de pixel entre el bloque contiguo de un bloque actual y un bloque al que se hace referencia mediante bloque contiguo (S2110).
A continuacion, se obtiene un valor de prediccion de diferencia de iluminacion para compensacion de iluminacion del bloque actual, usando el valor de diferencia de iluminacion (S2120). De ese modo, esta capacitada para reconstruir un valor de diferencia de iluminacion del bloque actual usando el valor de prediccion de diferencia de iluminacion obtenido.
En la obtencion del valor de prediccion de diferencia de iluminacion, esta capacitada para usar varios metodos. Por ejemplo, con anterioridad a que el valor de diferencia de iluminacion del bloque actual sea pronosticado a partir del valor de diferencia de iluminacion del bloque contiguo, se comprueba si un mdice de referencia del bloque actual es igual al del bloque contiguo. Entonces esta capacitada para decidir la clase de bloque contiguo o el valor que debera ser usado conforme al resultado de la comprobacion. En otro ejemplo, en la obtencion del valor de prediccion de diferencia de iluminacion, se puede usar informacion de banderola (IC_flag) indicativa de si se debe ejecutar compensacion de iluminacion del bloque actual. Y, la informacion de banderola para el bloque actual puede ser pronosticada usando la informacion de los bloques contiguos tambien. En otro ejemplo, esta capacitada para obtener el valor de prediccion de diferencia de iluminacion usando tanto el metodo de comprobacion de mdice de referencia como el metodo de prediccion de informacion de banderola. Esto se explica en detalle con referencia a las Figuras 22 a 24, como sigue.
La Figura 22 es un diagrama de bloques de un proceso para obtencion de un valor de prediccion de diferencia de iluminacion de un bloque actual usando informacion para un bloque contiguo.
Con referencia a la Figura 22, esta capacitada para usar informacion respecto a un bloque contiguo en la obtencion de un valor de prediccion de diferencia de iluminacion de un bloque actual. En la presente divulgacion, un bloque puede incluir un macrobloque o un sub-macrobloque. Por ejemplo, esta capacitada para predecir un valor de diferencia de iluminacion del bloque actual usando un valor de diferencia de iluminacion del bloque contiguo. Con anterioridad a todo esto, se comprueba si un mdice de referencia del bloque actual es igual al del bloque contiguo. Segun sea el resultado de la comprobacion, esta entonces en condiciones de decidir la clase de bloque contiguo o el
5
10
15
20
25
30
35
40
45
50
55
60
65
valor que debera usarse. En la Figura 22, “refIdxLX” indica un mdice de referencia de un bloque actual, “refIdxLXN” indica un mdice de referencia de un bloque N. En este caso, “N” es una marca de un bloque contiguo al bloque actual e indica A, B o C. Y, “PrediC_offsetN” indica un valor de diferencia de iluminacion para compensacion de iluminacion de un bloque N contiguo. En caso de que no este capacitada para usar un bloque C que este situado en el extremo superior derecho del bloque actual, esta capacitada para usar un bloque D en vez del bloque C. En particular, la informacion para el bloque D es utilizable como informacion para el bloque C. Si es incapaz de usar ambos, el bloque B y el bloque C, esta capacitada para usar en cambio un bloque A. En particular, esta capacitada para usar la informacion para el bloque A como informacion para el bloque B o para el bloque C.
En otro ejemplo, en la obtencion del valor de prediccion de diferencia de iluminacion, esta capacitada para usar informacion de banderola (IC_flag) indicativa de si se debe ejecutar una compensacion de iluminacion del bloque actual. Alternativamente, esta capacitada para usar tanto el metodo de comprobacion de mdice de referencia como el metodo de prediccion de informacion de banderola en la obtencion del valor de prediccion de diferencia de iluminacion. En este caso, si la informacion de banderola para el bloque contiguo indica que la compensacion de iluminacion no se ha ejecutado, es decir, si IC_flag==0, el valor de diferencia de iluminacion “PredIC_offsetN” del bloque contiguo se establece en 0.
La Figura 23 es un diagrama de flujo de un proceso para realizar compensacion de iluminacion usando informacion para un bloque contiguo.
Con referencia a la Figura 23, la unidad de descodificacion deduce un valor medio de pixel de un bloque de referencia, un mdice de referencia de un bloque actual, un mdice de referencia del bloque de referencia, y similares, a partir de una senal de video, y a continuacion esta capacitada para obtener un valor de prediccion de diferencia de iluminacion del bloque actual usando la informacion deducida. La unidad de descodificacion obtiene un valor de diferencia (diferencia de iluminacion residual) entre un valor de diferencia de iluminacion del bloque actual y el valor de prediccion de diferencia de iluminacion, y entonces esta capacitada para reconstruir un valor de diferencia de iluminacion del bloque actual usando la diferencia de iluminacion residual y el valor de prediccion de diferencia de iluminacion obtenidos. En ese caso, esta capacitada para usar la informacion para un bloque contiguo para obtener el valor de prediccion de diferencia de iluminacion del bloque actual. Por ejemplo, esta capacitada para predecir un valor de diferencia de iluminacion del bloque actual usando el valor de diferencia de iluminacion del bloque contiguo. Con anterioridad a esto, se comprueba si un mdice de referencia del bloque actual es igual al del bloque contiguo. Segun sea el resultado de la comprobacion, estara entonces capacitada para decidir la clase de bloque contiguo o el valor que debera ser usado.
En particular, un valor de diferencia de iluminacion de un bloque contiguo indicativo de un valor medio de diferencia de pixel entre el bloque contiguo a un bloque actual y un bloque al que se hace referencia por parte del bloque contiguo, se deduce a partir de una senal de video (S2310).
A continuacion, se comprueba si un mdice de referencia del bloque actual es igual a un mdice de referencia de uno de una pluralidad de bloques contiguos (S2320).
Como resultado de la etapa de comprobacion S2320, si existe al menos un bloque contiguo que tenga el mismo mdice de referencia que el bloque actual, se comprueba si existe o no un bloque contiguo correspondiente (S2325).
Como resultado de la etapa de comprobacion S2325, si existe solamente un bloque contiguo que tenga el mismo mdice de referencia que el bloque actual, se asigna un valor de diferencia de iluminacion del bloque contiguo que tiene el mismo mdice de referencia que el bloque actual a un valor de prediccion de diferencia de iluminacion del bloque actual (S2330). En particular, esto es “PredIC_offset = PredIC_offsetN”.
Si el bloque contiguo que tiene el mismo mdice de referencia que el del bloque actual deja de existir como resultado de la etapa de comprobacion S2320 o si existen al menos dos bloques contiguos que tengan el mismo mdice de referencia que el bloque actual como resultado de la etapa de comprobacion S2325, la media de los valores de diferencia de iluminacion (PredIC_offsetN, N = A, B o C) de los bloques contiguos se asigna a un valor de prediccion de diferencia de iluminacion del bloque actual (S650). En particular, esto es “PredIC_offset = Media(PredlC_offsetA, PredIC_offsetB, PredIC_offsetC)”.
La Figura 24 es un diagrama de flujo de un proceso para realizar compensacion de iluminacion usando la informacion para un bloque contiguo.
Con referencia a la Figura 24, una unidad de descodificacion tiene que reconstruir un valor de diferencia de iluminacion de un bloque actual para llevar a cabo compensacion de iluminacion. En este caso, esta capacitada para usar la informacion para un bloque contiguo para obtener un valor de prediccion de diferencia de iluminacion del bloque actual. Por ejemplo, esta capacitada para predecir un valor de diferencia de iluminacion del bloque actual usando el valor de diferencia de iluminacion del bloque contiguo. Con anterioridad a todo esto, se comprueba si un mdice de referencia del bloque actual es igual al del bloque contiguo. Segun sea el resultado de la comprobacion, esta entonces capacitada para decidir la clase de bloque contiguo o de valor que debera ser usado.
5
10
15
20
25
30
35
40
45
50
55
60
65
En particular, un valor de diferencia de iluminacion de un bloque contiguo indicativo de un valor medio de diferencia de p^xel entre el bloque contiguo de un bloque actual y un bloque al que se hace referencia mediante el bloque contiguo, se deduce a partir de una senal de video (S2410).
A continuacion, se comprueba si un mdice de referencia del bloque actual es igual a un mdice de referencia de uno de una pluralidad de bloques contiguos (S2420).
Como resultado de la etapa de comprobacion S720, si existe al menos un bloque contiguo que tenga el mismo mdice de referencia que el del bloque actual, se comprueba si existe o no un bloque contiguo correspondiente (S2430).l
Como resultado de la etapa de comprobacion S2430, si existe solamente un bloque contiguo que tenga el mismo mdice de referencia que el del bloque actual, se asigna un valor de diferencia de iluminacion del bloque contiguo que tiene el mismo mdice de referencia que el bloque actual a un valor de prediccion de diferencia de iluminacion del bloque actual (S2440). En particular, esto es “PreIC_offset = PredIC_offsetN”.
Si el bloque contiguo que tiene el mismo mdice de referencia que el del bloque actual deja de existir como resultado de la etapa de comprobacion S2420, el valor de prediccion de diferencia de iluminacion del bloque actual se establece en 0 (S2460). En particular, esto es “PredlC_offset = 0”.
Si existen al menos dos bloques contiguos que tengan el mismo mdice de referencia que el del bloque actual como resultado de la etapa de comprobacion S2430, el bloque contiguo que tenga un mdice de referencia diferente al del bloque actual se establece en 0 y se asigna una media de los valores de diferencia de iluminacion de los bloques contiguos, incluyendo el valor establecido en 0, al valor de prediccion de diferencia de iluminacion del bloque actual (S2450). En particular, esto es “PredIC_offset = Media(PredIC_offsetA, PredIC_offsetB, PredIC_offsetC)”. Mas aun, en caso de que exista el bloque contiguo que tiene el mdice de referencia diferente al del bloque actual, el valor “0” puede ser incluido en PredIC_offsetA, PredIC_offsetB, PredIC_offsetC.
Mientras tanto, la informacion de visualizacion para identificar una visualizacion de una imagen y una lista de imagen de referencia para prediccion inter-visualizacion, son aplicables a la smtesis de una imagen en una visualizacion virtual. En un proceso para la smtesis de una imagen en una visualizacion virtual, se puede hacer referencia a una imagen de una visualizacion diferente. Asf, si se usa la informacion de visualizacion y la lista de imagen de referencia para prediccion inter-visualizacion, esta capacitada para sintetizar una imagen en una visualizacion virtual de una manera mas eficiente. En la descripcion que sigue, se explican metodos de smtesis de una imagen en una visualizacion virtual conforme a realizaciones de la presente invencion.
La Figura 25 es un diagrama de bloques de un proceso para pronosticar una imagen actual usando una imagen de una visualizacion virtual.
Con referencia a la Figura 25, en la realizacion de prediccion inter-visualizacion en codificacion de video multi- visualizacion, esta capacitada para predecir una imagen actual usando una visualizacion diferente de la visualizacion actual como imagen de referencia. Mas aun, una imagen en una visualizacion virtual se obtiene usando imagenes en una visualizacion contigua a la de una imagen actual, y a continuacion se predice la imagen actual usando la imagen obtenida en la visualizacion virtual. Si es asf, la prediccion puede ser llevada a cabo de manera mas precisa. En este caso, se puede usar un identificador de visualizacion indicativo de una visualizacion de una imagen, para utilizar imagenes de visualizaciones contiguas o imagenes de una visualizacion espedfica. En caso de que se genere la visualizacion virtual, debe existir sintaxis espedfica para indicar si se debe generar la visualizacion virtual. Si la sintaxis indica que se debe generar la visualizacion virtual, esta capacitada para generar la visualizacion virtual usando el identificador de visualizacion. Las imagenes de la visualizacion virtual obtenidas por la unidad 740 de prediccion de smtesis de visualizacion son utilizables como imagenes de referencia. En este caso, el identificador de visualizacion puede ser asignado a las imagenes en la visualizacion virtual. En un proceso para realizar prediccion de vector de movimiento para transferir un vector de movimiento, los bloques contiguos a un bloque actual pueden hacer referencia a las imagenes obtenidas mediante la unidad 740 de prediccion de smtesis de visualizacion. En este caso, para usar la imagen en la visualizacion virtual como imagen de referencia, se puede utilizar un identificador de visualizacion indicativo de una visualizacion de una imagen.
La Figura 26 es un diagrama de flujo de un proceso para sintetizar una imagen de una visualizacion virtual al realizar prediccion inter-visualizacion en MVC.
Con referencia a la Figura 26, una imagen de una visualizacion virtual se sintetiza usando imagenes de una visualizacion contigua a la de una imagen actual. La imagen actual se predice a continuacion usando la imagen sintetizada en la visualizacion virtual. Si es asf, esta capacitada para conseguir una prediccion mas precisa. En caso de que se sintetice una imagen en una visualizacion virtual, existe sintaxis espedfica indicativa de si se debe ejecutar una prediccion de una imagen actual sintetizando la imagen en la visualizacion virtual. En caso de que se decida ejecutar la prediccion de la imagen actual, es posible una codificacion mas eficiente. La sintaxis espedfica se
5
10
15
20
25
30
35
40
45
50
55
60
65
define como un identificador de prediccion de smtesis inter-visualizacion, lo cual se explica como sigue. Por ejemplo, una imagen de una visualizacion virtual se sintetiza mediante una capa de seccion para definir “view_synthesize_pred_flag” indicativa de si se debe ejecutar una prediccion de una imagen actual. Y, una imagen en una visualizacion virtual se sintetiza mediante una capa de macrobloque para definir “view_syn_pred_flag” indicativa de si se debe ejecutar una prediccion de una imagen actual. Si “view_synthesize_pred_flag = 1”, una seccion actual sintetiza una seccion en una visualizacion virtual usando una seccion en una visualizacion contigua a la de la seccion actual. Entonces, esta capacitada para predecir la seccion actual usando la seccion sintetizada. Si “view_synthesize_pred_flag = 0”, no se sintetiza ninguna seccion en una visualizacion virtual. De igual modo, si “view_syn_pred_flag = 1”, un macrobloque actual sintetiza un macrobloque en una visualizacion virtual usando un macrobloque en una visualizacion contigua a la del macrobloque actual. Entonces, esta capacitada para predecir el macrobloque actual usando el macrobloque sintetizado. Si “view_syn_pred_flag = 0”, no se sintetiza ningun macrobloque en una visualizacion virtual. Con ello, en la presente invencion, se deduce el identificador de prediccion de smtesis inter-visualizacion indicativo de si se debe obtener una imagen en una visualizacion virtual, a partir de una senal de video. Entonces esta capacitada para obtener la imagen en la visualizacion virtual usando el identificador de prediccion de smtesis inter-visualizacion.
Segun se ha mencionado en la descripcion que antecede, la informacion de visualizacion para identificar una visualizacion de una imagen y una lista de imagen de referencia para prediccion inter-visualizacion, pueden ser usadas por la unidad 700 de inter-prediccion. Y, estas pueden ser usadas en la realizacion de prediccion ponderada tambien. La prediccion ponderada es aplicable a un proceso para realizar compensacion de movimiento. Haciendolo asf, si una imagen actual usa una imagen de referencia en una visualizacion diferente, esta capacitada para realizar la prediccion ponderada de una manera mas eficiente usando la informacion de visualizacion y la lista de imagen de referencia para prediccion inter-visualizacion. Los metodos de prediccion ponderada conforme a realizaciones de la presente invencion, van a ser explicados como sigue.
La Figura 27 es un diagrama de flujo de un metodo de ejecucion de prediccion ponderada segun un tipo de seccion en codificacion de senal de video.
Con referencia a la Figura 27, la prediccion ponderada consiste en un metodo de escalar una muestra de datos de prediccion compensada de movimiento dentro de un macrobloque de seccion P o de seccion B. Un metodo de prediccion ponderada incluye un modo explfcito para realizar prediccion ponderada para una imagen actual usando informacion de coeficiente ponderado obtenida a partir de informacion para imagenes de referencia, y un modo implfcito para realizar prediccion ponderada para una imagen actual usando informacion de coeficiente ponderado obtenida a partir de informacion para una distancia entre la imagen actual y una de las imagenes de referencia. El metodo de prediccion ponderada puede ser aplicado de forma diferente segun un tipo de seccion de un macrobloque actual. Por ejemplo, en el modo explfcito, la informacion de coeficiente ponderado puede variar de acuerdo a si un macrobloque actual, sobre el que se realiza la prediccion ponderada, es un macrobloque de una seccion P o un macrobloque de una seccion B. Y, el coeficiente ponderado del modo explfcito puede ser decidido mediante un codificador y puede ser transferido al estar incluido en una cabecera de seccion. Por otra parte, en el modo implfcito, se puede obtener un coeficiente ponderado en base a una posicion relativamente temporal de Lista 0 y de Lista 1. Por ejemplo, si una imagen de referencia esta temporalmente cerca de una imagen actual, resulta aplicable un coeficiente ponderado grande. Si una imagen de referencia esta temporalmente distante de una imagen actual, resulta aplicable un coeficiente ponderado pequeno.
En primer lugar, se deduce un tipo de seccion de un macrobloque para aplicar prediccion ponderada al mismo, a partir de una senal de video (S2710).
Posteriormente, se puede realizar prediccion ponderada sobre un macrobloque conforme al tipo de seccion deducido (S2720).
En este caso, el tipo de seccion puede incluir un macrobloque al que se aplica prediccion inter-visualizacion. La prediccion inter-visualizacion significa que una imagen actual se predice usando informacion para una imagen de una visualizacion diferente a la de la imagen actual. Por ejemplo, el tipo de seccion puede incluir un macrobloque al que se aplica prediccion temporal para realizar prediccion usando informacion para una imagen de una misma visualizacion que la de una imagen actual, un macrobloque al que se aplica prediccion inter-visualizacion, y un macrobloque al que se aplican ambas, la prediccion temporal y la prediccion inter-visualizacion. Y, el tipo de seccion puede incluir un macrobloque al que se aplica prediccion temporal solamente, un macrobloque al que se aplica prediccion inter-visualizacion solamente, o un macrobloque al que se aplica tanto prediccion temporal como prediccion inter-visualizacion. Ademas, el tipo de seccion puede incluir dos tipos de macrobloque o la totalidad de los tres tipos de macrobloque. Esto va a ser explicado en detalle con referencia a la Figura 28 mas adelante. De ese modo, en el caso de que se extraiga desde una senal de video un tipo de seccion que incluya una prediccion inter- visualizacion aplicada al macrobloque, se realiza prediccion ponderada usando informacion para una imagen en una visualizacion diferente a la de una imagen actual. Para hacer esto, se puede utilizar un identificador de visualizacion para identificar una visualizacion de una imagen, para el uso de informacion para una imagen en una visualizacion diferente.
5
10
15
20
25
30
35
40
45
50
55
60
65
La Figura 28 es un diagrama de tipos de macrobloque admisibles en un tipo de seccion en codificacion de senal de video segun una realizacion de la presente invencion.
Con referencia a la Figura 28, si se define un tipo de seccion P mediante prediccion inter-visualizacion como VP (View_P), resulta admisible un intra-macrobloque I, un macrobloque P pronosticado a partir de una imagen de una visualizacion actual, o un macrobloque VP pronosticado a partir de una imagen de una visualizacion diferente, para el tipo de seccion P mediante la prediccion inter-visualizacion (2810).
En caso de que se defina un tipo de seccion B mediante prediccion inter-visualizacion como VB (View_B), resulta admisible un macrobloque P o B pronosticado a partir de al menos una imagen de una visualizacion actual, o un macrobloque VP o VB pronosticado a partir de al menos una imagen de una visualizacion diferente (2820).
En caso de un tipo de seccion, sobre el que se ha realizacion prediccion usando prediccion temporal, prediccion inter-visualizacion o ambas, prediccion temporal y prediccion inter-visualizacion, se defina como Mixto, un intra- macrobloque I, un macrobloque P o B pronosticado a partir de al menos una imagen de una visualizacion actual, un macrobloque VP o VB pronosticado a partir de al menos una imagen de una visualizacion diferente, o un macrobloque “Mixto” pronosticado usando tanto la imagen de la visualizacion actual como la imagen de la visualizacion diferente, resulta admisible para el tipo de seccion mixto (2830). En este caso, con el fin de usar la imagen de la visualizacion diferente, esta capacitada para usar un identificador de visualizacion para identificar una visualizacion de una imagen.
La Figura 29 y la Figura 30 son diagramas de sintaxis para ejecutar prediccion ponderada segun un tipo de seccion recien definido.
Segun se ha mencionado en la descripcion que antecede de la Figura 28, si se decide el tipo de seccion como VP, VB o Mixta, la sintaxis para llevar a cabo la prediccion ponderada convencional (por ejemplo, H.264) puede ser modificada segun la Figura 29 o la Figura 30.
Por ejemplo, si un tipo de seccion es la seccion P por prediccion temporal, se anade una parte “if (slice_type ! = VP || slice_type j = VB” (2910).
Si un tipo de seccion es una seccion B por prediccion temporal, se puede modificar if-statement segun “if(slice_type == B || slice_type == Mixed)” (2920).
Definiendo de nuevo un tipo se seccion de VP y un tipo de seccion de VB, se puede anadir de nuevo un formato similar al de la Figura 29 (2930, 2940). En este caso, puesto que se anade informacion para una visualizacion, los elementos de sintaxis incluyen partes “visualizacion”, respectivamente. Por ejemplo, existe “Iuma_log2_view_weight_denom, chroma_log2_view_weight_denom”.
La Figura 31 es un diagrama de flujo de un metodo de ejecucion de prediccion ponderada usando informacion de banderola indicativa de si se debe ejecutar prediccion ponderada inter-visualizacion en codificacion de senal de video.
Con referencia a la Figura 31, en codificacion de senal de video a la que se aplica la presente invencion, en caso de usar informacion de banderola indicativa de si se decide ejecutar prediccion ponderada, se habilita una codificacion mas eficiente.
La informacion de banderola puede ser definida en base a un tipo de seccion. Por ejemplo, puede existir informacion de banderola indicativa de si debe aplicarse prediccion ponderada a una seccion P o una seccion SP, o informacion de banderola indicativa de si debe aplicarse prediccion ponderada a una seccion B.
En particular, la informacion de banderola puede ser definida como “weightesd_pred_flag” o “weighted_bipred_idc”. Si es “weighted_pred_flag = 0”, esto indica que la prediccion ponderada no se aplica a la seccion P ni a la seccion SP. Si “weighted_pred_flag = 1”, esto indica que se aplica prediccion ponderada a la seccion P y a la seccion SP. Si “weighted_bipred_idc = 0”, esto indica que se aplica prediccion ponderada por defecto a la seccion B. Si “weighted_bipred_idc = 1”, esto indica que se aplica prediccion ponderada explfcita a la seccion B. Si “weighted_bipred_idc = 2”, esto indica que se aplica prediccion ponderada implfcita a la seccion B.
En codificacion de video multi-visualizacion, la informacion de banderola indicativa de si se va a ejecutar prediccion ponderada usando informacion para una imagen inter-visualizacion, puede ser definida en base a un tipo de seccion.
En primer lugar, se deduce el tipo de seccion y la informacion de banderola indicativa de si se va a ejecutar prediccion ponderada inter-visualizacion, a partir de una senal de video (S3110, S3120). En este caso, el tipo de seccion puede incluir un macrobloque al que se aplica prediccion temporal para llevar a cabo la prediccion usando informacion para una imagen en una misma visualizacion que de la de una imagen actual, y un macrobloque al que se aplica prediccion inter-visualizacion para llevar a cabo la prediccion usando informacion para una imagen en una
5
10
15
20
25
30
35
40
45
50
55
60
65
visualizacion diferente a la de una imagen actual.
Entonces esta capacitada para decidir un modo de prediccion ponderada en base al tipo de seccion deducido y a la informacion de banderola ex^da (S3130).
Posteriormente, esta capacitada para realizar prediccion ponderada conforme al modo de prediccion ponderada decidido (S3140). En este caso, la informacion de banderola puede incluir informacion de banderola indicativa de si se va a ejecutar prediccion ponderada usando informacion para una imagen en una visualizacion diferente a la de una imagen actual asf como la “weighted_pred_flag” y la “weighted_bipred_flag” mencionadas con anterioridad. Esto va a ser explicado en detalle con referencia a la Figura 32 en lo que sigue.
Con ello, en caso de que un tipo de seccion de un macrobloque actual sea un tipo de seccion que incluya un macrobloque al que se aplica prediccion inter-visualizacion, se habilita una codificacion mas eficiente que en un caso de uso de informacion de banderola indicativa de si se va a ejecutar prediccion ponderada usando informacion para una imagen en una visualizacion diferente.
La Figura 32 es un diagrama para explicar un metodo de prediccion de peso acorde con informacion de banderola indicativa de si se va a ejecutar prediccion ponderada usando informacion para una imagen en una visualizacion diferente a la de una imagen actual.
Con referencia a la Figura 32, por ejemplo, la informacion de banderola indicativa de si se va a ejecutar prediccion ponderada usando informacion para una imagen en una visualizacion diferente a la de una imagen actual, puede ser definida como “view_weighted_pred_flag” o como “view_weighted_bipred_flag”.
Si “view_weighted_pred_flag = 0”, esto indica que no se aplica prediccion ponderada a una seccion VP. Si “view_weighted_pred_flag = 1”, se aplica prediccion ponderada explfcita a una seccion VP. Si
“view_weighted_bipred_flag = 0”, esto indica que se aplica prediccion ponderada por defecto a una seccion VB. Si “view_weighted_bipred_flag = 1”, esto indica que se aplica prediccion ponderada explfcita a una seccion VB. Si “view_weighted_bipred_flag = 2”, esto indica que se aplica prediccion ponderada por defecto implfcita a una seccion VB.
En caso de que se aplique prediccion ponderada implfcita a una seccion VB, se puede obtener un coeficiente de peso a partir de una distancia relativa entre una visualizacion actual y una visualizacion diferente. En caso de que se aplique prediccion ponderada implfcita a una seccion VB, se puede realizar prediccion ponderada usando un identificador de visualizacion que identifica una visualizacion de una imagen o un numero de orden de imagen (POC) deducido considerando discriminacion de cada visualizacion.
Las informaciones de banderola anteriores pueden estar incluidas en un conjunto de parametros de imagen (PPS). En este caso, el conjunto de parametros de imagen (PPS) significa informacion de cabecera indicativa de un modo de codificacion de todas las imagenes (por ejemplo, modo de codificacion de entropfa, valor inicial de parametro de cuantificacion por unidad de imagen, etc.). Mas aun, el conjunto de parametros de imagen no esta unido a la totalidad de las imagenes. Si no existe ningun conjunto de parametros de imagen, se usa un conjunto de parametros de imagen existente justamente antes, como informacion de cabecera.
La Figura 33 es un diagrama de sintaxis para ejecutar prediccion ponderada conforme a una informacion de banderola recien definida.
Con referencia a la Figura 33, en codificacion de video multi-visualizacion a la que se aplica la presente invencion, en caso de que se defina un tipo de seccion que incluya un macrobloque aplicado a prediccion inter-visualizacion e informacion de banderola indicativa de si se va a ejecutar prediccion ponderada usando informacion para una imagen en una visualizacion diferente a la de una imagen actual, es necesario decidir la clase de prediccion ponderada que va a ser ejecutada de acuerdo con el tipo de seccion.
Por ejemplo, si un tipo de seccion, segun se ha mostrado en la Figura 33, extrafda de una senal de video, es una seccion P o una seccion SP, se puede ejecutar prediccion ponderada si “weighted_pred_flag = 1”. En caso que el tipo de seccion sea una seccion B, se puede ejecutar prediccion ponderada si “weighted_bipred_flag = 1”. En caso de que el tipo de seccion sea una seccion VP, se puede ejecutar prediccion ponderada si “view_weighted_pred_flag = 1”. En caso de que un tipo de seccion sea una seccion VB, se puede ejecutar prediccion ponderada si “view_weighted_bipred_flag = 1”.
La Figura 34 es un diagrama de flujo de un metodo de ejecucion de prediccion ponderada conforme a una unidad NAL (capa de abstraccion de red).
Con referencia a la Figura 34, en primer lugar, se extrae un tipo de unidad NAL (nal_unit_type) a partir de una senal de video (S910). En este caso, el tipo de unidad NAL significa un identificador que indica un tipo de unidad NAL. Por ejemplo, si “nal_unit_type = 5”, una unidad NAL es una seccion de una imagen de IDR. Y, la imagen de IDR
5
10
15
20
25
30
35
40
45
50
55
60
65
(refresco de descodificacion instantaneo) significa una imagen de cabecera de una secuencia de video.
Posteriormente, se comprueba si el tipo de unidad NAL extrafdo es un tipo de unidad NAL para codificacion de video multi-visualizacion (S3420).
Si el tipo de unidad NAL es el tipo de unidad NAL para codificacion de video multi-visualizacion, se lleva a cabo prediccion ponderada usando informacion para una imagen en una visualizacion diferente a la de una imagen actual (S3430). El tipo de unidad NAL puede ser un tipo de unidad NAL aplicable tanto a codificacion de video escalable como a codificacion de video multi-visualizacion, o un tipo de unidad NAL para codificacion de video multi- visualizacion solamente. De ese modo, si el tipo de unidad NAL es para codificacion de video multi-visualizacion, la prediccion ponderada debera ser ejecutada usando la informacion para la imagen en la visualizacion diferente a la de la imagen actual. Asf, es necesario definir nueva sintaxis. Esto va a ser explicado en detalle con referencia a las Figuras 35 y 36, como sigue.
La Figura 35 y la Figura 36 son diagramas de sintaxis para ejecutar prediccion ponderada en caso de que un tipo de unidad NAL sea para codificacion de video multi-visualizacion.
En primer lugar, si el tipo de unidad NAL es un tipo de unidad NAL para codificacion de video multi-visualizacion, la sintaxis para ejecucion de prediccion ponderada convencional (por ejemplo, H.264) puede ser modificada segun la sintaxis mostrada en la Figura 35 o en la Figura 36. Por ejemplo, un numero de referencia 3510 indica una parte de sintaxis para realizar prediccion ponderada convencional, y un numero de referencia 3520 indica una parte de sintaxis para realizar prediccion ponderada en codificacion de video multi-visualizacion. Asf, la prediccion ponderada se realiza mediante la parte de sintaxis 3520 solamente si el tipo de unidad NAL es el tipo de unidad NAL para codificacion de video multi-visualizacion. En este caso, puesto que se anade informacion para la visualizacion, cada elemento de sintaxis incluye una porcion de “visualizacion”. Por ejemplo, existe “Iuma_view_log2_weight_denom, chroma_view_log2_weight_denom”, o similar. Y, el numero de referencia 3530 de la Figura 36 indica una parte de sintaxis para realizar prediccion ponderada convencional y un numero de referencia 3540 en la Figura 36 indica una parte de sintaxis para realizar prediccion ponderada en codificacion de video multi-visualizacion. Asf, la prediccion ponderada se realiza mediante la parte de sintaxis 3540 solamente si el tipo de unidad NAL es el tipo de unidad NAL para codificacion de video multi-visualizacion. De igual modo, puesto que se anade informacion a una visualizacion, cada elemento de sintaxis incluye una porcion de “visualizacion”. Por ejemplo, existe “Iuma_view_I1_flag, chroma_view_weight_I1_flag” o similar. De ese modo, si se define un tipo de unidad NAL para codificacion de video multi-visualizacion, se habilita una codificacion mas eficiente en una manera de realizar prediccion ponderada usando informacion para una imagen en una visualizacion diferente a la de una imagen actual.
La Figura 37 es un diagrama de bloques de un aparato para descodificacion de una senal de video segun una realizacion de la presente invencion.
Con referencia a la Figura 37, un aparato para descodificar una senal de video conforme a la presente invencion incluye una unidad 3710 de deduccion de tipo de seccion, una unidad 3720 de deduccion de modo de prediccion, y una unidad 3730 de descodificacion.
La Figura 38 es un diagrama de flujo de un metodo de descodificacion de una senal de video en el aparato de descodificacion mostrado en la Figura 37 segun una realizacion de la presente invencion.
Con referencia a la Figura 38, un metodo de descodificacion de una senal de video segun una realizacion de la presente invencion incluye una etapa S3810 de deduccion de un tipo de seccion y de un modo de prediccion de macrobloque, y una etapa S3820 de descodificacion de un macrobloque actual segun sea el tipo de seccion y/o el modo de prediccion de macrobloque.
En primer lugar, se explica un esquema de prediccion usado por una realizacion de la presente invencion, para ayudar a la comprension de la presente invencion. El esquema de prediccion puede ser clasificado en prediccion intra-visualizacion (por ejemplo, prediccion entre imagenes de una misma visualizacion) y prediccion inter- visualizacion (por ejemplo, prediccion entre imagenes de diferentes visualizaciones). Y, la prediccion intra- visualizacion puede ser el mismo esquema de prediccion que el de una prediccion temporal general.
Segun la presente invencion, la unidad 3710 de deduccion del tipo de seccion deduce un tipo de seccion de una seccion que incluye un macrobloque actual (S3810).
En este caso, se puede proporcionar un campo de tipo de seccion (slice_type) indicativo de un tipo de seccion para prediccion intra-visualizacion y/o un campo de tipo de seccion (view_slice_type) indicativo de un tipo de seccion para prediccion inter-visualizacion, como parte de la sintaxis de senal de video para proporcionar el tipo de seccion. Esto va a ser descrito con mayor detalle en lo que sigue con referencia a las Figuras 6(a) y 6(b). Y, cada uno de entre el tipo de seccion (slice_type) para prediccion intra-visualizacion y el tipo de seccion (view_slice_type) para prediccion inter-visualizacion puede indicar, por ejemplo, un tipo de seccion I (I_SLICE), un tipo de seccion P (P_sLlCE) o un tipo de seccion B (B_SLICE).
5
10
15
20
25
30
35
40
45
50
55
60
65
Por ejemplo, si el “slice_type” de una seccion espedfica es una seccion B y el “view_sNce_type” es una seccion P, se descodifica un macrobloque de la seccion espedfica mediante un esquema de codificacion de seccion B (B_SLICE) en una direccion de intra-visualizacion (es decir, una direccion temporal) y/o mediante un esquema de codificacion de una seccion P (P_SLICE) en una direccion de visualizacion.
Entretanto, el tipo de seccion esta capacitado para incluir un tipo de seccion P (VP) para prediccion inter- visualizacion, un tipo de seccion B (VB) para prediccion intra-visualizacion y un tipo de seccion mixto (Mixto) mediante prediccion resultante de mezclar ambos tipos de prediccion. En particular, el tipo de seccion mixto proporciona prediccion usando una combinacion de prediccion intra-visualizacion e inter-visualizacion.
En este caso, un tipo de seccion P para prediccion inter-visualizacion significa un caso en que cada macrobloque o particion de macrobloque incluida en una seccion se predice a partir de una imagen de una visualizacion actual o de una imagen de una visualizacion diferente. Un tipo de seccion B para prediccion inter-visualizacion significa un caso en que cada macrobloque o particion de macrobloque incluida en una seccion se predice a partir de una o de dos imagenes de una visualizacion actual o de una imagen de una visualizacion diferente o dos imagenes de diferentes visualizaciones, respectivamente. Y, un tipo de seccion mixto para prediccion resultante de mezclar ambas predicciones, significa un caso en que cada macrobloque o particion de macrobloque incluida en una seccion se predice a partir de “una o dos imagenes de una visualizacion actual”, “una imagen de una visualizacion diferente o dos imagenes de visualizaciones diferentes, respectivamente”, o “una o dos imagenes de una visualizacion actual y una imagen de una visualizacion diferente o dos imagenes de visualizaciones diferentes, respectivamente”.
En otras palabras, una imagen referenciada y un tipo de macrobloque permitido difieren en cada tipo de seccion, lo que va a ser explicado en detalle con referencia a la Figura 43 y la Figura 44 en lo que sigue.
Y, la sintaxis entre las realizaciones mencionadas con anterioridad del tipo de seccion va a ser explicada en detalle con referencia a la Figura 40 y la Figura 41 mas adelante.
La unidad 3720 de deduccion del modo de prediccion puede deducir un indicador de modo de prediccion de macrobloque indicativo de si el macrobloque actual es un macrobloque mediante prediccion intra-visualizacion, un macrobloque mediante prediccion inter-visualizacion, o un macrobloque mediante prediccion resultante de mezclar ambos tipos de prediccion (S3820). Para ello, la presente invencion define un modo de prediccion de macrobloque (mb_prd_mode). Una realizacion de los modos de prediccion de macrobloque va a ser explicada en detalle con referencia a las Figuras 39, 40 y 41, mas adelante.
La unidad de descodificacion 3730 descodifica el macrobloque actual segun el tipo de seccion y/o del modo de prediccion para recibir/producir el macrobloque actual (S3820). En este caso, el macrobloque actual puede ser descodificado segun el tipo de macrobloque del macrobloque actual decidido a partir de la informacion de tipo de macrobloque. Y, el tipo de macrobloque puede ser decidido segun el modo de prediccion de macrobloque y del tipo de seccion.
En caso de que el modo de prediccion de macrobloque sea un modo para prediccion intra-visualizacion, el tipo de macrobloque se decide segun un tipo de seccion para prediccion intra-visualizacion, y el macrobloque actual se descodifica a continuacion mediante prediccion intra-visualizacion conforme al tipo de macrobloque decidido.
En caso de que el modo de prediccion de macrobloque sea un modo para prediccion inter-visualizacion, el tipo de macrobloque se decide conforme a un tipo de seccion para prediccion inter-visualizacion, y a continuacion se descodifica el macrobloque actual mediante prediccion inter-visualizacion conforme al tipo de macrobloque decidido.
En caso de que el modo de prediccion de macrobloque sea un modo para prediccion resultante de mezclar ambas predicciones, el tipo de macrobloque se decide segun un tipo de seccion para prediccion intra-visualizacion y un tipo de seccion para prediccion inter-visualizacion, y a continuacion se descodifica el macrobloque actual mediante la prediccion resultante de mezclar ambas predicciones conforme a cada uno de los tipos de macrobloque decididos.
En este caso, el tipo de macrobloque depende de un modo de prediccion de macrobloque y de un tipo de seccion. En particular, se puede determinar el esquema de prediccion a ser usado para un tipo de macrobloque a partir de un modo de prediccion de macrobloque, y a continuacion se decide un tipo de macrobloque a partir de la informacion del tipo de macrobloque por medio de un tipo de seccion acorde con el esquema de prediccion. En particular, uno o ambos de los slice_type y view_slice_type deducidos se seleccionan en base al modo de prediccion de macrobloque.
Por ejemplo, si un modo de prediccion de macrobloque es un modo para prediccion inter-visualizacion, se puede decidir un tipo de macrobloque a partir de una tabla de macrobloque de tipos de seccion (I, P, B) correspondientes a un tipo de seccion (view_slice_type) para prediccion inter-visualizacion. La relacion entre un modo de prediccion de macrobloque y un tipo de macrobloque va a ser explicada en detalle con referencia a las Figuras 39, 40 y 41, mas adelante.
5
10
15
20
25
30
35
40
45
50
55
60
65
La Figura 39 es un diagrama de modos de prediccion de un macrobloque segun ejemplos de realizacion de la presente invencion.
En la Figura 39(a), se ha mostrado una tabla correspondiente a una realizacion de modos de prediccion de macrobloque (mb_pred_mode) segun la presente invencion.
En caso de que se use prediccion intra-visualizacion, es decir, prediccion temporal, para un macrobloque solamente, se asigna “0” a un valor del “mb_pred_mode”. En caso de que se use solamente prediccion inter-visualizacion para un macrobloque, se asigna “1” a un valor del “mb_pred_mode”. En caso de que se usen ambas predicciones temporal y de inter-visualizacion para un macrobloque, se asigna “2” a un valor del “mb_pred_mode”.
En este caso, si un valor del “mb_pred_mode” es “1”, es decir, si el “mb_pred_mode” indica prediccion inter- visualizacion, se define Lista 0 de direccion de visualizacion (ViewListO) o Lista 1 de direccion de visualizacion (ViewListl) como una lista de imagen de referencia para la prediccion inter-visualizacion.
En la Figura 39(b), se ha mostrado la relacion entre un modo de prediccion de macrobloque y un tipo de macrobloque segun otra realizacion.
Si un valor de “mb_pred_mode” es “0”, se usa solamente prediccion temporal. Y, se decide un tipo de macrobloque segun un tipo de seccion (slice_type) para prediccion intra-visualizacion.
Si un valor de “mb_pred_mode” es “1”, se usa solamente prediccion inter-visualizacion. Y, se decide un tipo de macrobloque conforme a un tipo de seccion (view_slice_type) para prediccion inter-visualizacion.
Si un valor de “mb_pred_mode” es “2”, se usa prediccion mixta en ambas predicciones temporal y de intra- visualizacion. Y, se deciden dos tipos de macrobloque conforme a un tipo de seccion (slice_type) para prediccion intra-visualizacion y un tipo de seccion (view_slice_type) para prediccion inter-visualizacion.
En base al modo de prediccion de macrobloque, se proporciona el tipo de macrobloque en base al tipo de seccion segun se muestra en las tablas 1-3 que siguen. [Por favor, insertar las tablas 7-12 - 7-14 de N6540, aqrn como tablas 1-3].
En otras palabras, en esta realizacion, un esquema de prediccion usado para un macrobloque y un tipo de seccion referenciado, se deciden mediante un modo de prediccion de macrobloque. Y, el tipo de macrobloque se decide segun el tipo de seccion.
La Figura 40 y la Figura 41 son diagramas de ejemplos de realizacion de la sintaxis de una porcion de la senal de video recibida por el aparato para descodificacion de la senal de video. Segun se ha representado, la sintaxis tiene tipo de seccion e informacion de modo de prediccion de macrobloque, segun una realizacion de la presente invencion.
En la Figura 40, se ha mostrado un ejemplo de sintaxis. En la sintaxis, el campo “slice_type” y el campo “view_slice_type” proporcionan tipos de seccion, y el campo “mb_pred_mode” proporciona un modo de prediccion de macrobloque.
Conforme a la presente invencion, el campo “slice_type” proporciona un tipo de seccion para prediccion intra- visualizacion y el campo “view_slice_type” proporciona un tipo de seccion para prediccion inter-visualizacion. Cada tipo de seccion puede convertirse en un tipo de seccion I, un tipo de seccion P o un tipo de seccion B. Si el valor del “mb_pred_mod” es “0” o “1”, se decide un tipo de macrobloque. Pero en caso de que del valor del “mb_pred_mode” sea “2”, se puede apreciar que se decide ademas otro tipo (o dos tipos) de macrobloque. En otras palabras, la sintaxis mostrada en (a) de la Figura 40 indica que se anade “view_slice_type” para aplicar mejor los tipos de seccion convencionales (I, P, B) a codificacion de video multi-visualizacion.
En la Figura 41, se ha mostrado otro ejemplo de sintaxis. En la sintaxis, se emplea un campo de “slice_type” para proporcionar un tipo de seccion, y se emplea un campo de “mb_pred_mode” para proporcionar un modo de prediccion de macrobloque.
Conforme a la presente invencion, el campo de “slice_type” puede incluir, entre otros, un tipo de seccion (VP) para prediccion inter-visualizacion, un tipo de seccion B (VB) para prediccion inter-visualizacion, y un tipo de seccion mixto (Mixto) para prediccion resultante de mezclar ambas predicciones de intra-visualizacion e inter-visualizacion.
Si un valor en el campo de “mb_pred_mode” es “0” o “1”, se decide un tipo de macrobloque. Mas aun, en caso de que un valor del campo “view_pred_mode” sea “2”, se puede apreciar que se decide un tipo de macrobloque adicional (es decir, dos en total). En esta realizacion, existe informacion del tipo de seccion en una cabecera de seccion, lo que va a ser explicado en detalle don respecto a las Figuras 42. En otras palabras, la sintaxis mostrada
5
10
15
20
25
30
35
40
45
50
55
60
65
en la Figura 41 indica que los tipos de seccion VP, VB y Mixto se anaden al tipo de seccion convencional (slice_type).
Las Figuras 42 son diagramas de ejemplos para aplicar los tipos de seccion mostrados en la Figura 41.
El diagrama de la Figura 42(a) muestra que un tipo de seccion P (VP) para prediccion inter-visualizacion, un tipo de seccion B (VB) para prediccion inter-visualizacion y un tipo de seccion mixto (Mixto) para prediccion resultante de mezclar ambas predicciones, pueden existir como tipo de seccion, adicionalmente a otros tipos de seccion, en una cabecera de seccion. En particular, los tipos de seccion VP, VB y Mixto segun un ejemplo de realizacion, se anaden a los tipos de seccion que pueden existir en una cabecera de seccion general.
El diagrama de la Figura 42(b) muestra que un tipo de seccion P (VP) para prediccion inter-visualizacion, un tipo de seccion B (VB) para prediccion inter-visualizacion y un tipo de seccion mixto (Mixto) para prediccion resultante de mezclar ambas predicciones, pueden existir como tipo de seccion en una cabecera de seccion para codificacion de video multi-visualizacion (MVC). En particular, los tipos de seccion segun un ejemplo de realizacion estan definidos en una cabecera de seccion para codificacion de video multi-visualizacion.
El diagrama de la Figura 42(c) muestra que un tipo de seccion (VP) para prediccion inter-visualizacion, un tipo de seccion B (VB) para prediccion inter-visualizacion y un tipo de seccion mixto (Mixto) para prediccion resultante de mezclar ambas predicciones, pueden existir como tipo de seccion, adicionalmente al tipo de seccion existente para codificacion de video escalable, en una cabecera de seccion para codificacion de video escalable (SVC). En particular, los tipos de seccion VP, VB y Mixto segun un ejemplo de realizacion, se anaden a los tipos de seccion que puedan existir en una cabecera de seccion del estandar de codificacion de video escalable (SVC).
La Figura 43 es un diagrama de varios ejemplos de tipos de seccion incluidos en el tipo de seccion mostrado en la Figura 41.
En la Figura 43(a), se ha mostrado el caso de que un tipo de seccion sea pronosticado a partir de una imagen de una visualizacion diferente. Asf, un tipo de seccion se convierte en un tipo de seccion (VP) para prediccion inter- visualizacion.
En la Figura 43(b), se ha mostrado el caso de que un tipo de seccion sea pronosticado a partir de dos imagenes de visualizaciones diferentes, respectivamente. Asf, un tipo de seccion se convierte en un tipo de seccion B (VB) para prediccion inter-visualizacion.
En las Figuras 43(c) y 43(f), se ha mostrado un caso en que se predice un tipo de seccion a partir de una o dos imagenes de la visualizacion actual y una imagen de una visualizacion diferente. Asf, un tipo de seccion se convierte en un tipo de seccion mixto (Mixto) para prediccion resultante de mezclar ambas predicciones. Tambien, en las Figuras 43(d) y 43(e), se ha mostrado un caso en el que se predice un tipo de seccion a partir de una o dos imagenes de una visualizacion actual y de dos imagenes de visualizaciones diferentes. Asf, un tipo de seccion se convierte tambien en un tipo de seccion mixto (Mixto).
La Figura 44 es un diagrama de un macrobloque permitido para los tipos de seccion mostrados en la Figura 41.
Con referencia a la Figura 44, un intra macrobloque (I), un macrobloque (P) pronosticado a partir de una imagen de una visualizacion actual o un macrobloque (VP) pronosticado a partir de una imagen de una visualizacion diferente, son admitidos para un tipo de visualizacion P (VP) mediante prediccion inter-visualizacion.
Un intra macrobloque (I), un macrobloque (P o B) pronosticado a partir de una o dos imagenes de una visualizacion actual o un macrobloque VP o VB pronosticado a partir de una imagen de una visualizacion diferente o de dos imagenes de visualizaciones diferentes, respectivamente, son admitidos para un tipo de seccion B (VB) por prediccion inter-visualizacion.
Y, un intra macrobloque; un macrobloque (P o B) pronosticado a partir de una o dos imagenes en una visualizacion actual; un macrobloque (VP o VB) pronosticado a partir de una imagen de una visualizacion diferente o de dos imagenes en visualizacion diferentes, respectivamente, o un macrobloque (Mixto) pronosticado a partir de una o dos imagenes en una visualizacion actual, una imagen en una visualizacion diferente o dos imagenes en visualizaciones diferentes, respectivamente, son admitidos para un tipo de seccion mixto (Mixto).
Las Figuras 45-47 son diagramas de un tipo de macrobloque de un macrobloque existente en un tipo de seccion mixto (Mixto).
En las Figuras 45(a) y 45(b), se han mostrado esquemas de configuracion para un tipo de macrobloque (mb_type) y un tipo de sub-macrobloque (sub_mb_type) de un macrobloque existente en una seccion mixta, respectivamente.
En las Figuras 46 y 47, se ha mostrado la representacion binaria de la(s) direccion(es) predictiva(s) de un
5
10
15
20
25
30
35
40
45
50
55
60
65
macrobloque existente en una seccion mixta y la(s) direccion(es) predictiva(s) real(es) de la seccion mixta, respectivamente.
Segun una realizacion de la presente invencion, se prepara un tipo de macrobloque (mb_type) considerando tanto un tamano (Partition_Size) de una particion de macrobloque, como una direccion predictiva (Direction) de una particion de macrobloque.
Y, se prepara un tipo de sub-macrobloque (sub_mb_type) considerando tanto un tamano (Sub_partition_Size) de una particion de sub-macrobloque como una direccion predictiva (Sub_Direction) de cada particion de sub- macrobloque.
Con referencia a la Figura 45(a), “DirectionO” y “Directionl” indican una direccion predictiva de una primera particion de macrobloque y una direccion predictiva de una segunda particion de macrobloque, respectivamente. En particular, en caso de un macrobloque de 8x16, “DirectionO” indica una direccion predictiva para una particion de macrobloque de 8x16 izquierda, y “Directionl” indica una direccion para una particion de macrobloque de 8x16 derecha. Un principio configurativo del tipo de macrobloque (mb_type) se explica en detalle en lo que sigue. En primer lugar, los dos primeros bits indican un tamano de particion (Partition_Size) de un macrobloque correspondiente y esta disponible un valor de 0-3 para los dos primeros bits. Y, los cuatro bits siguientes a los dos primeros bits indican una direccion predictiva (Direction) en caso de que un macrobloque este dividido en particiones.
Por ejemplo, en el caso de un macrobloque de 16x16, cuatro bits indicativos de una direccion predictiva del macrobloque estan unidos a la parte trasera de los dos primeros bits. En caso de un macrobloque de 16x8, los cuatros bits siguientes a los dos primeros bits indican una direccion predictiva (Direction0) de una primera particion, y otros cuatro bits estan unidos a los cuatro bits anteriores para indicar una direccion predictiva (Direction1) de una segunda particion. De igual modo, en caso de un macrobloque de 8x16, ocho bits estan unidos a la parte trasera de los dos primeros bits. En este caso, los primeros cuatro bits de los ocho bits unidos a los dos primeros bits indican una direccion predictiva de una primera particion, y los siguientes cuatro bits indican una direccion predictiva de una segunda particion.
Con referencia a la Figura 45(b), se usa una direccion predictiva (Sub_Direction) de un sub-macrobloque de la misma manera que una direccion predictiva (Direction) de la particion de macrobloque mostrada en la Figura 45(a). Un principio de configuracion del tipo de macrobloque (sub_mb_type) va a ser explicado con detalle en lo que sigue.
En primer lugar, los dos primeros bits indican un tamano de particion (Partition_Size) de un macrobloque correspondiente, y los dos segundos bits, a continuacion de los dos bits anteriores, indican un tamano de particion (Sub_Partition_Size) de un sub-macrobloque del macrobloque correspondiente. Un valor de 0-3 esta disponible para cada uno de los dos primeros y los dos segundos bits. Posteriormente, cuatro bits unidos a continuacion de los dos segundos bits, indican una direccion predictiva (Sub_Direction) en caso de que un macrobloque este dividido en particiones de sub-macrobloque. Por ejemplo, si un tamano (Partition_Size) de una particion de un macrobloque es de 8x8 y si un tamano (Sub_Partition_Size) de una particion de un sub-macrobloque es 4x8, los dos primeros bits tienen un valor de 3, los dos segundos bits tienen un valor de 2, los primeros cuatro bits siguientes a los dos segundos bits indican una direccion predictiva para un bloque de 4x8 izquierdo de dos bloques de 4x8, y los segundos cuatro bits siguientes a los primeros cuatro bits indican una direccion predictiva para un bloque de 4x8 derecho.
Con referencia a la Figura 46, se construye una direccion predictiva de un macrobloque con cuatro bits. Y, se puede apreciar que cada representacion binaria se convierte en “1” segun un caso de referencia a una imagen en la posicion izquierda (L), superior (T), derecha (R) o inferior (B) de una imagen actual.
Con referencia a la Figura 47, por ejemplo, en caso de que una direccion sea superior (T), se refiere a una imagen situada en la parte superior en una direccion de visualizacion de una imagen actual. El caso de que una direccion predictiva corresponda a todas las direcciones (LTRB), se puede apreciar que se refiere a que las imagenes estan en todas las direcciones (LTRB) de una imagen actual.
La Figura 48 es un diagrama de bloques de un aparato para codificar una senal de video segun una realizacion de la presente invencion.
Con referencia a la Figura 48, se aprecia un aparato para codificar una senal de video segun una realizacion de la presente invencion. El aparato incluye una unidad 4810 de decision de tipo de macrobloque, una unidad 4820 de generacion de macrobloque, y una unidad 4830 de codificacion.
La Figura 49 es un diagrama de flujo de un metodo de codificacion de una senal de video en el aparato de codificacion mostrado en la Figura 48 segun una realizacion de la presente invencion.
Con referencia a la Figura 49, un metodo de codificacion de una senal de video conforme a una realizacion de la
5
10
15
20
25
30
35
40
45
50
55
60
65
presente invencion incluye una etapa S4910 de decision de un primer tipo de macrobloque para prediccion intra- visualizacion y un segundo tipo de macrobloque para prediccion inter-visualizacion, una etapa S4920 de generacion de un primer macrobloque que tiene el primer tipo de macrobloque y un segundo macrobloque que tiene el segundo tipo de macrobloque, una etapa S4930 de generacion de un tercer macrobloque usando el primer y el segundo macrobloques, y una etapa S4940 de codificacion de un tipo de macrobloque de un macrobloque actual y un modo de prediccion de macrobloque.
Segun la presente invencion, la unidad 4810 de decision de tipo de macrobloque decide un primer tipo de macrobloque para prediccion intra-visualizacion y un segundo tipo de macrobloque para prediccion inter- visualizacion (S4910) segun se ha descrito con detalle en lo que antecede.
Posteriormente, la unidad 4820 de generacion de macrobloque genera un primer macrobloque que tiene el primer tipo de macrobloque y un segundo macrobloque que tiene el segundo tipo de macrobloque (S4920) usando tecnicas de prediccion bien conocidas, y despues genera un tercer macrobloque usando el primer y el segundo macrobloques (S4930). En este caso, el tercer macrobloque se genera segun un valor medio entre el primer y el segundo macrobloques.
Finalmente, la unidad de codificacion 4830 codifica un tipo de macrobloque (mb_type) de un macrobloque actual y un modo de prediccion de macrobloque (mb_pred_mode) del macrobloque actual comparando eficacias de codificacion del primer al tercer macrobloques (S4940).
En este caso, existen varios metodos para medir las eficacias de codificacion. En particular, un metodo que usa un costo de RD (tasa-distorsion), se usa en esta realizacion de la presente invencion. Segun se conoce bien, en el metodo de costo de RD, se calcula un costo correspondiente a dos componentes: un numero de bits de codificacion generado a partir de codificacion de un bloque correspondiente y un valor de distorsion indicativo de un error a partir de una secuencia real.
El primer y el segundo tipos de macrobloques pueden ser decididos de una manera que se seleccione un tipo de macrobloque que tenga un valor mmimo del costo de RD explicado con anterioridad. Por ejemplo, se decide un tipo de macrobloque que tiene un valor mmimo del costo de RD entre tipos de macrobloques mediante prediccion intra- visualizacion, como primer tipo de macrobloque. Y, se decide un tipo de macrobloque que tiene un valor mmimo de costo de RD entre tipos de macrobloques mediante prediccion inter-visualizacion como segundo tipo de macrobloque.
En la etapa de codificacion del tipo de macrobloque y de modo de prediccion de macrobloque, se puede seleccionar el modo de prediccion de tipo de macrobloque asociado a uno de entre el primer y el segundo macrobloques que tienen el costo de RD mas pequeno. Posteriormente, se determina el costo de RD del tercer macrobloque. Finalmente, se codifica el tipo de macrobloque y el modo de prediccion de macrobloque del macrobloque actual comparando el costo de RD del primer y segundo macrobloques seleccionados y el costo de RD del tercer macrobloque entre sf.
Si el costo de RD del primer y segundo macrobloques seleccionados es igual a, o mayor que, el costo de RD del tercer macrobloque, el tipo de macrobloque resulta ser un tipo de macrobloque correspondiente al primer o segundo macrobloque seleccionado.
Por ejemplo, si el costo de RD del primer macrobloque es mas pequeno que el del segundo y tercer macrobloques, se establece el macrobloque actual como primer tipo de macrobloque. Y, el modo de prediccion de macrobloque (es decir, intra-visualizacion) se convierte en un esquema de prediccion de un macrobloque correspondiente al costo de RD.
Por ejemplo, si el costo de RD del segundo macrobloque es mas pequeno que el primer y tercer macrobloques, un esquema de prediccion inter-visualizacion como esquema de prediccion del segundo macrobloque se convierte en el modo de prediccion de macrobloque del macrobloque actual.
Entretanto, si el costo de RD del tercer macrobloque es mas pequeno que los costos de RD del primer y segundo macrobloques, los tipos de macrobloque corresponden a ambos, primer y segundo tipos de macrobloque. En particular, los tipos de macrobloque de prediccion intra-visualizacion y de prediccion inter-visualizacion se convierten en tipos de macrobloque del macrobloque actual. Y, el modo de prediccion de macrobloque se convierte en un esquema de prediccion mixto resultante de mezclar las predicciones intra-visualizacion e inter-visualizacion.
Por consiguiente, la presente invencion proporciona al menos el efecto o la ventaja siguiente.
La presente invencion esta capacitada para excluir informacion de redundancia entre visualizaciones merced a varios esquemas de prediccion entre visualizaciones y a informaciones tales como tipos de seccion, tipos de macrobloque y modos de prediccion de macrobloque, incrementando con ello el rendimiento de la eficacia de codificacion/descodificacion.
APLICABILIDAD INDUSTRIAL
Aunque la presente invencion ha sido descrita e ilustrada en la presente memoria con referencia a las realizaciones preferidas de la misma, resulta evidente para los expertos en la materia que se pueden realizar diversas 5 modificaciones y variaciones sin apartarse del alcance de la invencion. De ese modo, se preve que la presente invencion cubra las modificaciones y variaciones de la invencion que caigan dentro del alcance de las reivindicaciones anexas y de sus equivalentes.

Claims (15)

  1. 5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    55
    60
    65
    REIVINDICACIONES
    1. - Un metodo para descodificar datos de video multi-visualizacion en una corriente de video multi-visualizacion, que comprende:
    recibir la corriente de datos de video multi-visualizacion que incluye una imagen de acceso aleatorio que incluye una seccion de acceso aleatorio y un indicador de perfil, haciendo la seccion de acceso aleatorio referencia solamente a secciones correspondientes a un mismo tiempo y a una visualizacion diferente de la imagen de acceso aleatorio, indicando el indicador de perfil que una corriente de video recibida es la corriente de datos de video multi-visualizacion;
    obtener una banderola de acceso aleatorio para prediccion inter-visualizacion, indicando la banderola de acceso aleatorio si una imagen es la imagen de acceso aleatorio;
    obtener informacion de inicializacion para la seccion de acceso aleatorio en base a la banderola de acceso aleatorio y al indicador de perfil, representando la informacion de inicializacion una informacion que reconoce una estructura predictiva entre una pluralidad de visualizaciones, incluyendo la informacion de inicializacion una informacion de numero de visualizacion y una informacion de identificacion de visualizacion; obtener informacion tipo indicativa de si la seccion de acceso aleatorio ha sido predicha a partir de una imagen de referencia o de dos imagenes de referencia;
    inicializar una lista de imagen de referencia para prediccion inter-visualizacion usando la informacion de numero de visualizacion, la informacion de identificacion de visualizacion y la informacion tipo; caracterizado por que el metodo comprende ademas:
    obtener informacion de modificacion para la lista de imagen de referencia inicializada a partir de la corriente de datos de video multi-visualizacion, representando la informacion de modificacion como asignar un mdice de referencia en la lista de imagen de referencia inicializada;
    determinar un valor de modificacion de asignacion para modificar el mdice de referencia en la lista de imagen de referencia inicializada segun la informacion de modificacion;
    modificar la lista de imagen de referencia inicializada para la prediccion inter-visualizacion usando el valor de modificacion de asignacion determinado;
    determinar un valor de prediccion de un macrobloque en la imagen de acceso aleatorio en base a la lista de imagen de referencia inicializada modificada, y descodificar el macrobloque usando el valor de prediccion;
    en donde la informacion de inicializacion se obtiene a partir de un area de extension de una cabecera de secuencia.
  2. 2. - El metodo de la reivindicacion 1, en donde la informacion de numero de visualizacion indica un numero de visualizaciones de referencia de la imagen de acceso aleatorio, y la informacion de identificacion de visualizacion proporciona un identificador de visualizacion de cada visualizacion de referencia para la imagen de acceso aleatorio.
  3. 3. - El metodo de la reivindicacion 1, en donde los datos de video multi-visualizacion incluyen datos de video de una visualizacion base independiente de otras visualizaciones, siendo la visualizacion base una visualizacion descodificada sin el uso de prediccion inter-visualizacion.
  4. 4. - El metodo de la reivindicacion 1, en donde el mdice de referencia inter-visualizacion se asigna realizando una operacion de substraccion o una operacion de adicion conforme a la informacion de modificacion.
  5. 5. - El metodo de la reivindicacion 1, en donde la informacion de modificacion se obtiene a partir de una cabecera de seccion.
  6. 6. - El metodo de la reivindicacion 1, en donde el valor de modificacion de asignacion determinado se usa para asignar un mdice de referencia inter-visualizacion a la imagen de acceso aleatorio en la lista de imagen de referencia inicializada.
  7. 7. - El metodo de la reivindicacion 1, en donde el valor de modificacion de asignacion representa una variable asociada a un identificador de visualizacion de una imagen de referencia inter-visualizacion en la lista de imagen de referencia inicializada.
  8. 8. - El metodo de la reivindicacion 1, en donde la posicion de cualquier otra de las imagenes restantes se cambia a la ultima en la lista de imagen de referencia inicializada.
  9. 9. - Un aparato para descodificar datos de video multi-visualizacion en una corriente de video multi-visualizacion, que comprende:
    una unidad de analisis de Capa de Abstraccion de Red (NAL) adaptada para recibir la corriente de datos de video multi-visualizacion que incluye una imagen de acceso aleatorio que incluye una seccion de acceso aleatorio y un indicador de perfil, haciendo la seccion de acceso aleatorio referencia solamente a secciones correspondientes a un mismo tiempo y a una visualizacion diferente de la imagen de acceso aleatorio,
    5
    10
    15
    20
    25
    30
    35
    40
    45
    indicando el indicador de perfil que una corriente de video recibida es la corriente de datos de video multi- visualizacion, para obtener una banderola de acceso aleatorio para prediccion inter-visualizacion, indicando la banderola de acceso aleatorio si una imagen es la imagen de acceso aleatorio, para obtener informacion de inicializacion para la seccion de acceso aleatorio en base a la banderola de acceso aleatorio y al indicador de perfil, representando la informacion de inicializacion una informacion que reconoce una estructura predictiva entre una pluralidad de visualizaciones, incluyendo la informacion de inicializacion una informacion de numero de visualizacion y una informacion de identificacion de visualizacion, y para obtener informacion tipo (642) indicativa de si la seccion de acceso aleatorio ha sido predicha a partir de una imagen de referencia o de dos imagenes de referencia;
    una unidad (630) de bufer de imagen descodificada adaptada para inicializar una lista de imagen de referencia para la prediccion inter-visualizacion usando la informacion de numero de visualizacion, la informacion de identificacion de visualizacion y la informacion tipo;
    caracterizado por que la unidad de bufer de imagen descodificada esta ademas adaptada para obtener informacion de modificacion (634A, 645A) para la lista de imagen de referencia inicializada a partir de una corriente de datos de video multi-visualizacion, representando la informacion de modificacion como asignar un mdice de referencia en la lista de imagen de referencia inicializada, para determinar un valor de modificacion de asignacion para modificar el mdice de referencia en la lista de imagen de referencia inicializada conforme a la informacion de modificacion, y para modificar la lista (643B, 645B) de imagen de referencia inicializada para prediccion inter-visualizacion usando el valor de modificacion de asignacion determinado, y una unidad inter-prediccion adaptada para determinar un valor de prediccion de un macrobloque en la imagen de acceso aleatorio en base a la lista de imagen de referencia inicializada modificada, y para descodificar (83) el macrobloque usando el valor de prediccion, en donde la informacion de inicializacion se obtiene a partir de un area de extension de una cabecera de secuencia.
  10. 10. - El aparato de la reivindicacion 9, en donde la informacion de numero de visualizacion indica un numero de visualizaciones de referencia de la imagen de acceso aleatorio, y la informacion de identificacion de visualizacion proporciona un identificador de visualizacion de cada visualizacion de referencia para la imagen de acceso aleatorio.
  11. 11. - El aparato de la reivindicacion 9, en donde los datos de video multi-visualizacion incluyen datos de video de una visualizacion base independiente de otras visualizaciones, siendo la visualizacion base una visualizacion descodificada sin el uso de prediccion mter-visualizacion.
  12. 12. - El aparato de la reivindicacion 9, en donde el mdice de referencia inter-visualizacion se asigna realizando una operacion de substraccion o una operacion de adicion conforme a la informacion de modificacion.
  13. 13. - El aparato de la reivindicacion 9, en donde el valor de modificacion de asignacion determinado se usa para asignar un mdice de referencia inter-visualizacion a la imagen de acceso aleatorio en la lista de imagen de referencia inicializada.
  14. 14. - El aparato de la reivindicacion 9, en donde el valor de modificacion de asignacion representa una variable asociada a un identificador de visualizacion de una imagen de referencia inter-visualizacion en la lista de imagen de referencia inicializada.
  15. 15. - El aparato de la reivindicacion 9, en donde la posicion de cualquier otra de las imagenes restantes se cambia a la ultima en la lista de imagen de referencia inicializada.
ES07745743.0T 2006-03-30 2007-03-30 Un método y un aparato para descodificar/codificar una señal de video Active ES2636917T3 (es)

Applications Claiming Priority (17)

Application Number Priority Date Filing Date Title
US78717106P 2006-03-30 2006-03-30
US787171P 2006-03-30
US80139806P 2006-05-19 2006-05-19
US801398P 2006-05-19
US81064206P 2006-06-05 2006-06-05
US810642P 2006-06-05
US83060106P 2006-07-14 2006-07-14
US830601P 2006-07-14
US83215306P 2006-07-21 2006-07-21
US832153P 2006-07-21
US83792506P 2006-08-16 2006-08-16
US837925P 2006-08-16
US84003206P 2006-08-25 2006-08-25
US840032P 2006-08-25
US84215206P 2006-09-05 2006-09-05
US842152P 2006-09-05
PCT/KR2007/001580 WO2007114608A1 (en) 2006-03-30 2007-03-30 A method and apparatus for decoding/encoding a video signal

Publications (1)

Publication Number Publication Date
ES2636917T3 true ES2636917T3 (es) 2017-10-10

Family

ID=38563848

Family Applications (3)

Application Number Title Priority Date Filing Date
ES07745747.1T Active ES2619522T3 (es) 2006-03-30 2007-03-30 Un método y un aparato para descodificar/codificar una señal de video multivisión
ES07745743.0T Active ES2636917T3 (es) 2006-03-30 2007-03-30 Un método y un aparato para descodificar/codificar una señal de video
ES07745745.5T Active ES2533765T3 (es) 2006-03-30 2007-03-30 Un método y un aparato para descodificar/codificar una señal de video

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES07745747.1T Active ES2619522T3 (es) 2006-03-30 2007-03-30 Un método y un aparato para descodificar/codificar una señal de video multivisión

Family Applications After (1)

Application Number Title Priority Date Filing Date
ES07745745.5T Active ES2533765T3 (es) 2006-03-30 2007-03-30 Un método y un aparato para descodificar/codificar una señal de video

Country Status (13)

Country Link
US (29) US8565303B2 (es)
EP (7) EP2025170B1 (es)
JP (5) JP5055354B2 (es)
KR (26) KR100949978B1 (es)
AU (1) AU2007232607B2 (es)
BR (1) BRPI0710048A2 (es)
CA (1) CA2647735C (es)
DE (4) DE202007019454U1 (es)
ES (3) ES2619522T3 (es)
MX (1) MX2008012437A (es)
PL (2) PL2008460T3 (es)
RU (1) RU2530310C2 (es)
WO (5) WO2007114612A1 (es)

Families Citing this family (246)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100904442B1 (ko) * 2006-01-09 2009-06-24 엘지전자 주식회사 영상 신호의 레이어 간 예측 방법
US20070177671A1 (en) * 2006-01-12 2007-08-02 Lg Electronics Inc. Processing multiview video
KR101276847B1 (ko) 2006-01-12 2013-06-18 엘지전자 주식회사 다시점 비디오의 처리
US7817865B2 (en) 2006-01-12 2010-10-19 Lg Electronics Inc. Processing multiview video
US8767836B2 (en) 2006-03-27 2014-07-01 Nokia Corporation Picture delimiter in scalable video coding
US9641842B2 (en) * 2006-07-06 2017-05-02 Thomson Licensing Method and apparatus for decoupling frame number and/or picture order count (POC) for multi-view video encoding and decoding
ZA200900102B (en) 2006-07-06 2010-05-26 Thomson Licensing Method and apparatus for decoupling frame number and/or picture order count (poc) for multi-view video encoding and decoding
KR101370919B1 (ko) 2006-07-12 2014-03-11 엘지전자 주식회사 신호처리방법 및 장치
WO2008010932A2 (en) * 2006-07-20 2008-01-24 Thomson Licensing Method and apparatus for signaling view scalability in multi-view video coding
CN101518091B (zh) * 2006-09-26 2011-09-28 松下电器产业株式会社 解码装置、解码方法、解码程序以及集成电路
KR101368493B1 (ko) * 2006-10-13 2014-02-28 톰슨 라이센싱 멀티뷰 비디오 코딩을 위한 참조 화상 목록 관리 구문
KR101366092B1 (ko) 2006-10-13 2014-02-21 삼성전자주식회사 다시점 영상의 부호화, 복호화 방법 및 장치
BRPI0717321A2 (pt) 2006-10-13 2013-10-22 Thomson Licensing Método para gerenciamento de imagens de referência envolvendo codificação de vídeo com mútiplas visualizações
FR2907575B1 (fr) * 2006-10-18 2009-02-13 Canon Res Ct France Soc Par Ac Procede et dispositif de codage d'images representant des vues d'une meme scene
US9456223B2 (en) * 2006-10-18 2016-09-27 Thomson Licensing Local illumination and color compensation without explicit signaling
EP2087737A2 (en) * 2006-10-24 2009-08-12 Thomson Licensing Picture management for multi-view video coding
US20090180546A1 (en) 2008-01-09 2009-07-16 Rodriguez Arturo A Assistance for processing pictures in concatenated video streams
US8416859B2 (en) 2006-11-13 2013-04-09 Cisco Technology, Inc. Signalling and extraction in compressed video of pictures belonging to interdependency tiers
US8875199B2 (en) 2006-11-13 2014-10-28 Cisco Technology, Inc. Indicating picture usefulness for playback optimization
KR101370287B1 (ko) * 2006-11-22 2014-03-07 세종대학교산학협력단 디블록킹 필터링 방법 및 장치
PL2103136T3 (pl) * 2006-12-21 2018-02-28 Thomson Licensing Sposoby i urządzenie dla ulepszonej sygnalizacji przy użyciu składni wysokiego poziomu dla kodowania i dekodowania wielo-widokowego wideo
US9282327B2 (en) * 2007-01-04 2016-03-08 Thomson Licensing Llc Method and apparatus for video error concealment in multi-view coded video using high level syntax
KR100801968B1 (ko) * 2007-02-06 2008-02-12 광주과학기술원 변위를 측정하는 방법, 중간화면 합성방법과 이를 이용한다시점 비디오 인코딩 방법, 디코딩 방법, 및 인코더와디코더
US8644379B2 (en) * 2007-03-07 2014-02-04 Himax Technologies Limited De-interlacing method and method of compensating a de-interlaced pixel
US8494046B2 (en) * 2007-03-23 2013-07-23 Lg Electronics Inc. Method and an apparatus for decoding/encoding a video signal by performing illumination compensation
WO2008123917A2 (en) * 2007-04-04 2008-10-16 Thomson Licensing Reference picture list management
KR101301181B1 (ko) * 2007-04-11 2013-08-29 삼성전자주식회사 다시점 영상의 부호화, 복호화 방법 및 장치
US8548261B2 (en) * 2007-04-11 2013-10-01 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-view image
JP5263901B2 (ja) * 2007-04-17 2013-08-14 トムソン ライセンシング マルチビュー・ビデオ符号化のための仮想参照デコーダ
KR101427647B1 (ko) * 2007-04-25 2014-08-07 삼성전자주식회사 패킷 생성과 처리에 관한 방법 및 그 장치
US8917775B2 (en) * 2007-05-02 2014-12-23 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-view video data
KR20080107965A (ko) * 2007-06-08 2008-12-11 삼성전자주식회사 객체 경계 기반 파티션을 이용한 영상의 부호화, 복호화방법 및 장치
KR101244917B1 (ko) * 2007-06-11 2013-03-18 삼성전자주식회사 조도 보상 방법 및 장치, 이를 이용한 영상의 부호화,복호화 방법 및 장치
KR101366250B1 (ko) * 2007-06-19 2014-02-25 삼성전자주식회사 영상 분할을 이용한 영상 부호화, 복호화 방법 및 장치
TW200910975A (en) * 2007-06-25 2009-03-01 Nippon Telegraph & Telephone Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media for storing the programs
US20080317124A1 (en) * 2007-06-25 2008-12-25 Sukhee Cho Multi-view video coding system, decoding system, bitstream extraction system for decoding base view and supporting view random access
US9648325B2 (en) * 2007-06-30 2017-05-09 Microsoft Technology Licensing, Llc Video decoding implementations for a graphics processing unit
US8804845B2 (en) 2007-07-31 2014-08-12 Cisco Technology, Inc. Non-enhancing media redundancy coding for mitigating transmission impairments
US8958486B2 (en) 2007-07-31 2015-02-17 Cisco Technology, Inc. Simultaneous processing of media and redundancy streams for mitigating impairments
EP2174506A1 (en) * 2007-08-06 2010-04-14 Thomson Licensing Methods and apparatus for motion skip mode with multiple inter-view reference pictures
KR20100058471A (ko) * 2007-08-15 2010-06-03 톰슨 라이센싱 다시점 코딩된 비디오에서의 오류 은폐를 위한 방법 및 장치
JP4739295B2 (ja) * 2007-08-27 2011-08-03 日本電信電話株式会社 映像信号生成装置、映像信号生成方法、映像信号生成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP5264919B2 (ja) * 2007-10-05 2013-08-14 トムソン ライセンシング マルチビュービデオ(mvc)符号化システム内にビデオユーザビリティ情報(vui)を取り込む方法及び装置
CN101904170B (zh) * 2007-10-16 2014-01-08 思科技术公司 用于传达视频流中的串接属性和图片顺序的方法和***
US8121191B1 (en) * 2007-11-13 2012-02-21 Harmonic Inc. AVC to SVC transcoder
US8718388B2 (en) 2007-12-11 2014-05-06 Cisco Technology, Inc. Video processing with tiered interdependencies of pictures
KR101524465B1 (ko) * 2008-01-10 2015-06-02 삼성전자주식회사 색차 보상을 이용한 다시점 비디오 부호화 방법과 그 장치 및 다시점 비디오 복호화 방법과 그 장치
US8416858B2 (en) 2008-02-29 2013-04-09 Cisco Technology, Inc. Signalling picture encoding schemes and associated picture properties
WO2009111007A1 (en) * 2008-03-04 2009-09-11 Thomson Licensing Virtual reference view
KR101656091B1 (ko) * 2008-03-10 2016-09-08 톰슨 라이센싱 효율성과 주관적 품질의 개선을 지원하는 예측 프레임 선택을 위한 방법 및 장치
JP5056560B2 (ja) * 2008-03-17 2012-10-24 富士通株式会社 符号化装置、復号化装置、符号化方法および復号化方法
EP2109047A1 (en) * 2008-04-07 2009-10-14 Global Digital Technologies SA Video characterization, identification and search system
JP5512657B2 (ja) * 2008-04-21 2014-06-04 サムスン エレクトロニクス カンパニー リミテッド リッチメディアサービスのための端末のユーザインターフェース装置及び方法
US20090279614A1 (en) * 2008-05-10 2009-11-12 Samsung Electronics Co., Ltd. Apparatus and method for managing reference frame buffer in layered video coding
KR101591085B1 (ko) * 2008-05-19 2016-02-02 삼성전자주식회사 영상 파일 생성 및 재생 장치 및 방법
WO2009142021A1 (ja) * 2008-05-23 2009-11-26 パナソニック株式会社 画像復号化装置、画像復号化方法、画像符号化装置、及び画像符号化方法
US8886022B2 (en) 2008-06-12 2014-11-11 Cisco Technology, Inc. Picture interdependencies signals in context of MMCO to assist stream manipulation
US8705631B2 (en) 2008-06-17 2014-04-22 Cisco Technology, Inc. Time-shifted transport of multi-latticed video for resiliency from burst-error effects
US8699578B2 (en) 2008-06-17 2014-04-15 Cisco Technology, Inc. Methods and systems for processing multi-latticed video streams
US8971402B2 (en) 2008-06-17 2015-03-03 Cisco Technology, Inc. Processing of impaired and incomplete multi-latticed video streams
WO2009158550A2 (en) * 2008-06-25 2009-12-30 Cisco Technology, Inc. Support for blocking trick mode operations
CN102177718B (zh) * 2008-10-07 2014-03-12 艾利森电话股份有限公司 一种用于产生多视图媒体数据的方法及设备
KR101697598B1 (ko) 2008-10-27 2017-02-01 엘지전자 주식회사 가상 뷰 이미지 합성 방법 및 장치
EP2348732A4 (en) * 2008-11-10 2012-05-09 Lg Electronics Inc METHOD AND DEVICE FOR PROCESSING VIDEO SIGNAL BY INTER-VIEW PREDICTION
WO2010056842A1 (en) * 2008-11-12 2010-05-20 Cisco Technology, Inc. Processing of a video [aar] program having plural processed representations of a [aar] single video signal for reconstruction and output
US8760495B2 (en) * 2008-11-18 2014-06-24 Lg Electronics Inc. Method and apparatus for processing video signal
KR101158491B1 (ko) 2008-12-08 2012-06-20 한국전자통신연구원 다시점 영상 부호화, 복호화 방법 및 그 장치.
KR101233627B1 (ko) * 2008-12-23 2013-02-14 한국전자통신연구원 스케일러블 부호화 장치 및 방법
EP2389000A4 (en) 2009-01-19 2014-04-02 Panasonic Corp ENCLOSURE METHOD, DECOMPOSITION METHOD, ENCRYPTION DEVICE, DECOMPOSITION DEVICE, PROGRAM AND INTEGRATED CIRCUIT
WO2010096767A1 (en) * 2009-02-20 2010-08-26 Cisco Technology, Inc. Signalling of decodable sub-sequences
RU2498522C2 (ru) * 2009-02-23 2013-11-10 Ниппон Телеграф Энд Телефон Корпорейшн Способ кодирования многоракурсных изображений, способ декодирования многоракурсных изображений, устройство кодирования многоракурсных изображений, устройство декодирования многоракурсных изображений, компьютерно-читаемый носитель, содержащий программу кодирования многоракурсных изображений, и компьютерно-читаемый носитель, содержащий программу декодирования многоракурсных изображений
US20100218232A1 (en) * 2009-02-25 2010-08-26 Cisco Technology, Inc. Signalling of auxiliary information that assists processing of video according to various formats
US9485299B2 (en) * 2009-03-09 2016-11-01 Arris Canada, Inc. Progressive download gateway
US8767832B2 (en) * 2009-03-10 2014-07-01 Mediatek Inc. Method and apparatus for processing a multimedia bitstream
US8782261B1 (en) 2009-04-03 2014-07-15 Cisco Technology, Inc. System and method for authorization of segment boundary notifications
JP4947389B2 (ja) 2009-04-03 2012-06-06 ソニー株式会社 画像信号復号装置、画像信号復号方法、および画像信号符号化方法
JP4962525B2 (ja) * 2009-04-08 2012-06-27 ソニー株式会社 再生装置、再生方法、およびプログラム
KR101619451B1 (ko) * 2009-04-17 2016-05-10 엘지전자 주식회사 다시점 비디오 신호의 처리 방법 및 장치
US20120106634A1 (en) * 2009-04-21 2012-05-03 Lg Electronics Inc. Method and apparatus for processing multi-view video signal
EP2424240A4 (en) * 2009-04-22 2013-04-10 Lg Electronics Inc METHOD FOR MODIFYING REFERENCE COPY LISTS FOR A MORE VIEWED VIDEO
JP5614900B2 (ja) * 2009-05-01 2014-10-29 トムソン ライセンシングThomson Licensing 3d映像符号化フォーマット
US8949883B2 (en) 2009-05-12 2015-02-03 Cisco Technology, Inc. Signalling buffer characteristics for splicing operations of video streams
TWI384887B (zh) * 2009-06-11 2013-02-01 Univ Nat Central 多視點影像編解碼方法
US8780999B2 (en) 2009-06-12 2014-07-15 Qualcomm Incorporated Assembling multiview video coding sub-BITSTREAMS in MPEG-2 systems
US8411746B2 (en) 2009-06-12 2013-04-02 Qualcomm Incorporated Multiview video coding over MPEG-2 systems
US8279926B2 (en) 2009-06-18 2012-10-02 Cisco Technology, Inc. Dynamic streaming with latticed representations of video
US8711930B2 (en) * 2009-07-09 2014-04-29 Qualcomm Incorporated Non-zero rounding and prediction mode selection techniques in video encoding
US8995526B2 (en) * 2009-07-09 2015-03-31 Qualcomm Incorporated Different weights for uni-directional prediction and bi-directional prediction in video coding
US9161057B2 (en) * 2009-07-09 2015-10-13 Qualcomm Incorporated Non-zero rounding and prediction mode selection techniques in video encoding
KR20110007928A (ko) * 2009-07-17 2011-01-25 삼성전자주식회사 다시점 영상 부호화 및 복호화 방법과 장치
JPWO2011013257A1 (ja) * 2009-07-29 2013-01-07 パナソニック株式会社 マルチビュービデオ復号装置およびその方法
CA2711311C (en) * 2009-08-10 2016-08-23 Seawell Networks Inc. Methods and systems for scalable video chunking
US9445119B2 (en) * 2009-10-29 2016-09-13 Vestel Elektronik Sanayi Ve Ticaret A.S. Method and device for processing a video sequence
KR101282552B1 (ko) 2009-11-04 2013-07-04 한국전자통신연구원 병렬 처리 스케일러블 비디오 부/복호화 방법 및 장치
TW201121331A (en) * 2009-12-10 2011-06-16 Novatek Microelectronics Corp Picture decoder
KR101444691B1 (ko) * 2010-05-17 2014-09-30 에스케이텔레콤 주식회사 참조영상 구성 및 인덱싱 장치 및 방법
KR102439252B1 (ko) * 2010-05-26 2022-08-31 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
KR20110135786A (ko) * 2010-06-11 2011-12-19 삼성전자주식회사 깊이 전이 데이터를 이용한 3d 비디오 인코딩/디코딩 장치 및 방법
JP2012023651A (ja) * 2010-07-16 2012-02-02 Sony Corp 画像処理装置と画像処理方法
WO2012011525A1 (ja) * 2010-07-21 2012-01-26 株式会社プランネット・アソシエイツ 三次元ビデオストリームへの映像変換方法
EP2617194A1 (en) 2010-09-14 2013-07-24 Thomson Licensing Compression methods and apparatus for occlusion data
US20130182768A1 (en) * 2010-09-30 2013-07-18 Korea Advanced Institute Of Science And Technology Method and apparatus for encoding / decoding video using error compensation
US9106916B1 (en) 2010-10-29 2015-08-11 Qualcomm Technologies, Inc. Saturation insensitive H.264 weighted prediction coefficients estimation
US9521424B1 (en) * 2010-10-29 2016-12-13 Qualcomm Technologies, Inc. Method, apparatus, and manufacture for local weighted prediction coefficients estimation for video encoding
KR20120050725A (ko) * 2010-11-11 2012-05-21 삼성전자주식회사 데이터 재생 방법 및 장치
US9172956B2 (en) 2010-11-23 2015-10-27 Lg Electronics Inc. Encoding and decoding images using inter-prediction
US8824558B2 (en) * 2010-11-23 2014-09-02 Mediatek Inc. Method and apparatus of spatial motion vector prediction
JP5092011B2 (ja) * 2010-12-17 2012-12-05 株式会社東芝 動画像復号装置及び動画像復号方法
KR20120080122A (ko) * 2011-01-06 2012-07-16 삼성전자주식회사 경쟁 기반의 다시점 비디오 부호화/복호화 장치 및 방법
WO2012093879A2 (ko) * 2011-01-06 2012-07-12 삼성전자주식회사 경쟁 기반의 다시점 비디오 부호화/복호화 장치 및 방법
JP6004271B2 (ja) * 2011-01-12 2016-10-05 サン パテント トラスト 画像符号化方法、画像復号方法、画像符号化装置および画像復号装置
RU2480941C2 (ru) 2011-01-20 2013-04-27 Корпорация "Самсунг Электроникс Ко., Лтд" Способ адаптивного предсказания кадра для кодирования многоракурсной видеопоследовательности
US9008181B2 (en) 2011-01-24 2015-04-14 Qualcomm Incorporated Single reference picture list utilization for interprediction video coding
US9215473B2 (en) 2011-01-26 2015-12-15 Qualcomm Incorporated Sub-slices in video coding
CN105100822B (zh) * 2011-01-28 2018-05-11 华为技术有限公司 辅助视频补充信息承载方法、处理方法、装置与***
WO2012115434A2 (ko) * 2011-02-21 2012-08-30 한국전자통신연구원 복수 참조 영상을 이용한 영상 부복호화 방법 및 이러한 방법을 사용하는 장치
US20130322535A1 (en) * 2011-02-21 2013-12-05 Electronics And Telecommunications Research Institute Method for encoding and decoding images using plurality of reference images and device using method
KR20120118780A (ko) * 2011-04-19 2012-10-29 삼성전자주식회사 다시점 비디오의 움직임 벡터 부호화 방법 및 장치, 그 복호화 방법 및 장치
US9485517B2 (en) 2011-04-20 2016-11-01 Qualcomm Incorporated Motion vector prediction with motion vectors from multiple views in multi-view video coding
US20140044347A1 (en) * 2011-04-25 2014-02-13 Sharp Kabushiki Kaisha Mage coding apparatus, image coding method, image coding program, image decoding apparatus, image decoding method, and image decoding program
US9154804B2 (en) * 2011-06-04 2015-10-06 Apple Inc. Hint based adaptive encoding
TWI530161B (zh) * 2011-06-07 2016-04-11 Sony Corp Image processing apparatus and method
KR20120140592A (ko) * 2011-06-21 2012-12-31 한국전자통신연구원 움직임 보상의 계산 복잡도 감소 및 부호화 효율을 증가시키는 방법 및 장치
EP2717572B1 (en) 2011-06-24 2018-08-08 LG Electronics Inc. Encoding/decoding method and apparatus using a skip mode
WO2013001813A1 (ja) * 2011-06-29 2013-01-03 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置および画像復号装置
US9060173B2 (en) * 2011-06-30 2015-06-16 Sharp Kabushiki Kaisha Context initialization based on decoder picture buffer
US9338465B2 (en) 2011-06-30 2016-05-10 Sharp Kabushiki Kaisha Context initialization based on decoder picture buffer
US11647197B2 (en) 2011-06-30 2023-05-09 Velos Media, Llc Context initialization based on slice header flag and slice type
MX2014000159A (es) * 2011-07-02 2014-02-19 Samsung Electronics Co Ltd Metodo y aparato para la codificacion de video, y metodo y aparato para la decodificacion de video acompañada por inter prediccion utilizando imagen co-localizada.
LT2728861T (lt) * 2011-07-02 2017-10-25 Samsung Electronics Co., Ltd. Vaizdo duomenų multipleksavimo ir demultipleksavimo būdas ir aparatas vaizdo atkūrimo būklei nustatyti
US9948938B2 (en) * 2011-07-21 2018-04-17 Texas Instruments Incorporated Methods and systems for chroma residual data prediction
US9635355B2 (en) * 2011-07-28 2017-04-25 Qualcomm Incorporated Multiview video coding
US9674525B2 (en) 2011-07-28 2017-06-06 Qualcomm Incorporated Multiview video coding
US10237565B2 (en) * 2011-08-01 2019-03-19 Qualcomm Incorporated Coding parameter sets for various dimensions in video coding
WO2013022281A2 (ko) 2011-08-09 2013-02-14 삼성전자 주식회사 다시점 비디오 예측 부호화 방법 및 그 장치, 다시점 비디오 예측 복호화 방법 및 그 장치
KR101790401B1 (ko) 2011-08-25 2017-10-25 선 페이턴트 트러스트 주기적인 버퍼 기재를 사용하여 비디오를 부호화 및 복호하는 방법 및 장치
CN107257492B (zh) 2011-09-07 2020-04-28 太阳专利托管公司 图像编码方法以及图像编码装置
BR112013022641B1 (pt) 2011-09-09 2022-07-12 Kt Corporation Método para derivar um vetor de predição de movimento candidato
US9736489B2 (en) 2011-09-17 2017-08-15 Qualcomm Incorporated Motion vector determination for video coding
EP2760205B1 (en) 2011-09-19 2020-11-04 Sun Patent Trust Image decoding method, image decoding device
SI4017006T1 (sl) 2011-09-22 2023-12-29 Lg Electronics, Inc. Postopek in naprava za signaliziranje informacij o sliki ter postopek za dekodiranje in naprava, ki le-tega uporablja
US10034018B2 (en) * 2011-09-23 2018-07-24 Velos Media, Llc Decoded picture buffer management
JP5746792B2 (ja) * 2011-09-23 2015-07-08 ケィティ、コーポレーションKt Corporation マージ候補ブロック誘導方法及びこのような方法を用いる装置
US9807386B2 (en) * 2011-09-29 2017-10-31 Telefonaktiebolaget Lm Ericsson (Publ) Reference picture list handling
US9712819B2 (en) 2011-10-12 2017-07-18 Lg Electronics Inc. Image encoding method and image decoding method
US8768079B2 (en) * 2011-10-13 2014-07-01 Sharp Laboratories Of America, Inc. Tracking a reference picture on an electronic device
US8855433B2 (en) * 2011-10-13 2014-10-07 Sharp Kabushiki Kaisha Tracking a reference picture based on a designated picture on an electronic device
US8787688B2 (en) * 2011-10-13 2014-07-22 Sharp Laboratories Of America, Inc. Tracking a reference picture based on a designated picture on an electronic device
RU2625944C2 (ru) 2011-10-19 2017-07-19 Сан Пэтент Траст Способ кодирования изображений, способ декодирования изображений, устройство кодирования изображений, устройство декодирования изображений и устройство кодирования и декодирования изображений
US9264717B2 (en) 2011-10-31 2016-02-16 Qualcomm Incorporated Random access with advanced decoded picture buffer (DPB) management in video coding
US9077998B2 (en) 2011-11-04 2015-07-07 Qualcomm Incorporated Padding of segments in coded slice NAL units
EP2777258B1 (en) * 2011-11-04 2017-01-11 Huawei Technologies Co., Ltd. Binarization of prediction residuals for lossless video coding
US9124895B2 (en) 2011-11-04 2015-09-01 Qualcomm Incorporated Video coding with network abstraction layer units that include multiple encoded picture partitions
US10003817B2 (en) 2011-11-07 2018-06-19 Microsoft Technology Licensing, Llc Signaling of state information for a decoded picture buffer and reference picture lists
US20130113882A1 (en) * 2011-11-08 2013-05-09 Sony Corporation Video coding system and method of operation thereof
KR101841914B1 (ko) * 2011-11-08 2018-03-27 한국전자통신연구원 컬러 영상 및 깊이 영상을 포함하는 다시점 비디오의 부호화 및 복호화 방법, 그리고 부호화 및 복호화 장치
WO2013070028A1 (ko) 2011-11-11 2013-05-16 엘지전자 주식회사 영상 정보 전송 방법 및 장치와 이를 이용한 복호화 방법 및 장치
US10158873B2 (en) 2011-11-30 2018-12-18 Qualcomm Incorporated Depth component removal for multiview video coding (MVC) compatible three-dimensional video coding (3DVC)
US9131217B2 (en) * 2011-12-09 2015-09-08 Qualcomm Incorporated Reference picture list modification for view synthesis reference pictures
US9258559B2 (en) * 2011-12-20 2016-02-09 Qualcomm Incorporated Reference picture list construction for multi-view and three-dimensional video coding
US9762904B2 (en) 2011-12-22 2017-09-12 Qualcomm Incorporated Performing motion vector prediction for video coding
US9288506B2 (en) * 2012-01-05 2016-03-15 Qualcomm Incorporated Signaling view synthesis prediction support in 3D video coding
WO2013105207A1 (en) * 2012-01-10 2013-07-18 Panasonic Corporation Video encoding method, video encoding apparatus, video decoding method and video decoding apparatus
US9451252B2 (en) 2012-01-14 2016-09-20 Qualcomm Incorporated Coding parameter sets and NAL unit headers for video coding
WO2013109183A2 (en) 2012-01-17 2013-07-25 Telefonaktiebolaget L M Ericsson (Publ) Reference picture list handling
US8867852B2 (en) 2012-01-19 2014-10-21 Sharp Kabushiki Kaisha Decoding a picture based on a reference picture set on an electronic device
US9538200B2 (en) 2012-01-19 2017-01-03 Qualcomm Incorporated Signaling of deblocking filter parameters in video coding
US8693793B2 (en) * 2012-01-19 2014-04-08 Sharp Laboratories Of America, Inc. Reducing reference picture set signal overhead on an electronic device
JP6480185B2 (ja) 2012-01-19 2019-03-06 ヴィド スケール インコーポレイテッド 映像符号化参照ピクチャリストをシグナリングおよび構築する方法および装置
AU2013210955B2 (en) * 2012-01-20 2017-11-09 Nokia Technologies Oy Method for video coding and an apparatus, a computer-program product, a system, and a module for the same
JPWO2013111551A1 (ja) * 2012-01-27 2015-05-11 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 動画像符号化方法、動画像符号化装置、動画像復号方法、および、動画像復号装置
US9451277B2 (en) 2012-02-08 2016-09-20 Qualcomm Incorporated Restriction of prediction units in B slices to uni-directional inter prediction
WO2013128832A1 (ja) * 2012-03-02 2013-09-06 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置および画像符号化復号装置
US20130243085A1 (en) * 2012-03-15 2013-09-19 Samsung Electronics Co., Ltd. Method of multi-view video coding and decoding based on local illumination and contrast compensation of reference frames without extra bitrate overhead
US10200709B2 (en) 2012-03-16 2019-02-05 Qualcomm Incorporated High-level syntax extensions for high efficiency video coding
US9503720B2 (en) 2012-03-16 2016-11-22 Qualcomm Incorporated Motion vector coding and bi-prediction in HEVC and its extensions
US9712887B2 (en) 2012-04-12 2017-07-18 Arris Canada, Inc. Methods and systems for real-time transmuxing of streaming media content
EP3174295B1 (en) 2012-04-13 2018-12-12 GE Video Compression, LLC Low delay picture coding
US9503702B2 (en) * 2012-04-13 2016-11-22 Qualcomm Incorporated View synthesis mode for three-dimensional video coding
KR101456501B1 (ko) * 2012-04-15 2014-11-03 삼성전자주식회사 참조픽처리스트 변경이 가능한 인터 예측 방법과 그 장치
US9979958B2 (en) 2012-04-20 2018-05-22 Qualcomm Incorporated Decoded picture buffer processing for random access point pictures in video sequences
CN104396251A (zh) * 2012-04-23 2015-03-04 三星电子株式会社 使用用于多视点视频预测的参考列表对多视点视频进行编码的方法及其装置以及使用用于多视点视频预测的参考列表对多视点视频进行解码的方法及其装置
EP2843944A4 (en) * 2012-04-23 2015-09-23 Samsung Electronics Co Ltd MULTI VIEW VIDEO CODING METHOD AND DEVICE AND MULTILOOK VIDEO CODING METHOD AND DEVICE
US10205961B2 (en) 2012-04-23 2019-02-12 Qualcomm Incorporated View dependency in multi-view coding and 3D coding
US9762903B2 (en) 2012-06-01 2017-09-12 Qualcomm Incorporated External pictures in video coding
US20130329007A1 (en) * 2012-06-06 2013-12-12 Qualcomm Incorporated Redundancy removal for advanced motion vector prediction (amvp) in three-dimensional (3d) video coding
US9225978B2 (en) 2012-06-28 2015-12-29 Qualcomm Incorporated Streaming adaption based on clean random access (CRA) pictures
CN115442626A (zh) 2012-06-29 2022-12-06 Ge视频压缩有限责任公司 视频数据流、编码器、编码视频内容的方法以及解码器
JP5743968B2 (ja) * 2012-07-02 2015-07-01 株式会社東芝 動画像復号方法及び動画像符号化方法
CA2878206C (en) * 2012-07-02 2016-05-17 Samsung Electronics Co., Ltd. Method and apparatus for encoding video and method and apparatus for decoding video determining inter-prediction reference picture list depending on block size
CN103533374B (zh) * 2012-07-06 2018-02-16 乐金电子(中国)研究开发中心有限公司 一种视频编码、解码的方法及装置
KR102185384B1 (ko) * 2012-07-11 2020-12-02 한국전자통신연구원 Mpeg 데이터의 랜덤 억세스를 지원하는 방법 및 시스템
WO2014010894A1 (ko) 2012-07-11 2014-01-16 한국전자통신연구원 Mpeg 데이터의 랜덤 억세스를 지원하는 방법 및 시스템
CN103688535B (zh) * 2012-07-19 2017-02-22 太阳专利托管公司 图像编码方法、图像解码方法、图像编码装置及图像解码装置
KR101812615B1 (ko) 2012-09-28 2017-12-27 노키아 테크놀로지스 오와이 비디오 코딩 및 디코딩을 위한 장치, 방법 및 컴퓨터 프로그램
CN108540813B (zh) 2012-09-28 2021-03-16 杜比国际公司 图像解码装置
US20140092976A1 (en) * 2012-09-30 2014-04-03 Sharp Laboratories Of America, Inc. System for signaling idr and bla pictures
US9313500B2 (en) 2012-09-30 2016-04-12 Microsoft Technology Licensing, Llc Conditional signalling of reference picture list modification information
EP2904803A1 (en) * 2012-10-01 2015-08-12 GE Video Compression, LLC Scalable video coding using derivation of subblock subdivision for prediction from base layer
US9854234B2 (en) * 2012-10-25 2017-12-26 Qualcomm Incorporated Reference picture status for video coding
WO2014081226A1 (ko) * 2012-11-21 2014-05-30 엘지전자 주식회사 영상 디코딩 방법 및 이를 이용하는 장치
US10334259B2 (en) * 2012-12-07 2019-06-25 Qualcomm Incorporated Advanced residual prediction in scalable and multi-view video coding
US9621906B2 (en) 2012-12-10 2017-04-11 Lg Electronics Inc. Method for decoding image and apparatus using same
JP6229895B2 (ja) * 2012-12-11 2017-11-15 ソニー株式会社 符号化装置および符号化方法、並びに、復号装置および復号方法
JP6233656B2 (ja) * 2012-12-21 2017-11-22 ソニー株式会社 画像処理装置および方法
TWI669950B (zh) * 2012-12-21 2019-08-21 日商新力股份有限公司 影像處理裝置及方法
US10805605B2 (en) * 2012-12-21 2020-10-13 Telefonaktiebolaget Lm Ericsson (Publ) Multi-layer video stream encoding and decoding
US9774927B2 (en) * 2012-12-21 2017-09-26 Telefonaktiebolaget L M Ericsson (Publ) Multi-layer video stream decoding
CN104885450B (zh) * 2012-12-27 2017-09-08 日本电信电话株式会社 图像编码方法、图像解码方法、图像编码装置、图像解码装置、图像编码程序、以及图像解码程序
WO2014109563A1 (ko) * 2013-01-09 2014-07-17 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
US10136119B2 (en) * 2013-01-10 2018-11-20 Qualcomm Incoporated View synthesis in 3D video
US10491458B2 (en) * 2013-01-31 2019-11-26 Dell Products L.P. System and method for reporting peer-to-peer transfer events
US20160037177A1 (en) * 2013-04-05 2016-02-04 Samsung Electronics Co., Ltd. Interlayer video encoding method and apparatus and interlayer video decoding method and apparatus for compensating luminance difference
EP2983367A4 (en) 2013-04-05 2016-11-16 Samsung Electronics Co Ltd METHOD AND DEVICE FOR CODING AND DECODING VIDEO CONTENT IN RELATION TO THE POSITION OF ALL-NUMBER PIXELS
US9565437B2 (en) 2013-04-08 2017-02-07 Qualcomm Incorporated Parameter set designs for video coding extensions
WO2014168443A1 (ko) * 2013-04-11 2014-10-16 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
US9930363B2 (en) 2013-04-12 2018-03-27 Nokia Technologies Oy Harmonized inter-view and view synthesis prediction for 3D video coding
WO2014166104A1 (en) 2013-04-12 2014-10-16 Mediatek Singapore Pte. Ltd. Removal of parsing dependency for illumination compensation
KR102105323B1 (ko) * 2013-04-15 2020-04-28 인텔렉추얼디스커버리 주식회사 객체 기반 적응적 밝기 보상 방법 및 장치
US10009618B2 (en) 2013-07-12 2018-06-26 Samsung Electronics Co., Ltd. Video encoding method and apparatus therefor using modification vector inducement, video decoding method and apparatus therefor
WO2015005746A1 (ko) * 2013-07-12 2015-01-15 삼성전자 주식회사 잔차 예측을 이용한 인터 레이어 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치
US10075735B2 (en) * 2013-07-14 2018-09-11 Sharp Kabushiki Kaisha Video parameter set signaling
US9648333B2 (en) * 2013-10-11 2017-05-09 Vid Scale, Inc. High level syntax for HEVC extensions
JP2016213519A (ja) * 2013-10-15 2016-12-15 シャープ株式会社 画像復号装置、画像符号化装置
US9674544B2 (en) * 2013-11-25 2017-06-06 Qualcomm Incorporated POC value design for multi-layer video coding
US9942546B2 (en) 2013-12-12 2018-04-10 Qualcomm Incorporated POC value design for multi-layer video coding
KR102551609B1 (ko) 2014-11-27 2023-07-05 주식회사 케이티 비디오 신호 처리 방법 및 장치
CN111031323B (zh) 2014-11-27 2023-11-28 株式会社Kt 视频信号处理方法
RU2605237C1 (ru) * 2015-07-16 2016-12-20 Общество с ограниченной ответственностью "МАКИНТЕХ" Управляющее устройство, система и способ управления освещением
CN105100549B (zh) * 2015-07-27 2018-06-29 京东方科技集团股份有限公司 图像补偿方法及装置
GB2553315A (en) 2016-09-01 2018-03-07 Nokia Technologies Oy Determining inter-view prediction areas
KR20180057789A (ko) 2016-11-22 2018-05-31 광운대학교 산학협력단 전방향 카메라에서 효과적인 차분 움직임 백터 전송방법을 이용한 비디오 코딩 방법 및 방법 및 장치
KR20180074000A (ko) * 2016-12-23 2018-07-03 삼성전자주식회사 비디오 디코딩 방법, 이를 수행하는 비디오 디코더, 비디오 인코딩 방법, 및 이를 수행하는 비디오 인코더
AT519902B1 (de) 2017-05-11 2022-07-15 Blum Gmbh Julius Führungssystem zur Führung eines Türflügels
EP3468198A1 (en) * 2017-10-05 2019-04-10 Thomson Licensing Method and apparatus for video encoding and decoding based on illumination compensation
EP3692716A1 (en) * 2017-10-05 2020-08-12 InterDigital VC Holdings, Inc. Method and apparatus for adaptive illumination compensation in video encoding and decoding
CN112514394A (zh) 2018-07-17 2021-03-16 松下电器(美国)知识产权公司 用于视频编码的***和方法
WO2020062184A1 (zh) * 2018-09-29 2020-04-02 深圳市大疆创新科技有限公司 一种图像处理方法、装置、可移动平台及存储介质
US11166048B2 (en) * 2018-10-02 2021-11-02 Tencent America LLC Method and apparatus for video coding
CN117857785A (zh) 2018-10-04 2024-04-09 Lg电子株式会社 图像解码和编码方法、数据的发送方法及存储介质
US10708626B2 (en) * 2018-11-19 2020-07-07 Google Llc Iterative IDCT with adaptive non-linear filtering
US11184607B2 (en) * 2019-06-13 2021-11-23 Qualcomm Incorporated Same picture order count (POC) numbering for scalability support
CN114731442B (zh) * 2019-09-16 2023-12-01 Lg电子株式会社 使用加权预测的图像编码/解码方法和装置以及发送比特流的方法
CN115136604A (zh) * 2019-12-23 2022-09-30 Lg电子株式会社 基于nal单元类型的图像或视频编码
BR112022013803A2 (pt) * 2020-01-12 2022-09-13 Huawei Tech Co Ltd Método e aparelho de harmonização de predição ponderada com modos de mesclagem não retangulares
CN115136606A (zh) 2020-02-19 2022-09-30 字节跳动有限公司 参考图片列表的权重的信令通知

Family Cites Families (98)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US147850A (en) * 1874-02-24 Improvement in cutting-nippers
US28498A (en) * 1860-05-29 Improvement in corn-planters
US159638A (en) * 1875-02-09 Improvement in grain-drills
US202594A (en) * 1878-04-16 Improvement in fence-posts
US116558A (en) * 1871-07-04 Improvement in smelting iron ores
US89412A (en) * 1869-04-27 Improvement in mowing-machines
US10A (en) * 1836-08-10 Gtttlslto andi
US106191A (en) * 1870-08-09 Fire-place heater
US262856A (en) * 1882-08-15 Car-heater
DE1098653B (de) * 1959-06-27 1961-02-02 Hoechst Ag Verfahren zur Herstellung von Sensibilisierungsfarbstoffen
US3093928A (en) * 1961-02-16 1963-06-18 Robert K Ostrander Multivoice unit
TW352384B (en) * 1992-03-24 1999-02-11 Hoechst Ag Sulfonamido- or sulfonamidocarbonylpyridine-2-carboxamides, process for their preparation and their use as pharmaceuticals
US5473379A (en) 1993-11-04 1995-12-05 At&T Corp. Method and apparatus for improving motion compensation in digital video coding
NZ270267A (en) * 1993-12-30 1997-03-24 Hoechst Ag 3-hydroxypyridin-2yl (and -quinolin-2-yl) carboxamide derivatives and pharmaceutical compositions
GB9402857D0 (en) * 1994-02-15 1994-04-06 Isis Innovation Targeting gene therapy
DE4410480A1 (de) * 1994-03-25 1995-09-28 Hoechst Ag Sulfonamidocarbonylpyridin-2-carbonsäureesteramide sowie ihre Pyridin-N-oxide, Verfahren zu ihrer Herstellung und ihre Verwendung als Arzneimittel
DE4410423A1 (de) * 1994-03-25 1995-09-28 Hoechst Ag Sulfonamidocarbonylpyridin-2-carbonsäureamide sowie ihre Pyridin-N-oxide, Verfahren zu ihrer Herstellung und ihre Verwendung als Arzneimittel
IL135495A (en) * 1995-09-28 2002-12-01 Hoechst Ag Intermediate compounds for the preparation of quinoline-converted amines - 2 - carboxylic acid
US6055012A (en) 1995-12-29 2000-04-25 Lucent Technologies Inc. Digital multi-view video compression with complexity and compatibility constraints
US5659933A (en) * 1996-04-01 1997-08-26 Mcwilliams; Edward L. Odor-proof sealable container for bodily remains
EP0840982B1 (en) 1996-05-24 2002-02-13 Koninklijke Philips Electronics N.V. Motion estimation
US5886736A (en) 1996-10-24 1999-03-23 General Instrument Corporation Synchronization of a stereoscopic video sequence
DE19650215A1 (de) * 1996-12-04 1998-06-10 Hoechst Ag 3-Hydroxypyridin-2-carbonsäureamidester, ihre Herstellung und ihre Verwendung als Arzneimittel
JP3931392B2 (ja) 1997-08-25 2007-06-13 ソニー株式会社 立体画像用ビデオ信号生成装置、立体画像用ビデオ信号送出装置および立体画像用ビデオ信号受信装置
DE19746287A1 (de) * 1997-10-20 1999-04-22 Hoechst Marion Roussel De Gmbh Substituierte Isochinolin-2-Carbonsäureamide, ihre Herstellung und ihre Verwendung als Arzneimittel
US5916898A (en) * 1997-10-24 1999-06-29 Zeneca Limited Phenanthroline derivatives
US6200974B1 (en) * 1997-10-24 2001-03-13 Zeneca Limited Phenanthroline derivatives
NZ504847A (en) * 1997-12-04 2003-02-28 Genzyme Corp Chimeric protein comprising a hypoxia inducible factor protein and a transcriptional activation domain and pharmaceutical use
US6124131A (en) * 1998-08-25 2000-09-26 The Johns Hopkins University School Of Medicine Mutant hypoxia inducible factor-1 HIF-1
US6005012A (en) * 1998-10-29 1999-12-21 The Regents Of The University Of California Method for producing hydrophobic aerogels
US6408301B1 (en) * 1999-02-23 2002-06-18 Eastman Kodak Company Interactive image storage, indexing and retrieval system
EP1075147A1 (en) 1999-08-02 2001-02-07 Koninklijke Philips Electronics N.V. Motion estimation
US6735249B1 (en) 1999-08-11 2004-05-11 Nokia Corporation Apparatus, and associated method, for forming a compressed motion vector field utilizing predictive motion coding
KR100680452B1 (ko) * 2000-02-22 2007-02-08 주식회사 팬택앤큐리텔 움직임 벡터 메모리의 갱신방법 및 장치
IT1321181B1 (it) * 2000-05-04 2003-12-30 Magneti Marelli Spa Metodo e dispositivo per la stima della posizione di un corpoattuatore in un azionatore elettromagnetico per il comando di una
FR2811791B1 (fr) * 2000-07-13 2002-11-22 France Telecom Estimateur de mouvement pour le codage et le decodage de sequences d'images
US6516501B2 (en) * 2000-07-31 2003-02-11 Vazquez-Perez Jose Fernando Method and apparatus for ecological burial
KR100375708B1 (ko) 2000-10-28 2003-03-15 전자부품연구원 3차원 입체영상을 위한 다시점 비디오 시스템 및영상제조방법
US20020106191A1 (en) 2001-01-05 2002-08-08 Vm Labs, Inc. Systems and methods for creating a video montage from titles on a digital video disk
MXPA03006194A (es) 2001-01-16 2003-12-11 Matsushita Electric Ind Co Ltd Medio de grabacion de datos y un aparato para grabacion de datos y su metodo.
AU2002248571B2 (en) * 2001-03-07 2007-01-18 Merck Patent Gmbh Expression technology for proteins containing a hybrid isotype antibody moiety
JP4157686B2 (ja) * 2001-05-15 2008-10-01 株式会社モノリス 画像符号化および復号のための方法および装置
US6804301B2 (en) 2001-08-15 2004-10-12 General Instrument Corporation First pass encoding of I and P-frame complexity for compressed digital video
US6985231B2 (en) * 2001-09-20 2006-01-10 Strainoptics, Inc. Method and apparatus for measuring the optical quality of a reflective surface
KR100397511B1 (ko) * 2001-11-21 2003-09-13 한국전자통신연구원 양안식/다시점 3차원 동영상 처리 시스템 및 그 방법
KR100480787B1 (ko) * 2001-11-27 2005-04-07 삼성전자주식회사 좌표 인터폴레이터의 키 값 데이터 부호화/복호화 방법 및 장치
AU2002351389A1 (en) 2001-12-17 2003-06-30 Microsoft Corporation Skip macroblock coding
US20030123546A1 (en) 2001-12-28 2003-07-03 Emblaze Systems Scalable multi-level video coding
FI114527B (fi) * 2002-01-23 2004-10-29 Nokia Corp Kuvakehysten ryhmittely videokoodauksessa
KR101108661B1 (ko) * 2002-03-15 2012-01-25 노키아 코포레이션 비디오 시퀀스에서의 움직임 부호화 방법
KR100481732B1 (ko) * 2002-04-20 2005-04-11 전자부품연구원 다 시점 동영상 부호화 장치
US7831990B2 (en) 2002-04-29 2010-11-09 Sony Corporation Generic adaptation layer for JVT video
US7023921B2 (en) 2002-08-06 2006-04-04 Motorola, Inc. Method and apparatus for determining block match quality
KR100475060B1 (ko) 2002-08-07 2005-03-10 한국전자통신연구원 다시점 3차원 동영상에 대한 사용자 요구가 반영된 다중화장치 및 방법
US6925622B2 (en) * 2002-09-30 2005-08-02 Freescale Semiconductor, Inc. System and method for correlated clock networks
US7801217B2 (en) * 2002-10-01 2010-09-21 Thomson Licensing Implicit weighting of reference pictures in a video encoder
US20040080078A1 (en) * 2002-10-25 2004-04-29 Collins David C. Methods and systems for producing a desired apparent coloring in an object produced through rapid prototyping
KR100513732B1 (ko) * 2002-12-05 2005-09-08 삼성전자주식회사 3차원 객체 데이터 부호화 및 복호화 방법 및 장치
GB0229354D0 (en) 2002-12-18 2003-01-22 Robert Gordon The University Video encoding
KR100693669B1 (ko) * 2003-03-03 2007-03-09 엘지전자 주식회사 피일드 매크로 블록의 레퍼런스 픽쳐 결정 방법
US7949047B2 (en) 2003-03-17 2011-05-24 Qualcomm Incorporated System and method for partial intraframe encoding for wireless multimedia transmission
US7489342B2 (en) * 2004-12-17 2009-02-10 Mitsubishi Electric Research Laboratories, Inc. Method and system for managing reference pictures in multiview videos
US8135683B2 (en) * 2003-12-16 2012-03-13 International Business Machines Corporation Method and apparatus for data redundancy elimination at the block level
TWI238651B (en) 2004-04-30 2005-08-21 Benq Corp Method and apparatus for determining frame status of video data
JP4421940B2 (ja) * 2004-05-13 2010-02-24 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置および方法、並びに動画像復号化装置および方法
KR100679740B1 (ko) * 2004-06-25 2007-02-07 학교법인연세대학교 시점 선택이 가능한 다시점 동영상 부호화/복호화 방법
US8184108B2 (en) 2004-06-30 2012-05-22 Poa Sana Liquidating Trust Apparatus and method for a folded optical element waveguide for use with light based touch screens
US7142209B2 (en) * 2004-08-03 2006-11-28 Microsoft Corporation Real-time rendering system and process for interactive viewpoint video that was generated using overlapping images of a scene captured from viewpoints forming a grid
US20060083298A1 (en) * 2004-10-14 2006-04-20 Nokia Corporation Reference picture management in video coding
TWI254571B (en) 2004-12-07 2006-05-01 Sunplus Technology Co Ltd Method for fast multiple reference frame motion estimation
KR100760258B1 (ko) 2004-12-10 2007-09-19 한국전자통신연구원 범용적 다시점 동영상 부호화/복호화 장치 및 방법
US7671894B2 (en) 2004-12-17 2010-03-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using skip and direct modes
US7710462B2 (en) * 2004-12-17 2010-05-04 Mitsubishi Electric Research Laboratories, Inc. Method for randomly accessing multiview videos
US7728877B2 (en) 2004-12-17 2010-06-01 Mitsubishi Electric Research Laboratories, Inc. Method and system for synthesizing multiview videos
US20060146932A1 (en) * 2004-12-30 2006-07-06 Krit Panusopone Method and apparatus for providing motion estimation with weight prediction
US20060233247A1 (en) 2005-04-13 2006-10-19 Visharam Mohammed Z Storing SVC streams in the AVC file format
US20060254010A1 (en) * 2005-05-13 2006-11-16 Eugene Wagner Interproximal tool
US8228994B2 (en) 2005-05-20 2012-07-24 Microsoft Corporation Multi-view video coding based on temporal and view decomposition
US8559515B2 (en) 2005-09-21 2013-10-15 Samsung Electronics Co., Ltd. Apparatus and method for encoding and decoding multi-view video
KR101244911B1 (ko) 2005-10-11 2013-03-18 삼성전자주식회사 카메라 파라미터를 이용한 다시점 동영상 부호화 및 복호화장치 및 방법과 이를 수행하기 위한 프로그램이 기록된기록매체
KR100667830B1 (ko) 2005-11-05 2007-01-11 삼성전자주식회사 다시점 동영상을 부호화하는 방법 및 장치
US7903737B2 (en) 2005-11-30 2011-03-08 Mitsubishi Electric Research Laboratories, Inc. Method and system for randomly accessing multiview videos with known prediction dependency
AU2007205227B2 (en) * 2006-01-09 2012-02-16 Dolby International Ab Method and apparatus for providing reduced resolution update mode for multi-view video coding
ZA200805337B (en) * 2006-01-09 2009-11-25 Thomson Licensing Method and apparatus for providing reduced resolution update mode for multiview video coding
US7817865B2 (en) * 2006-01-12 2010-10-19 Lg Electronics Inc. Processing multiview video
US20090052599A1 (en) * 2006-03-01 2009-02-26 Matsushita Electric Industrial Co., Ltd. Transmitter and transmitter/receiver
CN101416518B (zh) 2006-03-29 2013-07-10 汤姆森特许公司 多视图视频编码方法和装置
US9641842B2 (en) * 2006-07-06 2017-05-02 Thomson Licensing Method and apparatus for decoupling frame number and/or picture order count (POC) for multi-view video encoding and decoding
JP5013993B2 (ja) 2006-07-12 2012-08-29 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 或るシーンの複数のマルチビュービデオを処理する方法及びシステム
BRPI0717321A2 (pt) 2006-10-13 2013-10-22 Thomson Licensing Método para gerenciamento de imagens de referência envolvendo codificação de vídeo com mútiplas visualizações
KR101368493B1 (ko) 2006-10-13 2014-02-28 톰슨 라이센싱 멀티뷰 비디오 코딩을 위한 참조 화상 목록 관리 구문
JP4793366B2 (ja) 2006-10-13 2011-10-12 日本ビクター株式会社 多視点画像符号化装置、多視点画像符号化方法、多視点画像符号化プログラム、多視点画像復号装置、多視点画像復号方法、及び多視点画像復号プログラム
KR101101965B1 (ko) * 2006-10-16 2012-01-02 노키아 코포레이션 멀티뷰 비디오 코딩에 대한 병렬 디코딩가능 슬라이스들을 이용하기 위한 시스템 및 방법
EP2087737A2 (en) 2006-10-24 2009-08-12 Thomson Licensing Picture management for multi-view video coding
KR100823287B1 (ko) * 2007-01-03 2008-04-21 삼성전자주식회사 전역 차이 벡터를 이용한 다시점 영상의 부호화, 복호화방법 및 장치
CN101999228A (zh) 2007-10-15 2011-03-30 诺基亚公司 针对多视角视频内容的运动跳跃和单环路编码
US8553781B2 (en) 2007-12-07 2013-10-08 Thomson Licensing Methods and apparatus for decoded picture buffer (DPB) management in single loop decoding for multi-view video
JP4569635B2 (ja) * 2008-01-17 2010-10-27 カシオ計算機株式会社 電波受信装置および電波時計

Also Published As

Publication number Publication date
EP2005752A1 (en) 2008-12-24
KR100949977B1 (ko) 2010-03-29
EP2008460A4 (en) 2010-02-03
KR20090101501A (ko) 2009-09-28
WO2007114612A1 (en) 2007-10-11
KR100966567B1 (ko) 2010-06-29
KR20090101502A (ko) 2009-09-28
KR20090006094A (ko) 2009-01-14
US20100027659A1 (en) 2010-02-04
US20100091884A1 (en) 2010-04-15
RU2010111711A (ru) 2011-10-10
KR20090099095A (ko) 2009-09-21
US7782946B2 (en) 2010-08-24
EP2008461B1 (en) 2015-09-16
KR100966569B1 (ko) 2010-06-30
KR20090007331A (ko) 2009-01-16
KR100949974B1 (ko) 2010-03-29
US20100316136A1 (en) 2010-12-16
KR20090101499A (ko) 2009-09-28
US20100091885A1 (en) 2010-04-15
DE202007019458U1 (de) 2012-09-13
KR100949983B1 (ko) 2010-03-29
DE202007019454U1 (de) 2012-09-03
PL2008460T3 (pl) 2017-10-31
JP5055353B2 (ja) 2012-10-24
US20100074334A1 (en) 2010-03-25
US8483273B2 (en) 2013-07-09
US8526504B2 (en) 2013-09-03
US20100091843A1 (en) 2010-04-15
US8428130B2 (en) 2013-04-23
KR20090099089A (ko) 2009-09-21
KR100959538B1 (ko) 2010-05-27
US8576920B2 (en) 2013-11-05
EP2025170A1 (en) 2009-02-18
CA2647735C (en) 2013-08-06
KR100949976B1 (ko) 2010-03-29
US20100316362A1 (en) 2010-12-16
KR20090099584A (ko) 2009-09-22
BRPI0710048A2 (pt) 2011-08-02
MX2008012437A (es) 2008-11-18
KR100949978B1 (ko) 2010-03-29
US20100027653A1 (en) 2010-02-04
US20100027654A1 (en) 2010-02-04
EP2025170B1 (en) 2015-01-07
KR20090099094A (ko) 2009-09-21
US20100316135A1 (en) 2010-12-16
AU2007232607B2 (en) 2010-09-16
US20100027660A1 (en) 2010-02-04
KR20090099096A (ko) 2009-09-21
KR20090099587A (ko) 2009-09-22
EP2008460B1 (en) 2017-05-17
KR100949979B1 (ko) 2010-03-29
JP2009532931A (ja) 2009-09-10
WO2007114609A1 (en) 2007-10-11
US8565319B2 (en) 2013-10-22
US8565303B2 (en) 2013-10-22
US7782947B2 (en) 2010-08-24
US20100111169A1 (en) 2010-05-06
EP2008461A4 (en) 2010-02-03
KR20090099091A (ko) 2009-09-21
US20100316361A1 (en) 2010-12-16
PL2005753T3 (pl) 2017-07-31
JP5055355B2 (ja) 2012-10-24
US8611419B2 (en) 2013-12-17
US8457207B2 (en) 2013-06-04
EP2005753B1 (en) 2016-12-21
EP2005753A4 (en) 2010-02-03
US8363732B2 (en) 2013-01-29
KR20090101498A (ko) 2009-09-28
WO2007114611A1 (en) 2007-10-11
KR20090099585A (ko) 2009-09-22
KR100937431B1 (ko) 2010-01-18
KR100934672B1 (ko) 2009-12-31
KR20090006093A (ko) 2009-01-14
US7782949B2 (en) 2010-08-24
US8411744B2 (en) 2013-04-02
US8432972B2 (en) 2013-04-30
US8571113B2 (en) 2013-10-29
KR100949980B1 (ko) 2010-03-29
US7782943B2 (en) 2010-08-24
US8170108B2 (en) 2012-05-01
EP2005752A4 (en) 2010-06-09
EP3139615A1 (en) 2017-03-08
KR20090101496A (ko) 2009-09-28
US20100026882A1 (en) 2010-02-04
US8559505B2 (en) 2013-10-15
KR20090096651A (ko) 2009-09-11
US20100091883A1 (en) 2010-04-15
JP5054092B2 (ja) 2012-10-24
US20100020870A1 (en) 2010-01-28
KR100998912B1 (ko) 2010-12-08
DE202007019459U1 (de) 2012-09-13
AU2007232607A1 (en) 2007-10-11
JP2009532930A (ja) 2009-09-10
EP2008461A1 (en) 2008-12-31
KR100949975B1 (ko) 2010-03-29
US20100215100A1 (en) 2010-08-26
WO2007114610A1 (en) 2007-10-11
KR20090101497A (ko) 2009-09-28
KR20090099090A (ko) 2009-09-21
JP5247677B2 (ja) 2013-07-24
US20100128787A1 (en) 2010-05-27
US7782950B2 (en) 2010-08-24
US8559523B2 (en) 2013-10-15
KR100966568B1 (ko) 2010-06-29
KR20090101500A (ko) 2009-09-28
US20100026884A1 (en) 2010-02-04
US20100026883A1 (en) 2010-02-04
US20100027682A1 (en) 2010-02-04
US20100086036A1 (en) 2010-04-08
KR100934675B1 (ko) 2009-12-31
KR100949982B1 (ko) 2010-03-29
KR100959537B1 (ko) 2010-05-27
KR100934671B1 (ko) 2009-12-31
US8472519B2 (en) 2013-06-25
JP5055354B2 (ja) 2012-10-24
KR20090099093A (ko) 2009-09-21
EP2005753A1 (en) 2008-12-24
JP2009532932A (ja) 2009-09-10
DE202007019446U1 (de) 2012-09-05
US20100316360A1 (en) 2010-12-16
ES2533765T3 (es) 2015-04-15
EP3151564A1 (en) 2017-04-05
US8634475B2 (en) 2014-01-21
CA2647735A1 (en) 2007-10-11
US20100260265A1 (en) 2010-10-14
US20100091844A1 (en) 2010-04-15
EP2008460A1 (en) 2008-12-31
KR100949981B1 (ko) 2010-03-29
US8611427B2 (en) 2013-12-17
US20100091886A1 (en) 2010-04-15
US20100080293A1 (en) 2010-04-01
US20090279608A1 (en) 2009-11-12
ES2619522T3 (es) 2017-06-26
KR20090004996A (ko) 2009-01-12
RU2530310C2 (ru) 2014-10-10
JP2009532934A (ja) 2009-09-10
US7782945B2 (en) 2010-08-24
KR100934673B1 (ko) 2009-12-31
KR20100074314A (ko) 2010-07-01
KR20090099092A (ko) 2009-09-21
KR100934674B1 (ko) 2009-12-31
US20090296811A1 (en) 2009-12-03
US7782944B2 (en) 2010-08-24
KR100943911B1 (ko) 2010-02-24
KR100966570B1 (ko) 2010-06-29
EP2025170A4 (en) 2010-02-17
KR100959536B1 (ko) 2010-05-27
KR20090006095A (ko) 2009-01-14
WO2007114608A1 (en) 2007-10-11
US7782948B2 (en) 2010-08-24
JP2009532933A (ja) 2009-09-10
KR20090099586A (ko) 2009-09-22

Similar Documents

Publication Publication Date Title
ES2636917T3 (es) Un método y un aparato para descodificar/codificar una señal de video