ES2669502T3 - Procedimiento de generación de un bloque reconstruido - Google Patents
Procedimiento de generación de un bloque reconstruido Download PDFInfo
- Publication number
- ES2669502T3 ES2669502T3 ES12846401.3T ES12846401T ES2669502T3 ES 2669502 T3 ES2669502 T3 ES 2669502T3 ES 12846401 T ES12846401 T ES 12846401T ES 2669502 T3 ES2669502 T3 ES 2669502T3
- Authority
- ES
- Spain
- Prior art keywords
- intra prediction
- block
- mode
- unit
- size
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/107—Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
- H04N19/126—Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/129—Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/13—Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/18—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/192—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/463—Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Electrotherapy Devices (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Un procedimiento de generar un bloque reconstruido, que comprende: derivar (S1100) un modo de intra predicción de una unidad de predicción usando tres modos de intra predicción que se determinan en base a modos de intra predicción izquierdo y superior; determinar (S1200) un tamaño de un bloque actual usando información de tamaño de transformación; generar (S1300) un bloque de predicción del bloque actual según el modo de intra predicción; generar (S1400) un bloque residual del bloque actual según el modo de intra predicción y el tamaño del bloque actual; y generar (S1500) un bloque reconstruido del bloque actual usando el bloque de predicción y el bloque residual, en el que el tamaño del bloque actual es igual o menor que un tamaño de la unidad de predicción, y los tamaños del bloque de predicción, bloque residual y bloque reconstruido son iguales a un tamaño de una unidad de transformación, y la información de tamaño de transformación incluye una o más banderas de división de unidad de transformación, split_tu_flags, en el que derivar un modo de intra predicción de una unidad de predicción comprende: - construir (S1120) un grupo de modos más probables, MPM, que se compone de tres modos de intra predicción usando el modo de intra predicción izquierdo y el modo de intra predicción superior; - determinar (S1130) si un indicador de grupo de modos, que es una bandera, indica o no el grupo de MPM; - establecer (S1140) un modo de intra predicción del grupo de MPM especificado por un índice de modo de predicción como el modo de intra predicción de la unidad de predicción si el indicador de grupo de modos indica el grupo de MPM; caracterizado por - determinar (S1190) el modo de intra predicción de la unidad de predicción comparando el índice de modo de predicción con los tres modos de intra predicción del grupo de MPM si el indicador de grupo de modos no indica el grupo de MPM, en el que si uno de entre el modo de intra predicción izquierdo y el modo de intra predicción superior está disponible, el grupo de MPM se compone del modo de intra predicción disponible y dos modos de intra predicción adicionales, y el modo DC y el modo plano son establecidos como los dos modos de intra predicción adicionales, si el modo de intra predicción disponible es un modo de intra predicción direccional.
Description
DESCRIPCIÓN
Procedimiento de generación de un bloque reconstruido
5
Campo técnico
La presente invención se refiere a un procedimiento y a un aparato para decodificar una imagen, y más particularmente, a un procedimiento de generar de forma adaptativa un bloque de predicción y un bloque residual 10 que tienen el mismo tamaño que una unidad de transformación de acuerdo con un modo de intra predicción.
Técnica anterior
15 En H.264/MPEG-4 AVC, una imagen es dividida en macro-bloques para codificar una imagen, los macro-bloques respectivos son codificados generando un bloque de predicción utilizando inter predicción o intra predicción. La diferencia entre un bloque original y el bloque de predicción es transformada para generar un bloque transformado, y el bloque transformado es cuantificado usando un parámetro de cuantificación y una de entre una pluralidad de matrices de cuantificación predeterminadas. El coeficiente cuantificado del bloque cuantificado es explorado 20 mediante un tipo de exploración predeterminado y a continuación es codificado por entropía. El parámetro de cuantificación es ajustado por cada macro-bloque y es codificado utilizando un parámetro de cuantificación previo.
Mientras tanto, se introducen técnicas que usan varios tamaños de unidad de codificación para mejorar la eficiencia de la codificación. También se introducen técnicas que aumentan un número de modos de intra predicción para 25 generar un bloque de predicción más similar a un bloque original.
Pero, si el número de modos de intra predicción aumenta, la cantidad de bits de codificación requeridos para señalizar el modo de intra predicción es mayor. Además, si el tamaño de la unidad de codificación es mayor, la diferencia entre un bloque original y un bloque de predicción es mayor.
30
En consecuencia, se requiere un procedimiento más efectivo para señalizar el modo de intra predicción. También se requiere un procedimiento más efectivo para minimizar la diferencia entre el bloque original y el bloque de predicción y para minimizar los bits de codificación del bloque residual.
35 El documento “Parsing friendly intra mode coding", W.-J. Chien et.al., document JCTVC-F459 se puede interpretar como la divulgación de un procedimiento de codificación para el modo de intra predicción para abordar problemas en el proceso de análisis (parsing). Durante el proceso de análisis, el procedimiento propuesto no se basa en la información vecina, de modo que no se necesita un almacenamiento de memoria adicional. Los resultados de la simulación muestran una ganancia media de rendimiento de 0,2% en configuraciones que son sólo Intra.
40
El documento "WD3: Working Draft 3 of High-Efficiency Video Coding", T. Wiegand et.al., document JCTVC-E603 y el documento "High Efficiency Video Coding (HEVC) Working draft 4", B. Bross et.al., document JCTVC-F803 se pueden interpretar como la divulgación de una técnica relacionada con la creciente necesidad del HEVC de una mayor compresión de imágenes en movimiento para diversas aplicaciones tales como videoconferencia, medios de 45 almacenamiento digital, etc. Los algoritmos de codificación pueden seleccionar entre la inter y la intra codificación para regiones en forma de bloque en cada imagen. La inter codificación usa vectores de movimiento para la inter predicción basada en bloques para explotar dependencias estadísticas temporales entre diferentes imágenes. La intra codificación usa varios modos de predicción espacial para explotar dependencias estadísticas espaciales en la señal de origen para una sola imagen. Los vectores de movimiento y los modos de intra predicción se pueden 50 especificar para una diversidad de tamaños de bloque en la imagen. A continuación, se comprime aún más el residual de predicción utilizando una transformación para eliminar la correlación espacial dentro del bloque de transformación antes de su cuantificación, produciendo un proceso irreversible que normalmente descarta la información visual menos importante mientras forma una aproximación de clase a las muestras de origen. Finalmente, se combinan los vectores de movimiento o los modos de intra predicción con la información de 55 coeficiente de transformación cuantificado y se codifican utilizando ya sea codificación de longitud variable o codificación aritmética.
El documento "BoG report on intra mode coding with fixed number of MPM candidates", J. Chen, document JCTVC- F765 puede interpretarse como la divulgación de una técnica relacionada con el análisis (parsing) y reconstrucción 60 del intra modo de desacoplamiento mediante el uso de un número fijo de candidatos MPM con un mínimo cambio (llamado 2MPM).
Divulgación Problema técnico
5 La presente invención está orientada a un procedimiento de derivar un modo de intra predicción de una unidad de predicción, determinar un tamaño de un bloque actual usando información de tamaño de transformación, generar un bloque de predicción y un bloque residual del bloque actual según el modo de intra predicción y generar un bloque reconstruido del bloque actual usando el bloque de predicción y el bloque residual.
10 Solución técnica
De acuerdo con la invención, se proporciona un procedimiento según la reivindicación independiente. Se exponen desarrollos en las reivindicaciones dependientes.
15 Preferiblemente, hay un procedimiento de generar un bloque reconstruido, que comprende: derivar un modo de intra predicción de una unidad de predicción, determinar un tamaño de un bloque actual usando información de tamaño de transformación, generar un bloque de predicción del bloque actual según el modo de intra predicción, generar un bloque residual del bloque actual según el modo de intra predicción y generar un bloque reconstruido del bloque actual usando el bloque de predicción y el bloque residual.
20
Efectos ventajosos
Un procedimiento según la presente invención deriva un modo de intra predicción de una unidad de predicción, determina un tamaño de un bloque actual usando información de tamaño de transformación, genera un bloque de 25 predicción del bloque actual según el modo de intra predicción, genera un bloque residual del bloque actual según el modo de intra predicción y genera un bloque reconstruido del bloque actual usando el bloque de predicción y el bloque residual. Los tamaños del bloque de predicción y bloque residual se determinan iguales al tamaño de una unidad de transformación. Por lo tanto, se acorta la distancia de la intra predicción y se reduce la cantidad de bits de codificación del bloque residual generando un bloque de predicción muy similar al bloque original. Además, los bits 30 de señalización requeridos para señalizar el modo de intra predicción disminuyen generando un grupo de MPM de forma adaptativa de acuerdo con los modos de intra predicción vecinos.
Descripción de los dibujos
35 La figura 1 es un diagrama de bloques de un aparato de codificación de imágenes según un ejemplo.
La figura 2 es un diagrama de bloques de un aparato de decodificación de imágenes según un ejemplo.
La figura 3 es un diagrama de flujo que ilustra un procedimiento de generar un bloque reconstruido en la intra 40 predicción según la presente invención.
La figura 4 es un diagrama de flujo que ilustra un procedimiento de derivar un modo de intra predicción de una unidad de predicción actual según un ejemplo.
45 La figura 5 es un diagrama conceptual que ilustra modos de intra predicción según un ejemplo.
La figura 6 es un diagrama de flujo que ilustra un procedimiento de generar un bloque de predicción según un ejemplo.
50 La figura 7 es un diagrama conceptual que ilustra las posiciones de píxeles de referencia de un bloque actual según un ejemplo.
La figura 8 es un diagrama de flujo que ilustra un procedimiento de generar un bloque residual según un ejemplo.
55 La figura 9 es un diagrama de flujo que ilustra un procedimiento de derivar un parámetro de cuantificación según un
ejemplo.
La figura 10 es un diagrama de bloques que ilustra un aparato para generar un bloque reconstruido según un ejemplo.
Realizaciones de la invención
En lo sucesivo, se describirán en detalle diversas realizaciones de la presente invención con referencia a los dibujos adjuntos. Sin embargo, la presente invención no se limita a las realizaciones descritas a continuación a modo de ejemplo, sino que se puede implementar de varias maneras. Por lo tanto, son posibles muchas otras modificaciones y variaciones de la presente invención, y debe entenderse que dentro del alcance del concepto divulgado, la 5 presente invención se puede poner en práctica de otras maneras a las que se han descrito específicamente.
La figura 1 es un diagrama de bloques de un aparato de codificación de imágenes 100 según un ejemplo.
Con referencia a la figura 1, el aparato de codificación de imágenes 100 según el presente ejemplo incluye una 10 unidad de división de imágenes 101, una unidad de transformación 103, una unidad de cuantificación 104, una unidad de exploración 105, una unidad de codificación de entropía 106, una unidad de cuantificación inversa 107, una unidad de transformación inversa 108, una unidad de post procesamiento 110, una unidad de almacenamiento de imágenes 111, una unidad de intra predicción 112, una unidad de inter predicción 113, un sustractor 102 y un sumador 109.
15
La unidad de división de imágenes 101 divide una imagen o una porción en una pluralidad de unidades de codificación (LCU) más grandes, y divide cada LCU en una o más unidades de codificación. La unidad de división de imágenes 101 determina el modo de predicción de cada unidad de codificación y un tamaño de unidad de predicción y un tamaño de unidad de transformación.
20
Una LCU incluye una o más unidades de codificación. La LCU tiene una estructura recursiva de árbol cuádruple para especificar una estructura de división. La información que especifica el tamaño máximo y el tamaño mínimo de la unidad de codificación es incluida en un conjunto de parámetros de secuencia. La estructura de división es especificada por una o más banderas de división de unidad de codificación (split_cu_flags). La unidad de 25 codificación tiene un tamaño de 2Nx2N.
Una unidad de codificación incluye una o más unidades de predicción. En la intra predicción, el tamaño de la unidad de predicción es 2Nx2N o NxN. En la inter predicción, el tamaño de la unidad de predicción es 2Nx2N, 2NxN, Nx2N o NxN. Cuando la unidad de predicción es una partición asimétrica de la inter predicción, el tamaño de la unidad de 30 predicción también puede ser uno de entre hNx2N, (2-h)Nx2N, 2NxhN y 2Nx(2-h)N. El valor de h es 1/2.
Una unidad de codificación incluye una o más unidades de transformación. La unidad de transformación tiene una estructura recursiva de árbol cuádruple para especificar una estructura de división. La estructura de división es especificada por una o más banderas de división de unidad de transformación (split_tu_flags). La información que 35 especifica el tamaño máximo y el tamaño mínimo de la unidad de transformación es incluida en un conjunto de parámetros de secuencia.
La unidad de intra predicción 112 determina un modo de intra predicción de una unidad de predicción actual y genera uno o más bloques de predicción usando el modo de intra predicción. El bloque de predicción tiene el mismo 40 tamaño de la unidad de transformación.
La unidad de inter predicción 113 determina información de movimiento de la unidad de predicción actual usando una o más imágenes de referencia almacenadas en la unidad de almacenamiento de imágenes 111, y genera un bloque de predicción de la unidad de predicción. La información de movimiento incluye uno o más índices de 45 imágenes de referencia y uno o más vectores de movimiento.
La unidad de transformación 103 transforma las señales residuales generadas usando un bloque original y un bloque de predicción para generar un bloque transformado. Las señales residuales son transformadas en unidades de transformación. Un tipo de transformación es determinado por el modo de predicción y el tamaño de la unidad de 50 transformación. El tipo de transformación es una transformación de enteros basada en DCT (transformada discreta del coseno) o una transformación de enteros basada en DST (transformada discreta del seno). Por ejemplo, en el modo de inter predicción, se usan transformaciones de enteros basadas en DCT. En el modo de intra predicción, si el tamaño de la unidad de transformación es menor que un tamaño predeterminado, se usan transformaciones de enteros basadas en DST, de lo contrario se usan transformaciones de enteros basadas en DCT.
55
La unidad de cuantificación 104 determina un parámetro de cuantificación para cuantificar el bloque transformado. El parámetro de cuantificación es un tamaño de etapa de cuantificación. El parámetro de cuantificación es determinado por cada unidad de cuantificación. El tamaño de la unidad de cuantificación es uno de los tamaños permitidos de la unidad de codificación. Si un tamaño de la unidad de codificación es igual o mayor que un tamaño mínimo de la 60 unidad de cuantificación, la unidad de codificación es determinada como la unidad de cuantificación. Se puede incluir una pluralidad de unidades de codificación en una unidad de cuantificación. El tamaño mínimo de la unidad de cuantificación se determina por cada imagen y se incluye información que especifica el tamaño mínimo de la unidad de cuantificación en un conjunto de parámetros de imagen.
La unidad de cuantificación 104 genera un predictor del parámetro de cuantificación y genera un parámetro de cuantificación diferencial sustrayendo el predictor del parámetro de cuantificación del parámetro de cuantificación. El parámetro de cuantificación diferencial es codificado por entropía e incluido en la sintaxis de la unidad de 5 codificación.
El predictor del parámetro de cuantificación es generado utilizando los parámetros de cuantificación de las unidades de codificación vecinas y un parámetro de cuantificación de la unidad de codificación anterior de la siguiente manera.
10
Un parámetro de cuantificación izquierdo, un parámetro de cuantificación superior y un parámetro de cuantificación anterior son recuperados secuencialmente en este orden. Un promedio de los primeros dos parámetros de cuantificación disponibles recuperados en ese orden es determinado como el predictor del parámetro de cuantificación cuando dos o más parámetros de cuantificación están disponibles, y cuando solo está disponible un
15 parámetro de cuantificación, el parámetro de cuantificación disponible es determinado como el predictor del
parámetro de cuantificación. Es decir, si los parámetros de cuantificación izquierdo y superior están disponibles, el promedio de los parámetros de cuantificación izquierdo y superior es determinado como el predictor del parámetro de cuantificación. Si solo está disponible uno de los parámetros de cuantificación izquierdo y superior, el promedio del parámetro de cuantificación disponible y el parámetro de cuantificación anterior es determinado como el predictor 20 del parámetro de cuantificación. Si tanto el parámetro de cuantificación izquierdo como el superior no están disponibles, el parámetro de cuantificación anterior es determinado como el predictor del parámetro de cuantificación. El promedio es redondeado.
La unidad de cuantificación 104 cuantifica el bloque transformado usando una matriz de cuantificación y el
25 parámetro de cuantificación para generar un bloque cuantificado. El bloque cuantificado es proporcionado a la
unidad de cuantificación inversa 107 y a la unidad de exploración 105.
La unidad de exploración 105 determina un patrón de exploración y aplica el patrón de exploración al bloque cuantificado. Cuando se usa CABAC (codificación aritmética binaria adaptable al contexto) para la codificación de 30 entropía, el patrón de exploración se determina de la siguiente manera.
En la intra predicción, el patrón de exploración es determinado por el modo de intra predicción y el tamaño de la unidad de transformación. El tamaño de la unidad de transformación, el tamaño del bloque transformado y el tamaño del bloque cuantificado son los mismos. El patrón de exploración se selecciona de entre una exploración en 35 diagonal, exploración vertical y exploración horizontal. El patrón de exploración es aplicado a las banderas significativas, signos de coeficiente y niveles de coeficiente respectivamente. La bandera significativa indica si el correspondiente coeficiente de transformación cuantificado es o no es cero. El signo de coeficiente indica un signo de coeficiente de transformación cuantificado diferente de cero, y el nivel de coeficiente indica un valor absoluto de coeficiente de transformación cuantificado diferente de cero.
40
Cuando el tamaño de la unidad de transformación es igual o menor que un primer tamaño, se selecciona la exploración horizontal para el modo vertical y un número predeterminado de modos de intra predicción vecinos del modo vertical en direccionalidad, se selecciona la exploración vertical para el modo horizontal y el número predeterminado de modos de intra predicción vecinos del modo horizontal en direccionalidad, y se selecciona la 45 exploración en diagonal para los otros modos de intra predicción. Cuando el tamaño de la unidad de transformación es mayor que el primer tamaño, se utiliza la exploración en diagonal. El primer tamaño es 8x8.
En la inter predicción, se usa un patrón de exploración predeterminado independientemente del tamaño de la unidad de transformación. El patrón de exploración predeterminado es la exploración en diagonal cuando se utiliza CABAC 50 para la codificación de entropía.
Cuando el tamaño de la unidad de transformación es mayor que un segundo tamaño, se divide el bloque cuantificado en un subconjunto principal y una pluralidad de subconjuntos restantes y se aplica el patrón de exploración determinado a cada subconjunto. Las banderas significativas, los signos de coeficiente y los niveles de 55 coeficiente de cada subconjunto son explorados respectivamente según el patrón de exploración determinado. El subconjunto principal incluye el coeficiente DC y los subconjuntos restantes cubren la región que no es la región cubierta por el subconjunto principal. El segundo tamaño es 4x4. Un tamaño del subconjunto puede ser un bloque 4x4 o puede variar según el patrón de exploración. El subconjunto incluye 16 coeficientes de transformación.
60 El patrón de exploración para explorar los subconjuntos es el mismo que el patrón de exploración para explorar los coeficientes de transformación cuantificados de cada subconjunto. Los coeficientes de transformación cuantificados de cada subconjunto son explorados en la dirección inversa. Los subconjuntos también son explorados en la dirección inversa.
La última posición de coeficiente diferente de cero es codificada y transmitida al decodificador. La última posición de coeficiente diferente de cero especifica una posición del último coeficiente de transformación cuantificado diferente de cero dentro de la unidad de transformación. Se determina la bandera de subconjunto diferente de cero para cada 5 subconjunto que no sea el subconjunto principal ni el último subconjunto. El último subconjunto cubre el último coeficiente diferente de cero. La bandera de subconjunto diferente de cero indica si el subconjunto contiene o no contiene coeficientes diferentes de cero.
La unidad de cuantificación inversa 107 cuantifica inversamente los coeficientes de transformación cuantificados del 10 bloque cuantificado.
La unidad de transformación inversa 108 transforma inversamente el bloque cuantificado inverso para generar señales residuales del dominio espacial.
15 El sumador 109 genera un bloque reconstruido agregando el bloque residual y el bloque de predicción.
La unidad de post procesamiento 110 realiza un proceso de filtrado de desbloqueo para eliminar el artefacto de bloqueo generado en una imagen reconstruida.
20 La unidad de almacenamiento de imágenes 111 recibe una imagen post procesada desde la unidad de post procesamiento 110, y almacena la imagen en unidades de imágenes. Una imagen puede ser un fotograma (frame) o un campo.
La unidad de codificación de entropía 106 codifica por entropía la información del coeficiente unidimensional recibida 25 desde la unidad de exploración 105, la información de intra predicción recibida desde la unidad de intra predicción 112, la información de movimiento recibida desde la unidad de inter predicción 113, y así sucesivamente.
La figura 2 es un diagrama de bloques de un aparato de decodificación de imágenes 200 según un ejemplo.
30 El aparato de decodificación de imágenes 200 según el presente ejemplo incluye una unidad de decodificación de entropía 201, una unidad de exploración inversa 202, una unidad de cuantificación inversa 203, una unidad de transformación inversa 204, un sumador 205, una unidad de post procesamiento 206, una unidad de almacenamiento de imágenes 207, una unidad de intra predicción 208 y una unidad de inter predicción 209.
35 La unidad de decodificación de entropía 201 extrae la información de intra predicción, la información de inter predicción y la información de coeficiente unidimensional de un flujo de bits (bit stream) recibido. La unidad de decodificación de entropía 201 transmite la información de inter predicción a la unidad de inter predicción 209, la información de intra predicción a la unidad de intra predicción 208 y la información de coeficiente a la unidad de exploración inversa 202.
40
La unidad de exploración inversa 202 usa un patrón de exploración inversa para generar un bloque cuantificado. Cuando se utiliza CABAC para la codificación de entropía, el patrón de exploración se determina de la siguiente manera.
45 En la intra predicción, el patrón de exploración inversa es determinado por el modo de intra predicción y el tamaño de la unidad de transformación. El patrón de exploración inversa es seleccionado de entre una exploración en diagonal, exploración vertical y exploración horizontal. El patrón de exploración inversa seleccionado es aplicado a banderas significativas, signos de coeficiente y niveles de coeficiente respectivamente para generar el bloque cuantificado.
50
Cuando el tamaño de la unidad de transformación es igual o menor que un primer tamaño, se selecciona la exploración horizontal para el modo vertical y un número predeterminado de modos de intra predicción vecinos del modo vertical, se selecciona la exploración vertical para el modo horizontal y el número predeterminado de modos de intra predicción vecinos del modo horizontal, y se selecciona la exploración en diagonal para los otros modos de 55 intra predicción. Cuando el tamaño de la unidad de transformación es mayor que el primer tamaño, se utiliza la exploración en diagonal. Cuando el tamaño de la unidad de transformación es mayor que el primer tamaño, se selecciona la exploración en diagonal para todos los modos de intra predicción. El primer tamaño es 8x8.
Cuando el tamaño de la unidad de transformación es mayor que el primer tamaño, se selecciona la exploración en 60 diagonal para todos los modos de intra predicción.
En la inter predicción, se usa la exploración en diagonal.
Cuando el tamaño de la unidad de transformación es mayor que el segundo tamaño, las banderas significativas, los signos de coeficiente y los niveles de coeficiente son explorados inversamente en la unidad de subconjuntos que usa el patrón de exploración inversa determinado para generar subconjuntos, y los subconjuntos son explorados inversamente para generar el bloque cuantificado. El segundo tamaño es 4x4. El tamaño del subconjunto puede ser 5 un bloque 4x4 o un bloque no cuadrado determinado por el patrón de exploración. El bloque no cuadrado incluye 16 coeficientes de transformación. Por ejemplo, el tamaño del subconjunto es 8x2 para la exploración horizontal, 2x8 para la exploración vertical y 4x4 para la exploración en diagonal.
El patrón de exploración inversa utilizado para generar cada subconjunto es el mismo que el patrón de exploración 10 inversa utilizado para generar el bloque cuantificado. Las banderas significativas, los signos de coeficiente y los niveles de coeficiente son explorados inversamente en la dirección inversa. Los subconjuntos también son explorados inversamente en la dirección inversa.
La última posición de coeficiente diferente de cero y las banderas de subconjunto diferente de cero son recibidas 15 procedentes del codificador. El número de subconjuntos codificados se determina de acuerdo con la última posición de coeficiente diferente de cero y el patrón de exploración inversa. Las banderas de subconjunto diferente de cero se utilizan para seleccionar los subconjuntos a generar. El subconjunto principal y el último subconjunto se generan utilizando el patrón de exploración inversa.
20 La unidad de cuantificación inversa 203 recibe el parámetro de cuantificación diferencial desde la unidad de decodificación de entropía 201 y genera el predictor del parámetro de cuantificación. El predictor del parámetro de cuantificación se genera a través de la misma operación de la unidad de cuantificación 104 de la figura 1. Entonces, la unidad de cuantificación inversa 203 agrega el parámetro de cuantificación diferencial y el predictor del parámetro de cuantificación para generar el parámetro de cuantificación de la unidad de codificación actual. Si el tamaño de la 25 unidad de codificación actual es igual a o mayor que el tamaño mínimo de la unidad de cuantificación y no se recibe el parámetro de cuantificación diferencial para la unidad de codificación actual desde el codificador, el parámetro de cuantificación diferencial se determina como 0.
La unidad de cuantificación inversa 203 cuantifica inversamente el bloque cuantificado.
30
La unidad de transformación inversa 204 transforma inversamente el bloque cuantificado inverso para restablecer un bloque residual. El tipo de transformación inversa es determinado de forma adaptativa según el modo de predicción y el tamaño de la unidad de transformación. El tipo de transformación inversa es la transformación de enteros basada en DCT o la transformación de enteros basada en DST. Por ejemplo, en la inter predicción, se usan 35 transformaciones de enteros basadas en DCT. En el modo de intra predicción, si el tamaño de la unidad de transformación es menor que un tamaño predeterminado, se usan las transformaciones de enteros basadas en DST, de lo contrario se usan transformaciones de enteros basadas en DCT.
La unidad de intra predicción 208 restablece el modo de intra predicción de la unidad de predicción actual utilizando 40 la información de intra predicción recibida, y genera un bloque de predicción según el modo de intra predicción restablecido.
La unidad de inter predicción 209 restablece la información de movimiento de la unidad de predicción actual usando la información de inter predicción recibida, y genera un bloque de predicción usando la información de movimiento.
45
La unidad de post procesamiento 206 funciona igual que la unidad de post procesamiento 110 de la figura 1.
La unidad de almacenamiento de imágenes 207 recibe una imagen post procesada desde la unidad de post procesamiento 206, y almacena la imagen en unidades de imágenes. Una imagen puede ser un fotograma (frame) o 50 un campo.
El sumador 205 agrega el bloque residual restablecido y un bloque de predicción para generar un bloque reconstruido.
55 La figura 3 es un diagrama de flujo que ilustra un procedimiento de generar un bloque reconstruido en la intra predicción según la presente invención.
Primero, se deriva un modo de intra predicción de una unidad de predicción actual (S1100).
60 La figura 4 es un diagrama de flujo que ilustra un procedimiento de derivar el modo de intra predicción de la unidad de predicción actual según un ejemplo.
Los parámetros de inter predicción de la unidad de predicción actual son extraídos de un flujo de bits recibido (S1110).
Los parámetros de intra predicción son un indicador del grupo de modos y un índice del modo de predicción. El 5 indicador del grupo de modos es una bandera que indica si el modo de intra predicción de la unidad de predicción actual pertenece a un grupo de modos más probables (grupo de MPM). Si la bandera es 1, la unidad de intra predicción de la unidad de predicción actual pertenece al grupo de MPM. Si la bandera es 0, la unidad de intra predicción de la unidad de predicción actual pertenece a un grupo de modos residual. El grupo de modos residual incluye todos los modos de intra predicción diferentes de los modos de intra predicción del grupo de MPM. El índice 10 del modo de predicción especifica el modo de intra predicción de la unidad de predicción actual dentro del grupo especificado por el indicador de grupo de modos.
El grupo de MPM es construido usando los modos de intra predicción de las unidades de predicción vecinas (S1120). Los modos de intra predicción del grupo de MPM son determinados de forma adaptativa por un modo de 15 intra predicción izquierda y un modo de intra predicción superior. El modo de intra predicción izquierda es el modo de intra predicción de la unidad de predicción vecina izquierda, y el modo de intra predicción superior es el modo de intra predicción de la unidad de predicción vecina superior. El grupo de MPM se compone de tres modos de intra predicción.
20 Si no existe la unidad de predicción vecina izquierda o superior, el modo de intra predicción de la unidad vecina izquierda o superior se determina como no disponible. Por ejemplo, si la unidad de predicción actual se encuentra en el límite izquierdo o superior de una imagen, la unidad de predicción vecina izquierda o superior no existe. Si la unidad vecina izquierda o superior se encuentra dentro de otra porción u otro recuadro, el modo de intra predicción de la unidad vecina izquierda o superior se determina como no disponible. Si la unidad vecina izquierda o superior 25 está inter codificada, el modo de intra predicción de la unidad vecina izquierda o superior se determina como no disponible. Si la unidad vecina superior se encuentra dentro de otra LCU, el modo de intra predicción de la unidad vecina izquierda o superior se determina como no disponible.
La figura 5 es un diagrama conceptual que ilustra los modos de intra predicción según un ejemplo. Como se muestra 30 en la figura 5, el número de modos de intra predicción es 35. El modo de componente continua (modo DC) y el modo plano son modos de intra predicción no direccional y los otros son modos de intra predicción direccional.
Cuando tanto el modo de intra predicción izquierdo como el modo de intra predicción superior están disponibles y son diferentes entre sí, el modo de intra predicción izquierdo y el modo de intra predicción superior son incluidos en 35 el grupo de MPM y se agrega un modo de intra predicción adicional al grupo de MPM. Se asigna el índice 0 a un modo de intra predicción que tiene número de modo pequeño y se asigna el índice 1 al otro. O se asigna el índice 0 al modo de intra predicción izquierdo y se asigna el índice 1 al modo de intra predicción superior. El modo de intra predicción agregado es determinado por los modos de intra predicción izquierdo y superior de la siguiente manera.
40 Si uno de los modos de intra predicción izquierda y superior es un modo no direccional y el otro es un modo direccional, se agrega el otro modo no direccional al grupo de MPM. Por ejemplo, si uno de los modos de intra predicción izquierdo y superior es el modo DC, se agrega el modo plano al grupo de MPM. Si uno de los modos de intra predicción izquierdo y superior es el modo plano, se agrega el modo DC al grupo de MPM. Si ambos modos de intra predicción izquierda y superior son modos no direccionales, se agrega el modo vertical al grupo de MPM. Si 45 ambos modos de intra predicción izquierda y superior son modos direccionales, se agrega el modo DC o el modo plano al grupo de MPM.
Cuando sólo está disponible uno de los modos de intra predicción izquierda y de intra predicción superior, se incluye el modo de intra predicción disponible en el grupo de MPM y se agregan dos modos de intra predicción adicionales 50 al grupo de MPM. Los dos modos de intra predicción agregados son determinados por los modos de intra predicción disponibles de la siguiente manera.
Si el modo de intra predicción disponible es un modo no direccional, se agrega el otro modo no direccional y el modo vertical al grupo de MPM. Por ejemplo, si el modo de intra predicción disponible es el modo DC, se agrega el modo 55 plano y el modo vertical al grupo de MPM. Si el modo de intra predicción disponible es el modo plano, se agrega el modo DC y el modo vertical al grupo de MPM. Si el modo de intra predicción disponible es un modo direccional, se agregan dos modos no direccionales (modo DC y modo plano) al grupo de MPM.
Cuando ambos modos de intra predicción izquierda y de intra predicción superior están disponibles y son iguales 60 entre sí, se incluye el modo de intra predicción disponible en el grupo de MPM y se agregan dos modos de intra predicción adicionales al grupo de MPM. Los dos modos de intra predicción agregados son determinados por los modos de intra predicción disponibles de la siguiente manera.
Si el modo de intra predicción disponible es un modo direccional, se agregan dos modos direccionales vecinos al grupo de MPM. Por ejemplo, si el modo de intra predicción disponible es el modo 23, se agrega el modo vecino izquierdo (modo 1) y el modo vecino derecho (modo 13) al grupo de MPM. Si el modo de intra predicción disponible es el modo 30, se agregan los dos modos vecinos (modo 2 y modo 16) al grupo de MPM. Si el modo de intra 5 predicción disponible es un modo no direccional, se agrega el otro modo no direccional y el modo vertical al grupo de MPM. Por ejemplo, si el modo de intra predicción disponible es el modo DC, se agrega el modo plano y el modo vertical al grupo de MPM.
Cuando ambos modos de intra predicción izquierdo y de intra predicción superior no están disponibles, se agregan 10 tres modos de intra predicción adicionales al grupo de MPM. Los tres modos de intra predicción son el modo DC, el modo plano y el modo vertical. Se asignan los índices 0, 1 y 2 a los tres modos de intra predicción en el siguiente orden: modo DC, modo plano y modo vertical, o en el siguiente orden: modo plano, modo DC y modo vertical.
Se determina si el indicador del grupo de modos indica el grupo de MPM (S1130).
15
Si el indicador del grupo de modos indica el grupo de MPM, la intra predicción del grupo de MPM especificado por el índice del modo de predicción es determinada como el modo de intra predicción de la unidad de predicción actual (S1140).
20 Si el indicador del grupo de modos no indica el grupo de MPM, se reordenan las tres intra predicciones del grupo de MPM en el orden del número de modo (S1150). De entre los tres modos de intra predicción del grupo de MPM, se determina el modo de intra predicción con el menor número de modo como primer candidato, se determina el modo de intra predicción con el número de modo medio como segundo candidato y se determina el modo de intra predicción con el mayor número de modo como tercer candidato.
25
Se compara el índice del modo de predicción con el primer candidato (S1160). Si el índice del modo de predicción es igual o mayor que el primer candidato del grupo de MPM, se incrementa en uno el valor del índice del modo de predicción. De lo contrario, se mantiene el valor del índice del modo de predicción.
30 Se compara el índice del modo de predicción con el segundo candidato (S1170). Si el índice del modo de predicción es igual o mayor que el segundo candidato del grupo de MPM, se incrementa en uno el valor del índice del modo de predicción. De lo contrario, se mantiene el valor del índice del modo de predicción.
Se compara el índice del modo de predicción con el tercer candidato (S1180). Si el índice del modo de predicción es 35 igual o mayor que el tercer candidato del grupo de MPM, se incrementa en uno el valor del índice del modo de predicción. De lo contrario, se mantiene el valor del índice del modo de predicción.
Se determina el valor del índice del modo de predicción final como el número de modo del modo de intra predicción de la unidad de predicción actual (S1190).
40
A continuación, se determina un tamaño de un bloque actual para generar un bloque de predicción (S1200).
El tamaño del bloque actual es igual al tamaño de la unidad de transformación. El tamaño del bloque actual se determina usando el tamaño de la unidad de predicción y la información del tamaño de transformación. Un bloque de 45 predicción y un bloque residual del bloque actual tienen el mismo tamaño de la unidad de transformación. La información del tamaño de transformación incluye una o más split_tu_flags (banderas de división de unidad de transformación) para indicar la estructura de división.
Si el tamaño de la unidad de transformación es igual al tamaño de la unidad de predicción actual, se determina la 50 unidad de predicción actual como el bloque actual.
Si el tamaño de la unidad de transformación es menor que el tamaño de la unidad de predicción actual, la unidad de predicción se compone de una pluralidad de sub-bloques. Cada sub-bloque es determinado como el bloque actual. En este caso, las etapas S1300, S1400 y S1500 son realizadas para el primer sub-bloque de la unidad de 55 predicción. A continuación, se realizan repetidamente las etapas S1300, S1400 y S1500 para los sub-bloques restantes de la unidad de predicción en el orden de decodificación. Se usa el mismo modo de intra predicción para todos los sub-bloques dentro de la unidad de predicción.
A continuación, se genera un bloque de predicción según el modo de intra predicción (S1300).
60
La figura 6 es un diagrama de flujo que ilustra un procedimiento de generar el bloque de predicción según un ejemplo.
Se determina si todos los píxeles de referencia del bloque actual están disponibles, y se generan píxeles de referencia si uno o más píxeles de referencia no están disponibles (S1210). El bloque actual es la unidad de predicción actual o el sub-bloque de la unidad de predicción actual. El tamaño del bloque actual es el tamaño de la unidad de transformación.
5
La figura 7 es un diagrama conceptual que ilustra las posiciones de los píxeles de referencia del bloque actual según un ejemplo.
Como se muestra en la figura 7, los píxeles de referencia de los bloques actuales están compuestos por píxeles de 10 referencia superiores ubicados en (x=0,..., 2N-1, y=-1), píxeles de referencia izquierdos situados en (x=1-, y=0,..., 2M-1) y un píxel de esquina ubicado en (x=-1, y=-1). N es el ancho del bloque actual y M es la altura del bloque actual.
Si uno o más píxeles de referencia no están disponibles, se generan uno o más píxeles de referencia de la siguiente 15 manera.
Si todos los píxeles de referencia no están disponibles, un valor constante sustituye a los valores de todos los píxeles de referencia. El valor constante es 2L-1, y el valor de L es el número de bits utilizados para representar un valor de luminancia de píxel.
20
Si los píxeles de referencia disponibles están situados a un solo lado del píxel de referencia no disponible, el valor del píxel de referencia más cercano al píxel no disponible sustituye al píxel de referencia no disponible.
Si los píxeles de referencia disponibles están situados a ambos lados del píxel de referencia no disponible, el valor 25 del píxel de referencia más cercano al píxel no disponible en una dirección predeterminada sustituye a cada píxel de referencia no disponible.
Los píxeles de referencia son filtrados de forma adaptativa en base al modo de intra predicción y el tamaño del bloque actual (S1220). El tamaño del bloque actual es el tamaño de la unidad de transformación.
30
En el modo DC, los píxeles de referencia no son filtrados. En el modo vertical y el modo horizontal, los píxeles de referencia no son filtrados. En los modos direccionales distintos de los modos vertical y horizontal, se adaptan los píxeles de referencia según el tamaño del bloque actual.
35 Si el tamaño del bloque actual es 4x4, los píxeles de referencia no son filtrados en todos los modos de intra predicción. Para el tamaño 8x8, 16x16 y 32x32, el número de modo de inter predicción en el que se filtran los píxeles de referencia aumenta a medida que el tamaño del bloque actual se hace mayor.
Se genera un bloque de predicción del bloque actual usando los píxeles de referencia según el modo de intra 40 predicción restablecido (S1230).
En el modo DC, se generan los píxeles de predicción copiando el valor promedio de los N píxeles de referencia ubicados en (x=0,... N-1, y=-1) y los M píxeles de referencia ubicados en (x=-1, y=0,...M-1). El píxel de predicción adyacente al píxel de referencia es filtrado por uno o dos píxeles de referencia adyacentes.
45
En el modo vertical, se generan los píxeles de predicción copiando el valor del correspondiente píxel de referencia vertical. Los píxeles de predicción adyacentes al píxel de referencia izquierdo son filtrados utilizando el píxel de esquina y el píxel vecino izquierdo.
50 En el modo horizontal, los píxeles de predicción son generados copiando el valor del correspondiente píxel de referencia horizontal. Los píxeles de predicción adyacentes al píxel de referencia superior son filtrados utilizando el píxel de esquina y el píxel vecino superior.
A continuación, se genera un bloque residual según el modo de intra predicción (S1400).
55
La figura 8 es un diagrama de flujo que ilustra un procedimiento de generar el bloque residual según la presente invención.
Las señales residuales codificadas son decodificadas por entropía para generar información de coeficientes 60 cuantificados (S1410). Cuando se utiliza CABAC para la codificación de entropía, la información de coeficientes incluye banderas significativas, signos de coeficientes y niveles de coeficientes. La bandera significativa indica si el correspondiente coeficiente de transformación cuantificado es cero o no es cero. El signo de coeficiente indica un
signo de coeficiente de transformación cuantificado distinto de cero, y el nivel de coeficiente indica un valor absoluto del coeficiente de transformación cuantificado distinto de cero.
Se determina un patrón de exploración inversa y se genera un bloque cuantificado de acuerdo con el patrón de 5 exploración inversa (S1420). La etapa es realizada por la unidad de exploración inversa 220 de la figura 2. Por lo tanto, se realiza la misma operación de la unidad de exploración inversa 220 para determinar el patrón de exploración inversa y para generar el bloque cuantificado.
El bloque cuantificado es cuantificado inversamente usando un parámetro de cuantificación (S1430).
10
La figura 9 es un diagrama de flujo que ilustra un procedimiento de derivar el parámetro de cuantificación según un ejemplo.
Se deriva un tamaño mínimo de la unidad de cuantificación (S1431). El tamaño mínimo de la unidad de 15 cuantificación es igual al tamaño de la LCU o al tamaño del sub-bloque de la LCU. El tamaño mínimo de la unidad de cuantificación es determinado por cada imagen. Se extrae un parámetro (cu_qp_delta_enabled_info) del PPS (conjunto de parámetros de la imagen) que especifica la profundidad del tamaño mínimo de la unidad de cuantificación. El tamaño mínimo de la unidad de cuantificación se deriva con la siguiente ecuación:
20 Log2(MinQUSize) = Log2(MaxCUSize) - cu_qp_delta_enabled_info
MinQUSize es el tamaño mínimo de la unidad de cuantificación. MaxCUSize es el tamaño de la LCU. Sólo se usa un parámetro para derivar el tamaño mínimo de la unidad de cuantificación.
25 Se restablece un parámetro de cuantificación diferencial (dQP) de la unidad de codificación actual (S1432). El dQP se restablece por cada unidad de cuantificación. Por ejemplo, si el tamaño de la unidad de codificación actual es igual o mayor que el tamaño mínimo de la unidad de cuantificación, el dQP es restablecido para la unidad de codificación actual. Si la unidad de codificación actual no contiene un dQP codificado, el dQP se pone a cero. Si la unidad de cuantificación incluye varias unidades de codificación, una primera unidad de codificación que contiene el 30 dQP y la siguiente unidad de codificación dentro de la unidad de cuantificación tienen el mismo dQP.
El dQP codificado es decodificado aritméticamente para generar una secuencia binaria (bin string), y se convierte la secuencia binaria en el dQP. La secuencia binaria comprende un indicador binario (bin) para indicar si el dQP es cero o no es cero. Cuando el dQP no es cero, la secuencia binaria comprende además un indicador binario para el 35 signo del dQP, y una secuencia binaria para indicar el valor absoluto del dQP.
Se genera un predictor de parámetro de cuantificación de la unidad de codificación actual (S1433). El predictor de parámetro de cuantificación se genera usando la misma operación de la unidad de cuantificación inversa 230 de la figura 2.
40
Si la unidad de cuantificación incluye varias unidades de codificación, se genera el predictor de parámetro de cuantificación de la primera unidad de codificación en el orden de decodificación, y se usa el predictor de parámetro de cuantificación generado para todas las unidades de codificación dentro de la unidad de cuantificación.
45 El parámetro de cuantificación es generado utilizando el dQP y el predictor del parámetro de cuantificación (S1434).
Mientras tanto, también se restablecen las matrices de cuantificación definidas por el usuario. Se recibe un conjunto de las matrices de cuantificación definidas por el usuario procedente del aparato de codificación a través del SPS (conjunto de parámetros de secuencia) o del PPS. La matriz de cuantificación definida por el usuario se restablece 50 utilizando la DPCM (modulación por codificación de impulsos diferencial) inversa. Se usa la exploración en diagonal para la DPCM. Cuando el tamaño de la matriz de cuantificación definida por el usuario es mayor que 8x8, se restablece la matriz de cuantificación definida por el usuario realizando un muestreo de subida (up-sampling) de los coeficientes de la matriz de cuantificación 8x8 recibida. El coeficiente DC de la matriz de cuantificación definida por el usuario es extraído del SPS o del PPS. Por ejemplo, si el tamaño de la matriz de cuantificación definida por el 55 usuario es de 16x16, se hace un muestreo de subida (up-sampling) de los coeficientes de la matriz de cuantificación 8x8 recibida usando un muestreo de subida de 1:4.
Se genera un bloque residual transformando inversamente el bloque cuantificado inversamente (S1440). Se determina de forma adaptativa un tipo de transformación inversa según el modo de predicción y el tamaño de la 60 unidad de transformación. El tipo de transformación inversa es la transformación de enteros basada en DCT o la transformación de enteros basada en DST. En el modo de intra predicción, si el tamaño de la unidad de transformación es menor que un tamaño predeterminado, se usan transformadas de enteros basadas en DST, de lo contrario se usan las transformadas de enteros basadas en DCT.
A continuación, se genera un bloque reconstruido agregando el bloque de predicción y el bloque residual (S1500).
La figura 10 es un diagrama de bloques que ilustra un aparato de generación de un bloque reconstruido 300 según 5 un ejemplo.
Como se muestra en la figura 10, el aparato 300 según el presente ejemplo incluye una unidad de derivación de modo de predicción 310, una unidad de determinación de tamaño de predicción 320, una unidad de generación de bloque de predicción 330, una unidad de generación de bloque residual 340 y una unidad de generación de bloque 10 reconstruido 350.
La unidad de derivación del modo de intra predicción 310 deriva el modo de intra predicción de la unidad de predicción actual. La unidad de derivación del modo de intra predicción 310 realiza el mismo procedimiento de la figura 4 para derivar el modo de intra predicción.
15
La unidad de determinación de tamaño de predicción 320 determina el tamaño del bloque actual usando el tamaño de la unidad de predicción actual y la información del tamaño de transformación. El tamaño del bloque actual es igual al tamaño de la unidad de transformación. Un bloque de predicción y un bloque residual del bloque actual tienen el mismo tamaño de la unidad de transformación. La unidad de predicción actual o un sub-bloque de la unidad 20 de predicción actual se determina como el bloque actual en base a la información de tamaño de transformación.
La unidad de generación del bloque de predicción 330 genera el bloque de predicción del bloque actual usando el modo de intra predicción. La unidad de generación del bloque de predicción 330 incluye un generador de píxeles de referencia 331, un filtro de píxeles de referencia 332 y un generador del bloque de predicción 333.
25
El generador de píxeles de referencia 331 genera píxeles de referencia si uno o más píxeles de referencia del bloque actual no están disponibles. Si todos los píxeles de referencia no están disponibles, el valor de 2L-1 sustituye a los valores de todos los píxeles de referencia. El valor de L es la cantidad de bits utilizados para representar el valor de luminancia de píxel. Si los píxeles de referencia disponibles están situados a un solo lado del píxel de 30 referencia no disponible, el valor del píxel de referencia más cercano al píxel no disponible sustituye al píxel de referencia no disponible. Si los píxeles de referencia disponibles están situados a ambos lados del píxel de referencia no disponible, el valor del píxel de referencia más cercano al píxel no disponible en una dirección predeterminada sustituye a cada píxel de referencia no disponible.
35 El filtro de píxel de referencia 332 filtra de forma adaptativa los píxeles de referencia en base al modo de intra predicción y al tamaño de la unidad de transformación.
En el modo DC, los píxeles de referencia no son filtrados. En el modo vertical y el modo horizontal, los píxeles de referencia no son filtrados. En los modos direccionales distintos de los modos vertical y horizontal, los píxeles de 40 referencia son adaptados según el tamaño del bloque actual.
Si el tamaño del bloque actual es 4x4, los píxeles de referencia no son filtrados en todos los modos de intra predicción. Para el tamaño 8x8, 16x16 y 32x32, el número de modos de inter predicción en los que se filtran los píxeles de referencia aumenta a medida que aumenta el tamaño del bloque actual. Por ejemplo, los píxeles de 45 referencia no son filtrados en el modo vertical y un número predeterminado de modo de intra predicción vecino del modo vertical. Los píxeles de referencia tampoco son filtrados en el modo horizontal y el número predeterminado de modo de intra predicción vecino del modo horizontal. El número predeterminado es uno de entre el 0 al 7 y disminuye a medida que aumenta el tamaño del bloque actual.
50 El generador de bloque de predicción 333 genera un bloque de predicción del bloque actual usando los píxeles de referencia según el modo de intra predicción.
En el modo DC, los píxeles de predicción son generados copiando el valor promedio de los N píxeles de referencia ubicados en (x=0,... N-1, y=-1) y los M píxeles de referencia ubicados en (x=-1, y=0,... M-1). El píxel de predicción 55 adyacente al píxel de referencia es filtrado por uno o dos píxeles de referencia adyacentes.
En el modo vertical, los píxeles de predicción son generados copiando el valor del píxel de referencia vertical. Los píxeles de predicción adyacentes al píxel de referencia izquierdo son filtrados usando el píxel de referencia de esquina y el píxel de referencia vecino izquierdo.
60
En el modo horizontal, los píxeles de predicción son generados copiando el valor del píxel de referencia horizontal. Los píxeles de predicción adyacentes al píxel de referencia superior son filtrados usando el píxel de referencia de esquina y el píxel de referencia vecino superior.
La unidad de generación de bloque residual 340 genera el bloque residual del bloque actual usando el modo de intra predicción. El mismo procedimiento de la figura 8 es realizado por la unidad de generación de bloque residual 340.
5 La unidad de generación de bloque reconstruido 350 agrega el bloque de predicción y el bloque residual para generar el bloque reconstruido del bloque actual.
Aunque la invención se ha mostrado y descrito con referencia a ciertas realizaciones de ejemplo de la misma, los expertos en la técnica entenderán que pueden realizarse diversos cambios en la forma y detalles sin apartarse del 10 alcance de las reivindicaciones adjuntas.
Claims (4)
- REIVINDICACIONES1. Un procedimiento de generar un bloque reconstruido, que comprende:5 derivar (S1100) un modo de intra predicción de una unidad de predicción usando tres modos de intra predicción que se determinan en base a modos de intra predicción izquierdo y superior;determinar (S1200) un tamaño de un bloque actual usando información de tamaño de transformación;generar (S1300) un bloque de predicción del bloque actual según el modo de intra predicción;generar (S1400) un bloque residual del bloque actual según el modo de intra predicción y el tamaño del bloque10 actual; ygenerar (S1500) un bloque reconstruido del bloque actual usando el bloque de predicción y el bloque residual,en el que el tamaño del bloque actual es igual o menor que un tamaño de la unidad de predicción, y los tamaños del bloque de predicción, bloque residual y bloque reconstruido son iguales a un tamaño de una unidad de transformación, y15 la información de tamaño de transformación incluye una o más banderas de división de unidad de transformación, split_tu_flags,en el que derivar un modo de intra predicción de una unidad de predicción comprende:- construir (S1120) un grupo de modos más probables, MPM, que se compone de tres modos de intra predicción usando el modo de intra predicción izquierdo y el modo de intra predicción superior;20 - determinar (S1130) si un indicador de grupo de modos, que es una bandera, indica o no el grupo de MPM;- establecer (S1140) un modo de intra predicción del grupo de MPM especificado por un índice de modo de predicción como el modo de intra predicción de la unidad de predicción si el indicador de grupo de modos indica el grupo de MPM;caracterizado por25 - determinar (S1190) el modo de intra predicción de la unidad de predicción comparando el índice de modo depredicción con los tres modos de intra predicción del grupo de MPM si el indicador de grupo de modos no indica el grupo de MPM,en el que si uno de entre el modo de intra predicción izquierdo y el modo de intra predicción superior está disponible, el grupo de MPM se compone del modo de intra predicción disponible y dos modos de intra predicción30 adicionales, y el modo DC y el modo plano son establecidos como los dos modos de intra predicción adicionales, si el modo de intra predicción disponible es un modo de intra predicción direccional.
- 2. El procedimiento de la reivindicación 1, en el que generar el bloque residual del bloque actual según el modo de intra predicción comprende:35 decodificar por entropía (S1410) las señales residuales codificadas para generar información de coeficiente cuantificado;explorar inversamente (S1420) la información de coeficiente cuantificado para generar un bloque cuantificado usando un patrón de exploración inversa que se determina según el modo de intra predicción y un tamaño del bloque actual; y40 cuantificar inversamente (S1430) y transformar inversamente (S1440) el bloque cuantificado usando un parámetro de cuantificación y una transformación inversa,en el que un tipo de la transformación inversa es determinado por el tamaño de la unidad de transformación.
- 3. El procedimiento de la reivindicación 2, en el que el patrón de exploración inversa se selecciona de entre una45 exploración en diagonal, una exploración vertical y una exploración horizontal ycuando el tamaño del bloque cuantificado es mayor que un tamaño predeterminado, se genera una pluralidad de subconjuntos y se genera el bloque cuantificado explorando inversamente la pluralidad de subconjuntos usando el patrón de exploración inversa.50 4. El procedimiento de la reivindicación 2,en el que cuando dos o más de entre un parámetro de cuantificación izquierda, un parámetro de cuantificación superior y un parámetro de cuantificación anterior están disponibles, se genera el parámetro de cuantificación como el promedio de los primeros dos parámetros de cuantificación disponibles, los cuales son determinados en un orden del parámetro de cuantificación izquierda, parámetro de cuantificación superior y parámetro de cuantificación anterior.55
- 5. El procedimiento de la reivindicación 4, en el que el parámetro de cuantificación es generado sumando el promedio de los primeros dos parámetros de cuantificación disponibles y un parámetro de cuantificación diferencial, en el que el parámetro de cuantificación diferencial es restablecido usando una secuencia binaria (bin string) que indica el valor del parámetro de cuantificación diferencial, en el que la secuencia binaria que indica el valor del60 parámetro de cuantificación diferencial incluye una secuencia binaria (bin string) para indicar un valor absoluto del parámetro de cuantificación diferencial y un indicador binario (bin) para indicar un signo del parámetro de cuantificación diferencial cuando el valor del parámetro de cuantificación diferencial no es cero.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110114609A KR20130049525A (ko) | 2011-11-04 | 2011-11-04 | 잔차 블록 복원을 위한 역변환 방법 |
KR20110114609 | 2011-11-04 | ||
PCT/CN2012/083994 WO2013064099A1 (en) | 2011-11-04 | 2012-11-02 | Method of generating reconstructed block |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2669502T3 true ES2669502T3 (es) | 2018-05-28 |
Family
ID=48191360
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES18158853T Active ES2881980T3 (es) | 2011-11-04 | 2012-11-02 | Procedimiento de derivar un modo de intra predicción |
ES12846401.3T Active ES2669502T3 (es) | 2011-11-04 | 2012-11-02 | Procedimiento de generación de un bloque reconstruido |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES18158853T Active ES2881980T3 (es) | 2011-11-04 | 2012-11-02 | Procedimiento de derivar un modo de intra predicción |
Country Status (29)
Country | Link |
---|---|
US (8) | US9014262B2 (es) |
EP (5) | EP3364373A1 (es) |
JP (6) | JP5789343B2 (es) |
KR (4) | KR20130049525A (es) |
CN (8) | CN107770535B (es) |
AU (5) | AU2012331601B2 (es) |
BR (4) | BR122020014298B1 (es) |
CA (7) | CA2913567C (es) |
CY (1) | CY1120400T1 (es) |
DK (1) | DK2774122T3 (es) |
ES (2) | ES2881980T3 (es) |
HR (1) | HRP20181016T1 (es) |
HU (2) | HUE054637T2 (es) |
IL (5) | IL231705A (es) |
IN (1) | IN2014CN03908A (es) |
LT (1) | LT2774122T (es) |
MX (7) | MX356330B (es) |
MY (6) | MY190516A (es) |
NO (1) | NO2774122T3 (es) |
PE (1) | PE20142032A1 (es) |
PL (2) | PL3346447T3 (es) |
PT (1) | PT2774122T (es) |
RS (1) | RS57282B1 (es) |
RU (5) | RU2710996C2 (es) |
SG (2) | SG10201607196UA (es) |
SI (1) | SI2774122T1 (es) |
TW (6) | TWI603610B (es) |
WO (1) | WO2013064099A1 (es) |
ZA (2) | ZA201600849B (es) |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013047805A1 (ja) | 2011-09-29 | 2013-04-04 | シャープ株式会社 | 画像復号装置、画像復号方法および画像符号化装置 |
EP3754982B1 (en) * | 2011-09-29 | 2024-05-01 | SHARP Kabushiki Kaisha | Image decoding device, image decoding method, image encoding method and image encoding device for performing bi-prediction to uni-prediction conversion |
PL3379833T3 (pl) * | 2011-10-18 | 2021-12-13 | Lg Electronics Inc. | Sposób intra-predykcji i jego urządzenie |
EP2942954B1 (en) * | 2011-10-24 | 2020-06-03 | Innotive Ltd | Image decoding apparatus |
DK2773118T3 (da) | 2011-10-24 | 2020-12-07 | Innotive Ltd | Fremgangsmåde og apparat til billedafkodning |
KR20130049522A (ko) * | 2011-11-04 | 2013-05-14 | 오수미 | 인트라 예측 블록 생성 방법 |
US10277915B2 (en) | 2011-11-07 | 2019-04-30 | Qualcomm Incorporated | Signaling quantization matrices for video coding |
KR20130050407A (ko) * | 2011-11-07 | 2013-05-16 | 오수미 | 인터 모드에서의 움직임 정보 생성 방법 |
KR102182628B1 (ko) * | 2011-12-05 | 2020-11-24 | 엘지전자 주식회사 | 인트라 예측 방법 및 장치 |
HUE063933T2 (hu) * | 2012-06-29 | 2024-02-28 | Electronics & Telecommunications Res Inst | Eljárás és eszköz képek kódolására/dekódolására |
US9380307B2 (en) * | 2012-11-19 | 2016-06-28 | Qualcomm Incorporated | Method and system for intra base layer (BL) transform in video coding |
US11470339B2 (en) | 2013-08-27 | 2022-10-11 | Qualcomm Incorporated | Residual prediction for intra block copying |
CN104219531B (zh) * | 2014-09-29 | 2018-02-06 | 北方工业大学 | 基于线状帧内块拷贝的hevc屏幕内容编码 |
JP6671339B2 (ja) | 2015-02-27 | 2020-03-25 | Kddi株式会社 | 符号化装置及び復号装置 |
US9769499B2 (en) * | 2015-08-11 | 2017-09-19 | Google Inc. | Super-transform video coding |
EP3340632B1 (en) * | 2015-08-19 | 2021-08-11 | LG Electronics Inc. | Method and device for processing video signals |
US10547854B2 (en) | 2016-05-13 | 2020-01-28 | Qualcomm Incorporated | Neighbor based signaling of intra prediction modes |
KR102447450B1 (ko) * | 2016-09-05 | 2022-09-26 | 엘지전자 주식회사 | 영상 부호화/복호화 방법 및 이를 위한 장치 |
WO2018061550A1 (ja) * | 2016-09-28 | 2018-04-05 | シャープ株式会社 | 画像復号装置及び画像符号化装置 |
US10506228B2 (en) | 2016-10-04 | 2019-12-10 | Qualcomm Incorporated | Variable number of intra modes for video coding |
US10728578B2 (en) | 2017-03-06 | 2020-07-28 | Sony Corporation | Bias minimization for successive image reconstruction based on embedded codec circuitry |
MX2019012294A (es) | 2017-04-13 | 2020-01-27 | Lg Electronics Inc | Metodo de codificacion/decodificacion de imagenes y dispositivo para el mismo. |
WO2018205914A1 (en) * | 2017-05-10 | 2018-11-15 | Mediatek Inc. | Method and apparatus of reordering motion vector prediction candidate set for video coding |
KR20230152835A (ko) | 2017-10-18 | 2023-11-03 | 삼성전자주식회사 | 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치 |
GB2567861A (en) | 2017-10-27 | 2019-05-01 | Sony Corp | Image data encoding and decoding |
US11381814B2 (en) | 2018-03-08 | 2022-07-05 | Samsung Electronics Co., Ltd. | Video decoding method and device, and video encoding method and device |
EP3777144A4 (en) * | 2018-03-30 | 2021-12-22 | Hulu, LLC | SIGNALING OF INTRA PREDICTION MODE FOR VIDEO ENCODING |
US10893285B2 (en) * | 2018-06-29 | 2021-01-12 | FG Innovation Company Limited | Device and method for coding video data based on one or more reference lines |
WO2020071871A1 (ko) * | 2018-10-05 | 2020-04-09 | 엘지전자 주식회사 | 영상 서비스 처리 방법 및 그 장치 |
CN118214860A (zh) * | 2018-10-12 | 2024-06-18 | 英迪股份有限公司 | 图像解码和编码方法、数字存储介质、发送比特流的方法 |
US11159789B2 (en) | 2018-10-24 | 2021-10-26 | City University Of Hong Kong | Generative adversarial network based intra prediction for video coding |
CN111263156B (zh) * | 2019-02-20 | 2022-03-25 | 北京达佳互联信息技术有限公司 | 视频解码方法、视频编码方法及装置 |
US11997300B2 (en) | 2019-03-11 | 2024-05-28 | Lg Electronics Inc. | Method and apparatus for video encoding/decoding using IBC mode, and method for transmitting bitstream |
CN117241014A (zh) * | 2019-06-05 | 2023-12-15 | 华为技术有限公司 | Mpm列表构建方法、色度块的帧内预测模式获取方法及装置 |
MX2022000028A (es) | 2019-06-24 | 2022-03-11 | Lg Electronics Inc | Método y aparato de codificación/decodificación de imágenes usando ajuste de tamaño de transformación máximo para bloque de croma, y método para transmitir flujo de bits. |
EP3965416B1 (en) | 2020-09-08 | 2022-08-03 | Axis AB | Method and device for intra-coding an image frame |
Family Cites Families (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7236524B2 (en) * | 2002-05-28 | 2007-06-26 | Sharp Laboratories Of America, Inc. | Methods and systems for image intra-prediction mode communication |
JP5017086B2 (ja) * | 2002-07-15 | 2012-09-05 | 日立コンシューマエレクトロニクス株式会社 | 動画像復号化方法 |
JP2006005438A (ja) * | 2004-06-15 | 2006-01-05 | Sony Corp | 画像処理装置およびその方法 |
KR100621581B1 (ko) * | 2004-07-15 | 2006-09-13 | 삼성전자주식회사 | 기초 계층을 포함하는 비트스트림을 프리디코딩,디코딩하는 방법, 및 장치 |
CN100348051C (zh) * | 2005-03-31 | 2007-11-07 | 华中科技大学 | 一种增强型帧内预测模式编码方法 |
KR100678911B1 (ko) * | 2005-07-21 | 2007-02-05 | 삼성전자주식회사 | 방향적 인트라 예측의 적용을 확장하여 비디오 신호를인코딩하고 디코딩하는 방법 및 장치 |
KR101311402B1 (ko) * | 2006-03-23 | 2013-09-25 | 삼성전자주식회사 | 영상의 부호화 방법 및 장치, 복호화 방법 및 장치 |
CN101087427B (zh) * | 2006-06-06 | 2011-04-06 | 北京大学深圳研究生院 | 一种h.264标准的帧内预测模式选择方法 |
KR100927733B1 (ko) * | 2006-09-20 | 2009-11-18 | 한국전자통신연구원 | 잔여계수의 상관성에 따라 변환기를 선택적으로 이용한부호화/복호화 장치 및 그 방법 |
US8275039B2 (en) | 2006-11-07 | 2012-09-25 | Samsung Electronics Co., Ltd. | Method of and apparatus for video encoding and decoding based on motion estimation |
TW200830881A (en) * | 2007-01-10 | 2008-07-16 | Beyond Innovation Tech Co Ltd | Method for processing images |
JP5026092B2 (ja) * | 2007-01-12 | 2012-09-12 | 三菱電機株式会社 | 動画像復号装置および動画像復号方法 |
JP2008193627A (ja) * | 2007-01-12 | 2008-08-21 | Mitsubishi Electric Corp | 画像符号化装置、画像復号装置、および画像符号化方法、画像復号方法 |
US8233537B2 (en) * | 2007-03-19 | 2012-07-31 | Texas Instruments Incorporated | Efficient implementation of H.264 4 by 4 intra prediction on a VLIW processor |
WO2008120434A1 (ja) * | 2007-03-28 | 2008-10-09 | Panasonic Corporation | 復号化回路、復号化方法、符号化回路及び符号化方法 |
US20090147849A1 (en) * | 2007-12-07 | 2009-06-11 | The Hong Kong University Of Science And Technology | Intra frame encoding using programmable graphics hardware |
KR100940444B1 (ko) * | 2007-12-18 | 2010-02-10 | 한국전자통신연구원 | 공간적 에지 검출을 이용한 인트라 예측 모드 구성 방법 |
US20090161757A1 (en) * | 2007-12-21 | 2009-06-25 | General Instrument Corporation | Method and Apparatus for Selecting a Coding Mode for a Block |
US8542730B2 (en) * | 2008-02-22 | 2013-09-24 | Qualcomm, Incorporated | Fast macroblock delta QP decision |
KR101591825B1 (ko) * | 2008-03-27 | 2016-02-18 | 엘지전자 주식회사 | 비디오 신호의 인코딩 또는 디코딩 방법 및 장치 |
US8897359B2 (en) * | 2008-06-03 | 2014-11-25 | Microsoft Corporation | Adaptive quantization for enhancement layer video coding |
US8634456B2 (en) * | 2008-10-03 | 2014-01-21 | Qualcomm Incorporated | Video coding with large macroblocks |
US8514942B2 (en) * | 2008-12-31 | 2013-08-20 | Entropic Communications, Inc. | Low-resolution video coding content extraction |
WO2010131903A2 (en) * | 2009-05-12 | 2010-11-18 | Lg Electronics Inc. | Method and apparatus for processing a video signal |
CN104822066A (zh) * | 2009-07-01 | 2015-08-05 | 汤姆森特许公司 | 用于视频编码器和解码器的方法和装置 |
CN101621692B (zh) * | 2009-07-27 | 2011-04-20 | 宁波大学 | 一种基于预测模式的h.264/avc视频信息隐藏方法 |
KR101452860B1 (ko) * | 2009-08-17 | 2014-10-23 | 삼성전자주식회사 | 영상의 부호화 방법 및 장치, 영상 복호화 방법 및 장치 |
KR101507344B1 (ko) * | 2009-08-21 | 2015-03-31 | 에스케이 텔레콤주식회사 | 가변 길이 부호를 이용한 인트라 예측모드 부호화 방법과 장치, 및 이를 위한기록 매체 |
KR20110065089A (ko) * | 2009-12-09 | 2011-06-15 | 삼성전자주식회사 | 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치 |
KR101487687B1 (ko) * | 2010-01-14 | 2015-01-29 | 삼성전자주식회사 | 큰 크기의 변환 단위를 이용한 영상 부호화, 복호화 방법 및 장치 |
US8902978B2 (en) * | 2010-05-30 | 2014-12-02 | Lg Electronics Inc. | Enhanced intra prediction mode signaling |
CN101854551B (zh) * | 2010-06-08 | 2012-08-15 | 浙江大学 | 帧内预测模式编解码方法及装置 |
US9661338B2 (en) * | 2010-07-09 | 2017-05-23 | Qualcomm Incorporated | Coding syntax elements for adaptive scans of transform coefficients for video coding |
US9378185B2 (en) * | 2010-09-30 | 2016-06-28 | Texas Instruments Incorporated | Transform and quantization architecture for video coding and decoding |
US20120230418A1 (en) * | 2011-03-08 | 2012-09-13 | Qualcomm Incorporated | Coding of transform coefficients for video coding |
WO2012122495A1 (en) | 2011-03-10 | 2012-09-13 | Huawei Technologies Co., Ltd. | Using multiple prediction sets to encode extended unified directional intra mode numbers for robustness |
US9654785B2 (en) * | 2011-06-09 | 2017-05-16 | Qualcomm Incorporated | Enhanced intra-prediction mode signaling for video coding using neighboring mode |
GB2494468B (en) | 2011-09-12 | 2014-01-15 | Canon Kk | Method and device for encoding or decoding information representing prediction modes |
BR112013014374B8 (pt) * | 2011-09-13 | 2022-08-30 | Mediatek Singapore Pte Ltd | Método e aparelho para codificação de modo intra em hevc |
CN107197309B (zh) | 2011-10-07 | 2020-02-18 | 英迪股份有限公司 | 对视频信号进行解码的方法 |
CN104935941B (zh) * | 2011-10-24 | 2018-06-19 | 英孚布瑞智有限私人贸易公司 | 对帧内预测模式进行解码的方法 |
EP2942954B1 (en) * | 2011-10-24 | 2020-06-03 | Innotive Ltd | Image decoding apparatus |
DK2773118T3 (da) * | 2011-10-24 | 2020-12-07 | Innotive Ltd | Fremgangsmåde og apparat til billedafkodning |
KR20130049522A (ko) * | 2011-11-04 | 2013-05-14 | 오수미 | 인트라 예측 블록 생성 방법 |
KR20130049524A (ko) * | 2011-11-04 | 2013-05-14 | 오수미 | 인트라 예측 블록 생성 방법 |
KR20130049523A (ko) * | 2011-11-04 | 2013-05-14 | 오수미 | 인트라 예측 블록 생성 장치 |
KR20130049526A (ko) * | 2011-11-04 | 2013-05-14 | 오수미 | 복원 블록 생성 방법 |
-
2011
- 2011-11-04 KR KR1020110114609A patent/KR20130049525A/ko not_active Application Discontinuation
-
2012
- 2012-11-02 RU RU2016142728A patent/RU2710996C2/ru active
- 2012-11-02 PL PL18158853T patent/PL3346447T3/pl unknown
- 2012-11-02 SI SI201231289T patent/SI2774122T1/en unknown
- 2012-11-02 MY MYPI2017001719A patent/MY190516A/en unknown
- 2012-11-02 EP EP18166532.4A patent/EP3364373A1/en active Pending
- 2012-11-02 TW TW105130614A patent/TWI603610B/zh active
- 2012-11-02 MX MX2016009077A patent/MX356330B/es unknown
- 2012-11-02 BR BR122020014298-7A patent/BR122020014298B1/pt active IP Right Grant
- 2012-11-02 BR BR122020014293-6A patent/BR122020014293B1/pt active IP Right Grant
- 2012-11-02 BR BR122020014282-0A patent/BR122020014282B1/pt active IP Right Grant
- 2012-11-02 CA CA2913567A patent/CA2913567C/en active Active
- 2012-11-02 PT PT128464013T patent/PT2774122T/pt unknown
- 2012-11-02 AU AU2012331601A patent/AU2012331601B2/en active Active
- 2012-11-02 HU HUE18158853A patent/HUE054637T2/hu unknown
- 2012-11-02 MY MYPI2017001718A patent/MY190515A/en unknown
- 2012-11-02 KR KR1020147009904A patent/KR20140070598A/ko not_active Application Discontinuation
- 2012-11-02 PL PL12846401T patent/PL2774122T3/pl unknown
- 2012-11-02 RU RU2016142727A patent/RU2710995C2/ru active
- 2012-11-02 BR BR122020014288-0A patent/BR122020014288B1/pt active IP Right Grant
- 2012-11-02 RU RU2016142729A patent/RU2711306C2/ru active
- 2012-11-02 ES ES18158853T patent/ES2881980T3/es active Active
- 2012-11-02 TW TW101140903A patent/TWI558170B/zh active
- 2012-11-02 MY MYPI2014000912A patent/MY170819A/en unknown
- 2012-11-02 NO NO12846401A patent/NO2774122T3/no unknown
- 2012-11-02 CA CA2849028A patent/CA2849028C/en active Active
- 2012-11-02 DK DK12846401.3T patent/DK2774122T3/en active
- 2012-11-02 CA CA3057770A patent/CA3057770C/en active Active
- 2012-11-02 CA CA2913566A patent/CA2913566C/en active Active
- 2012-11-02 KR KR1020147009907A patent/KR20140066760A/ko not_active Application Discontinuation
- 2012-11-02 ES ES12846401.3T patent/ES2669502T3/es active Active
- 2012-11-02 PE PE2014000612A patent/PE20142032A1/es not_active Application Discontinuation
- 2012-11-02 RU RU2014111828/08A patent/RU2604340C2/ru active
- 2012-11-02 HU HUE12846401A patent/HUE037565T2/hu unknown
- 2012-11-02 CA CA2976066A patent/CA2976066C/en active Active
- 2012-11-02 MX MX2014003912A patent/MX2014003912A/es active IP Right Grant
- 2012-11-02 CA CA3111640A patent/CA3111640C/en active Active
- 2012-11-02 TW TW109119897A patent/TWI715506B/zh active
- 2012-11-02 TW TW106131377A patent/TWI650001B/zh active
- 2012-11-02 MY MYPI2017001714A patent/MY190514A/en unknown
- 2012-11-02 MX MX2015015707A patent/MX340475B/es unknown
- 2012-11-02 IN IN3908CHN2014 patent/IN2014CN03908A/en unknown
- 2012-11-02 US US14/349,465 patent/US9014262B2/en active Active
- 2012-11-02 EP EP18166529.0A patent/EP3379492A1/en active Pending
- 2012-11-02 LT LTEP12846401.3T patent/LT2774122T/lt unknown
- 2012-11-02 TW TW107147143A patent/TWI684350B/zh active
- 2012-11-02 MY MYPI2017001721A patent/MY190530A/en unknown
- 2012-11-02 SG SG10201607196UA patent/SG10201607196UA/en unknown
- 2012-11-02 MY MYPI2017001720A patent/MY190529A/en unknown
- 2012-11-02 EP EP12846401.3A patent/EP2774122B1/en active Active
- 2012-11-02 WO PCT/CN2012/083994 patent/WO2013064099A1/en active Application Filing
- 2012-11-02 TW TW108146231A patent/TWI699992B/zh active
- 2012-11-02 SG SG11201400674SA patent/SG11201400674SA/en unknown
- 2012-11-02 RU RU2016142725A patent/RU2711467C2/ru active
- 2012-11-02 JP JP2014539232A patent/JP5789343B2/ja active Active
- 2012-11-02 MX MX2015015705A patent/MX340476B/es unknown
- 2012-11-02 RS RS20180662A patent/RS57282B1/sr unknown
- 2012-11-02 EP EP18158853.4A patent/EP3346447B1/en active Active
- 2012-11-02 EP EP18166480.6A patent/EP3364372A1/en active Pending
- 2012-11-02 MX MX2015015706A patent/MX340474B/es unknown
- 2012-11-02 CA CA3212893A patent/CA3212893A1/en active Pending
- 2012-11-02 KR KR1020147009908A patent/KR20140074348A/ko not_active Application Discontinuation
- 2012-11-05 CN CN201711011967.XA patent/CN107770535B/zh active Active
- 2012-11-05 CN CN201711011941.5A patent/CN107613293B/zh active Active
- 2012-11-05 CN CN201711007921.0A patent/CN107770534B/zh active Active
- 2012-11-05 CN CN201210436434.7A patent/CN103096067B/zh active Active
- 2012-11-05 CN CN201711011944.9A patent/CN107734334B/zh active Active
- 2012-11-05 CN CN201711020359.5A patent/CN107682697B/zh active Active
- 2012-11-05 CN CN201711011969.9A patent/CN107809640B/zh active Active
- 2012-11-05 CN CN201711011928.XA patent/CN107682696B/zh active Active
-
2014
- 2014-03-25 IL IL231705A patent/IL231705A/en active IP Right Grant
- 2014-03-31 MX MX2015015704A patent/MX340477B/es unknown
- 2014-03-31 MX MX2018006177A patent/MX2018006177A/es unknown
-
2015
- 2015-03-17 US US14/660,752 patent/US9503726B2/en active Active
- 2015-03-17 US US14/660,787 patent/US9344728B2/en active Active
- 2015-03-17 US US14/660,731 patent/US9497462B2/en active Active
- 2015-03-17 US US14/660,766 patent/US9497463B2/en active Active
- 2015-07-31 JP JP2015151583A patent/JP6118374B2/ja active Active
- 2015-07-31 JP JP2015151586A patent/JP6116626B2/ja active Active
- 2015-07-31 JP JP2015151585A patent/JP6116625B2/ja active Active
- 2015-07-31 JP JP2015151584A patent/JP6101316B2/ja active Active
-
2016
- 2016-02-08 ZA ZA2016/00849A patent/ZA201600849B/en unknown
- 2016-02-08 ZA ZA2016/00847A patent/ZA201600847B/en unknown
- 2016-05-17 AU AU2016203217A patent/AU2016203217B2/en active Active
- 2016-05-17 AU AU2016203216A patent/AU2016203216B2/en active Active
- 2016-05-17 AU AU2016203214A patent/AU2016203214B2/en active Active
- 2016-05-17 AU AU2016203215A patent/AU2016203215B2/en active Active
- 2016-09-07 IL IL247673A patent/IL247673B/en unknown
- 2016-09-07 IL IL247676A patent/IL247676A/en active IP Right Grant
- 2016-09-07 IL IL247675A patent/IL247675B/en unknown
- 2016-09-07 IL IL247674A patent/IL247674B/en active IP Right Grant
- 2016-10-24 US US15/332,717 patent/US10015489B2/en active Active
-
2017
- 2017-03-24 JP JP2017059314A patent/JP6367413B2/ja active Active
-
2018
- 2018-05-22 CY CY20181100538T patent/CY1120400T1/el unknown
- 2018-06-07 US US16/002,904 patent/US10623732B2/en active Active
- 2018-07-02 HR HRP20181016TT patent/HRP20181016T1/hr unknown
-
2020
- 2020-03-24 US US16/828,340 patent/US10917640B2/en active Active
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2669502T3 (es) | Procedimiento de generación de un bloque reconstruido | |
ES2673191T3 (es) | Aparato de decodificación de datos de video | |
ES2673189T3 (es) | Procedimiento de derivación de modo de intra predicción | |
ES2710234B1 (es) | Procedimiento y dispositivo para procesar señales de vídeo | |
ES2748233T3 (es) | Procedimiento de generación de un bloque cuantificado | |
ES2657908T3 (es) | Procedimiento para decodificar una imagen de croma | |
BR112014007869B1 (pt) | Método para gerar um bloco reconstruído |