MX2014003913A - Metodo para la decodificacion de datos de video. - Google Patents

Metodo para la decodificacion de datos de video.

Info

Publication number
MX2014003913A
MX2014003913A MX2014003913A MX2014003913A MX2014003913A MX 2014003913 A MX2014003913 A MX 2014003913A MX 2014003913 A MX2014003913 A MX 2014003913A MX 2014003913 A MX2014003913 A MX 2014003913A MX 2014003913 A MX2014003913 A MX 2014003913A
Authority
MX
Mexico
Prior art keywords
luma
prediction
intra
blocks
mode
Prior art date
Application number
MX2014003913A
Other languages
English (en)
Inventor
Soo Mi Oh
Moonock Yang
Original Assignee
Infobridge Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Infobridge Pte Ltd filed Critical Infobridge Pte Ltd
Publication of MX2014003913A publication Critical patent/MX2014003913A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)

Abstract

Se proporciona un aparato que deriva el modo de predicción intra de luma y el modo de predicción intra de croma, determina el tamaño de las unidades de transformación de luma y el tamaño de las unidades de transformación de croma usando la información de tamaño de la transformación de luma, filtra de forma adaptativa los pixeles de referencia de los bloques de luma actual con base en el modo de predicción intra de luma y el tamaño de las unidades de transformación de luma, genera los bloques de predicción de los bloques de luma actual y los bloques actual y genera los bloques residuales de luma y los bloques residuales de croma. Por lo tanto, la distancia de la predicción intra se vuelve corta, y la cantidad de bitios de codificación requerida para codificar los modos de predicción intra y los bloques residuales se los componentes de luma y croma se reduce y la complejidad de la codificación se reduce al codificar de forma adaptativa los modos de predicción intra y filtrar de forma adaptativa los pixeles de referencia.

Description

MÉTODO PARA LA DECODIFICACION DE DATOS DE VIDEO CAMPO TÉCNICO La presente invención se refiere a un aparato para la decodificación de datos de video y más particularmente, a un aparato para derivar el modo de predicción intra, generar bloque de predicción y los bloques residuales para recuperar los bloques reconstruidos y los componentes de luma y croma.
ANTECEDENTES DE LA INVENCIÓN En H .264 /MPEG- -AVC, una imagen se divide en macrobloques para codificar las imágenes, los macrobloques se codifican al generar los bloques usando la predicción ínter o la predicción intra. La diferencia entre los bloques originales y los bloques de predicción se transforma para generar los bloques transformados, y los bloques transformados se cuantifican usando los parámetros de cuantificación y una de una pluralidad de matrices de cuantificación predeterminadas. Los coeficientes cuantificados de los bloques cuantificados se exploran por medio de un tipo de exploración predeterminado y entonces se someten a codificación entrópica. Los parámetros de cuantificación se ajustan según los macrobloques y se codifican usando los parámetros de cuantificación previos.
Entretanto, las técnicas que usan varios tamaños de las unidades de codificación se introducen para mejorar la eficacia de la codificación. Las técnicas que aumentan el número de modos de predicción intra de luma y croma también se introducen para generar los bloques de predicción más similares a los bloques original.
Pero, la cantidad de bitios de codificación requeridos para la señalización del modo de predicción intra aumenta según aumenta el número de modos de predicción intra. También, la diferencia entre los bloques originales y los bloques de predicción es mayor cuando el tamaño de la unidad de codificación es más grande. Por consiguiente, se requieren métodos más efectivos para codificar y decodificar los datos de los componentes de luma y croma.
BREVE DESCRIPCIÓN DE LA INVENCIÓN Problema Técnico La presente invención se dirige a un aparato para derivar el modo de predicción intra, generar pixeles diferenciales, filtrar de forma adaptativa los pixeles de referencia y generar los bloques de predicción.
Solución Técnica Un aspecto de la presente invención proporciona un aparato para la decodificación de datos de video, que comprende: una unidad de decodificación del modo de predicción configurada para derivar el modo de predicción intra de luma y el modo de predicción intra de croma; una unidad de determinación del tamaño de la predicción, configurada para determinar el tamaño de las unidades de transformación de luma y el tamaño de las unidades de transformación de croma usando la información del tamaño de transformación de luma; una unidad de generación de los pixeles de referencia, configurada para generar los pixeles de referencia si al menos un pixel de referencia no está disponible; una unidad de filtración de los pixeles de referencia, configurada para filtrar de forma adaptativa los pixeles de referencia de los bloques de luma actuales con base en el modo de predicción intra de luma y el tamaño de las unidades de transformación de luma, y no filtrar los pixeles de referencia de los bloques de croma actuales; una unidad de generación de bloques de predicción, configurada para generar los bloques de predicción de los bloques de luma actuales y de los bloques actuales; y una unidad de generación de bloques residuales, configurada para generar los bloques residuales de luma y los bloques residuales de croma.
Efectos Ventajosos El aparato de acuerdo con la presente invención deriva un modo de predicción intra de luma y un modo de predicción intra de croma, determina el tamaño de las unidades de transformación de luma y el tamaño de las unidades de transformación de croma usando la información del tamaño de transformación de luma, filtra de forma adaptativa los pixeles de referencia de los bloques de luma actuales con base en el modo de predicción intra de luma y el tamaño de las unidades de transformación de luma, genera los bloques de predicción de los bloques luma y los bloques actuales y genera los bloques residuales de luma y los bloques residuales de croma. Por lo tanto, la distancia de la predicción intra se vuelve corta, y la cantidad de los bitios de codificación requeridos para codificar los modos de predicción intra y los bloques residuales de los componentes de luma y croma se reduce, y la complejidad de la codificación se reduce al codificar de forma adaptativa los modos de predicción intra y al filtrar de forma adaptativa los pixeles de referencia.
DESCRIPCIÓN DE LOS DIBUJOS La FIG. 1 es un diagrama de bloques de un aparato para la codificación de imágenes de acuerdo con la presente invención.
La FIG. 2 es un diagrama de bloques de un aparato para decodificación de imágenes de acuerdo con la presente invención.
La FIG. 3 es un diagrama de bloques de un aparato para la generación de los bloques de predicción de acuerdo con la presente invención.
La FIG. 4 es un diagrama conceptual que ilustra los modos de predicción intra de acuerdo con la presente invención.
La FIG. 5 es un diagrama de bloques de un aparato para la generación de los bloques residuales de acuerdo con la presente invención.
DESCRIPCIÓN DETALLADA DE LA INVENCIÓN A partir de aquí, se describirán en detalle varias modalidades de la presente invención con referencia a los dibujos anexos. Sin embargo, la presente invención no se limita a las modalidades ejemplificantes descritas a continuación, sino que pueden ser implementadas en varios tipos. Por lo tanto, son posibles muchas otras modificaciones y variaciones de la presente invención, y se debe entender que dentro del ámbito del concepto descrito, la presente invención puede ser practicada de otro modo distinto al que ha sido descrito específicamente.
La FIG. 1 es un diagrama de bloques de un aparato 100 para decodificación de imágenes de acuerdo con la presente invención .
Haciendo referencia a la FIG. 1, el aparato 100 para decodificación de imágenes de acuerdo con la presente invención incluye una unidad 110 de división de imágenes, una unidad 120 de predicción intra, una unidad 130 de predicción intra, una unidad 140 de transformación, una unidad 150 de cuantificación, una unidad 160 de exploración, una unidad 170 de codificación entrópica, una unidad 155 de cuantificación inversa, una unidad 145 de transformación inversa, una unidad 180 de postprocesamiento, una unidad 190 de almacenamiento de imágenes, un sustractor 192, y un sumador 194.
La unidad 110 de división de imágenes divide las imágenes en secciones, divide las secciones en las unidades de codificación más grandes (LCUs), y divide cada LCU en una o más unidades de codificación. La unidad 110 de división de imágenes determina el modo de predicción de cada unidad de codificación y el tamaño de las unidades de predicción . Las imágenes, las secciones y las unidades de codificación se componen de la matriz de muestras de luminancia (matriz de luma) y dos matrices de muestras de crominancia (matrices de croma) . Los bloques de croma tienen la mitad de la altura y la mutad del ancho de los bloques de luma. Los bloques pueden ser LCU, unidades de codificación o unidades de predicción. A partir de aquí, las unidades de codificación de luma, las unidades de predicción de luma y las unidades de transformación de luma se conocen como unidades de codificación, unidades de predicción y unidades de transformación respectivamente.
Las LCU incluyen una o más unidades de codificación. Las LCU tienen una estructura de árbol cuaternario recursivo para especificar la estructura de división de las unidades de codificación. Los parámetros para especificar el tamaño máximo y el tamaño mínimo de las unidades de codificación se incluyen en un conjunto de parámetros de la secuencia. La estructura de la división se especifica por medio de una o más banderas de codificación por división (división_cu_banderas ) . El tamaño de las unidades de codificación es de 2Nx2N.
Las unidades de codificación incluyen una o más unidades de predicción. En la predicción intra, el tamaño de las unidades de predicción es de 2Nx2N o NxN. En la predicción ínter, el tamaño de las unidades de predicción es 2Nx2N, 2NxN, Nx2N o NxN.
Las unidades de codificación incluyen una o más unidades de transformación. Las unidades de transformación tienen una estructura de árbol cuaternario recursivo para especificar la estructura de la división. La estructura de la división se especifica por una o más banderas de unidades de transformación de división (división_tu_banderas ) . Los parámetros para especificar el tamaño máximo y el tamaño mínimo de las unidades de transformación se incluyen en el conjunto de parámetros de la secuencia. Las unidades de transformación de croma tienen la mitad de la altura y la mitad del ancho de las unidades de transformación si las unidades de transformación no son de 4x4. El tamaño mínimo de las unidades de transformación de croma es de 4x4.
La unidad 120 de predicción intra determina el modo de predicción intra de las unidades de predicción actuales y genera los bloques de predicción usando el modo de predicción intra. El tamaño de los bloques de predicción es igual al tamaño de las unidades de transformación.
La unidad 130 de predicción ínter determina la información del movimiento de las unidades de predicción actuales usando una o más imágenes de referencia almacenadas en la unidad 190 de almacenamiento de imágenes, y genera los bloques de predicción de las unidades de predicción. La información del movimiento incluye uno o más índices de las imágenes de referencia y uno o más vectores de movimiento.
La unidad 140 de transformación transforma las señales residuales generadas usando los bloques originales y los bloques pronosticados para generar los bloques transformados. Las señales residuales se transforman por las unidades de transformación. El tipo de la transformación se determina por el modo de la predicción y el tamaño de las unidades de transformación. El tipo de la transformación es una transformación de enteros basada en DCT o una transformación de enteros basada en DST. En la predicción ínter, se usan transformaciones de enteros basadas en DCT. En el modo de predicción intra, si el tamaño de las unidades de transformación es menor que un tamaño predeterminado, se usan transformaciones de enteros basadas en DST, de otra manera se usan transformaciones de enteros basadas en DCT. El tamaño predeterminado es de 8x8. El tipo de la transformación de las unidades de transformación de croma es igual al tipo de la transformación de las unidades de transformación correspondientes. Por lo tanto, el tipo de la transformación para las unidades de transformación de croma es la transformación de enteros basada en DCT.
La unidad 150 de cuantificación determina los parámetros de cuantificación para cuantificar los bloques de transformación. El parámetro de cuantificación es el tamaño de paso de la cuantificación . El parámetro de cuantificación de luma se conoce como el parámetro de cuantificación . El parámetro de cuantificación se determina según las unidades de cuantificación . El tamaño de las unidades de cuantificación es uno de los tamaños permisibles de las unidades de codificación. Si el tamaño de las unidades de cuantificación es igual o mayor al tamaño mínimo de las unidades de cuantificación, las unidades de codificación se vuelven las unidades de cuantificación . Una pluralidad de unidades de codificación puede estar incluida en las unidades de cuantificación . El tamaño mínimo de las unidades de cuantificación se determina según las imágenes y el parámetro para especificar el tamaño mínimo de las unidades de cuantificación se incluye en el conjunto de parámetros de la imagen. El parámetro de cuantificación de croma se determina por el parámetro de cuantificación . La relación entre el parámetro de cuantificación y el parámetro de cuantificación de croma puede ser determinado por la imagen. Un parámetro para indicar la relación se transmite en el conjunto de parámetros de la imagen (PPS). La relación puede ser cambiada por la sección. Otros parámetros para cambiar la relación pueden ser transmitidos en el encabezamiento de la sección.
La unidad 150 de cuantificación genera un predictor del parámetro de cuantificación y genera un parámetro de cuantificación diferencial al sustraer el predictor del parámetro de cuantificación del parámetro de cuantificación . El parámetro de cuantificación diferencial se somete a codificación entrópica.
El predictor del parámetro de cuantificación se genera usando los parámetros de cuantificación de las unidades de codificación adyacentes y el parámetro de cuantificación de las unidades de codificación previas de la siguiente forma.
El parámetro de cuantificación de la izquierda, y el parámetro de cuantificación superior y un parámetro de cuantificación previo se recuperan secuencialmente en este orden. El promedio de los primeros dos parámetros de cuantificación disponibles recuperados en ese orden se establece como el predictor del parámetro de cuantificación cuando están disponibles dos o más parámetros de cuantificación, y cuando está disponible solo un parámetro de cuantificación, el parámetro de cuantificación disponible se establece como el predictor del parámetro de cuantificación . Es decir, si están disponibles los parámetros de cuantificación a la izquierda y superior, el promedio de los parámetros de cuantificación a la izquierda y superior se establece como el predictor del parámetro de cuantificación . Si está disponible solo uno de los parámetros de cuantificación a la izquierda y superior, el promedio de los parámetros de cuantificación disponibles y el parámetro de cuantificación previo se establecen como predictores del parámetro de cuantificación . Si no está disponible tanto el parámetro de cuantificación a la izquierda y superior, el parámetro de cuantificación previo se establece como el predictor del parámetro de cuantificación . El promedio se redondea .
La unidad 150 de cuantificación cuantifica los bloques transformados usando una matriz de cuantificación y el parámetro de cuantificación, para generar los bloques cuantificados . Los bloques cuantificados se proporcionan a la unidad 155 de cuantificación inversa y a la unidad 160 de exploración .
La unidad 160 de exploración determina el patrón de exploración y suministra el patrón de exploración a los bloques cuantificados . Cuando se usa CABAC para la codificación entrópica, el patrón de exploración se determina de la siguiente forma.
En la predicción intra, el patrón de exploración se determina por el modo de predicción intra y el tamaño de las unidades de transformación. El tamaño de las unidades de transformación, el tamaño de los bloques transformados y el tamaño de los bloques cuantificados son iguales. El patrón de exploración se selecciona de entre una exploración en diagonal, la exploración vertical y la exploración horizontal. Los coeficientes de transformación cuantificados de los bloques cuantificados se dividen en las banderas significativas, los signos de los coeficientes y los niveles de los coeficientes. El patrón de exploración se aplica a las banderas significativas, los signos de los coeficientes, y los niveles de los coeficientes respectivamente. Las banderas significativas indican si los coeficientes de transformación correspondiente son cero o no. El signo de los coeficientes indica el signo de los coeficientes de transformación cuantificados diferentes de cero, y el nivel de los coeficientes indica el valor absoluto de los coeficientes de transformación cuantificados distintos a cero.
Cuando el tamaño de las unidades de transformación es igual o menor a un primer tamaño, la exploración horizontal se selecciona para el modo vertical y un número predeterminado de modos de predicción intra adyacentes del modo vertical, la exploración vertical se selecciona para el modo horizontal y el número predeterminado de modos de predicción intra adyacentes del modo horizontal, y la exploración en diagonal se selecciona para los otros modos de predicción intra. Cuando tamaño de las unidades de transformación es mayor al primer tamaño, se usa la exploración en diagonal. El primer tamaño es de 8x8. El número predeterminado es de 8 si las unidades de transformación son de 8x8.
En la predicción ínter, el patrón de exploración predeterminado se usa independientemente del tamaño de las unidades de transformación. El patrón de exploración predeterminado es la exploración en diagonal.
El patrón de exploración de las unidades de transformación de croma es igual al patrón de exploración de las unidades de transformación de luma correspondientes. Por lo tanto, el patrón de exploración se selecciona entre la exploración en diagonal, y la exploración vertical y la exploración horizontal como se muestra anteriormente cuando el tamaño de las unidades de transformación de croma es de 4x4, y la exploración en diagonal se usa cuando el tamaño de las unidades de transformación de croma es mayor a 4x4.
Cuando el tamaño de las unidades de transformación es mayor a un segundo tamaño, los bloques cuantificados se dividen en un subconjunto principal y una pluralidad de subconjuntos restantes y el patrón de exploración determinado se aplica a cada subconjunto. Las banderas significativas, los signos de los coeficientes, y los niveles de los coeficientes de cada subconjunto se exploran respectivamente de acuerdo con el patrón de exploración determinado. El subconjunto principal incluye los coeficientes de DC y los subconjuntos restantes cubren las regiones distintas a la región cubierta por el subconjunto principal. El segundo tamaño es de 4x4. Los subconjuntos son bloques de 4x4 que contienen 16 coeficientes de transformación. Los subconjuntos para croma también son bloques de 4x4 que contienen 16 coeficientes de transformación .
El patrón de exploración para explorar los subconjuntos es igual al patrón de exploración para explorar los coeficientes de transformación cuantificados de cada subconjunto. Los coeficientes de transformación cuantificados de cada subconjunto se exploran en la dirección inversa. Los subconjuntos también se exploran en la dirección inversa.
Las posiciones de los coeficientes distintos a cero se codifican y se transmiten al decodificador . La última posición de los coeficientes distintos a cero especifica la posición del último coeficiente de transformación cuantificado distinto de cero dentro de las unidades de transformación. La última posición de los coeficientes distintos a cero se usa para determinar el número de subconjuntos a ser señalizados en el decodificador . La bandera del subconjunto distinto de cero se establece para los subconjuntos distintos al subconjunto principal y el último subconjunto. El último subconjunto cubre el último coeficiente distinto de cero. La bandera del subconjunto distinto de cero indica si el subconjunto contiene coeficientes distintos de cero o no.
La unidad 155 de cuantificación inversa cuantifica de forma inversa los coeficientes de transformación de los bloques cuantificados .
La unidad 145 de transformación inversa transforma de forma inversa los bloques cuantificados inversamente para generar las señales residuales del dominio espacial.
El sumador 194 genera los bloques reconstruidos al sumar los bloques residuales y los bloques de predicción.
La unidad 180 de postprocesamiento lleva a cabo el proceso de filtrado de desbloqueo para eliminar los objetos de bloqueo generados en las imágenes reconstruidas.
La unidad 190 de almacenamiento de imágenes recibe las imágenes postprocesadas desde la unidad 180 de postprocesamiento, y almacena las imágenes en unidades de imagen. Las imágenes pueden ser cuadros o campos.
La unidad 170 de codificación entrópica aplica la codificación entrópica a la información de los coeficientes unidimensionales recibida desde la unidad 160 de exploración, la información de predicción intra recibida desde la unidad 120 de predicción intra, la información del movimiento recibida desde la unidad 130 de predicción ínter, y así sucesivamente .
La FIG . 2 es un diagrama de bloques de un aparato 200 para decodificación de imágenes de acuerdo con la presente invención.
El aparato 200 para decodificación de imágenes de acuerdo con la presente invención incluye una unidad 210 de decodificación entrópica, una unidad 220 de exploración inversa, una unidad 230 de cuantificación inversa, una unidad 240 de transformación inversa, una unidad 250 de predicción intra, una unidad 260 de predicción ínter, una unidad 270 de postprocesamiento, una unidad 280 de almacenamiento de imágenes, y un sumador 290.
La unidad 210 de decodificación entrópica extrae la información de predicción intra, la información de predicción ínter y la información de los coeficientes unidimensionales de un flujo de bitios recibido. La unidad 210 de decodificación entrópica transmite la información de predicción intra a la unidad 260 de predicción ínter, la información de predicción intra a la unidad 250 de predicción intra y la información de los coeficientes a la unidad 220 de exploración inversa.
La unidad 220 de exploración inversa usa un patrón de exploración inversa para generar los bloques cuantificados . Cuando se usa CABAC para la codificación entrópica, el patrón de exploración se determina de la siguiente forma.
En la predicción intra, el patrón de exploración inversa se determina por el modo de predicción intra y el tamaño de las unidades de transformación. El patrón de exploración inversa se selecciona entre la exploración diagonal, la exploración vertical, y la exploración horizontal. El patrón de exploración inversa seleccionado se aplica a las banderas significativas, los signos de los coeficientes y los niveles de los coeficientes respectivamente, para generar los bloques cuantificados . El patrón de exploración inversa de las unidades de transformación de croma es igual al patrón de exploración de las unidades de transformación de luma correspondientes. El tamaño mínimo de las unidades de transformación de croma es de 4x4.
Cuando el tamaño de las unidades de transformación es igual o menor al primer tamaño, se selecciona la exploración horizontal para el modo vertical y el número predeterminado de modos de predicción intra adyacentes del modo vertical, el modo vertical se selecciona para el modo horizontal y el número predeterminado de modos de predicción intra adyacentes del modo horizontal, y la exploración en diagonal se selecciona para los modos de predicción intra. Cuando el tamaño de las unidades de transformación es mayor que el primer tamaño, se usa la exploración en diagonal. Cuando el tamaño de las unidades de transformación es mayor que el primer tamaño, se selecciona la exploración en diagonal para todos los modos de predicción intra. El primer tamaño es de 8x8. El número predeterminado es 8 si las unidades de transformación son de 8x8.
En la predicción intra, se usa la exploración en diagonal.
Cuando el tamaño de las unidades de transformación es mayor que el segundo tamaño, las banderas significativas, los signos los coeficientes, y los niveles de los coeficientes se exploran de forma inversa en unidades de subcon untos usando el patrón de exploración inverso determinado, para generar los subconjuntos, y los subconjuntos se exploran inversamente para generar los bloques cuantificados . El segundo tamaño es igual al tamaño de los subconjuntos. Los subconjuntos son bloques de 4x4 que incluyen 16 coeficientes de transformación. Los subconjuntos para croma son bloques de 4x4. Por lo tanto, cuando el tamaño de las unidades de transformación de croma es mayor que el segundo tamaño, los subconjuntos se generan primero y los subconjuntos se exploran de forma inversa.
El patrón de exploración inversa usado para generar cada exploración inversa es el mismo que para generar los bloques cuantificados . Las banderas significativas, los signos de los coeficientes, y los niveles de los coeficientes se exploran inversamente en la dirección inversa. Los subconjuntos también se exploran en la dirección inversa.
La última posición de los coeficientes diferentes de cero y las banderas de los subconjuntos diferentes de cero se reciben desde el codificador. El número de los subconjuntos codificados se determina de acuerdo con la última posición de los coeficientes diferentes de cero y el patrón de exploración inversa. Las banderas de los subconjuntos diferentes de cero se usan para seleccionar los subconjuntos a ser generados. El subconjunto principal y el último subconjunto se generan usando el patrón de exploración inverso.
La unidad 230 de cuantificación inversa recibe los parámetros de cuantificación diferenciales desde la unidad 210 de decodificación entrópica y genera el predictor de los parámetros de cuantificación para generar los parámetros de cuantificación de las unidades de codificación. La operación para la generación de los parámetros de cuantificación es igual a la operación de la unidad 150 de cuantificación de la FIG. 1. Entonces, los parámetros de cuantificación de las unidades de codificación actuales se generan sumando los parámetros de cuantificación diferenciales y el predictor de los parámetros de cuantificación . Si los parámetros de cuantificación diferenciales para las unidades de codificación actuales no se reciben desde el codificador, los parámetros de cuantificación se sitúan en 0.
El parámetro para indicar la relación entre el parámetro de cuantificación y el parámetro de cuantificación de croma se incluye en el PPS. Otro parámetro se incluye en el encabezamiento de la sección si se permite cambiar la relación por sección. Por lo tanto, los parámetros de cuantificación de croma se generan usando el parámetro de cuantificación y el parámetro incluido en el PPS o usando el parámetro de cuantificación y dos parámetros.
La unidad 230 de cuantificación inversa cuantifica inversamente los bloques cuantificados .
La unidad 240 de transformación inversa transforma de forma inversa los bloques con cuantificación inversa para restablecer los bloques residuales. El tipo de la transformación inversa se determina de forma adaptativa de acuerdo con el modo de predicción y el tamaño de las unidades de transformación. El tipo de la transformación inversa es la transformación de enteros basada en DCT o la transformación de de enteros basada en DST . Por ejemplo, en la predicción inter se usa la transformación de enteros basada en DCT. En el modo de predicción intra, si el tamaño de las unidades de transformación es menor a un tamaño predeterminado, se usa la transformación de enteros basada en DST. De otra forma se usa la transformación de enteros basada en DCT. El tipo de la transformación inversa de las unidades de transformación de croma es igual al tipo de la transformación inversa de las unidades de transformación correspondientes. Por lo tanto, el tipo de la transformación inversa de las unidades de transformación de croma es la transformación de enteros basada en DCT.
La unidad 250 de predicción intra restablece el modo de predicción intra de las unidades de predicción actuales usando la información de la predicción intra recibida, y genera los bloques de predicción de acuerdo con el modo de predicción intra restablecido.
La unidad 260 de predicción inter restablece la información de movimiento de las unidades de predicción actuales usando la información de predicción inter recibida, y genera los bloques de predicción usando la información del movimiento .
La unidad 270 de postprocesamiento opera de la misma forma como la unidad 180 de postprocesamiento de la FIG. 1.
La unidad 280 de almacenamiento de imágenes recibe las imágenes postprocesadas desde la unidad 270 de postprocesamiento, y almacena las imágenes en unidades de imágenes. Las imágenes pueden ser cuadros o campos.
El sumador 290 suma los bloques residuales restablecidos y los bloques de predicción para generar bloques reconstruidos .
La FIG. 3 es un diagrama de bloques de un aparato 300 para la generación de los bloques de predicción de acuerdo con la presente invención.
El aparato 300 de acuerdo con la presente invención incluye una unidad 310 de análisis sintáctico, una unidad 320 de decodificación del modo de predicción, una unidad 330 de determinación del tamaño de la predicción, una unidad 340 de generación de los pixeles de referencia, una unidad 350 de filtrado de los pixeles de referencia, y una unidad 360 de generación de bloques de predicción.
La unidad 310 de análisis sintáctico realiza el análisis sintáctico de los parámetros de predicción intra de las unidades de predicción actuales del flujo de bitios.
Los parámetros de predicción para luma son el indicador del grupo de modos y el índice del modo de predicción. El indicador del grupo de modos es una bandera que indica si el modo de predicción intra de la unidad de predicción actual pertenece a un grupo más probable (el grupo MPM) . Si la bandera es 1, la unidad de predicción intra de la unidad de predicción actual pertenece al grupo MPM. Si la bandera es 0, la unidad de predicción intra de la unidad de predicción actual pertenece al grupo de modos residuales. El grupo de modos residuales incluye todos los modos de predicción intra distintos a los modos de predicción intra del grupo MPM. El índice del modo de predicción especifica el modo de predicción intra de la unidad de predicción actual dentro del grupo especificado por el indicador del grupo de modos. El parámetro de predicción intra para croma se especifica por un índice del modo de predicción de croma.
La unidad 320 de decodificación del modo de predicción deriva el modo de predicción intra de luma y el modo de predicción intra de croma.
El modo de predicción intra de luma se deriva de la siguiente forma.
El grupo MPM se construye usando los modos de predicción intra de las unidades de predicción adyacentes. Los modos de predicción intra del grupo MPM se determinan de forma adaptativa por el modo de predicción intra a la izquierda y el modo de predicción intra superior. El modo de predicción intra a la izquierda es el modo de predicción intra de la unidad de predicción adyacente a la izquierda, y el modo de predicción intra superior es el modo de predicción intra de la unidad de predicción adyacente superior. El grupo MPM se compone de tres modos de predicción intra.
Si la unidad de predicción adyacente superior no existe el modo de predicción intra de la unidad de predicción intra adyacente a la izquierda o superior se establece como no disponible. Por ejemplo, si la unidad de predicción intra actual se ubica en el limite a la izquierda o superior de las imágenes, la unidad de predicción adyacente intra a la izquierda o superior no existe. Si la unidad adyacente a la izquierda o superior se ubica dentro de otra sección, el modo de predicción intra de la unidad adyacente a la izquierda o superior se establece como no disponible.
La FIG. 4 es un diagrama conceptual que ilustra los modos de predicción intra de acuerdo con la presente invención. Como se muestra en la FIG. 4, el número de modos de predicción intra es de 35. El modo DC el modo plano son modos de predicción intra no direccionales y los otros son modos de predicción intra direccionales.
Cuando tanto el modo de predicción intra a la izquierda y el modo de predicción intra superior están disponibles y son diferentes entre si, el modo de predicción intra a la izquierda y el modo de predicción intra superior se incluyen en el grupo MPM y se agrega un modo de predicción intra adicional al grupo MPM. Si uno de los modos de predicción intra a la izquierda y superior es un modo no direccional y el otro es un modo direccional, el otro modo no direccional se establece como el modo de predicción intra adicional. Si ambos modos de predicción intra a la izquierda y superior son modos no direccionales, el modo vertical se establece como el modo de predicción intra adicional.
Cuando solo uno del modo de predicción intra a la izquierda y el modo de producción intra superior está disponible, el modo de predicción intra disponible se incluye en el grupo MPM y se agregan dos modos de predicción intra adicionales al grupo MPM. Si el modo de predicción intra disponible es un modo no direccional, el otro modo no direccional y el modo vertical se establecen como los modos de predicción intra adicionales. Si el modo de predicción intra es un modo direccional, dos modos no direccionales se establecen como los modos de predicción intra adicionales.
Cuando tanto el modo de predicción intra a la izquierda y el modo de predicción intra superior están disponibles, el modo DC, el modo plano y el modo vertical se agregan al grupo MPM.
Si el indicador del grupo de modos indica el grupo MPM, la predicción intra del grupo MPM especificado por el índice del modo de predicción se establece como el modo de predicción intra de la unidad de predicción actual.
Si el indicador del grupo de modos no indica el grupo MPM, las tres predicciones intra del grupo MPM se ordenan en el orden numérico. Entre los tres modos de predicción intra del grupo MPM, el modo de predicción intra con el número de modo más bajo se establece como un primer candidato, el modo de predicción intra con el número de modo medio se establece como el segundo candidato, y el modo de predicción intra con el número de modo más alto se establece como el tercer candidato .
Si el índice del modo de predicción intra es igual o mayor que el primer candidato del grupo MPM, el valor del índice del modo de predicción se incrementa en uno. Si el índice del modo de predicción es igual o mayor al segundo candidato del grupo MPM, el valor del índice del modo de predicción se incrementa en uno. Si el índice del modo de predicción es igual o mayor al tercer candidato del grupo MPM, el valor del índice del modo de predicción se incrementa en uno. El valor del índice del modo de predicción final se establece como el número del modo de predicción intra de la unidad de predicción actual.
El modo de predicción intra de croma se establece como el modo de predicción intra especificado por el índice del modo de predicción de croma. Si el índice de predicción de croma especifica un modo DM, el modo de predicción intra de croma se establece igual al modo de predicción intra de luma.
La unidad 330 de determinación del tamaño de la predicción determina el tamaño de los bloques de predicción con base en la información del tamaño de la transformación que especifica el tamaño de las unidades de transformación. La información del tamaño de la transformación puede ser una o más división_tu_banderas . El tamaño de los bloques de predicción de croma también se determina con base en la información del tamaño de la transformación. El tamaño mínimo de la predicción de croma es de 4x .
Si el tamaño de las unidades de transformación es igual al tamaño de las unidades de predicción actual, el tamaño de los bloques de predicción es igual al tamaño de las unidades de predicción actual.
Si el tamaño de las unidades de transformación es menor que el tamaño de las unidades de transformación actuales, el tamaño de los bloques de predicción es igual al tamaño de las unidades de transformación. En este caso, el proceso para la generación de los bloques reconstruidos se lleva a cabo en cada subloque de las unidades de predicción actuales. Es decir, se generan los bloques de predicción y los bloques residuales de los subloques actuales y los bloques reconstruidos de cada subloque se generan sumando los bloques de predicción y los bloques residuales. Entonces, los bloques de predicción, los bloques residuales y los bloques reconstruidos de los siguientes subloques se generan en el orden de la decodificación. El modo de predicción intra restablecido se usa para generar todos los bloques de predicción de todos los subloques. Algunos pixeles de los bloques reconstruidos de los bloques actuales se usan como los pixeles de referencia de los siguientes subloques. Por lo tanto, es posible generar los bloques de predicción los cuales sean similares a los subloques originales.
La unidad 340 de generación de los pixeles de referencia genera los pixeles de referencia si uno o más pixeles de referencia de los bloques actuales no están disponibles. Los pixeles de referencia de los bloques actuales se componen de los pixeles de referencia superiores ubicados en (x=0, ..., 2N-1, y=-l), los pixeles de referencia a la izquierda ubicados en (x=l-, y=0, 2M-1) y el pixel de la esquina ubicado en (x=-l, y=-l) . N es el ancho de los bloques actuales y M es la altura de los bloques actuales. Los bloques actuales son las unidades de predicción o los subloques actuales que tienen el tamaño de las unidades de transformación. Los pixeles de referencia de los bloques de croma actuales también se generan si uno o más pixeles de referencia no están disponibles.
Si todos los pixeles de referencia no están disponibles, el valor de 2L~1 se sustituye para los valores de todos los pixeles de referencia. El valor de L es el número de bitios usados para representar el valor de pixeles de luminancxa.
Si los pixeles de referencia disponibles están ubicados solo en un lado de los pixeles de referencia no disponibles, el valor de los pixeles de referencia más cercanos a los pixeles no disponibles se sustituye para los pixeles de referencia no disponibles.
Si los pixeles de referencia se ubican en ambos lados de los pixeles de referencia no disponibles, el valor promedio de los pixeles de referencia más cercanos a los pixeles no disponibles en cada lado o el valor de los pixeles de referencia más cercanos a los pixeles no disponibles en una dirección predeterminada se sustituye para cada pixel de referencia no disponible.
La unidad 350 de filtración de los pixeles de referencia filtra de forma adaptativa los pixeles de referencia de los bloques de luma actuales con base en el modo de predicción intra y el tamaño de las unidades de transformación.
En el modo DC, los pixeles de referencia no se filtran. En el modo vertical y el modo horizontal, los pixeles de transferencia no se filtran. En los modos direccionales distintos a los modos vertical y horizontal, los pixeles de referencia se de forma adaptativa de acuerdo con el tamaño de los bloques actuales.
Si el tamaño actual es de 4x4, los pixeles de referencia no se filtran en todos los modos de predicción intra. Para el tamaño de 8x8, 16x16 y 32x32, el número del modo de predicción intra cuando los pixeles de referencia se filtran aumenta según el tamaño de los bloques de predicción actuales se vuelve más grande. Por ejemplo, los pixeles de referencia no se filtran en el modo vertical y en un número predeterminado de modos de predicción intra adyacentes del modo vertical. Los pixeles de referencia tampoco se filtran en el modo horizontal y en el número predeterminado de modos de predicción intra adyacentes del modo horizontal. El número predeterminado está entre 0 a 7 y se reduce según el tamaño de los bloques actuales es mayor.
La unidad 350 de filtración de los pixeles de referencia no filtra los pixeles de referencia de los bloques de croma actuales independientemente del modo de predicción intra y el tamaño de las unidades de transformación.
La unidad 360 de generación de los bloques de predicción genera los bloques de predicción de los bloques actuales usando los pixeles de referencia de acuerdo con el modo de predicción intra reestablecido .
En el modo DC, los pixeles de los bloques de predicción se generan promediando los N pixeles de referencia ubicados en (x=0, ...,N-1, y=-l) y los M pixeles de referencia ubicados en (x=-l, y=0, .., -l) . Los pixeles de predicción de luma adyacentes a los pixeles de referencia se filtran por uno o dos pixeles de referencia adyacentes. Los pixeles de predicción de croma no se filtran.
En el modo vertical, los pixeles de predicción se generan copiando los pixeles de referencia superiores correspondientes. Los pixeles de predicción de luma adyacentes a los pixeles de referencia a la izquierda se filtran por los pixeles de referencia adyacentes y los pixeles de referencia de la esquina. Los pixeles de predicción de croma no se filtran .
En el modo horizontal los pixeles de predicción se qeneran copiando los pixeles de referencia correspondientes a la izquierda. Los pixeles de predicción de luma adyacentes a los pixeles de referencia superiores se filtran por los pixeles de referencia adyacentes a la izquierda y el pixel de referencia de la esquina. Los pixeles de predicción de croma no se filtran.
La FIG. 5 es un diagrama de bloques de un aparato 400 para la generación de bloques residuales de acuerdo con la presente invención.
El aparato 400 de acuerdo con la presente invención incluye una unidad 410 de decodificación entrópica, una unidad 420 de exploración inversa, una unidad 430 de cuantificación inversa y una unidad de transformación inversa.
La unidad 410 de decodificación entrópica decodifica las señales residuales codificadas para generar los componentes de los coeficientes cuantificados . Cuando se usa CABAC para la codificación entrópica, los componentes de los coeficientes incluyen las banderas significativas, los signos de los coeficientes y los niveles de los coeficientes. Las banderas significativas indican si los coeficientes de transformación cuantificados correspondientes son cero o no. El signo de los coeficientes indica el signo de los coeficientes de transformación diferentes de cero, y el nivel de los coeficientes indica el valor absoluto de los coeficientes de transformación diferentes de cero.
La unidad 420 de exploración inversa determina el patrón de exploración inversa y genera los bloques cuantificados usando el patrón de exploración inversa. La operación de la unidad 420 de exploración inversa es igual a la unidad 220 de exploración inversa de la FIG. 2.
La unidad 430 de cuantificación inversa deriva los parámetros de cuantificación, selecciona una matriz de cuantificación inversa y cuantifica inversamente los bloques cuantificados para generar los bloques transformados.
Los parámetros de cuantificación se derivan de la siguiente forma.
Se determina el tamaño mínimo de las unidades de cuantificación . El tamaño mínimo de las unidades de cuantificación se determina por imagen usando un indicador del tamaño de QU incluido en el PPS. El indicador del tamaño de QU especifica el tamaño mínimo de las unidades de cuantificación .
Los parámetros de cuantificación diferenciales (dQP) de las unidades de codificación actuales se generan. Los dQP se generan por unidad de cuantificación por medio de decodificación entrópica. Si las unidades de codificación actuales no contienen una dQP codificada, la dQP se ajusta a cero. Si las unidades de cuantificación incluyen varias unidades de codificación, las dQP se incluyen en el flujo de bitios de la primera unidad de codificación que contiene coeficientes diferentes de cero.
Se genera el predictor de los parámetros de cuantificación de las unidades de codificación actuales. El predictor de los parámetros de cuantificación se genera usando la misma operación de la unidad 230 de cuantificación inversa de la FIG. 2. Si la unidad de cuantificación incluye múltiples unidades de cuantificación, el predictor de los parámetros de cuantificación de la primera unidad de codificación se genera en el orden de la descodificación, y el predictor de los parámetros de cuantificación generados se comparte por todas las unidades de codificación dentro de la unidad de cuantificación.
Los parámetros de cuantificación se generan usando las dQP y el predictor de los parámetros de cuantificación .
Los parámetros de cuantificación de croma se generan usando los parámetros de cuantificación de luma y un parámetro de compensación que indica la relación entre los parámetros de cuantificación de luma y los parámetros de cuantificación de croma. El parámetro de compensación se incluye en el PPS. El parámetro de compensación se cambia por un parámetro de ajuste de la compensación incluido en el encabezamiento de la sección si se permite cambiar la compensación por sección.
La unidad 440 de transformación inversa transforma inversamente los bloquees transformados para generar los bloques residuales. El tipo de la transformación inversa se determina de forma adaptativa de acuerdo con el modo de predicción y el tamaño de las unidades de transformación. El tipo de la transformación inversa es la transformación de enteros basada en DCT o la transformación de enteros basada en DST . En el modo de predicción intra, si el tamaño de las unidades de transformación de luma es menor a 8x8, la transformación entera basada en DST suministrada se aplica a los bloques de croma transformados.
Los bloques de predicción y los bloques residuales se suman para generar los bloquees reconstruidos. El tamaño de los bloques reconstruidos es igual al tamaño de las unidades de transformación, por lo tanto, si el tamaño de las unidades de transformación es mayor que las unidades de transformación, el primer bloque reconstruido se genera y entonces el siguiente bloque reconstruido en el orden de la decodificación se genera al generar los bloques de predicción y los bloques residuales hasta que se genera el último bloque reconstruido. El modo de predicción intra de las unidades de predicción actuales se usa para generar los bloques de predicción y los bloques residuales.
Aunque la invención ha sido mostrada y descrita con referencia a ciertas modalidades ejemplificantes de la misma, aquellas personas experimentadas en la técnica entenderán que se pueden hacer varios cambios en la forma y los detalles de la misma, sin apartarse del espíritu y el ámbito de la invención como se define por las reivindicaciones anexas.

Claims (9)

REIVINDICACIONES
1. Un aparato para decodificación de datos de video, que comprende : una unidad de decodificación del modo de predicción, configurada para derivar el modo de predicción intra de luma y el modo de predicción intra de croma; una unidad de determinación del tamaño de la predicción, configurada para determinar el tamaño de las unidades de transformación de luma y el tamaño de las unidades de transformación de croma; una unidad para la generación de pixeles de referencia, configurada para generar los pixeles de referencia si al menos un pixeles de referencia no está disponible; una unidad de filtrado de los pixeles de referencia, configurada para filtrar de forma adaptativa los pixeles de referencia de los bloques de luma actuales con base en el modo de predicción intra de luma y el tamaño de las unidades de transformación de luma, y no filtrar los pixeles de los bloques de croma actuales; una unidad de generación de los bloques de predicción configurada para generar los bloques de predicción de los bloques de predicción de luma actuales y los bloques de predicción actuales; y una unidad de generación de los bloques residuales, configurada para generar los bloques residuales de luma y los bloques residuales de croma, caracterizado porque, el modo de predicción intra de luma se deriva usando un grupo MPM que incluye tres modos de predicción intra, un indicador del grupo de modos, y el índice del modo de predicción de luma.
2. El aparato de la reivindicación 1, caracterizado porque, si el modo de predicción intra de croma es el modo DM, el modo de predicción intra de croma se establece igual al modo de predicción intra de luma.
3. El aparato de la reivindicación 1, caracterizado porque, cuando solo uno está disponible del modo de predicción intra a la izquierda y el modo de predicción intra superior de una unidad de predicción de luma actual, el grupo MPM incluye el modo de predicción intra disponible y dos modos de predicción intra adicionales determinados por el modo de predicción intra disponible.
4. El aparato de la reivindicación 3, caracterizado porque, cuando el modo de predicción intra disponible es un modo no direccional, el otro modo no direccional y un modo vertical se establecen como los dos modos de predicción intra adicionales .
5. El aparato de la reivindicación 1, caracterizado porque, si una unidad de predicción de croma actual es mayor que la unidad de transformación de croma, se usa el modo de predicción intra de croma para generar los bloques de predicción de croma de otros bloques dentro de las unidades de predicción de croma.
6. El aparato de la reivindicación 1, caracterizado porque, cuando el indicador del grupo de modos no indica el grupo MPM, el modo de predicción de intra de luma se determina comparando el índice del modo de predicción de luma con tres modos de predicción intra del grupo MPM en secuencia.
7. El aparato de la reivindicación 6, caracterizado porque, el número de modo más bajo de los tres modos de predicción intra se compara primero, y el número de modo más alto de los tres modos de predicción intra se compara al último .
8. El aparato de la reivindicación 7, caracterizado porque, si el índice del modo de predicción de luma es mayor o igual al modo de predicción intra del grupo MPM, el índice del modo de predicción de luma se incrementa en uno.
9. El método de la reivindicación 3, caracterizado porque, el modo de predicción intra disponible es un modo direccional, el modo DC y el modo plano se establecen los dos modos de predicción intra adicionales. RESUMEN DE LA INVENCIÓN Se proporciona un aparato que deriva el modo de predicción intra de luma y el modo de predicción intra de croma, determina el tamaño de las unidades de transformación de luma y el tamaño de las unidades de transformación de croma usando la información de tamaño de la transformación de luma, filtra de forma adaptativa los pixeles de referencia de los bloques de luma actual con base en el modo de predicción intra de luma y el tamaño de las unidades de transformación de luma, genera los bloques de predicción de los bloques de luma actual y los bloques actual y genera los bloques residuales de luma y los bloques residuales de croma. Por lo tanto, la distancia de la predicción intra se vuelve corta, y la cantidad de bitios de codificación requerida para codificar los modos de predicción intra y los bloques residuales se los componentes de luma y croma se reduce y la complejidad de la codificación se reduce al codificar de forma adaptativa los modos de predicción intra y filtrar de forma adaptativa los pixeles de referencia .
MX2014003913A 2011-11-04 2012-11-02 Metodo para la decodificacion de datos de video. MX2014003913A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20110114610A KR20130049526A (ko) 2011-11-04 2011-11-04 복원 블록 생성 방법
PCT/CN2012/083997 WO2013064100A1 (en) 2011-11-04 2012-11-02 Apparatus of decoding video data

Publications (1)

Publication Number Publication Date
MX2014003913A true MX2014003913A (es) 2014-07-30

Family

ID=48191361

Family Applications (5)

Application Number Title Priority Date Filing Date
MX2015014371A MX340887B (es) 2011-11-04 2012-11-02 Método para la decodificación de datos de video.
MX2014003913A MX2014003913A (es) 2011-11-04 2012-11-02 Metodo para la decodificacion de datos de video.
MX2015014369A MX340889B (es) 2011-11-04 2014-03-31 Método para la decodificación de datos de video.
MX2015014368A MX340890B (es) 2011-11-04 2014-03-31 Método para la decodificación de datos de video.
MX2015014370A MX340888B (es) 2011-11-04 2014-03-31 Método para la decodificación de datos de video.

Family Applications Before (1)

Application Number Title Priority Date Filing Date
MX2015014371A MX340887B (es) 2011-11-04 2012-11-02 Método para la decodificación de datos de video.

Family Applications After (3)

Application Number Title Priority Date Filing Date
MX2015014369A MX340889B (es) 2011-11-04 2014-03-31 Método para la decodificación de datos de video.
MX2015014368A MX340890B (es) 2011-11-04 2014-03-31 Método para la decodificación de datos de video.
MX2015014370A MX340888B (es) 2011-11-04 2014-03-31 Método para la decodificación de datos de video.

Country Status (28)

Country Link
US (11) US9374582B2 (es)
EP (5) EP3361729A1 (es)
JP (12) JP5914680B2 (es)
KR (4) KR20130049526A (es)
CN (9) CN107396110B (es)
AU (1) AU2012331602B2 (es)
BR (5) BR122020015318B1 (es)
CA (3) CA3087455A1 (es)
CY (1) CY1120280T1 (es)
DK (1) DK2774374T3 (es)
ES (1) ES2673191T3 (es)
HR (1) HRP20180969T1 (es)
HU (1) HUE037568T2 (es)
IL (5) IL231706A (es)
IN (1) IN2014CN03912A (es)
LT (1) LT2774374T (es)
MX (5) MX340887B (es)
MY (6) MY192963A (es)
NO (1) NO2774374T3 (es)
PH (4) PH12016502083A1 (es)
PL (1) PL2774374T4 (es)
PT (1) PT2774374T (es)
RS (1) RS57240B1 (es)
RU (5) RU2760932C2 (es)
SG (2) SG10201607022WA (es)
SI (1) SI2774374T1 (es)
TW (9) TWI608726B (es)
WO (1) WO2013064100A1 (es)

Families Citing this family (90)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102209697B1 (ko) * 2010-12-08 2021-02-01 엘지전자 주식회사 인트라 예측 방법과 이를 이용한 부호화 장치 및 복호화 장치
KR101953384B1 (ko) 2011-03-06 2019-03-04 엘지전자 주식회사 휘도 샘플을 이용한 색차 블록의 화면 내 예측 방법 및 이러한 방법을 사용하는 장치
PT2887670T (pt) * 2011-06-28 2017-09-18 Samsung Electronics Co Ltd Método e aparelho para codificar vídeo e método e aparelho para descodificar vídeo, acompanhados com intra previsão
CN107257471B (zh) 2011-10-18 2020-04-14 Lg 电子株式会社 帧内预测方法及其设备
KR20130049522A (ko) 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
KR20130049526A (ko) * 2011-11-04 2013-05-14 오수미 복원 블록 생성 방법
KR20130049525A (ko) * 2011-11-04 2013-05-14 오수미 잔차 블록 복원을 위한 역변환 방법
KR20130050407A (ko) 2011-11-07 2013-05-16 오수미 인터 모드에서의 움직임 정보 생성 방법
GB2556489B (en) * 2011-11-08 2018-11-21 Kt Corp A method of decoding a video signal using a merge mode
KR20130058524A (ko) * 2011-11-25 2013-06-04 오수미 색차 인트라 예측 블록 생성 방법
JP6064581B2 (ja) * 2011-12-21 2017-01-25 株式会社Jvcケンウッド 動画像復号装置、動画像復号方法及び動画像復号プログラム、並びに受信装置、受信方法及び受信プログラム
JP6064580B2 (ja) * 2011-12-21 2017-01-25 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、並びに送信装置、送信方法及び送信プログラム
US9210438B2 (en) 2012-01-20 2015-12-08 Sony Corporation Logical intra mode naming in HEVC video coding
CN107707919B (zh) 2012-04-16 2021-06-01 韩国电子通信研究院 用于解码视频信号的方法
PL2869557T3 (pl) 2012-06-29 2024-02-19 Electronics And Telecommunications Research Institute Sposób i urządzenie do kodowania/dekodowania obrazów
CN104604225B (zh) 2012-09-10 2018-01-26 太阳专利托管公司 图像编码方法、图像解码方法、图像编码装置、图像解码装置及图像编码解码装置
US9288507B2 (en) * 2013-06-21 2016-03-15 Qualcomm Incorporated More accurate advanced residual prediction (ARP) for texture coding
US20150016516A1 (en) * 2013-07-15 2015-01-15 Samsung Electronics Co., Ltd. Method for intra prediction improvements for oblique modes in video coding
KR101530774B1 (ko) 2013-09-30 2015-06-22 연세대학교 산학협력단 영상 부호화 및 복호화 방법, 장치 및 시스템
US10397607B2 (en) * 2013-11-01 2019-08-27 Qualcomm Incorporated Color residual prediction for video coding
KR101530782B1 (ko) * 2013-12-03 2015-06-22 연세대학교 산학협력단 영상 부호화 및 복호화 방법, 장치 및 시스템
JP6401309B2 (ja) * 2014-06-19 2018-10-10 ヴィド スケール インコーポレイテッド 3次元ベースのカラーマッピングでのモデルパラメータ最適化のためのシステムおよび方法
JP6540707B2 (ja) * 2014-10-03 2019-07-10 日本電気株式会社 映像復号装置、映像復号方法及び映像復号プログラム
US10057578B2 (en) * 2014-10-07 2018-08-21 Qualcomm Incorporated QP derivation and offset for adaptive color transform in video coding
US9838662B2 (en) * 2014-10-10 2017-12-05 Qualcomm Incorporated Harmonization of cross-component prediction and adaptive color transform in video coding
WO2016072777A1 (ko) * 2014-11-06 2016-05-12 삼성전자 주식회사 인트라 결합 예측 부호화, 복호화 방법 및 장치
US10306229B2 (en) * 2015-01-26 2019-05-28 Qualcomm Incorporated Enhanced multiple transforms for prediction residual
WO2017007989A1 (en) * 2015-07-08 2017-01-12 Vid Scale, Inc. Enhanced chroma coding using cross plane filtering
CN114615493A (zh) 2016-03-24 2022-06-10 英迪股份有限公司 视频解码方法、视频编码方法和可读记录介质
CN108886613B (zh) 2016-03-28 2022-04-19 株式会社Kt 用于处理视频信号的方法和装置
CN109314790A (zh) * 2016-05-23 2019-02-05 佳稳电子有限公司 影像处理方法、利用其的影像解码及编码方法
KR20180040319A (ko) * 2016-10-12 2018-04-20 가온미디어 주식회사 영상 처리 방법, 그를 이용한 영상 복호화 및 부호화 방법
CN109076210B (zh) * 2016-05-28 2021-04-09 联发科技股份有限公司 视频编解码方法和装置
CN116527887A (zh) * 2016-08-01 2023-08-01 韩国电子通信研究院 图像编码/解码方法和设备以及存储比特流的记录介质
WO2018026148A1 (ko) * 2016-08-01 2018-02-08 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
CN114339225B (zh) * 2016-09-05 2024-06-04 罗斯德尔动力有限责任公司 图像编码和解码装置及比特流存储介质和发送装置
WO2018056603A1 (ko) * 2016-09-22 2018-03-29 엘지전자 주식회사 영상 코딩 시스템에서 조도 보상 기반 인터 예측 방법 및 장치
KR102531386B1 (ko) 2016-10-04 2023-05-12 주식회사 비원영상기술연구소 영상 데이터 부호화/복호화 방법 및 장치
US20190253624A1 (en) * 2017-07-17 2019-08-15 Ki Baek Kim Image data encoding/decoding method and apparatus
KR102422506B1 (ko) * 2016-11-29 2022-07-20 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
EP3552393B1 (en) * 2016-12-23 2023-03-08 Huawei Technologies Co., Ltd. An encoding apparatus for signaling an extension directional intra-prediction mode within a set of directional intra-prediction modes
CN117336472A (zh) * 2017-01-02 2024-01-02 Lx 半导体科技有限公司 图像编码/解码设备以及发送图像数据的设备
CN110999296B (zh) * 2017-06-21 2022-09-02 Vid拓展公司 解码360度视频的方法、设备及计算机可读介质
CN117354499A (zh) 2017-07-06 2024-01-05 Lx 半导体科技有限公司 图像编码/解码方法、发送方法和数字存储介质
CN111919442B (zh) 2018-03-31 2023-04-04 华为技术有限公司 一种图像块的帧内模式预测方法及装置
CN116527899A (zh) * 2018-04-01 2023-08-01 Oppo广东移动通信有限公司 使用帧内预测的图像编码/解码方法和装置
KR102392128B1 (ko) 2018-04-01 2022-04-28 엘지전자 주식회사 양자화 파라미터 도출에 기초한 영상 코딩 장치 및 방법
EP3794820A1 (en) * 2018-05-17 2021-03-24 Telefonaktiebolaget LM Ericsson (publ) Deblocking of implicit transform unit boundaries
EP3800883A4 (en) 2018-06-25 2021-07-07 Guangdong Oppo Mobile Telecommunications Corp., Ltd. INTRAFRAME PREDICTION PROCESS AND DEVICE
EP3815371A1 (en) * 2018-06-29 2021-05-05 InterDigital VC Holdings, Inc. Method and apparatus for video encoding and decoding based on adaptive coefficient group
CN112567741A (zh) * 2018-07-13 2021-03-26 Lg电子株式会社 图像编码***中使用帧内预测信息的图像解码方法和装置
CN110166785B (zh) * 2018-07-25 2022-09-13 腾讯科技(深圳)有限公司 帧内预测方法和装置、以及存储介质和电子装置
CN118158441A (zh) * 2018-08-28 2024-06-07 华为技术有限公司 图像划分方法及装置
KR102591086B1 (ko) * 2018-09-02 2023-10-17 엘지전자 주식회사 영상 신호를 처리하기 위한 방법 및 장치
WO2020048463A1 (en) * 2018-09-03 2020-03-12 Huawei Technologies Co., Ltd. Method and apparatus for intra prediction
KR102543468B1 (ko) * 2018-10-04 2023-06-14 엘지전자 주식회사 Cclm에 기반한 인트라 예측 방법 및 그 장치
US11095885B2 (en) * 2018-10-05 2021-08-17 Tencent America LLC Mode list generation for multi-line intra prediction
US10893286B2 (en) * 2018-10-09 2021-01-12 Tencent America LLC Methods and apparatus for low-complexity MTS
WO2020111981A1 (en) * 2018-11-26 2020-06-04 Huawei Technologies Co., Ltd. Apparatus and method for chrominance quantization parameter derivation
CN113228636A (zh) 2018-12-12 2021-08-06 韦勒斯标准与技术协会公司 使用当前图片参考的视频信号处理方法和设备
CN116744008A (zh) 2018-12-15 2023-09-12 华为技术有限公司 图像重建方法和装置
US11323748B2 (en) 2018-12-19 2022-05-03 Qualcomm Incorporated Tree-based transform unit (TU) partition for video coding
WO2020125795A1 (en) * 2018-12-22 2020-06-25 Beijing Bytedance Network Technology Co., Ltd. Indication of two step cross-component prediction mode
CN113475063B (zh) * 2018-12-27 2024-04-09 英迪股份有限公司 图像编码/解码方法和装置
US20220116636A1 (en) * 2018-12-28 2022-04-14 Electronics And Telecommunications Research Institute Video encoding/decoding method, device, and recording medium storing bitstream therein
WO2020139060A1 (ko) 2018-12-28 2020-07-02 김기백 인트라 예측 기반의 영상 부호화/복호화 방법 및 장치
JP7247349B2 (ja) * 2018-12-31 2023-03-28 ホアウェイ・テクノロジーズ・カンパニー・リミテッド イントラ予測のための成分間線形モデリングの方法、装置、デコーダ、エンコーダ、およびプログラム
EP3697094A1 (en) 2019-02-13 2020-08-19 InterDigital VC Holdings, Inc. Intra prediction mode extension
WO2020171681A1 (ko) * 2019-02-19 2020-08-27 주식회사 윌러스표준기술연구소 인트라 예측 기반 비디오 신호 처리 방법 및 장치
KR102459939B1 (ko) * 2019-03-23 2022-10-27 엘지전자 주식회사 Mpm 리스트를 이용하는 인트라 예측에 기반한 영상 코딩 방법 및 그 장치
CN113785588B (zh) 2019-04-12 2023-11-24 北京字节跳动网络技术有限公司 基于矩阵的帧内预测的色度编解码模式确定
KR20210148321A (ko) * 2019-04-27 2021-12-07 주식회사 윌러스표준기술연구소 인트라 예측 기반 비디오 신호 처리 방법 및 장치
JP2022535726A (ja) 2019-05-31 2022-08-10 北京字節跳動網絡技術有限公司 行列ベースイントラ予測における制約されたアップサンプリングプロセス
JP2022534320A (ja) 2019-06-05 2022-07-28 北京字節跳動網絡技術有限公司 マトリクスベースイントラ予測のためのコンテキスト決定
KR20220005591A (ko) 2019-06-24 2022-01-13 엘지전자 주식회사 크로마 블록의 최대 변환 크기 설정을 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
WO2020262960A1 (ko) * 2019-06-24 2020-12-30 엘지전자 주식회사 크로마 성분 부호화 블록의 최대 변환 크기 제한을 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
KR20240036119A (ko) 2019-06-28 2024-03-19 엘지전자 주식회사 크로마 양자화 파라미터 테이블을 사용하는 영상 디코딩 방법 및 그 장치
JP7328373B2 (ja) * 2019-06-28 2023-08-16 バイトダンス インコーポレイテッド スクリーンコンテンツ符号化におけるクロマイントラモードの導出
JP7293487B2 (ja) * 2019-07-05 2023-06-19 エルジー エレクトロニクス インコーポレイティド クロマ成分の映像デコード方法及びその装置
KR20220029586A (ko) 2019-07-05 2022-03-08 엘지전자 주식회사 크로마 양자화 파라미터 데이터를 코딩하는 영상 디코딩 방법 및 그 장치
CN113796078A (zh) 2019-07-24 2021-12-14 华为技术有限公司 帧内预测模式相关的编码器、解码器及对应方法
AU2020322553A1 (en) * 2019-08-01 2022-02-24 Huawei Technologies Co., Ltd. An encoder, a decoder and corresponding methods of chroma intra mode derivation
KR20220153124A (ko) 2019-08-14 2022-11-17 엘지전자 주식회사 루마 샘플 위치를 참조하여 크로마 블록의 예측 모드를 결정하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
CN114762349B (zh) 2019-11-05 2024-04-12 Lg电子株式会社 用于图像/视频编译的高级别语法信令方法和装置
WO2021091254A1 (ko) 2019-11-05 2021-05-14 엘지전자 주식회사 영상/비디오 코딩 시스템에서 픽처 헤더에서 슬라이스 타입에 관한 정보를 시그널링하는 방법 및 장치
US11553208B2 (en) * 2019-11-27 2023-01-10 Tencent America LLC Method and system of video coding using a subset of available intra prediction modes for multiple reference lines
CN111787334B (zh) * 2020-05-29 2021-09-14 浙江大华技术股份有限公司 一种用于帧内预测的滤波方法,滤波器及装置
JPWO2022009838A1 (es) 2020-07-08 2022-01-13
CN112702602A (zh) * 2020-12-04 2021-04-23 浙江智慧视频安防创新中心有限公司 一种视频编解码的方法及存储介质
US20230069984A1 (en) * 2021-08-24 2023-03-09 Tencent America LLC Hardware friendly design for intra mode coding

Family Cites Families (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62214787A (ja) * 1986-03-14 1987-09-21 Canon Inc 予測符号化方式
US5260783A (en) * 1991-02-21 1993-11-09 Gte Laboratories Incorporated Layered DCT video coder for packet switched ATM networks
US7263127B1 (en) * 1998-04-02 2007-08-28 Intel Corporation Method and apparatus for simplifying frame-based motion estimation
US6614442B1 (en) * 2000-06-26 2003-09-02 S3 Graphics Co., Ltd. Macroblock tiling format for motion compensation
US6856701B2 (en) * 2001-09-14 2005-02-15 Nokia Corporation Method and system for context-based adaptive binary arithmetic coding
US6728315B2 (en) * 2002-07-24 2004-04-27 Apple Computer, Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
CN1232126C (zh) * 2002-09-30 2005-12-14 三星电子株式会社 图像编码方法和装置以及图像解码方法和装置
JP4617644B2 (ja) * 2003-07-18 2011-01-26 ソニー株式会社 符号化装置及び方法
US20050024487A1 (en) * 2003-07-31 2005-02-03 William Chen Video codec system with real-time complexity adaptation and region-of-interest coding
US7324595B2 (en) * 2003-09-22 2008-01-29 Lsi Logic Corporation Method and/or apparatus for reducing the complexity of non-reference frame encoding using selective reconstruction
KR20050061762A (ko) * 2003-12-18 2005-06-23 학교법인 대양학원 부호화 모드 결정방법, 움직임 추정방법 및 부호화 장치
US7912122B2 (en) * 2004-01-20 2011-03-22 Panasonic Corporation Picture coding method, picture decoding method, picture coding apparatus, picture decoding apparatus
CN100359953C (zh) * 2004-09-08 2008-01-02 华为技术有限公司 基于帧内编码的图像色度预测方法
CN101159874A (zh) * 2004-09-08 2008-04-09 华为技术有限公司 基于帧内编码的图像色度预测方法
CN100461867C (zh) * 2004-12-02 2009-02-11 中国科学院计算技术研究所 一种帧内图像预测编码方法
CN1777283A (zh) * 2004-12-31 2006-05-24 上海广电(集团)有限公司 一种基于微块的视频信号编/解码方法
CN100426868C (zh) * 2005-01-25 2008-10-15 中国科学院计算技术研究所 一种帧内图像的亮度预测编码方法
US7373009B2 (en) * 2005-02-09 2008-05-13 Lsi Corporation Method and apparatus for efficient transmission and decoding of quantization matrices
EP1879401A4 (en) * 2005-05-03 2012-03-28 Panasonic Corp DYNAMIC IMAGE ENCODING METHOD, DYNAMIC IMAGE DECODING METHOD, AND DEVICE THEREFOR
JP2007089035A (ja) * 2005-09-26 2007-04-05 Toshiba Corp 動画像符号化方法、装置及びプログラム
US20070274385A1 (en) * 2006-05-26 2007-11-29 Zhongli He Method of increasing coding efficiency and reducing power consumption by on-line scene change detection while encoding inter-frame
RU2427976C2 (ru) * 2006-07-28 2011-08-27 Кабусики Кайся Тосиба Способ и устройство для кодирования и декодирования изображения
KR100899730B1 (ko) * 2006-10-20 2009-05-27 삼성전자주식회사 영상 인코더 및 디코더에서의 색차 신호 보간 방법
CN100566427C (zh) * 2007-07-31 2009-12-02 北京大学 用于视频编码的帧内预测编码最佳模式的选取方法及装置
CN100586188C (zh) * 2007-09-30 2010-01-27 暨南大学 一种基于avs的帧内预测计算的硬件实现方法
BRPI0818444A2 (pt) * 2007-10-12 2016-10-11 Qualcomm Inc codificação adaptativa de informação de cabeçalho de bloco de vídeo
CN100586184C (zh) * 2008-01-24 2010-01-27 北京工业大学 帧内预测方法
TWI375472B (en) 2008-02-04 2012-10-21 Ind Tech Res Inst Intra prediction method for luma block of video
CN101247525B (zh) * 2008-03-24 2010-06-02 北京邮电大学 一种提高图像帧内编码速率的方法
US8199814B2 (en) * 2008-04-15 2012-06-12 Sony Corporation Estimation of I frame average rate quantization parameter (QP) in a group of pictures (GOP)
US8199823B2 (en) * 2008-04-15 2012-06-12 Sony Corporation Estimation of B frame average rate quantization parameter (QP) in a group of pictures (GOP)
CN101605255B (zh) * 2008-06-12 2011-05-04 华为技术有限公司 一种视频编解码的方法及装置
KR101501568B1 (ko) * 2008-07-04 2015-03-12 에스케이 텔레콤주식회사 영상 부호화 및 복호화 장치 및, 방법
CN101677406B (zh) 2008-09-19 2011-04-20 华为技术有限公司 一种视频编解码的方法及装置
CN101447082B (zh) * 2008-12-05 2010-12-01 华中科技大学 一种运动目标实时检测方法
TWI387317B (zh) * 2008-12-11 2013-02-21 Novatek Microelectronics Corp 產生重新取樣參考畫面之裝置及其方法與影像解碼系統
CN101494792A (zh) * 2009-01-15 2009-07-29 北京航空航天大学 一种基于边缘特征的h.264/avc帧内预测方法
TWI498003B (zh) * 2009-02-02 2015-08-21 Thomson Licensing 代表一序列圖像的碼式資料連流之解碼方法和一序列圖像之寫碼方法及碼式圖像資料結構
KR101888679B1 (ko) * 2009-08-12 2018-08-16 톰슨 라이센싱 개선된 인트라 색차 엔코딩 및 디코딩을 위한 방법 및 장치
JP5746182B2 (ja) * 2009-09-14 2015-07-08 トムソン ライセンシングThomson Licensing イントラ予測モードの効率的なビデオ符号化及び復号化方法及び装置
CN102550026B (zh) 2009-10-05 2016-08-03 汤姆森特许公司 视频编码和解码中色度分量的预测像素的自适应滤波的方法和装置
JP5964755B2 (ja) * 2009-12-31 2016-08-03 トムソン ライセンシングThomson Licensing ビデオ符号化および復号化用の適応型結合前処理および後処理フィルタのための方法および装置
CN101794451A (zh) * 2010-03-12 2010-08-04 上海交通大学 基于运动轨迹的跟踪方法
KR20110113561A (ko) 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
CN101888549B (zh) * 2010-06-18 2012-05-02 浙江大学 基于变换域信息的帧内4×4预测模式选择方法
KR20120012385A (ko) 2010-07-31 2012-02-09 오수미 인트라 예측 부호화 장치
KR101373814B1 (ko) 2010-07-31 2014-03-18 엠앤케이홀딩스 주식회사 예측 블록 생성 장치
US9420294B2 (en) * 2011-02-23 2016-08-16 Lg Electronics Inc. Intra-prediction method using filtering, and apparatus using the method
US9667987B2 (en) 2011-03-10 2017-05-30 Futurewei Technologies, Inc. Using multiple prediction sets to encode extended unified directional intra mode numbers for robustness
US9654785B2 (en) 2011-06-09 2017-05-16 Qualcomm Incorporated Enhanced intra-prediction mode signaling for video coding using neighboring mode
US9854275B2 (en) * 2011-06-25 2017-12-26 Qualcomm Incorporated Quantization in video coding
PT2887670T (pt) 2011-06-28 2017-09-18 Samsung Electronics Co Ltd Método e aparelho para codificar vídeo e método e aparelho para descodificar vídeo, acompanhados com intra previsão
BR112013003521B1 (pt) * 2011-07-18 2022-03-03 Sun Patent Trust Método de codificação de imagem, método de decodificação de imagem, aparelho de codificação de imagem, aparelho de decodificação de imagem e aparelho de codificação e decodificação de imagem
GB2494468B (en) * 2011-09-12 2014-01-15 Canon Kk Method and device for encoding or decoding information representing prediction modes
CN106851300B (zh) 2011-09-13 2020-05-26 寰发股份有限公司 基于最可能模式的帧内预测模式的方法及装置
WO2013051903A1 (en) * 2011-10-07 2013-04-11 Pantech Co., Ltd. Methods and apparatuses of encoding/decoding intra prediction mode using candidate intra prediction modes
GB2555287B (en) * 2011-10-17 2018-11-07 Kt Corp Video decoding method using transform method selected from a transform method set
CN105338346B (zh) 2011-10-24 2018-11-13 英孚布瑞智有限私人贸易公司 用于图像解码的方法和装置
ES2816567T3 (es) 2011-10-24 2021-04-05 Innotive Ltd Método y aparato para decodificar modo de intra-predicción
KR20130049526A (ko) * 2011-11-04 2013-05-14 오수미 복원 블록 생성 방법
GB2556489B (en) * 2011-11-08 2018-11-21 Kt Corp A method of decoding a video signal using a merge mode
KR20130058524A (ko) * 2011-11-25 2013-06-04 오수미 색차 인트라 예측 블록 생성 방법
KR102061201B1 (ko) * 2012-04-12 2019-12-31 주식회사 골드피크이노베이션즈 블록 정보에 따른 변환 방법 및 이러한 방법을 사용하는 장치
US9615086B2 (en) * 2013-02-06 2017-04-04 Research & Business Foundation Sungkyunkwan University Method and apparatus for intra prediction

Also Published As

Publication number Publication date
JP6155360B2 (ja) 2017-06-28
TW202205862A (zh) 2022-02-01
AU2012331602A1 (en) 2014-04-17
PH12016502083B1 (en) 2017-03-22
EP3361730A1 (en) 2018-08-15
CN103096066A (zh) 2013-05-08
CN107770530B (zh) 2020-07-10
JP6155361B2 (ja) 2017-06-28
TWI809520B (zh) 2023-07-21
CN107770532A (zh) 2018-03-06
IL231706A0 (en) 2014-05-28
BR112014007597A2 (pt) 2017-04-11
US20210160503A1 (en) 2021-05-27
EP2774374A1 (en) 2014-09-10
DK2774374T3 (en) 2018-05-28
CN107770533B (zh) 2020-06-12
BR122020015319B1 (pt) 2023-12-12
PH12016502085B1 (en) 2017-03-22
RU2016139140A3 (es) 2019-11-22
HRP20180969T1 (hr) 2018-08-10
EP3331244A1 (en) 2018-06-06
EP2774374B1 (en) 2018-04-04
CA2999131C (en) 2020-09-01
HUE037568T2 (hu) 2018-09-28
US9374582B2 (en) 2016-06-21
CN107770530A (zh) 2018-03-06
RU2016139141A3 (es) 2019-11-29
IL250027B (en) 2019-03-31
PT2774374T (pt) 2018-06-07
US10045027B2 (en) 2018-08-07
IL250031B (en) 2019-03-31
TWI575934B (zh) 2017-03-21
TW202106028A (zh) 2021-02-01
MY192963A (en) 2022-09-19
CN107396110A (zh) 2017-11-24
BR122020015318A8 (pt) 2022-10-04
US9813712B2 (en) 2017-11-07
US20180063532A1 (en) 2018-03-01
CN107483939B (zh) 2020-06-26
JP7445793B2 (ja) 2024-03-07
US20160261867A1 (en) 2016-09-08
CA3087455A1 (en) 2013-05-10
BR122020015319A2 (es) 2020-10-13
TWI809519B (zh) 2023-07-21
RU2016139142A3 (es) 2019-11-29
RU2016139139A (es) 2021-05-20
US20210160502A1 (en) 2021-05-27
JP2023036986A (ja) 2023-03-14
JP2024045761A (ja) 2024-04-02
JP6932177B2 (ja) 2021-09-08
CN107770532B (zh) 2020-06-12
CA2849173A1 (en) 2013-05-10
RU2760932C2 (ru) 2021-12-01
BR122020015319A8 (pt) 2022-10-04
CN107770531A (zh) 2018-03-06
SG10201607022WA (en) 2016-10-28
TWI709334B (zh) 2020-11-01
MY192965A (en) 2022-09-20
PH12016502084B1 (en) 2017-03-22
US11470318B2 (en) 2022-10-11
US11582452B2 (en) 2023-02-14
SG11201400675VA (en) 2014-04-28
BR122020015314A8 (pt) 2022-10-04
PH12016502083A1 (en) 2017-03-22
AU2012331602B2 (en) 2015-08-27
MX340888B (es) 2016-07-29
CN107483937A (zh) 2017-12-15
MX340890B (es) 2016-07-29
EP2774374A4 (en) 2015-06-24
TW201803346A (zh) 2018-01-16
PL2774374T3 (pl) 2018-09-28
MY192962A (en) 2022-09-19
TW202205861A (zh) 2022-02-01
EP3361729A1 (en) 2018-08-15
JP2016146664A (ja) 2016-08-12
MX340889B (es) 2016-07-29
BR122020015318B1 (pt) 2023-12-12
CN103096066B (zh) 2017-09-05
BR122020015314B1 (pt) 2023-12-12
RU2711182C2 (ru) 2020-01-15
JP2014534752A (ja) 2014-12-18
MY192964A (en) 2022-09-20
RU2711176C2 (ru) 2020-01-15
IN2014CN03912A (es) 2015-10-16
ES2673191T3 (es) 2018-06-20
RU2016139141A (ru) 2018-04-25
CA2999131A1 (en) 2013-05-10
PL2774374T4 (pl) 2018-11-30
TW202341742A (zh) 2023-10-16
IL250029B (en) 2019-03-31
JP2016146663A (ja) 2016-08-12
JP2022000950A (ja) 2022-01-04
JP2020058060A (ja) 2020-04-09
TWI661715B (zh) 2019-06-01
JP2023029552A (ja) 2023-03-03
US20210168367A1 (en) 2021-06-03
BR122020015315A8 (pt) 2022-10-04
EP3361731A1 (en) 2018-08-15
JP7210664B2 (ja) 2023-01-23
CN107396110B (zh) 2021-05-07
IL250030A0 (en) 2017-03-30
RU2014111827A (ru) 2015-12-10
PH12016502084A1 (en) 2017-03-22
CN107770533A (zh) 2018-03-06
TWI608726B (zh) 2017-12-11
NO2774374T3 (es) 2018-09-01
RU2761086C2 (ru) 2021-12-03
CN107483938B (zh) 2020-12-25
US11671597B2 (en) 2023-06-06
US20160261866A1 (en) 2016-09-08
TWI621349B (zh) 2018-04-11
BR122020015315B1 (pt) 2023-12-12
TW201320764A (zh) 2013-05-16
RS57240B1 (sr) 2018-07-31
JP2018174570A (ja) 2018-11-08
RU2601445C2 (ru) 2016-11-10
RU2016139140A (ru) 2018-12-13
US11438592B2 (en) 2022-09-06
MY192966A (en) 2022-09-20
CY1120280T1 (el) 2019-07-10
JP2024051047A (ja) 2024-04-10
IL250030B (en) 2019-03-31
KR20140090156A (ko) 2014-07-16
JP6636573B2 (ja) 2020-01-29
KR20130049526A (ko) 2013-05-14
US10404983B2 (en) 2019-09-03
US9866836B2 (en) 2018-01-09
PH12016502082A1 (en) 2017-03-22
US20190387229A1 (en) 2019-12-19
JP2016146665A (ja) 2016-08-12
CN107483939A (zh) 2017-12-15
LT2774374T (lt) 2018-06-11
US20180309994A1 (en) 2018-10-25
CA2849173C (en) 2018-05-15
JP5914680B2 (ja) 2016-05-11
WO2013064100A1 (en) 2013-05-10
MY167772A (en) 2018-09-24
CN107483937B (zh) 2020-08-07
IL250027A0 (en) 2017-03-30
JP6157676B2 (ja) 2017-07-05
PH12016502085A1 (en) 2017-03-22
TW201817240A (zh) 2018-05-01
JP7500786B2 (ja) 2024-06-17
BR122020015315A2 (es) 2020-10-13
BR122020015314A2 (es) 2020-10-13
CN107770531B (zh) 2020-06-12
US10939109B2 (en) 2021-03-02
KR20140090155A (ko) 2014-07-16
TW201709728A (zh) 2017-03-01
US20230276049A1 (en) 2023-08-31
US20140314142A1 (en) 2014-10-23
JP6360947B2 (ja) 2018-07-18
SI2774374T1 (en) 2018-06-29
TWI745106B (zh) 2021-11-01
MX340887B (es) 2016-07-29
PH12016502082B1 (en) 2017-03-22
US20210160501A1 (en) 2021-05-27
BR122020015318A2 (es) 2020-10-13
TW201931858A (zh) 2019-08-01
RU2016139142A (ru) 2018-04-05
CN107483938A (zh) 2017-12-15
BR112014007597B1 (pt) 2022-05-17
IL231706A (en) 2017-02-28
KR20140090154A (ko) 2014-07-16
JP2017175661A (ja) 2017-09-28
IL250029A0 (en) 2017-03-30
IL250031A0 (en) 2017-03-30

Similar Documents

Publication Publication Date Title
JP7210664B2 (ja) 映像符号化方法、映像復号化方法
KR101472975B1 (ko) Amvp 모드에서의 영상 복호화 방법
KR101484057B1 (ko) 영상 복호화 장치
EP3579554A1 (en) Method of generating a quantized block
EP3361727A1 (en) Method and apparatus of deriving intra prediction mode
AU2015261609A1 (en) Apparatus of decoding video data

Legal Events

Date Code Title Description
FG Grant or registration