ES2383519T3 - Filtrado adaptativo basado en la intensidad del límite - Google Patents

Filtrado adaptativo basado en la intensidad del límite Download PDF

Info

Publication number
ES2383519T3
ES2383519T3 ES02798822T ES02798822T ES2383519T3 ES 2383519 T3 ES2383519 T3 ES 2383519T3 ES 02798822 T ES02798822 T ES 02798822T ES 02798822 T ES02798822 T ES 02798822T ES 2383519 T3 ES2383519 T3 ES 2383519T3
Authority
ES
Spain
Prior art keywords
limit
intensity
adjacent zones
value
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES02798822T
Other languages
English (en)
Inventor
Shijun Sun
Shawmin Lei
Hiroyuki Katata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=25493827&utm_source=***_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2383519(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Sharp Corp filed Critical Sharp Corp
Application granted granted Critical
Publication of ES2383519T3 publication Critical patent/ES2383519T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/15Data rate or code amount at the encoder output by monitoring actual compressed data size at the memory before deciding storage at the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/197Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including determination of the initial value of an encoding parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/43Hardware specially adapted for motion estimation or compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/58Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • H04N19/615Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding using motion compensated temporal filtering [MCTF]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Color Television Systems (AREA)
  • Control Of Motors That Do Not Use Commutators (AREA)
  • Networks Using Active Elements (AREA)

Abstract

Método para la codificación y/o descodificación de una imagen (12), que comprende: (a) identificar zonas adyacentes (44, 46; j, k) en dicha imagen; (b) examinar parámetros de codificación (MV; 55) para dichas zonas adyacentes; y (c) llevar a cabo el filtrado selectivo sobre, por lo menos, una parte (28) de la zona próxima al límite (26) entre dichas zonas adyacentes, en base a dichos parámetros de codificación, en el que para dos zonas adyacentes en lados opuestos de dicho límite, que han sido sometidas a predicción de movimiento, el filtrado selectivo depende de las situaciones siguientes: i) cuando, por lo menos, una de las zonas adyacentes contiene un coeficiente de transformada distinto de cero, ii) cuando las zonas adyacentes no contienen ningún coeficiente de transformada distinto de cero y se estima que las imágenes de referencia (42, 48; R (j), R (k) ) utilizadas para la predicción del movimiento para las respectivas zonas adyacentes son diferentes, o bien la diferencia absoluta de dichos vectores de movimiento para las zonas adyacentes respectivas en una dirección vertical y/o la diferencia absoluta de dichos vectores de movimiento para las zonas adyacentes respectivas en una dirección horizontal, es mayor o igual que un umbral, y iii) cuando las zonas adyacentes no contienen ningún coeficiente de transformada distinto de cero y se estima que dichas imágenes de referencia (42, 48; R (j), R (k) ) son la misma, y la diferencia absoluta de dichos vectores de movimiento para las zonas adyacentes respectivas en una dirección vertical y la diferencia absoluta de dichos vectores de movimiento para las zonas adyacentes respectivas en una dirección horizontal son menores que dicho umbral, en el que se determina una intensidad del límite (Bs) para dicho límite, y la intensidad del filtrado selectivo se incrementa cuando lo hace la intensidad del límite, en el que la intensidad del límite se determina como: en la situación i), la intensidad del límite (Bs) se fija a un primer valor (206); en la situación ii), la intensidad del límite (Bs) se fija a un segundo valor (210), menor que el primer valor (206); y en la situación iii), la intensidad del límite (Bs) se fija a un tercer valor (212), menor que el segundo valor (210), caracterizado porque en el caso de la situación i), la intensidad del límite (Bs) se fija al mismo primer valor (206) cuando una y cuando ambas zonas adyacentes contienen coeficientes de transformada distintos de cero, y en el que la intensidad del límite (Bs) es independiente del parámetro de cuantificación.

Description

Filtrado adaptativo basado en la intensidad del límite
ANTECEDENTES DE LA INVENCIÓN
La codificación de video con compensación de movimiento basada en bloques se utiliza en muchos estándares de compresión de video, tales como por ejemplo H.261, H.263, H.263+, MPEG-1, MPEG-2 y H26L. La compensación de movimiento basada en bloques codifica píxeles de un modo bloque a bloque utilizando técnicas de compresión de imagen. Normalmente, las técnicas de compresión de imagen utilizan técnicas de compresión con pérdida, que dan lugar a artefactos visuales en las imágenes descodificadas, denominados generalmente artefactos de imagen. Un tipo de artefactos de imagen son los artefactos de bloque, que se producen a lo largo de los límites de bloques en una imagen reconstruida. El origen principal de los artefactos de bloque está en la cuantificación gruesa de coeficientes de transformada utilizados para codificar los bloques.
Las imágenes reconstruidas son las imágenes producidas después de que los bloques son sometidos a transformada inversa y descodificados. Pueden utilizarse técnicas de filtrado de imagen para reducir los artefactos en las imágenes reconstruidas. La norma general para estas técnicas de filtrado de imagen es que los bordes de la imagen deben mantenerse mientras que el resto de la imagen debe suavizarse. Como filtro de imagen puede utilizarse un filtro de paso bajo, y sus características deberán seleccionarse en base a las características de un píxel
o conjunto de píxeles concreto, en torno a los bordes de la imagen.
Los píxeles de imagen no correlacionados que se extienden a través de los límites del bloque de imagen son filtrados específicamente para reducir los artefactos de bloque. Aunque las técnicas de filtrado reducen los artefactos de bloque, sin embargo desgraciadamente estas técnicas de filtrado pueden introducir artefactos de pérdida de definición en la imagen. Por ejemplo, si entre bloques adyacentes existen pocos o ningún artefacto de bloque, entonces el filtrado de paso bajo incorpora innecesariamente pérdida de definición en la imagen, desaprovechando al mismo tiempo recursos de procesamiento.
El aparato JP 2001-204029 da a conocer un método y un aparato de detección de ruido y un aparato de descodificación de imágenes, en los que se detectan artefactos de bloque. El ruido de codificación se detecta en función de distribuciones de componentes de frecuencia de coeficientes de transformación ortogonales de bloques que solapan.
El documento "Loop Filter with Skip-Mode" ("filtro de bucle con modo omisión"), de Shijun Sun et al., ITU -Telecommunications Standardization Sector Study Group 16, 27 de marzo de 2001, describe que los vectores de movimiento, las imágenes de referencia y los coeficientes DC de dos bloques adyacentes son comparados, y se omite el filtrado de atenuación de bloques en caso de que no sean diferentes entre dos bloques adyacentes los respectivos vectores de movimiento, las imágenes de referencia y los coeficientes DC.
El documento "Report of the Ad Hoc committee on loop filter improvement (VCEG-NO8)" ("informe del comité ad hoc sobre mejoras del filtro de bucle (VCEG-NO8)") de Peter List, ITU Telecommunications Standardization Sector Study Group 16, VCEG-NO8, páginas 1 a 3, XP002347724, describe una técnica para configurar intensidades de filtrado para cada bloque y decidir si ha de llevarse a cabo filtrado o no, en base a los valores de intensidad de filtrado de bloques de luminancia a ambos lados de un límite, o a diferencias absolutas entre componentes de vectores de movimiento o a diferencias en las imágenes de referencia.
El documento "H.26L Test Model Long term number 8.4 (TML-8.4) Software, module: loop-filter.c" ("soporte lógico del modelo de prueba a largo plazo H.26L 8.4, módulo: loop-filter.c"), de Peter List et al., ITU Telecommunications Standardization Sector Study Group 16, VCEG, páginas 1 a 3, XP00244062, da a conocer parámetros de configuración "strength Q", "strength P", "VccDif" y "strong", entre los cuales "strength Q" y "strength P" se establecen para bloques, y "VecDif" y "strong" se establecen para un límite, con objeto de controlar la intensidad de filtrado de un límite de bloque.
De acuerdo con un aspecto de la presente invención, se da a conocer un método para la codificación y/o descodificación de una imagen, que comprende: (a) identificar zonas adyacentes de dicha imagen; (b) examinar parámetros de codificación para dichas zonas adyacentes; y (c) llevar a cabo un filtrado selectivo sobre, por lo menos, una parte de la zona próxima al límite entre dichas zonas adyacentes, en base a dichos parámetros de codificación, en el que para dos zonas adyacentes en lados opuestos de dicho límite sometidas a predicción de movimiento, el filtrado selectivo depende de las situaciones siguientes,
i) cuando, por lo menos, una de las zonas adyacentes contiene un coeficiente de transformada distinto de cero,
ii) cuando las zonas adyacentes no contienen ningún coeficiente de transformada distinto de cero y se estima que las imágenes de referencia (42, 48; R(j), R(k)) utilizadas para la predicción del movimiento para las respectivas zonas adyacentes son diferentes, o bien la diferencia absoluta de dichos vectores de movimiento para las zonas adyacentes respectivas en una dirección vertical y/o la diferencia absoluta de dichos vectores de movimiento para las zonas adyacentes respectivas en una dirección horizontal, es mayor o igual que un umbral, y
iii) cuando las zonas adyacentes no contienen ningún coeficiente de transformada distinto de cero y se estima que dichas imágenes de referencia (42, 48; R(j), R(k)) son la misma, y la diferencia absoluta de dichos vectores de movimiento para las zonas adyacentes respectivas en una dirección vertical y la diferencia absoluta de dichos vectores de movimiento para las zonas adyacentes respectivas en una dirección horizontal son menores que dicho umbral, en el que
se determina una intensidad del límite (Bs, boundary strength) para dicho límite, y la intensidad del filtrado selectivo se incrementa cuando lo hace la intensidad del límite, en donde la intensidad del límite se determina como:
en la situación i), la intensidad del límite (Bs) se fija a un primer valor (206);
en la situación ii), la intensidad del límite (Bs) se fija a un segundo valor (210), menor que el primer valor (206); y
en la situación iii), la intensidad del límite (Bs) se fija a un tercer valor (212), menor que el segundo valor (210), en el que
en el caso de la situación i), la intensidad del límite (Bs) se fija al mismo primer valor (206) cuando una y cuando las dos zonas adyacentes contienen coeficientes de transformada distintos de cero, y en el que la intensidad del límite (Bs) es independiente del parámetro de cuantificación.
De acuerdo con otro aspecto de la presente invención, se da a conocer un codificador para codificar una imagen, que comprende: (a) un procesador adaptado para identificar zonas adyacentes en dicha imagen; (b) examinando dicho procesador parámetros de codificación para dichas zonas adyacentes; y (c) filtrando selectivamente dicho procesador, por lo menos, una parte de la zona próxima al límite entre dichas zonas adyacentes, en base a dichos parámetros de codificación, en el que para dos zonas adyacentes en lados opuestos de dicho límite, en las que se realiza predicción de movimiento, el filtrado selectivo depende de las siguientes situaciones:
i) cuando, por lo menos, una de las zonas adyacentes contiene un coeficiente de transformada distinto de cero,
ii) cuando las zonas adyacentes no contienen ningún coeficiente de transformada distinto de cero y se estima que las imágenes de referencia (42, 48; R(j), R(k)) utilizadas para la predicción del movimiento para las respectivas zonas adyacentes son diferentes, o bien la diferencia absoluta de dichos vectores de movimiento para las zonas adyacentes respectivas en una dirección vertical y/o la diferencia absoluta de dichos vectores de movimiento para las zonas adyacentes respectivas en una dirección horizontal, es mayor o igual que un umbral, y
iii) cuando las zonas adyacentes no contienen ningún coeficiente de transformada distinto de cero y se estima que dichas imágenes de referencia (42, 48; R(j), R(k)) son la misma, y la diferencia absoluta de dichos vectores de movimiento para las zonas adyacentes respectivas en una dirección vertical y la diferencia absoluta de dichos vectores de movimiento para las zonas adyacentes respectivas en una dirección horizontal son menores que dicho umbral, en el que
se determina una intensidad del límite (Bs) para dicho límite, y la intensidad del filtrado selectivo se incrementa cuando lo hace la intensidad del límite (Bs), en donde la intensidad del límite se determina como:
en la situación i), la intensidad del límite (Bs) se fija a un primer valor (206);
en la situación ii), la intensidad del límite (Bs) se fija a un segundo valor (210), menor que el primer valor (206); y
en la situación iii), la intensidad del límite (Bs) se fija a un tercer valor (212), menor que el segundo valor (210), en el que
en el caso de la situación i), la intensidad del límite (Bs) se fija al mismo primer valor (206) cuando una y cuando las dos zonas adyacentes contienen coeficientes de transformada distintos de cero, y en el que la intensidad del límite (Bs) es independiente del parámetro de cuantificación.
De acuerdo con otro aspecto de la presente invención, se da a conocer un descodificador para descodificar una imagen, que comprende: (a) un procesador adaptado para identificar zonas adyacentes en dicha imagen; (b) examinando dicho procesador parámetros de codificación para dichas zonas adyacentes; y (c) filtrando selectivamente dicho procesador, por lo menos, una parte de la zona próxima al límite entre dichas zonas adyacentes, en base a dichos parámetros de codificación, en el que para dos zonas adyacentes en lados opuestos de dicho límite, en las que se realiza predicción de movimiento, el filtrado selectivo depende de las siguientes situaciones:
i) cuando, por lo menos, una de las zonas adyacentes contiene un coeficiente de transformada distinto de cero,
ii) cuando las zonas adyacentes no contienen ningún coeficiente de transformada distinto de cero y se estima que las imágenes de referencia (42, 48; R(j), R(k)) utilizadas para la predicción del movimiento para las respectivas zonas adyacentes son diferentes, o bien la diferencia absoluta de dichos vectores de movimiento para las zonas adyacentes respectivas en una dirección vertical y/o la diferencia absoluta de dichos vectores de movimiento para las zonas adyacentes respectivas en una dirección horizontal, es mayor o igual que un umbral, y
iii) cuando las zonas adyacentes no contienen ningún coeficiente de transformada distinto de cero y se estima que dichas imágenes de referencia (42, 48; R(j), R(k)) son la misma, y la diferencia absoluta de dichos vectores de movimiento para las zonas adyacentes respectivas en una dirección vertical y la diferencia absoluta de dichos vectores de movimiento para las zonas adyacentes respectivas en una dirección horizontal son menores que dicho umbral, en el que
se determina una intensidad del límite (Bs) para dicho límite, y la intensidad del filtrado selectivo se incrementa cuando lo hace la intensidad del límite (Bs), en donde la intensidad del límite (Bs) se determina como:
en la situación i), la intensidad del límite (Bs) se fija a un primer valor (206);
en la situación ii), la intensidad del límite (Bs) se fija a un segundo valor (210), menor que el primer valor (206); y
en la situación iii), la intensidad del límite (Bs) se fija a un tercer valor (212), menor que el segundo valor (210), en el que en el caso de la situación i), la intensidad del límite (Bs) se fija al mismo primer valor (206) cuando una y cuando las dos zonas adyacentes contienen coeficientes de transformada distintos de cero, y
en el que la intensidad del límite (Bs) es independiente del parámetro de cuantificación.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
La figura 1 es un diagrama que muestra cómo se omite selectivamente el filtrado de atenuación de bloques, en función de similitudes entre bloques de imagen adyacentes.
La figura 2 es un diagrama que muestra dos bloques de imagen adyacentes que tienen vectores de movimiento similares.
La figura 3 es un diagrama que muestra cómo se identifican los coeficientes de transformada para uno de los bloques de imagen.
La figura 4 es un diagrama que muestra cómo se comparan los coeficientes de transformada de residuos entre dos bloques de imagen adyacentes.
La figura 5 es un diagrama de bloques que muestra cómo la imagen de video es codificada y descodificada.
La figura 6 es un diagrama de bloques que muestra cómo se omite selectivamente en un códec el filtrado de atenuación de bloques.
La figura 7 es una representación de un bloque existente, en base a una técnica de filtrado de imagen.
La figura 8 es un diagrama de bloques que muestra una técnica para determinar los límites a filtrar y la intensidad del respectivo filtro a utilizar.
La figura 9 es un diagrama para explicar otra realización de la presente invención.
La figura 10 es un diagrama para explicar otra realización de la presente invención.
La figura 11 es un diagrama para explicar otra realización de la presente invención.
La figura 12 es un diagrama para explicar otra realización de la presente invención.
DESCRIPCIÓN DETALLADA DE LAS REALIZACIONES PREFERIDAS
Los procesos de filtrado convencionales consideran cada vez un solo fotograma de imagen reconstruido. Las técnicas de codificación de video basadas en bloques pueden utilizar vectores de movimiento para estimar el movimiento de bloques o píxeles. La información de vectores de movimiento está disponible en el codificador y el descodificador, pero no se utiliza con los procesos de filtrado convencionales. Por ejemplo, si dos bloques adyacentes comparten el mismo vector de movimiento con respecto al mismo fotograma de imagen de referencia (para un sistema de múltiples fotogramas de referencia), probablemente no existe diferencia significativa entre los residuos de la imagen de cada bloque, y por consiguiente no deberán ser filtrados. Esencialmente, las partes adyacentes de la imagen tienen el mismo movimiento con respecto al mismo fotograma de referencia, y por consiguiente no se esperan diferencias significativas entre los residuos de la imagen. En muchos casos, el límite de bloque de estos dos bloques adyacentes puede haber sido filtrado en el fotograma de referencia y, por lo tanto, no debería filtrarse de nuevo para el fotograma actual. Si se utiliza un filtro de atenuación de bloques sin tener en cuenta esta información del vector de movimiento, el proceso de filtrado convencional puede filtrar el mismo límite una y otra vez entre un fotograma y el siguiente. Este filtrado innecesario no sólo provoca una pérdida de definición innecesaria, sino que asimismo tiene como resultado cálculos adicionales de filtrado.
La figura 1 muestra una imagen 12 que filtra selectivamente artefactos de bloque, en función de similitudes entre bloques de imagen. Debe entenderse que la imagen puede, asimismo, utilizar bloques no cuadrados o cualquier otro conjunto de píxeles. Las fronteras entre algunos de los bloques 14 incluyen artefactos de bloque 18. En general, los artefactos de bloque son cualesquiera discontinuidades de la imagen entre bloques 14, que pueden derivarse del proceso de codificación y/o descodificación. Puede utilizarse un filtro de paso bajo u otro filtro para reducir los artefactos de bloque que existen en las fronteras de bloques de imagen adyacentes.
Por ejemplo, existen artefactos de bloque 24 entre los bloques 20 y 22. Puede utilizarse un filtro de paso bajo en la frontera 26 entre los bloques 20 y 22 para eliminar, o si no reducir, los artefactos de bloque 24. El filtro de paso bajo, por ejemplo, selecciona un grupo de píxeles 28 desde ambos lados de la frontera 26. A partir del grupo de píxeles 28 se extrae un valor de píxel promedio, o cualquier otra medida estadística. A continuación, cada píxel individual es comparado con el valor de píxel promedio. A continuación, cualesquiera píxeles en el grupo 28 que están fuera de un intervalo predeterminado respecto del valor de píxel promedio son sustituidos con el valor de píxel promedio.
Tal como se ha descrito previamente, si hay pocos o ningún artefacto de bloque 24 en los píxeles adyacentes, entonces los grupos de píxeles 28 pueden ser filtrados innecesariamente provocando pérdida de definición en la imagen. Un esquema de filtrado en modo omisión puede utilizar la información de estimación y/o compensación del movimiento para bloques de imagen adyacentes, como una base sobre la que filtrar selectivamente. Si la información de estimación y compensación del movimiento es lo suficientemente similar, el filtrado puede ser omitido. Esto evita perder definición de la imagen innecesariamente y reduce significativamente el número necesario de operaciones de filtrado, o cualquier otro valor apropiado.
Por ejemplo, durante el proceso de codificación puede determinarse que los bloques de imagen adyacentes 30 y 32 tienen parámetros de codificación similares. Por consiguiente, puede omitirse el filtrado de atenuación de bloques para los grupos de píxeles 34 que se extienden a través de la frontera 31 entre los bloques adyacentes 30 y 32. El filtrado en modo omisión puede utilizarse para cualquier límite horizontal, vertical u otro, entre bloques adyacentes en la imagen 12.
La figura 2 muestra un fotograma de referencia 42, un fotograma de referencia 48 y un fotograma actual 40 que está siendo actualmente codificado o descodificado. Los parámetros de codificación para los bloques 44 y 46 se comparan para determinar si debe omitirse el filtrado de atenuación de bloques entre los dos bloques adyacentes 44 y 46. Uno de los parámetros de codificación que puede compararse son los vectores de movimiento (MV, motion vectors) para los bloques 44 y 46.
Un vector de movimiento MV1 está orientado desde el bloque 44 en el fotograma 40 de la imagen actual hacia un bloque asociado 44' en la imagen de referencia 42. Un vector del movimiento MV2 está orientado desde el bloque 46 en el fotograma 40 de la imagen actual hacia un bloque asociado 46' en el fotograma de referencia 42. Un filtrado en modo omisión comprueba si los vectores de movimiento MV1 y MV2 apuntan a bloques adyacentes en el mismo fotograma de referencia 42. Si los vectores de movimiento apuntan a bloques adyacentes en el mismo fotograma de referencia (MV1 = MV2), entonces puede omitirse el filtrado de atenuación de bloques. Esta información del vector del movimiento puede utilizarse junto con otra información de codificación para decidir si se omite el filtrado de atenuación de bloques entre los dos bloques de imagen 44 y 46.
Durante el proceso de codificación y descodificación puede utilizarse más de un fotograma de referencia. Por ejemplo, puede existir otro fotograma de referencia 48. Los bloques adyacentes 44 y 46 pueden tener vectores de
movimiento que apuntan a fotogramas de referencia diferentes. En un ejemplo, la decisión de omitir el filtrado de atenuación de bloques depende de si los vectores de movimiento para los dos bloques adyacentes apuntan al mismo fotograma de referencia. Por ejemplo, el bloque de imagen 44 puede tener un vector de movimiento 49 que apunta al fotograma de referencia 48, y el bloque de imagen 46 puede tener el vector del movimiento MV2 apuntando al fotograma de referencia 42. En este ejemplo, el filtrado de atenuación de bloques no se omite debido a que los vectores de movimiento 49 y MV2 apuntan a fotogramas de referencia diferentes.
La figura 3 muestra otro ejemplo de un parámetro de codificación que puede utilizarse para decidir si omitir o no selectivamente el filtrado de atenuación de bloques. El bloque de imagen 44 del fotograma de imagen 40 se compara con el bloque de referencia 44 del fotograma de referencia 42 al que apunta el vector de movimiento MV1, tal como se ha mostrado previamente en la figura 2. A partir de la comparación entre el bloque de imagen 44 y el bloque de referencia 44' se entrega un bloque de residuo 44''. Sobre el bloque de residuo 44'', se realiza una transformada 50 que crea un bloque transformado 44''' de coeficientes de transformación. En un ejemplo, la transformada 50 es una transformada de coseno discreta. El bloque transformado 44''' incluye componentes D.C. 52 y componentes A.C. 53.
El componente D.C. 52 se refiere a un coeficiente de transformada de frecuencia mínima en el bloque de imagen 44. Por ejemplo, el coeficiente que representa la energía promedio en el bloque de imagen 44. Los componentes A.C. 53 se refieren a los coeficientes de transformada que representan los componentes de frecuencia superior en el bloque de imagen 44. Por ejemplo, los coeficientes de transformada que representan las diferencias grandes de energía entre píxeles en el bloque de imagen 44.
La figura 4 muestra los bloques de residuo transformados 44''' y 46'''. Los componentes D.C. 52 procedentes de los dos bloques transformados 44''' y 46''' son comparados en el procesador 54. Si los componentes D.C. son iguales o su diferencia está dentro de cierto intervalo, el procesador 54 notifica a una operación 50 de filtrado de atenuación de bloques que omita el filtrado de atenuación de bloques entre la frontera de los dos bloques adyacentes 44 y 46. Si los componentes D.C. 52 no son similares, entonces no se inicia una notificación de omisión y la frontera entre los bloques 44 y 46 es filtrada para la atenuación de bloques.
En un ejemplo, el filtrado en modo omisión puede incorporarse al esquema de codificación H.26L propuesto por el sector de telecomunicaciones de la unión internacional de comunicaciones (ITU-T, Telecommunications Sector of the International Telecommunication Union). El esquema H.26L utiliza bloques de transformada de coseno discreta (DCT) 4 x 4. Si se desea, puede verificarse solamente el componente D.C. de los dos bloques adyacentes. No obstante, pueden comprobarse asimismo determinados coeficientes A.C. de baja frecuencia, especialmente cuando los bloques de imagen son de tamaños grandes, tales como bloques de 9 × 9 o de 16 × 16. Por ejemplo, el componente de D.C. superior 52 y los tres coeficientes 53 de transformada A.C. de menor frecuencia para el bloque 44''' pueden compararse con el componente de D.C. superior 52 y los tres coeficientes 53 de transformada A.C. de menor frecuencia para el bloque 46'''. Para identificar la relativa similitud entre los dos bloques adyacentes 44 y 46 pueden utilizarse diferentes combinaciones del coeficiente de transformada D.C. y/o de cualesquiera de los A.C.
Asimismo, el procesador 54 puede recibir otros parámetros de codificación 55 que son generados durante el proceso de codificación. Estos parámetros de codificación incluyen la información de los vectores de movimiento y del fotograma de referencia para los bloques adyacentes 44 y 46, tal como se ha descrito previamente. El procesador 54 puede utilizar parte o la totalidad de estos parámetros de codificación para determinar si omite o no el filtrado de atenuación de bloques, entre los bloques de imagen adyacentes 44 y 46. Pueden llevarse a cabo sobre la imagen otras funciones de codificación y de transformada, en el mismo procesador 54 o en un circuito de procesamiento diferente. En caso de que toda o la mayor parte de la codificación se realice en el mismo procesador, el modo omisión se activa simplemente configurando un parámetro de omisión en la rutina de filtrado.
La figura 5 muestra cómo puede utilizarse el filtrado en modo omisión en un codificador-descodificador (códec) 60 con compensación de movimiento basado en bloques. El códec 60 se utiliza para codificación entre fotogramas. Un bloque de video de entrada del fotograma actual es alimentado desde la caja 62 a un comparador 64. La salida de una caja 80 de almacenamiento de fotogramas en memoria tampón genera un bloque de referencia 81 de acuerdo con el vector de movimiento estimado (y, posiblemente, el número de fotograma de referencia). La diferencia entre el bloque de video de entrada y el bloque de referencia 81 es transformada en la caja 66 y a continuación cuantificada en la caja 68. El bloque de transformada cuantificado es codificado mediante un codificador de longitud variable (VLC, Variable Length Coder) 70 y a continuación transmitido, almacenado, etc.
La sección de codificación del códec 60 reconstruye la imagen transformada y cuantificada, en primer lugar mediante una cuantificación inversa (IQ, Inverse Quantizing) de la imagen transformada, en la caja 72. A continuación, sobre la imagen sometida a cuantificación inversa se realiza la transformada inversa en la caja 74, para generar una imagen de residuo reconstruida. A continuación, en la caja 76 se suma el bloque de residuo reconstruido al bloque de referencia 81, para generar un bloque de la imagen reconstruida. Generalmente, la imagen reconstruida es sometida a un filtro de bucle en la caja 78, para reducir los artefactos de bloque provocados por el proceso de cuantificación y de transformada. A continuación, la imagen filtrada es almacenada en memoria tampón,
en la caja 80, para formar fotogramas de referencia. En la caja 80, para la estimación y compensación del movimiento el almacenamiento de fotogramas en memoria tampón utiliza los fotogramas de referencia reconstruidos. El bloque de referencia 81 es comparado con el bloque de video de entrada en el comparador 64. En el nodo 71, se entrega una imagen codificada procedente de la sección de codificación, y a continuación es almacenada o transmitida.
En una parte descodificador del códec 60, en la caja 82 un descodificador de longitud variable (VLD, variable length decoder) descodifica la imagen codificada. La imagen descodificada es sometida a cuantificación inversa en la caja 84 y a transformada inversa en la caja 86. La imagen de residuo reconstruida procedente de la caja 86 se suma, en la caja sumadora 88, al bloque de referencia 91 antes de ser sometida a filtro de bucle en la caja 90 para reducir los artefactos de bloque, y almacenada en memoria tampón en la caja 92 como fotogramas de referencia. El bloque de referencia 91 se genera desde la caja 92 en función de la información recibida del vector de movimiento. La salida de la caja 90 sometida a filtro de bucle puede ser sometida, opcionalmente, a un filtrado posterior en la caja 94 para reducir más los artefactos de la imagen antes de que sea visualizada como imagen de video en la caja 96. El esquema de filtrado en modo omisión puede llevarse a cabo en cualquier combinación de las funciones de filtrado, en las cajas 78, 90 y 94.
Las informaciones de estimación y compensación del movimiento disponibles durante la codificación de video se utilizan para determinar cuándo omitir el filtrado de atenuación de bloques, en las cajas 78, 90 y/o 94. Puesto que estos parámetros de codificación ya se han generado durante el proceso de codificación y descodificación, para el filtrado en modo omisión no es necesario generar o transmitir especialmente parámetros de codificación adicionales.
La figura 6 muestra en mayor detalle cómo puede utilizarse el filtrado en modo omisión en los filtros 78, 90 y/o 94 en el codificador y descodificador de la figura 5. En primer lugar, se identifica en la caja 100 el límite entre bloques, entre cualesquiera dos bloques adyacentes "i" y "k" . Los dos bloques pueden ser adyacentes horizontal o verticalmente en el fotograma de la imagen. La caja de decisión 102 compara el vector del movimiento mv(j) para el bloque j con el vector de movimiento mv(k) para el bloque k. En primer lugar, se determina si los dos bloques adyacentes j y k tienen el mismo vector de movimiento apuntando al mismo fotograma de referencia. En otras palabras, los vectores de movimiento para los bloques adyacentes apuntan a los bloques adyacentes (mv(j) = mv(k)) en el mismo fotograma de referencia (ref(j) = ref(k)).
A continuación se determina si los coeficientes de residuo para los dos bloques adyacentes son similares. Si no existe una diferencia significativa entre los residuos de imagen de los bloques adyacentes, por ejemplo, los dos bloques j y k tienen el componente D.C. igual o similar (dc(j) ≅ dc(k)), entonces se omite el proceso de filtrado de atenuación de bloques de la caja 104. A continuación, el filtrado en modo omisión se desplaza al siguiente límite entre bloques, en la caja 106, y realiza la siguiente comparación en la caja de decisión 102. El filtrado en modo omisión puede llevarse a cabo tanto para bloques adyacentes horizontalmente como para bloques adyacentes verticalmente.
En una realización, se utiliza solamente la información del fotograma de referencia y del vector de movimiento para los bloques de imagen adyacentes, con objeto de determinar la omisión de bloques. En otra realización, se utilizan solamente los coeficientes de residuo D.C. y/o A.C. para determinar la omisión de bloques. En otra realización, se utiliza el vector de movimiento, el fotograma de referencia y los coeficientes de residuo para determinar la omisión de bloques.
El esquema de filtrado en modo omisión puede aplicarse a canales de crominancia submuestreados espacialmente. Por ejemplo, en un caso con secuencias de formato de color 4:2:0, el filtrado en modo omisión para límites de bloque puede depender solamente de la igualdad de los vectores de movimiento y los componentes D.C. para el componente de luminancia de la imagen. Si los vectores de movimiento y los componentes D.C. son iguales, se omite el filtrado para la atenuación de bloques para las componentes de luminancia y de crominancia de los bloques de imagen adyacentes. En otra realización, los vectores de movimiento y los componentes D.C. se consideran por separado para cada componente de luminancia y crominancia de los bloques adyacentes. En este caso, para la atenuación de bloques puede filtrarse un componente de luminancia o de crominancia para bloques adyacentes, mientras que el otro de los componentes de luminancia o crominancia para los mismos bloques adyacentes no se filtra para atenuación de bloques.
Haciendo referencia a la figura 7, una técnica propuesta recientemente por otros en H.26L define un parámetro de "intensidad de bloque" para el filtro de bucle con objeto de controlar el proceso de filtrado de bucle. Cada bloque de una imagen tiene un valor de intensidad que está asociado con el bloque y controla el filtrado llevado a cabo sobre la totalidad de sus cuatro límites de bloque. El valor de la intensidad de bloque se obtiene en función de los vectores de movimiento y de los coeficientes de transformada disponibles en el flujo de bits. Sin embargo, después de considerar la utilización del valor de la intensidad de bloque para la totalidad de los cuatro bordes del bloque, los presentes inventores constataron que esto tiene como resultado la eliminación de algunos artefactos de bloque en algunos bordes, pero al mismo tiempo la pérdida de definición a lo largo de otros bordes.
En contraste con la manera de filtrado bloque a bloque, los presentes inventores constataron que las determinaciones del filtrado deberían realizarse de manera borde a borde junto con otra información. La otra información puede incluir, por ejemplo, información relacionada con la codificación intra-bloque de los bloques, información relacionada con la estimación de los bloques con información de residuos, información relacionada con la estimación de los bloques sin información de residuos, información relacionada con la estimación del movimiento de los bloques sin residuos con diferencias suficientes, información relacionada con fotogramas de referencia e información relacionada con vectores de movimiento de bloques adyacentes. Pueden utilizarse una, dos, tres o cuatro de estas características de información para conseguir capacidades de filtrado mejoradas de manera borde a borde. Basándose en diferentes conjuntos de características, puede modificarse el filtrado como se desee.
Para cada límite de bloque se define preferentemente un parámetro de control, a saber, una intensidad de límite Bs. Haciendo referencia a la figura 8, un par de bloques que comparten un límite común son denominados j y k. En primer lugar, el bloque 200 comprueba si alguno de los dos bloques está intra-codificado. Si alguno está intracodificado, entonces la intensidad del límite se pone a tres, en el bloque 202. El bloque 200 determina si ambos bloques no están sometidos a predicción de movimiento. Si no se ha utilizado predicción de movimiento, entonces el bloque deriva del propio fotograma y, por consiguiente, deberá llevarse a cabo filtrado sobre el límite. Normalmente, esto es apropiado debido a que los límites de bloque intra-codificado normalmente incluyen artefactos de bloque.
Si ambos bloques j y k están, por lo menos en parte, predichos a partir de un fotograma anterior o posterior, entonces en el bloque 204 se verifican los bloques j y k para determinar si algunos coeficientes están codificados. Los coeficientes puede ser, por ejemplo, coeficientes de transformada de coseno discreta. Si alguno de los bloques j y k incluye coeficientes distintos de cero, entonces por lo menos uno de los bloques representa una predicción a partir de un fotograma anterior o posterior junto con modificaciones al bloque utilizando los coeficientes, denominados generalmente residuos. Si alguno de los bloques j y k incluyen coeficientes distintos de cero (y con predicción de movimiento), entonces la intensidad del límite se pone a dos, en el bloque 206. Esto representa un caso en el que las imágenes están predichas, pero la predicción está corregida utilizando un residuo. Por consiguiente, es probable que las imágenes incluyan artefactos de bloque.
Si ambos bloques j y k están sometidos a predicción de movimiento y no incluyen coeficientes distintos de cero, denominados generalmente residuos, entonces se realiza una determinación en el bloque 208 para verificar si los píxeles a ambos lados del límite son lo suficientemente diferentes entre sí. Esto puede utilizarse asimismo para determinar si los residuos son lo suficientemente pequeños. Si existe una diferencia suficiente, entonces es probable que exista un artefacto de bloque. Inicialmente, se realiza una determinación para determinar si los dos bloques utilizan fotogramas de referencia diferentes, es decir, R(j) f R(k). Si los bloques j y k proceden de dos fotogramas de referencia diferentes, entonces la intensidad del límite se asigna a un valor de uno, en el bloque 210. Alternativamente, se comprueba la diferencia absoluta de los vectores de movimiento de los dos bloques de imagen para determinar si son mayores o igual que un píxel en las direcciones vertical u horizontal, a saber, | V(j,x) - V(k,x) | � 1 píxel o | V(j,y) - V(k,y) | � 1 píxel. Asimismo, si se desea pueden utilizarse otros valores de umbral, incluyendo menor que, o mayor que, dependiendo de la prueba utilizada. Si la diferencia absoluta de los vectores de movimiento es mayor o igual a uno, entonces se asigna un valor de uno a la intensidad del límite.
Si los dos bloques j y k están sometidos a predicción de movimiento, sin residuos, están basados en el mismo fotograma y tienen diferencias insignificantes, entonces el valor de la intensidad del límite se asigna a un valor de cero. Si el valor de la intensidad de límite se asigna un valor de cero, el límite no es filtrado o bien se filtra adaptativamente de acuerdo con el valor de la intensidad del límite. Debe entenderse que, si se desea, el sistema puede filtrar levemente si la intensidad del límite es cero.
El valor de la intensidad del límite, a saber, uno, dos y tres, se utiliza para controlar el intervalo de adaptación del valor del píxel, en el filtro de bucle. Si se desea, cada diferente intensidad del límite puede ser la base de un filtrado diferente. Por ejemplo, en algunas realizaciones pueden utilizarse tres clases de filtros, en los que se utiliza un primer filtro cuando Bs = 1, se utiliza un segundo filtro cuando Bs = 2 y se utiliza un tercer filtro cuando Bs = 3. Debe entenderse que el no filtrado puede realizarse mediante un filtrado mínimo en comparación con otro filtrado, lo que tiene como resultado una diferencia más significativa. En el ejemplo mostrado en la figura 8, cuanto mayor es el valor para Bs mayor es el filtrado. El filtrado puede realizarse mediante cualquier técnica adecuada, tal como los métodos descritos en el borrador del comité mixto (CD, Joint Committee Draft) del equipo mixto de video (JVT, Joint Video Team) de ISO/IEC MPEG y ITU-T VCEG (JVT-C167), u otros métodos conocidos para filtrar artefactos de imagen.
El filtrado en modo omisión puede ser utilizado con cualquier sistema que codifique o descodifique múltiples fotogramas de imagen. Por ejemplo, reproductores de DVD, grabadores de video o cualquier sistema que transmita datos de imagen sobre un canal de comunicaciones, tal como sobre canales de televisión o sobre la red internet. Debe entenderse que el sistema puede utilizar el parámetro de cuantificación como un parámetro de codificación, ya sea en solitario o en combinación con otros parámetros de codificación. Además, debe entenderse que puede eximirse al sistema de utilizar el parámetro de cuantificación en solitario, o de utilizar en absoluto el parámetro de cuantificación con propósitos de filtrado.
El filtrado en modo omisión descrito anteriormente puede implementarse con sistemas de procesadores dedicados, microcontroladores, dispositivos lógicos programables o microprocesadores que lleven a cabo parte o la totalidad de las operaciones. Algunas de las operaciones descritas anteriormente pueden implementarse en soporte lógico y otras operaciones pueden ser implementadas en equipamiento físico.
Por conveniencia, las operaciones se describen como diversos bloques funcionales interconectados o distintos módulos de soporte lógico. No obstante, esto no es necesario y pueden existir casos en los que estos módulos o bloques funcionales están agregados de manera equivalente en un solo dispositivo lógico, programa u operación, con límites poco claros. En cualquier caso, los bloques funcionales y los módulos de soporte lógico o las características descritas, pueden implementarse por sí mismos, o en combinación con otras operaciones en equipamiento físico o soporte lógico.
En algunas realizaciones de la presente invención, tal como se ilustra en la figura 9, los datos de imagen 902 pueden ser introducidos en un aparato 904 de codificación de datos de imagen que incluye una parte de filtrado adaptativo, tal como se ha descrito anteriormente para algunas realizaciones de la presente invención. La salida del aparato 904 de codificación de datos de imagen son datos de imagen codificados y, a continuación, pueden ser almacenados en cualquier medio de almacenamiento 906 legible por ordenador. Los medios de almacenamiento por ordenador pueden incluir, de forma no limitativa, medios de disco, medios de tarjeta de memoria o medios de cinta digital. Los medios de almacenamiento 906 pueden actuar como una memoria tampón a corto plazo o como un dispositivo de almacenamiento a largo plazo. Los datos de imagen codificados pueden ser leídos desde el medio de almacenamiento 906 y descodificados mediante un aparato 908 de descodificación de datos de imagen, que incluye la parte de filtrado adaptativo que se ha descrito anteriormente para algunas realizaciones de la presente invención. Los datos de imagen descodificados pueden ser proporcionados para entregar datos de imagen descodificados 910 a una pantalla u otro dispositivo.
Tal como se muestra en la figura 10, en algunas realizaciones de la presente invención los datos de imagen 1002 pueden ser codificados y, a continuación, los datos de imagen codificados pueden ser almacenados en el medio de almacenamiento 1006. El procedimiento básico del aparato 1004 de codificación de datos de imagen, del medio de almacenamiento 1006 y del aparato 1008 de descodificación de datos de imagen es el mismo que en la figura 9. En la figura 10, la parte 1012 de codificación de datos de Bs recibe el valor de la intensidad del límite Bs para cada el límite de bloque y lo codifica mediante cualquier método de codificación de datos que incluye DPCM, codificación por longitud de serie multi-valuada, codificación de transformada con característica sin pérdidas, y similares. La intensidad del límite Bs puede generarse tal como se ha descrito en la figura 8. A continuación, la intensidad del límite codificada puede ser almacenada en el medio de almacenamiento 1006. En un ejemplo, la intensidad del límite codificada puede almacenarse por separado respecto de los datos de imagen codificados. En otro ejemplo, la intensidad del límite codificada y los datos de imagen codificados pueden ser multiplexados antes del almacenamiento en el medio de almacenamiento 1006.
La intensidad del límite codificada puede ser leída desde el medio de almacenamiento 1006 y descodificada mediante la parte 1014 de descodificación de datos de Bs, para introducir en el aparato 1008 de descodificación de los datos de imagen la intensidad del límite descodificada. Cuando la intensidad del límite descodificada se utiliza en el aparato 1008 de descodificación de los datos de imagen para llevar acabo el filtrado adaptativo de la presente invención, puede no ser necesario repetir el proceso descrito en la figura 8 para generar la intensidad del límite, y esto puede conservar potencia de proceso para el filtrado adaptativo.
En algunas realizaciones de la presente invención, tal como se ilustra en la figura 11, los datos de imagen 1102 pueden ser introducidos en un aparato 1104 de codificación de datos de imagen, que incluye una parte de filtrado adaptativo, tal como se ha descrito anteriormente para algunas realizaciones de la presente invención. La salida del aparato 1104 de codificación de datos de imagen pueden ser datos de imagen codificados y, a continuación, pueden ser enviados a través de una red, tal como una LAN, una WAN o la red internet 1106. Los datos de imagen codificados pueden ser recibidos y descodificados mediante un aparato 1108 de descodificación de datos de imagen que, asimismo, comunica con la red 1106. El aparato 1108 de descodificación de datos de imagen incluye la parte de filtrado adaptativo que se ha descrito anteriormente para algunas realizaciones de la presente invención. Los datos de imagen descodificados pueden proporcionarse para la entrega de datos de imagen descodificados 1110 a una pantalla u otro dispositivo.
En algunas realizaciones de la presente invención, tal como se muestra en la figura 12, los datos de imagen 1202 pueden ser codificados y, a continuación, los datos de imagen codificados pueden ser enviados a través de una red, tal como una LAN, una WAN, o la red internet 1206. El procedimiento básico del aparato 1204 de codificación de datos de imagen y del aparato 1208 de descodificación de datos de imagen es el mismo que en la figura 11. En la figura 12, la parte 1212 de codificación de datos de Bs recibe el valor de la intensidad del límite Bs para cada límite de bloque y lo codifica mediante cualquier método de codificación de datos que incluye DPCM, codificación de longitud de serie multi-valuada, codificación de transformada sin pérdidas, y similares. La intensidad del límite Bs puede generarse tal como se ha descrito en la figura 8. A continuación, la intensidad del límite codificada puede ser enviada a través de la red 1206. En un ejemplo, la intensidad del límite codificada puede ser enviada por separado respecto de los datos de imagen codificados. En otro ejemplo, la intensidad del límite codificada y los datos de imagen codificados pueden ser multiplexados antes de ser enviados a través de la red 1206.
La intensidad del límite codificada puede ser recibida desde la red 1206 y descodificada mediante la parte 1214 descodificación de los datos de Bs, para introducir en el aparato 1208 de descodificación de los datos de imagen la
5 intensidad del límite descodificada. Cuando la intensidad del límite descodificada se utiliza en el aparato 1208 de descodificación de los datos de imagen para llevar acabo el filtrado adaptativo de la presente invención, puede no ser necesario repetir el proceso descrito en la figura 8 para generar la intensidad del límite y esto puede conservar potencia de proceso para el filtrado adaptativo.
Habiéndose descrito e ilustrado los principios de la invención en una realización preferida de la misma, es evidente
10 que la invención puede ser modificada en su disposición y sus detalles, sin apartarse de dichos principios. Se reivindican todas las modificaciones y variaciones incluidas dentro del alcance de las siguientes reivindicaciones.

Claims (3)

  1. REIVINDICACIONES
    1. Método para la codificación y/o descodificación de una imagen (12), que comprende:
    (a)
    identificar zonas adyacentes (44, 46; j, k) en dicha imagen;
    (b)
    examinar parámetros de codificación (MV; 55) para dichas zonas adyacentes; y
    (c)
    llevar a cabo el filtrado selectivo sobre, por lo menos, una parte (28) de la zona próxima al límite (26) entre dichas zonas adyacentes, en base a dichos parámetros de codificación,
    en el que para dos zonas adyacentes en lados opuestos de dicho límite, que han sido sometidas a predicción de movimiento, el filtrado selectivo depende de las situaciones siguientes:
    i) cuando, por lo menos, una de las zonas adyacentes contiene un coeficiente de transformada distinto de cero,
    ii) cuando las zonas adyacentes no contienen ningún coeficiente de transformada distinto de cero y se estima que las imágenes de referencia (42, 48; R(j), R(k)) utilizadas para la predicción del movimiento para las respectivas zonas adyacentes son diferentes, o bien la diferencia absoluta de dichos vectores de movimiento para las zonas adyacentes respectivas en una dirección vertical y/o la diferencia absoluta de dichos vectores de movimiento para las zonas adyacentes respectivas en una dirección horizontal, es mayor o igual que un umbral, y
    iii) cuando las zonas adyacentes no contienen ningún coeficiente de transformada distinto de cero y se estima que dichas imágenes de referencia (42, 48; R(j), R(k)) son la misma, y la diferencia absoluta de dichos vectores de movimiento para las zonas adyacentes respectivas en una dirección vertical y la diferencia absoluta de dichos vectores de movimiento para las zonas adyacentes respectivas en una dirección horizontal son menores que dicho umbral,
    en el que se determina una intensidad del límite (Bs) para dicho límite, y la intensidad del filtrado selectivo se incrementa cuando lo hace la intensidad del límite, en el que la intensidad del límite se determina como:
    en la situación i), la intensidad del límite (Bs) se fija a un primer valor (206);
    en la situación ii), la intensidad del límite (Bs) se fija a un segundo valor (210), menor que el primer valor (206); y
    en la situación iii), la intensidad del límite (Bs) se fija a un tercer valor (212), menor que el segundo valor (210),
    caracterizado porque
    en el caso de la situación i), la intensidad del límite (Bs) se fija al mismo primer valor (206) cuando una y cuando ambas zonas adyacentes contienen coeficientes de transformada distintos de cero, y
    en el que la intensidad del límite (Bs) es independiente del parámetro de cuantificación.
  2. 2. Codificador para codificar una imagen, que comprende:
    (a)
    un procesador adaptado para identificar zonas adyacentes (44, 46; j, k) en dicha imagen;
    (b)
    examinando dicho procesador parámetros de codificación (MV; 55) para dichas zonas adyacentes; y
    (c)
    filtrando selectivamente dicho procesador, por lo menos, una parte (28) de la zona próxima al límite (26) entre dichas zonas adyacentes, en base a dichos parámetros de codificación,
    en el que para dos zonas adyacentes en lados opuestos de dicho límite, que han sido sometidas a predicción de movimiento, el filtrado selectivo depende de las situaciones siguientes:
    i) cuando, por lo menos, una de las zonas adyacentes contiene un coeficiente de transformada distinto de cero,
    ii) cuando las zonas adyacentes no contienen ningún coeficiente de transformada distinto de cero y se estima que las imágenes de referencia (42, 48; R(j), R(k)) utilizadas para la predicción del movimiento para las respectivas zonas adyacentes son diferentes, o bien la diferencia absoluta de dichos vectores de movimiento para las zonas
    adyacentes respectivas en una dirección vertical y/o la diferencia absoluta de dichos vectores de movimiento para las zonas adyacentes respectivas en una dirección horizontal, es mayor o igual que un umbral, y
    iii) cuando las zonas adyacentes no contienen ningún coeficiente de transformada distinto de cero y se estima que dichas imágenes de referencia (42, 48; R(j), R(k)) son la misma, y la diferencia absoluta de dichos vectores de movimiento para las zonas adyacentes respectivas en una dirección vertical y la diferencia absoluta de dichos vectores de movimiento para las zonas adyacentes respectivas en una dirección horizontal son menores que dicho umbral,
    en el que se determina una intensidad del límite (Bs) para dicho límite, y la intensidad del filtrado selectivo se incrementa cuando lo hace la intensidad del límite (Bs), en el que la intensidad del límite se determina como:
    en la situación i), la intensidad del límite (Bs) se fija a un primer valor (206);
    en la situación ii), la intensidad del límite (Bs) se fija a un segundo valor (210), menor que el primer valor (205); y
    en la situación iii), la intensidad del límite (Bs) se fija a un tercer valor (212), menor que el segundo valor (210),
    caracterizado porque
    en el caso de la situación i), la intensidad del límite (Bs) se fija al mismo primer valor (206) cuando una y cuando ambas zonas adyacentes contienen coeficientes de transformada distintos de cero, y
    en el que la intensidad del límite (Bs) es independiente del parámetro de cuantificación.
  3. 3. Descodificador para descodificar una imagen, que comprende:
    (a)
    un procesador adaptado para identificar zonas adyacentes (44, 46; j, k) en dicha imagen;
    (b)
    examinando dicho procesador parámetros de codificación (MV; 55) para dichas zonas adyacentes; y
    (c)
    filtrando selectivamente dicho procesador, por lo menos, una parte (28) de la zona próxima al límite (26) entre dichas zonas adyacentes, en base a dichos parámetros de codificación,
    en el que para dos zonas adyacentes en lados opuestos de dicho límite, que han sido sometidas a predicción de movimiento, el filtrado selectivo depende de las situaciones siguientes:
    i) cuando, por lo menos, una de las zonas adyacentes contiene un coeficiente de transformada distinto de cero,
    ii) cuando las zonas adyacentes no contienen ningún coeficiente de transformada distinto de cero y se estima que las imágenes de referencia (42, 48; R(j), R(k)) utilizadas para la predicción del movimiento para las respectivas zonas adyacentes son diferentes, o bien la diferencia absoluta de dichos vectores de movimiento para las zonas adyacentes respectivas en una dirección vertical y/o la diferencia absoluta de dichos vectores de movimiento para las zonas adyacentes respectivas en una dirección horizontal, es mayor o igual que un umbral, y
    iii) cuando las zonas adyacentes no contienen ningún coeficiente de transformada distinto de cero y se estima que dichas imágenes de referencia (42, 48; R(j), R(k)) son la misma, y la diferencia absoluta de dichos vectores de movimiento para las zonas adyacentes respectivas en una dirección vertical y la diferencia absoluta de dichos vectores de movimiento para las zonas adyacentes respectivas en una dirección horizontal son menores que dicho umbral,
    en el que se determina una intensidad del límite (Bs) para dicho límite, y la intensidad del filtrado selectivo se incrementa cuando lo hace la intensidad del límite (Bs), en donde la intensidad del límite (Bs) se determina como:
    en la situación i), la intensidad del límite (Bs) se fija a un primer valor (206);
    en la situación ii), la intensidad del límite (Bs) se fija a un segundo valor (210), menor que el primer valor (206); y
    en la situación iii), la intensidad del límite (Bs) se fija a un tercer valor (212), menor que el segundo valor (210),
    caracterizado porque
    en el caso de la situación i), la intensidad del límite (Bs) se fija al mismo primer valor 206 cuando una y cuando ambas zonas adyacentes contienen coeficientes de transformada distintos de cero, y
    en el que la intensidad del límite (Bs) es independiente del parámetro de cuantificación.
ES02798822T 2001-09-14 2002-09-11 Filtrado adaptativo basado en la intensidad del límite Expired - Lifetime ES2383519T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US09/953,329 US7450641B2 (en) 2001-09-14 2001-09-14 Adaptive filtering based upon boundary strength
US953329 2001-09-14
PCT/JP2002/009306 WO2003026313A1 (en) 2001-09-14 2002-09-11 Adaptive filtering based upon boundary strength

Publications (1)

Publication Number Publication Date
ES2383519T3 true ES2383519T3 (es) 2012-06-21

Family

ID=25493827

Family Applications (5)

Application Number Title Priority Date Filing Date
ES10178453T Expired - Lifetime ES2383664T3 (es) 2001-09-14 2002-09-11 Filtrado adaptativo basado en la intensidad del límite
ES02798822T Expired - Lifetime ES2383519T3 (es) 2001-09-14 2002-09-11 Filtrado adaptativo basado en la intensidad del límite
ES10178448T Expired - Lifetime ES2383661T3 (es) 2001-09-14 2002-09-11 Filtrado adaptativo basado en la intensidad del límite
ES06019135T Expired - Lifetime ES2383532T3 (es) 2001-09-14 2002-09-11 Filtrado adaptativo basado en la intensidad del límite
ES05008079T Expired - Lifetime ES2383603T3 (es) 2001-09-14 2002-09-11 Filtrado adaptativo basado en la intensidad del límite

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES10178453T Expired - Lifetime ES2383664T3 (es) 2001-09-14 2002-09-11 Filtrado adaptativo basado en la intensidad del límite

Family Applications After (3)

Application Number Title Priority Date Filing Date
ES10178448T Expired - Lifetime ES2383661T3 (es) 2001-09-14 2002-09-11 Filtrado adaptativo basado en la intensidad del límite
ES06019135T Expired - Lifetime ES2383532T3 (es) 2001-09-14 2002-09-11 Filtrado adaptativo basado en la intensidad del límite
ES05008079T Expired - Lifetime ES2383603T3 (es) 2001-09-14 2002-09-11 Filtrado adaptativo basado en la intensidad del límite

Country Status (11)

Country Link
US (21) US7450641B2 (es)
EP (5) EP1562384B9 (es)
JP (18) JP3688283B2 (es)
KR (4) KR100785589B1 (es)
CN (3) CN1311691C (es)
AT (5) ATE557542T1 (es)
CA (16) CA3011301C (es)
ES (5) ES2383664T3 (es)
HK (2) HK1070223A1 (es)
PT (5) PT1838107E (es)
WO (1) WO2003026313A1 (es)

Families Citing this family (187)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7929610B2 (en) * 2001-03-26 2011-04-19 Sharp Kabushiki Kaisha Methods and systems for reducing blocking artifacts with reduced complexity for spatially-scalable video coding
US7450641B2 (en) * 2001-09-14 2008-11-11 Sharp Laboratories Of America, Inc. Adaptive filtering based upon boundary strength
US6931063B2 (en) 2001-03-26 2005-08-16 Sharp Laboratories Of America, Inc. Method and apparatus for controlling loop filtering or post filtering in block based motion compensationed video coding
KR100525785B1 (ko) * 2001-06-15 2005-11-03 엘지전자 주식회사 이미지 화소 필터링 방법
CN101448162B (zh) 2001-12-17 2013-01-02 微软公司 处理视频图像的方法
EP2894856A1 (en) 2002-01-31 2015-07-15 Samsung Electronics Co., Ltd Filtering method and apparatus for reducing block artifacts or ringing noise
MXPA04002265A (es) 2002-07-11 2004-06-29 Matsushita Electric Ind Co Ltd Metodo de determinacion de resistencia de filtracion, metodo de codificacion de pelicula y metodo de decodificacion de pelicula.
US7298885B2 (en) * 2002-11-27 2007-11-20 3M Innovative Properties Company Biological growth plate scanner with automated image processing profile selection
US8761252B2 (en) 2003-03-27 2014-06-24 Lg Electronics Inc. Method and apparatus for scalably encoding and decoding video signal
KR20060109247A (ko) 2005-04-13 2006-10-19 엘지전자 주식회사 베이스 레이어 픽처를 이용하는 영상신호의 엔코딩/디코딩방법 및 장치
KR20060105408A (ko) * 2005-04-01 2006-10-11 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
US20050013494A1 (en) * 2003-07-18 2005-01-20 Microsoft Corporation In-loop deblocking filter
US7830963B2 (en) * 2003-07-18 2010-11-09 Microsoft Corporation Decoding jointly coded transform type and subblock pattern information
US10554985B2 (en) 2003-07-18 2020-02-04 Microsoft Technology Licensing, Llc DC coefficient signaling at small quantization step sizes
US7724827B2 (en) * 2003-09-07 2010-05-25 Microsoft Corporation Multi-layer run level encoding and decoding
US8625680B2 (en) * 2003-09-07 2014-01-07 Microsoft Corporation Bitstream-controlled post-processing filtering
US20050094003A1 (en) * 2003-11-05 2005-05-05 Per Thorell Methods of processing digital image and/or video data including luminance filtering based on chrominance data and related systems and computer program products
GB2426157B (en) * 2003-11-20 2009-03-11 Research In Motion Ltd Seamless call switching in a dual mode environment
US7519274B2 (en) 2003-12-08 2009-04-14 Divx, Inc. File format for multiple track digital data
US8472792B2 (en) 2003-12-08 2013-06-25 Divx, Llc Multimedia distribution system
KR101000926B1 (ko) * 2004-03-11 2010-12-13 삼성전자주식회사 영상의 불연속성을 제거하기 위한 필터 및 필터링 방법
US7430336B2 (en) * 2004-05-06 2008-09-30 Qualcomm Incorporated Method and apparatus for image enhancement for low bit rate video compression
NO20042477A (no) * 2004-06-14 2005-10-17 Tandberg Telecom As Fremgangsmåte for chroma de-blokking
US7738563B2 (en) * 2004-07-08 2010-06-15 Freescale Semiconductor, Inc. Method and system for performing deblocking filtering
US8649436B2 (en) * 2004-08-20 2014-02-11 Sigma Designs Inc. Methods for efficient implementation of skip/direct modes in digital video compression algorithms
KR100714853B1 (ko) 2004-10-21 2007-05-04 주식회사 렛스비전 동영상 압축 시스템에서 루프 필터와 포스트 필터의적응적인 통합 적용장치
US7630565B2 (en) * 2004-11-30 2009-12-08 Lsi Corporation Parallel video encoder with whole picture deblocking and/or whole picture compressed as a single slice
JP4277793B2 (ja) * 2004-12-17 2009-06-10 ソニー株式会社 画像処理装置、符号化装置およびそれらの方法
US7136536B2 (en) * 2004-12-22 2006-11-14 Telefonaktiebolaget L M Ericsson (Publ) Adaptive filter
US20060233253A1 (en) 2005-03-10 2006-10-19 Qualcomm Incorporated Interpolated frame deblocking operation for frame rate up conversion applications
US7961963B2 (en) * 2005-03-18 2011-06-14 Sharp Laboratories Of America, Inc. Methods and systems for extended spatial scalability with picture-level adaptation
US8660180B2 (en) * 2005-04-01 2014-02-25 Lg Electronics Inc. Method and apparatus for scalably encoding and decoding video signal
US8045615B2 (en) * 2005-05-25 2011-10-25 Qualcomm Incorporated Deblock filtering techniques for video coding according to multiple video standards
US8755434B2 (en) * 2005-07-22 2014-06-17 Lg Electronics Inc. Method and apparatus for scalably encoding and decoding video signal
US8625914B2 (en) * 2013-02-04 2014-01-07 Sony Corporation Image processing system, image processing method and program
JP2009506699A (ja) * 2005-08-29 2009-02-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ブロックに基づく画像伸長により得られる画像をフィルタリングする装置
CN1859576A (zh) * 2005-10-11 2006-11-08 华为技术有限公司 对空间分层编码视频图象的上采样方法及其***
US8681867B2 (en) * 2005-10-18 2014-03-25 Qualcomm Incorporated Selective deblock filtering techniques for video coding based on motion compensation resulting in a coded block pattern value
US7693219B2 (en) * 2006-01-04 2010-04-06 Freescale Semiconductor, Inc. System and method for fast motion estimation
CN101371585B (zh) * 2006-01-09 2014-07-30 汤姆森特许公司 提供用于多视图视频编码的提供降低分辨率的更新模式的方法和装置
CN1794821A (zh) * 2006-01-11 2006-06-28 浙江大学 可分级视频压缩中插值的方法与装置
EP1999883A4 (en) 2006-03-14 2013-03-06 Divx Llc FEDERATED DIGITAL RIGHTS MANAGEMENT SYSTEM COMPRISING CONFIDENCE SYSTEMS
KR101366091B1 (ko) * 2006-03-28 2014-02-21 삼성전자주식회사 영상 부호화 및 복호화 방법과 장치
US9036712B1 (en) * 2006-05-08 2015-05-19 Geo Semiconductor Inc. Methods and/or apparatus for controlling zero-residual coding in predictive image/video coding
US20070291839A1 (en) * 2006-06-15 2007-12-20 Faraday Technology Corp. Method and device for multimedia processing
JP4410225B2 (ja) * 2006-08-07 2010-02-03 株式会社東芝 動画像復号化装置および方法
US20080080618A1 (en) * 2006-09-28 2008-04-03 Kazuya Takagi Video decoding apparatus and method of the same
US20080084932A1 (en) * 2006-10-06 2008-04-10 Microsoft Corporation Controlling loop filtering for interlaced video frames
KR100819289B1 (ko) * 2006-10-20 2008-04-02 삼성전자주식회사 영상 데이터의 디블록킹 필터링 방법 및 디블록킹 필터
KR101370287B1 (ko) * 2006-11-22 2014-03-07 세종대학교산학협력단 디블록킹 필터링 방법 및 장치
DE102006055702A1 (de) * 2006-11-23 2008-05-29 Deutsche Thomson Ohg Verfahren und Vorrichtung zum Wiederherstellen einer Anzeigebildsequenz aus einem codierten digitalen Videosignal
US8411709B1 (en) 2006-11-27 2013-04-02 Marvell International Ltd. Use of previously buffered state information to decode in an hybrid automatic repeat request (H-ARQ) transmission mode
KR100922275B1 (ko) * 2006-12-15 2009-10-15 경희대학교 산학협력단 경계 필터링 강도의 결정 방법 및 이를 이용한 디블록킹필터링 방법과 장치
US7952647B2 (en) 2006-12-27 2011-05-31 Intel Corporation Method and apparatus of content adaptive detailing filtering for digital pictures
CN103559165B (zh) 2007-01-05 2016-08-17 索尼克知识产权股份有限公司 包含连续播放的视频分配***
KR101379255B1 (ko) * 2007-04-06 2014-03-28 삼성전자주식회사 미분 방정식을 이용한 인트라 예측 부호화, 복호화 방법 및장치
WO2008134482A1 (en) 2007-04-26 2008-11-06 Polycom, Inc. De-blocking filter arrangements
JP4922839B2 (ja) * 2007-06-04 2012-04-25 三洋電機株式会社 信号処理装置、映像表示装置及び信号処理方法
TWI375470B (en) * 2007-08-03 2012-10-21 Via Tech Inc Method for determining boundary strength
US8897393B1 (en) 2007-10-16 2014-11-25 Marvell International Ltd. Protected codebook selection at receiver for transmit beamforming
US8542725B1 (en) 2007-11-14 2013-09-24 Marvell International Ltd. Decision feedback equalization for signals having unequally distributed patterns
EP2223232A4 (en) 2007-11-16 2015-02-25 Sonic Ip Inc Hierarchical and reduced index structures for multimedia files
US8743972B2 (en) * 2007-12-20 2014-06-03 Vixs Systems, Inc. Coding adaptive deblocking filter and method for use therewith
WO2009091521A2 (en) * 2008-01-14 2009-07-23 Thomson Licensing Methods and apparatus for de-artifact filtering using multi-lattice sparsity-based filtering
JP4900722B2 (ja) * 2008-03-12 2012-03-21 株式会社メガチップス 画像処理装置
US8565325B1 (en) 2008-03-18 2013-10-22 Marvell International Ltd. Wireless device communication in the 60GHz band
KR101591825B1 (ko) * 2008-03-27 2016-02-18 엘지전자 주식회사 비디오 신호의 인코딩 또는 디코딩 방법 및 장치
JP4896915B2 (ja) * 2008-03-28 2012-03-14 株式会社東芝 動画像復号化装置および動画像復号化方法
US8498342B1 (en) * 2008-07-29 2013-07-30 Marvell International Ltd. Deblocking filtering
US8761261B1 (en) 2008-07-29 2014-06-24 Marvell International Ltd. Encoding using motion vectors
US8345533B1 (en) 2008-08-18 2013-01-01 Marvell International Ltd. Frame synchronization techniques
US8326075B2 (en) 2008-09-11 2012-12-04 Google Inc. System and method for video encoding using adaptive loop filter
DE102008048257B4 (de) * 2008-09-22 2012-02-09 Trident Microsystems (Far East) Ltd. Verfahren zur Detektion eines Blockrasters
JP4760889B2 (ja) * 2008-10-07 2011-08-31 ソニー株式会社 信号処理装置および方法、並びにプログラム
US8681893B1 (en) 2008-10-08 2014-03-25 Marvell International Ltd. Generating pulses using a look-up table
KR101377527B1 (ko) * 2008-10-14 2014-03-25 에스케이 텔레콤주식회사 복수 개의 참조 픽처의 움직임 벡터 부호화/복호화 방법 및장치와 그를 이용한 영상 부호화/복호화 장치 및 방법
CN101742278B (zh) * 2008-11-12 2012-11-07 富士通半导体股份有限公司 获取图像的运动矢量和边界强度的方法和***
KR101680915B1 (ko) * 2008-11-25 2016-11-29 톰슨 라이센싱 비디오 인코딩 및 디코딩을 위한 희소성-기반 아티팩트 제거 필터링 방법 및 장치
KR100994511B1 (ko) 2009-02-24 2010-11-15 중앙대학교 산학협력단 움직임 추정장치 및 방법, 그리고 오류 은닉 장치 및 방법
KR101671676B1 (ko) * 2009-03-04 2016-11-01 르네사스 일렉트로닉스 가부시키가이샤 압축 동화상 부호화 장치, 압축 동화상 복호화 장치, 압축 동화상 부호화 방법 및 압축 동화상 복호화 방법
US8320455B2 (en) * 2009-03-05 2012-11-27 Qualcomm Incorporated System and method to process motion vectors of video data
JP5568884B2 (ja) * 2009-04-02 2014-08-13 セイコーエプソン株式会社 映像処理装置、映像処理方法
US8520771B1 (en) 2009-04-29 2013-08-27 Marvell International Ltd. WCDMA modulation
US8254439B2 (en) * 2009-05-08 2012-08-28 Mediatek Inc. Apparatus and methods for motion vector correction
KR101749269B1 (ko) * 2009-06-30 2017-06-22 삼성전자주식회사 적응적인 인루프 필터를 이용한 동영상 부호화와 복호화 장치 및 그 방법
JP5597968B2 (ja) * 2009-07-01 2014-10-01 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
CN102474620A (zh) * 2009-07-10 2012-05-23 三星电子株式会社 在分层视频编码中的空间预测方法和设备
US8306355B2 (en) * 2009-07-13 2012-11-06 Sharp Laboratories Of America, Inc. Methods and systems for reducing compression artifacts
CA2782825C (en) 2009-12-04 2016-04-26 Divx, Llc Elementary bitstream cryptographic material transport systems and methods
JP5964755B2 (ja) 2009-12-31 2016-08-03 トムソン ライセンシングThomson Licensing ビデオ符号化および復号化用の適応型結合前処理および後処理フィルタのための方法および装置
CN102870411B (zh) * 2010-01-08 2016-09-21 诺基亚技术有限公司 用于视频处理的装置、方法和计算机程序
EP2360925A1 (en) * 2010-01-20 2011-08-24 Siemens Aktiengesellschaft Method for reducing noise for coding of noisy images or image sequences
US9185430B2 (en) * 2010-03-15 2015-11-10 Mediatek Singapore Pte. Ltd. Deblocking filtering method and deblocking filter
CN106231336B (zh) 2010-04-13 2020-06-12 Ge视频压缩有限责任公司 解码器、解码方法、编码器以及编码方法
KR102145722B1 (ko) 2010-04-13 2020-08-20 지이 비디오 컴프레션, 엘엘씨 샘플 영역 병합
DK3301648T3 (da) 2010-04-13 2020-04-06 Ge Video Compression Llc Nedarvning i samplearraymultitræsunderinddeling
KR102282803B1 (ko) 2010-04-13 2021-07-28 지이 비디오 컴프레션, 엘엘씨 평면 간 예측
EP2559238B1 (en) * 2010-04-13 2015-06-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Adaptive image filtering method and apparatus
CN105915921B (zh) * 2010-04-13 2019-07-02 Ge视频压缩有限责任公司 跨平面预测
CN102948144B (zh) 2010-04-26 2018-09-21 太阳专利托管公司 用于从周围块的统计推断出针对帧内预测的滤波模式
JP5784596B2 (ja) * 2010-05-13 2015-09-24 シャープ株式会社 予測画像生成装置、動画像復号装置、及び、動画像符号化装置
US8805100B2 (en) 2010-06-03 2014-08-12 Sharp Kabushiki Kaisha Filter device, image decoding device, image encoding device, and filter parameter data structure
EP2398240A1 (en) * 2010-06-16 2011-12-21 Canon Kabushiki Kaisha A method and device for encoding and decoding a video signal
US8817771B1 (en) 2010-07-16 2014-08-26 Marvell International Ltd. Method and apparatus for detecting a boundary of a data frame in a communication network
KR101681301B1 (ko) * 2010-08-12 2016-12-01 에스케이 텔레콤주식회사 필터링모드 생략가능한 영상 부호화/복호화 방법 및 장치
KR101663764B1 (ko) * 2010-08-26 2016-10-07 에스케이 텔레콤주식회사 인트라 예측을 이용한 부호화 및 복호화 장치와 방법
US20120062560A1 (en) * 2010-09-10 2012-03-15 Stereonics, Inc. Stereoscopic three dimensional projection and display
WO2012044116A2 (ko) * 2010-09-30 2012-04-05 한국전자통신연구원 적응적 예측 블록 필터링을 이용한 영상 부호화/복호화 장치 및 방법
US8976856B2 (en) * 2010-09-30 2015-03-10 Apple Inc. Optimized deblocking filters
KR101838183B1 (ko) * 2010-09-30 2018-03-16 한국전자통신연구원 적응적 예측 블록 필터링을 이용한 영상 부호화/복호화 장치 및 방법
US9055305B2 (en) 2011-01-09 2015-06-09 Mediatek Inc. Apparatus and method of sample adaptive offset for video coding
US8787443B2 (en) 2010-10-05 2014-07-22 Microsoft Corporation Content adaptive deblocking during video encoding and decoding
KR101772046B1 (ko) 2010-11-04 2017-08-29 에스케이텔레콤 주식회사 예측모드에 따라 필터링된 화소값으로 인트라예측을 수행하는 영상 부호화/복호화 방법 및 장치
WO2012060663A2 (ko) * 2010-11-04 2012-05-10 에스케이텔레콤 주식회사 예측모드에 따라 필터링된 화소값으로 인트라예측을 수행하는 영상 부호화/복호화 방법 및 장치
US9247312B2 (en) 2011-01-05 2016-01-26 Sonic Ip, Inc. Systems and methods for encoding source media in matroska container files for adaptive bitrate streaming using hypertext transfer protocol
WO2012092787A1 (en) * 2011-01-09 2012-07-12 Mediatek Inc. Apparatus and method of efficient sample adaptive offset
US9161041B2 (en) * 2011-01-09 2015-10-13 Mediatek Inc. Apparatus and method of efficient sample adaptive offset
US20120189064A1 (en) * 2011-01-14 2012-07-26 Ebrisk Video Inc. Adaptive loop filtering using multiple filter shapes
US20120182388A1 (en) * 2011-01-18 2012-07-19 Samsung Electronics Co., Ltd. Apparatus and method for processing depth image
CN107172424B (zh) * 2011-03-30 2020-04-14 Lg 电子株式会社 环路滤波方法及其设备
US9042458B2 (en) 2011-04-01 2015-05-26 Microsoft Technology Licensing, Llc Multi-threaded implementations of deblock filtering
US8781004B1 (en) 2011-04-07 2014-07-15 Google Inc. System and method for encoding video using variable loop filter
US8780996B2 (en) 2011-04-07 2014-07-15 Google, Inc. System and method for encoding and decoding video data
US8780971B1 (en) 2011-04-07 2014-07-15 Google, Inc. System and method of encoding using selectable loop filters
WO2012148841A1 (en) 2011-04-29 2012-11-01 Google Inc. Method and apparatus for detecting memory access faults
US9942573B2 (en) * 2011-06-22 2018-04-10 Texas Instruments Incorporated Systems and methods for reducing blocking artifacts
JP2013012895A (ja) * 2011-06-29 2013-01-17 Nippon Telegr & Teleph Corp <Ntt> 画像符号化装置、画像復号装置、画像符号化方法、画像復号方法、画像符号化プログラム及び画像復号プログラム
US8812662B2 (en) 2011-06-29 2014-08-19 Sonic Ip, Inc. Systems and methods for estimating available bandwidth and performing initial stream selection when streaming content
CN106658014B (zh) * 2011-06-30 2021-01-08 三菱电机株式会社 图像编码装置及方法、图像解码装置及方法
CN107295342B (zh) * 2011-07-22 2020-04-28 Sk电信有限公司 视频编码装置
JP5159927B2 (ja) * 2011-07-28 2013-03-13 株式会社東芝 動画像復号装置及び動画像復号方法
KR102163151B1 (ko) 2011-08-30 2020-10-08 디빅스, 엘엘씨 복수의 최대 비트레이트 레벨들을 사용하여 인코딩된 비디오를 인코딩하고 스트리밍하기 위한 시스템들 및 방법들
US9467708B2 (en) 2011-08-30 2016-10-11 Sonic Ip, Inc. Selection of resolutions for seamless resolution switching of multimedia content
US8799647B2 (en) 2011-08-31 2014-08-05 Sonic Ip, Inc. Systems and methods for application identification
US8806188B2 (en) 2011-08-31 2014-08-12 Sonic Ip, Inc. Systems and methods for performing adaptive bitrate streaming using automatically generated top level index files
US8964977B2 (en) 2011-09-01 2015-02-24 Sonic Ip, Inc. Systems and methods for saving encoded media streamed using adaptive bitrate streaming
US8909922B2 (en) 2011-09-01 2014-12-09 Sonic Ip, Inc. Systems and methods for playing back alternative streams of protected content protected using common cryptographic information
US8885706B2 (en) 2011-09-16 2014-11-11 Google Inc. Apparatus and methodology for a video codec system with noise reduction capability
CN103947203B (zh) * 2011-09-20 2018-08-07 Lg电子株式会社 用于编码/解码图像信息的方法和装置
US9167269B2 (en) * 2011-10-25 2015-10-20 Qualcomm Incorporated Determining boundary strength values for deblocking filtering for video coding
CA2844761C (en) * 2011-10-31 2016-11-29 Mediatek Singapore Pte. Ltd. Method and apparatus of deblocking filter with simplified boundary strength decision
KR102138907B1 (ko) 2011-11-04 2020-07-29 엘지전자 주식회사 영상 정보 인코딩/디코딩 방법 및 장치
GB201119206D0 (en) 2011-11-07 2011-12-21 Canon Kk Method and device for providing compensation offsets for a set of reconstructed samples of an image
US20130179199A1 (en) 2012-01-06 2013-07-11 Rovi Corp. Systems and methods for granting access to digital content using electronic tickets and ticket tokens
JP5828967B2 (ja) * 2012-01-17 2015-12-09 インフォブリッジ ピーティーイー. エルティーディー. エッジオフセットを適用する方法
US9113164B1 (en) 2012-05-15 2015-08-18 Google Inc. Constant bit rate control using implicit quantization values
US9510019B2 (en) * 2012-08-09 2016-11-29 Google Inc. Two-step quantization and coding method and apparatus
US9936267B2 (en) 2012-08-31 2018-04-03 Divx Cf Holdings Llc System and method for decreasing an initial buffering period of an adaptive streaming system
US9253483B2 (en) 2012-09-25 2016-02-02 Google Technology Holdings LLC Signaling of scaling list
US9407915B2 (en) 2012-10-08 2016-08-02 Google Inc. Lossless video coding with sub-frame level optimal quantization values
US9313510B2 (en) 2012-12-31 2016-04-12 Sonic Ip, Inc. Use of objective quality measures of streamed content to reduce streaming bandwidth
US9191457B2 (en) 2012-12-31 2015-11-17 Sonic Ip, Inc. Systems, methods, and media for controlling delivery of content
US9906785B2 (en) 2013-03-15 2018-02-27 Sonic Ip, Inc. Systems, methods, and media for transcoding video data according to encoding parameters indicated by received metadata
US10397292B2 (en) 2013-03-15 2019-08-27 Divx, Llc Systems, methods, and media for delivery of content
US9094737B2 (en) 2013-05-30 2015-07-28 Sonic Ip, Inc. Network video streaming with trick play based on separate trick play files
US9380099B2 (en) 2013-05-31 2016-06-28 Sonic Ip, Inc. Synchronizing multiple over the top streaming clients
US9100687B2 (en) 2013-05-31 2015-08-04 Sonic Ip, Inc. Playback synchronization across playback devices
JP2015002429A (ja) * 2013-06-14 2015-01-05 株式会社東芝 符号化装置及び監視システム
US9386067B2 (en) 2013-12-30 2016-07-05 Sonic Ip, Inc. Systems and methods for playing adaptive bitrate streaming content by multicast
KR101575635B1 (ko) 2014-01-24 2015-12-09 에스케이텔레콤 주식회사 복수 개의 참조 픽처의 움직임 벡터 부호화/복호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 장치 및 방법
KR101575616B1 (ko) 2014-01-24 2015-12-09 에스케이텔레콤 주식회사 복수 개의 참조 픽처의 움직임 벡터 부호화/복호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 장치 및 방법
KR101575636B1 (ko) 2014-01-24 2015-12-09 에스케이텔레콤 주식회사 복수 개의 움직임 벡터 추정을 이용한 움직임 벡터 부호화/복호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
KR101575645B1 (ko) 2014-01-24 2015-12-09 에스케이텔레콤 주식회사 복수 개의 참조 픽처의 움직임 벡터 부호화/복호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 장치 및 방법
KR101575605B1 (ko) 2014-01-24 2015-12-10 에스케이텔레콤 주식회사 복수 개의 참조 픽처의 움직임 벡터 부호화/복호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 장치 및 방법
US9866878B2 (en) 2014-04-05 2018-01-09 Sonic Ip, Inc. Systems and methods for encoding and playing back video at different frame rates using enhancement layers
AU2014202921B2 (en) * 2014-05-29 2017-02-02 Canon Kabushiki Kaisha Method, apparatus and system for de-blocking a block of video samples
KR101590493B1 (ko) 2014-06-12 2016-02-02 에스케이텔레콤 주식회사 인터 예측을 이용한 영상 부호화 및 복호화 방법과 장치
KR101582504B1 (ko) * 2014-06-12 2016-01-07 에스케이텔레콤 주식회사 인터 예측을 이용한 영상 부호화 및 복호화 방법과 장치
US9762937B2 (en) 2014-08-07 2017-09-12 Sonic Ip, Inc. Systems and methods for protecting elementary bitstreams incorporating independently encoded tiles
WO2016043933A1 (en) * 2014-09-15 2016-03-24 Mediatek Inc. Method of deblocking for intra block copy in video coding
US10102613B2 (en) 2014-09-25 2018-10-16 Google Llc Frequency-domain denoising
CN113259731B (zh) 2015-01-06 2023-07-04 帝威视有限公司 用于编码内容和在设备之间共享内容的***和方法
KR101897959B1 (ko) 2015-02-27 2018-09-12 쏘닉 아이피, 아이엔씨. 라이브 비디오 인코딩 및 스트리밍에서의 프레임 복제 및 프레임 확장을 위한 시스템 및 방법
JP6593934B2 (ja) * 2015-05-21 2019-10-23 ホアウェイ・テクノロジーズ・カンパニー・リミテッド 映像動き補償のための装置および方法
WO2017045101A1 (en) * 2015-09-14 2017-03-23 Mediatek Singapore Pte. Ltd. Advanced deblocking filter in video coding
US10075292B2 (en) 2016-03-30 2018-09-11 Divx, Llc Systems and methods for quick start-up of playback
US10129574B2 (en) 2016-05-24 2018-11-13 Divx, Llc Systems and methods for providing variable speeds in a trick-play mode
US10231001B2 (en) 2016-05-24 2019-03-12 Divx, Llc Systems and methods for providing audio content during trick-play playback
US10148989B2 (en) 2016-06-15 2018-12-04 Divx, Llc Systems and methods for encoding video content
US10498795B2 (en) 2017-02-17 2019-12-03 Divx, Llc Systems and methods for adaptive switching between multiple content delivery networks during adaptive bitrate streaming
CN107465917B (zh) * 2017-07-21 2020-07-21 广西数科院科技有限公司 一种医学图像的无损压缩及传输的方法
EP3454556A1 (en) * 2017-09-08 2019-03-13 Thomson Licensing Method and apparatus for video encoding and decoding using pattern-based block filtering
JP7158008B2 (ja) 2018-09-06 2022-10-21 オークマ株式会社 加工品の回収機構および回収方法
ES2974683T3 (es) 2019-03-21 2024-07-01 Divx Llc Sistemas y métodos para enjambres multimedia
CN117041573A (zh) 2019-07-09 2023-11-10 Lg电子株式会社 编码/解码设备及用于发送数据的设备
KR20220021961A (ko) 2020-08-13 2022-02-23 삼성전자주식회사 전자 장치 및 전자 장치의 동작 방법
CN113709504B (zh) * 2021-10-27 2022-02-15 深圳传音控股股份有限公司 图像处理方法、智能终端及可读存储介质

Family Cites Families (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0077388A1 (en) 1981-04-22 1983-04-27 STANFIELD, Charles E. Rail car vibration platform
US5625714A (en) * 1991-01-10 1997-04-29 Olympus Optical Co., Ltd. Image signal decoding device capable of removing block distortion with simple structure
JP2919986B2 (ja) 1991-03-19 1999-07-19 オリンパス光学工業株式会社 画像信号復号化装置
KR960006762B1 (ko) * 1992-02-29 1996-05-23 삼성전자주식회사 화상부호화를 위한 효율적인 2차원 데이타의 주사선택회로
US5479211A (en) 1992-04-30 1995-12-26 Olympus Optical Co., Ltd. Image-signal decoding apparatus
KR0148130B1 (ko) 1992-05-18 1998-09-15 강진구 블럭킹아티팩트를 억제시키는 부호화/복호화 방법 및 그 장치
US5565921A (en) 1993-03-16 1996-10-15 Olympus Optical Co., Ltd. Motion-adaptive image signal processing system
AU677997B2 (en) * 1993-04-06 1997-05-15 Abacus Holdings Limited Raising and lowering columns
US5473384A (en) * 1993-12-16 1995-12-05 At&T Corp. Method of and system for enhancing distorted graphical information
JPH07236159A (ja) 1994-02-21 1995-09-05 Sony Corp 動き補償符号化方法、動き補償符号化装置、伝送装置および記録装置
TW293227B (es) 1994-11-24 1996-12-11 Victor Company Of Japan
JP2924691B2 (ja) 1995-01-26 1999-07-26 日本ビクター株式会社 量子化ノイズの低減方法及び画像データの復号化装置
US5654759A (en) * 1995-02-15 1997-08-05 Hitachi America Ltd. Methods and apparatus for reducing blockiness in decoded video
KR0174452B1 (ko) 1995-02-28 1999-03-20 배순훈 디지털 영상 복호화장치
EP0731614B1 (en) * 1995-03-10 2002-02-06 Kabushiki Kaisha Toshiba Video coding/decoding apparatus
US5585921A (en) * 1995-03-15 1996-12-17 Hughes Aircraft Company Laser-ultrasonic non-destructive, non-contacting inspection system
KR100221308B1 (ko) * 1995-04-29 1999-09-15 전주범 블록화 현상 제거 장치 및 이를 이용한 동영상 복호화기
US5794196A (en) * 1995-06-30 1998-08-11 Kurzweil Applied Intelligence, Inc. Speech recognition system distinguishing dictation from commands by arbitration between continuous speech and isolated word modules
JPH0993132A (ja) 1995-09-27 1997-04-04 Toshiba Corp 符号化・復号化装置及び方法
US5737204A (en) * 1995-10-12 1998-04-07 Dell U.S.A. L.P. Method and apparatus for interfacing battery backup to power factor correction front end for maintaining power
JP3392307B2 (ja) * 1995-11-02 2003-03-31 松下電器産業株式会社 画像信号平滑化装置および画像信号平滑化方法
JPH09163373A (ja) 1995-12-08 1997-06-20 Toshiba Corp 雑音低減装置
US5974196A (en) * 1996-03-15 1999-10-26 Sony Corporation Method and apparatus for blocking effect reduction in images
US5933542A (en) * 1996-04-24 1999-08-03 Sony Corporation Method and apparatus for blocking effect reduction in images by post-processing in the spatial domain
EP1469680B1 (en) * 1996-05-14 2008-06-18 Daewoo Electronics Corporation Method and apparatus for removing blocking effects in a motion picture decoder
KR100230841B1 (ko) * 1996-05-14 1999-11-15 전주범 동영상 복호기의 블록화 현상 제거 방법 및 그 장치(Method of and Device for eliminating blocking effect in a motion picture decoder)
JPH1070717A (ja) 1996-06-19 1998-03-10 Matsushita Electric Ind Co Ltd 画像符号化装置及び画像復号化装置
DE19626985C1 (de) * 1996-07-04 1998-01-02 Siemens Ag Verfahren und Anordnung zur Reduktion von Codierungsartefakten von blockbasierten Bildcodierungsverfahren und objektbasierten Bildcodierungsverfahren
JP4157929B2 (ja) * 1996-09-30 2008-10-01 株式会社ハイニックスセミコンダクター 映像情報符号化/復号化装置
JP3466032B2 (ja) 1996-10-24 2003-11-10 富士通株式会社 動画像符号化装置および復号化装置
US6057864A (en) * 1997-06-03 2000-05-02 Eastman Kodak Company Image producing apparatus for uniform microfluidic printing
US6057884A (en) 1997-06-05 2000-05-02 General Instrument Corporation Temporal and spatial scaleable coding for video object planes
US6044177A (en) * 1997-06-18 2000-03-28 Hewlett-Packard Company Artifact reduction decompression method and apparatus for interpolated images
JPH11275584A (ja) 1998-03-23 1999-10-08 Hitachi Ltd 画像信号のブロック歪み低減回路
AU717480B2 (en) * 1998-08-01 2000-03-30 Korea Advanced Institute Of Science And Technology Loop-filtering method for image data and apparatus therefor
JP4004653B2 (ja) * 1998-08-03 2007-11-07 カスタム・テクノロジー株式会社 動きベクトル検出方法および装置、記録媒体
US6459814B1 (en) 1998-09-08 2002-10-01 Sarnoff Corporation Method and apparatus for generic scalable shape coding by deriving shape information for chrominance components from luminance component
EP1072157A1 (en) * 1999-02-16 2001-01-31 Koninklijke Philips Electronics N.V. Video decoding device and method using a filtering step for block effect reduction
JP2000299864A (ja) 1999-04-12 2000-10-24 Canon Inc 動画像処理方法
JP2001094996A (ja) 1999-07-19 2001-04-06 Sony Corp ブロック歪低減方法及びブロック歪低減装置
CN1286575A (zh) * 1999-08-25 2001-03-07 松下电器产业株式会社 噪声检测方法、噪声检测装置及图象编码装置
JP2001204029A (ja) 1999-08-25 2001-07-27 Matsushita Electric Ind Co Ltd ノイズ検出方法、ノイズ検出装置及び画像復号化装置
FI117533B (fi) * 2000-01-20 2006-11-15 Nokia Corp Menetelmä digitaalisten videokuvien suodattamiseksi
JP3664626B2 (ja) 2000-02-10 2005-06-29 シャープ株式会社 フィルタ装置
JP2001245297A (ja) 2000-02-29 2001-09-07 Toshiba Corp 動画像画像符号化装置および動画像復号化装置および動画像符号化方法および動画像復号化方法
US7450641B2 (en) 2001-09-14 2008-11-11 Sharp Laboratories Of America, Inc. Adaptive filtering based upon boundary strength
US6931063B2 (en) 2001-03-26 2005-08-16 Sharp Laboratories Of America, Inc. Method and apparatus for controlling loop filtering or post filtering in block based motion compensationed video coding
GB0111431D0 (en) 2001-05-11 2001-07-04 Koninkl Philips Electronics Nv A real-world representation system and language
JP3964391B2 (ja) 2001-06-29 2007-08-22 株式会社エヌ・ティ・ティ・ドコモ 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法
US7227901B2 (en) 2002-11-21 2007-06-05 Ub Video Inc. Low-complexity deblocking filter
KR20060105408A (ko) 2005-04-01 2006-10-11 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
JP2004328634A (ja) 2003-04-28 2004-11-18 Sony Corp 画像復号化装置及び方法
JP4191729B2 (ja) 2005-01-04 2008-12-03 三星電子株式会社 イントラblモードを考慮したデブロックフィルタリング方法、及び該方法を用いる多階層ビデオエンコーダ/デコーダ
KR100679035B1 (ko) 2005-01-04 2007-02-06 삼성전자주식회사 인트라 bl 모드를 고려한 디블록 필터링 방법, 및 상기방법을 이용하는 다 계층 비디오 인코더/디코더
US8315308B2 (en) * 2006-01-11 2012-11-20 Qualcomm Incorporated Video coding with fine granularity spatial scalability

Also Published As

Publication number Publication date
PT2259596E (pt) 2012-06-15
US20030053541A1 (en) 2003-03-20
CA2616751A1 (en) 2003-03-27
JP2005192228A (ja) 2005-07-14
US8891634B2 (en) 2014-11-18
JP2011061851A (ja) 2011-03-24
KR100612785B1 (ko) 2006-08-17
KR20060054485A (ko) 2006-05-22
US10257511B2 (en) 2019-04-09
EP1838107B9 (en) 2012-11-07
JP4723022B2 (ja) 2011-07-13
JP4094019B2 (ja) 2008-06-04
PT2259597E (pt) 2012-06-15
US7450641B2 (en) 2008-11-11
JP4372019B2 (ja) 2009-11-25
CA2989854C (en) 2018-05-22
CA2925139A1 (en) 2003-03-27
KR20040035768A (ko) 2004-04-29
US20060171472A1 (en) 2006-08-03
JP5216070B2 (ja) 2013-06-19
CA2973279C (en) 2020-02-25
ES2383532T3 (es) 2012-06-22
CA3001227C (en) 2018-08-21
EP1562384B1 (en) 2012-05-02
ATE557542T1 (de) 2012-05-15
US9124888B2 (en) 2015-09-01
CA2454867C (en) 2008-12-02
JP5216071B2 (ja) 2013-06-19
US8040957B2 (en) 2011-10-18
US20190191157A1 (en) 2019-06-20
CA3044011C (en) 2020-06-16
JP2008167456A (ja) 2008-07-17
EP1425922A1 (en) 2004-06-09
EP1838107A2 (en) 2007-09-26
US10349051B1 (en) 2019-07-09
US9848191B2 (en) 2017-12-19
CA2989854A1 (en) 2003-03-27
CN1756368A (zh) 2006-04-05
US20150341666A1 (en) 2015-11-26
US9872024B2 (en) 2018-01-16
EP1425922B1 (en) 2012-05-09
JP2006054916A (ja) 2006-02-23
JP2012085319A (ja) 2012-04-26
US10178386B2 (en) 2019-01-08
PT1562384E (pt) 2012-06-15
US20060268988A1 (en) 2006-11-30
CA3044014C (en) 2020-06-23
US10602142B2 (en) 2020-03-24
CA2989883C (en) 2018-05-22
JP2011061850A (ja) 2011-03-24
CA2925141C (en) 2017-10-17
EP2259596B1 (en) 2012-05-09
US20070098278A1 (en) 2007-05-03
ATE556539T1 (de) 2012-05-15
CN100512447C (zh) 2009-07-08
US7907667B2 (en) 2011-03-15
US9866834B2 (en) 2018-01-09
US9407913B2 (en) 2016-08-02
PT1425922E (pt) 2012-06-15
CA2989883A1 (en) 2003-03-27
EP1562384A3 (en) 2005-11-30
JP2005192229A (ja) 2005-07-14
CA3044017A1 (en) 2003-03-27
EP1425922A4 (en) 2005-11-30
US20170339407A1 (en) 2017-11-23
US20160261890A1 (en) 2016-09-08
EP1838107A3 (en) 2007-10-03
ES2383661T3 (es) 2012-06-25
US20070098077A1 (en) 2007-05-03
JP2011061847A (ja) 2011-03-24
CA3001216C (en) 2018-08-21
CA2616751C (en) 2011-03-29
HK1070223A1 (en) 2005-06-10
EP2259596A1 (en) 2010-12-08
WO2003026313A1 (en) 2003-03-27
EP2259597B1 (en) 2012-05-09
US20190075292A1 (en) 2019-03-07
US7613240B2 (en) 2009-11-03
JP2010093844A (ja) 2010-04-22
US20180070081A1 (en) 2018-03-08
JP5222343B2 (ja) 2013-06-26
ES2383664T3 (es) 2012-06-25
CA3001227A1 (en) 2003-03-27
CA3001246C (en) 2018-08-21
CA3011691A1 (en) 2003-03-27
CA3044014A1 (en) 2003-03-27
KR20060129096A (ko) 2006-12-14
JP2010093845A (ja) 2010-04-22
CA2706895C (en) 2016-06-14
US20070098076A1 (en) 2007-05-03
CA3011691C (en) 2019-07-23
EP1838107B1 (en) 2012-05-02
KR100785588B1 (ko) 2007-12-13
US9609327B1 (en) 2017-03-28
EP1562384A2 (en) 2005-08-10
JP2005503737A (ja) 2005-02-03
ES2383603T3 (es) 2012-06-22
KR100751670B1 (ko) 2007-08-23
JP2011091824A (ja) 2011-05-06
PT1838107E (pt) 2012-06-15
CN1555652A (zh) 2004-12-15
ATE556540T1 (de) 2012-05-15
CA2973279A1 (en) 2003-03-27
JP4372197B2 (ja) 2009-11-25
CA3001216A1 (en) 2003-03-27
JP4672065B2 (ja) 2011-04-20
KR100785589B1 (ko) 2007-12-13
CA3001246A1 (en) 2003-03-27
JP2009147966A (ja) 2009-07-02
CA2454867A1 (en) 2003-03-27
JP3688283B2 (ja) 2005-08-24
CA2925139C (en) 2017-08-22
US20170339406A1 (en) 2017-11-23
ATE557543T1 (de) 2012-05-15
CA3011301C (en) 2019-01-08
CA3011301A1 (en) 2003-03-27
US9407914B2 (en) 2016-08-02
US20100260264A1 (en) 2010-10-14
US20040190626A1 (en) 2004-09-30
JP2011061848A (ja) 2011-03-24
ATE557544T1 (de) 2012-05-15
HK1106376A1 (en) 2008-03-07
CN1311691C (zh) 2007-04-18
JP2011061849A (ja) 2011-03-24
CA3044017C (en) 2020-05-26
JP4672074B2 (ja) 2011-04-20
CA3044011A1 (en) 2003-03-27
CN101014130B (zh) 2013-06-12
EP1425922B9 (en) 2012-11-14
JP2010045833A (ja) 2010-02-25
US20170155900A1 (en) 2017-06-01
EP1562384B9 (en) 2012-11-07
JP2010004555A (ja) 2010-01-07
JP4672077B2 (ja) 2011-04-20
KR20070057254A (ko) 2007-06-04
CA2706895A1 (en) 2003-03-27
US8798173B2 (en) 2014-08-05
JP4672078B2 (ja) 2011-04-20
US9344730B2 (en) 2016-05-17
CA2925141A1 (en) 2003-03-27
US7787542B2 (en) 2010-08-31
US20170078660A1 (en) 2017-03-16
US20150103889A1 (en) 2015-04-16
US20160142707A1 (en) 2016-05-19
EP2259597A1 (en) 2010-12-08
JP4723023B2 (ja) 2011-07-13
CN101014130A (zh) 2007-08-08
JP5346908B2 (ja) 2013-11-20
US20180070080A1 (en) 2018-03-08
US9503759B2 (en) 2016-11-22
JP3688288B2 (ja) 2005-08-24
US20160142708A1 (en) 2016-05-19
JP2010045832A (ja) 2010-02-25

Similar Documents

Publication Publication Date Title
ES2383519T3 (es) Filtrado adaptativo basado en la intensidad del límite