BR122020014282B1 - Método para gerar um bloco reconstruído - Google Patents

Método para gerar um bloco reconstruído Download PDF

Info

Publication number
BR122020014282B1
BR122020014282B1 BR122020014282-0A BR122020014282A BR122020014282B1 BR 122020014282 B1 BR122020014282 B1 BR 122020014282B1 BR 122020014282 A BR122020014282 A BR 122020014282A BR 122020014282 B1 BR122020014282 B1 BR 122020014282B1
Authority
BR
Brazil
Prior art keywords
mode
block
intraprediction
unit
prediction
Prior art date
Application number
BR122020014282-0A
Other languages
English (en)
Inventor
Soo Mi Oh
Moonock Yang
Original Assignee
Infobridge Pte. Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Infobridge Pte. Ltd. filed Critical Infobridge Pte. Ltd.
Priority claimed from BR112014007869-6A external-priority patent/BR112014007869B1/pt
Publication of BR122020014282B1 publication Critical patent/BR122020014282B1/pt

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/192Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Electrotherapy Devices (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

é apresentado um método que deriva um modo de intrapredição de uma unidade de predição, determina o tamanho do bloco atual usando-se informações sobre tamanho de transformada, gera um bloco de predição do bloco atual de acordo com o modo de intrapredição, gerando um bloco residual do bloco atual de acordo com o modo de intrapredição e gerando um bloco reconstruído do bloco atual usando-se o bloco de predição e o bloco residual. os tamanhos do bloco de predição e do bloco residual são definidos como iguais ao tamanho de uma unidade de transformada. portanto, a distância de intrapredição se torna curta, e a quantidade de bits de codificação do bloco residual é reduzida pela geração de um bloco de predição muito semelhante ao bloco original. além disto, os bits de sinalização necessários para sinalizar o modo de intrapredição diminuem com a geração de um grupo mpm adaptativamente de acordo com os modos de intrapredição vizinhos.

Description

Campo Técnico
[001]A presente invenção refere-se a um método e um aparelho para decodificar uma imagem e, mais especificamente, a um método e um aparelho para gerar adaptativamente um bloco de predição e um bloco residual que têm tamanho igual ao de uma unidade de transformada de acordo com um modo de intrapredição.
Técnica Anterior
[002]No H.264/MPEG-4 AVC, uma imagem é dividida em macroblocos de modo a se codificar uma imagem, os respectivos macroblocos sendo codificados pela geração de um bloco de predição com o uso de interpredição ou intrapredição. A diferença entre um bloco original e o bloco de predição é transformada de modo a se gerar um bloco transformado, e o bloco transformado é quantizado usando-se um parâmetro de quantização e uma de uma série de matrizes de quantização predeterminadas. O coeficiente quantizado do bloco quantizado é varrido por um tipo de varredura predeterminado e em seguida codificado por entropia. Os parâmetros de quantização são ajustados por macrobloco e codificados usando-se um parâmetro de quantização prévio.
[003]Entrementes, técnicas que usam diversos tamanhos de unidade de codificação são introduzidas para aperfeiçoar a eficácia de codificação. Técnicas que aumentam o número de modos de intrapredição são também introduzidas para gerar um bloco de predição mais semelhante a um bloco original.
[004]Porém, se o número de modos de intrapredição aumentar, a quantidade de bits de codificação necessários para sinalizar o modo de intrapredição torna-se maior. Além disto, se o tamanho da unidade de codificação for maior, a diferença entre um bloco original e um bloco de predição é maior.
[005]Por conseguinte, é necessário um método mais eficaz para sinalizar o modo de intrapredição. Um método mais eficaz é também necessário para reduzir ao mínimo a diferença entre o bloco original e o bloco de predição e para reduzir ao mínimo os bits de codificação do bloco residual.
Revelação Problema Técnico
[006]A presente invenção refere-se a um método para derivar um modo de intrapredição de uma unidade de predição, determinar o tamanho do bloco atual com o uso de informações sobre tamanho de transformada, gerar um bloco de predição e um bloco residual do bloco atual de acordo com o modo de intrapredição e gerar um bloco reconstruído do bloco atual com o uso do bloco de predição e do bloco residual.
Solução Técnica
[007]Um aspecto da presente invenção provê um método para gerar um bloco reconstruído, que compreende: derivar um modo de intrapredição de uma unidade de predição, determinar o tamanho do bloco atual com o uso de informações sobre tamanho de transformada, gerar um bloco de predição e um bloco residual do bloco atual de acordo com o modo de intrapredição, gerar um bloco residual do bloco atual de acordo com o modo de intrapredição e gerar um bloco reconstruído do bloco atual com o uso do bloco de predição e do bloco residual.
Efeitos Vantajosos
[008]Um método de acordo com a presente invenção deriva um modo de intrapredição de uma unidade de predição, determina o tamanho do bloco atual com o uso de informações sobre tamanho de transformada, gera um bloco de predição do bloco atual de acordo com o modo de intrapredição, gera um bloco residual do bloco atual de acordo com o modo de intrapredição e gera um bloco reconstruído do bloco atual com o uso do bloco de predição e do bloco residual. Os tamanhos do bloco de predição e do bloco residual são definidos como iguais ao tamanho de uma unidade de transformada. Portanto, a distância de intrapredição torna-se curta, e a quantidade de bits de codificação do bloco residual é reduzida com a geração de um bloco de predição muito semelhante ao bloco original. Além disto, os bits de sinalização necessários para sinalizar o modo de intrapredição diminuem com a geração do grupo MPM adaptativamente de acordo com os modos de intrapredição vizinhos.
Descrição dos Desenhos
[009]A Figura 1 é um diagrama de blocos de um aparelho de codificação de imagens de acordo com a presente invenção.
[010]A Figura 2 é um diagrama de blocos de um aparelho de decodificação de imagens de acordo com a presente invenção.
[011]A Figura 3 é um fluxograma que mostra um procedimento de gerar um bloco reconstruído em intrapredição de acordo com a presente invenção.
[012]A Figura 4 é um fluxograma que mostra um procedimento de derivar um modo de intrapredição da unidade de predição atual de acordo com a presente invenção.
[013]A Figura 5 é um diagrama conceptual que mostra modos de intrapredição de acordo com a presente invenção.
[014]A Figura 6 é um fluxograma que mostra um procedimento de gerar um bloco de predição de acordo com a presente invenção.
[015]A Figura 7 é um diagrama conceptual que mostra posições dos pixels de referência do bloco atual de acordo com a presente invenção.
[016]A Figura 8 é um fluxograma que mostra um procedimento de gerar um bloco residual de acordo com a presente invenção.
[017]A Figura 9 é um fluxograma que mostra um procedimento de derivar parâmetros de quantização de acordo com a presente invenção.
[018]A Figura 10 é um diagrama de blocos que mostra um aparelho para gerar um bloco reconstruído de acordo com a presente invenção.
Modos para a Invenção
[019]Em seguida, diversas modalidades da presente invenção serão descritas em detalhe com referência aos desenhos anexos. Entretanto, a presente invenção não está limitada às modalidades exemplares reveladas a seguir, mas pode ser implementada em diversos tipos. Portanto, muitas outras modificações e variações da presente invenção são possíveis, e deve ficar entendido que, dentro do alcance do conceito revelado, a presente invenção pode ser posta em prática de uma maneira diferente da que foi especificamente descrita.
[020]A Figura 1 é um diagrama de blocos de um aparelho de codificação de imagens 100 de acordo com a presente invenção.
[021]Com referência à Figura 1, o aparelho de codificação de imagens 100 de acordo com a presente invenção inclui uma unidade de divisão de imagens 101, uma unidade de transformada 103, uma unidade de quantização 104, uma unidade de varredura 105, uma unidade de codificação por entropia 106, uma unidade de quantização inversa 107, uma unidade de transformada inversa 108, uma unidade de pós-processamento 110, uma unidade de armazenamento de imagens 111, uma unidade de intrapredição 112, uma unidade de interpredição 113, um subtrator 102 e um adicionador 109.
[022]A unidade de divisão de imagens 101 divide uma imagem ou uma fatia em uma série de unidades de codificação maiores (LCUs) e divide cada LCU em uma ou mais unidades de codificação. A unidade de divisão de imagens 101 determina o modo de predição de cada unidade de codificação e o tamanho da unidade de predição e o tamanho da unidade de transformada.
[023]Uma LCU inclui uma ou mais unidades de codificação. A LCU tem uma estrutura de transformação quad-tree recursiva para especificar uma estrutura de divisão. Informações que especificam o tamanho máximo e o tamanho mínimo da unidade de codificação são incluídas em um conjunto de parâmetros de sequência. A estrutura de divisão é especificada por um ou mais indicadores de unidade de codificação dividida (split_cu_flags). A unidade de codificação tem um tamanho de 2Nx2N.
[024]Uma unidade de codificação inclui uma ou mais unidades de predição. Na intrapredição, o tamanho da unidade de predição é 2Nx2N ou NxN. Na interpredição, o tamanho da unidade de predição é 2Nx2N, 2NxN ou NxN. Quando a unidade de predição é uma partição assimétrica na interpredição, o tamanho da unidade de predição pode ser também um de hNx2N, (2-h)Nx2N, 2NxhN e 2Nx(2-h)N. O valor de h é 1/2.
[025]A unidade de codificação inclui uma ou mais unidades de transformada. A unidade de transformada tem uma estrutura de transformação quad-tree recursiva para especificar uma estrutura de divisão. A estrutura de divisão é especificada por um ou mais indicadores de unidade de transformada dividida (split_tu_flags). Informações que especificam o tamanho máximo e o tamanho mínimo da unidade de transformada são incluídas em um conjunto de parâmetros de sequência.
[026]A unidade de intrapredição 112 determina um modo de intrapredição de unidade de predição atual e gera um bloco de predição usando o modo de intrapredição. O bloco de predição tem o mesmo tamanho da unidade de transformada.
[027]A unidade de interpredição 113 determina informações sobre movimento da unidade de predição atual usando uma ou mais imagens de referência armazenadas na unidade de armazenamento de imagens 111 e gera um bloco de predição da unidade de predição. As informações sobre movimento incluem um ou mais índices de imagem de referência e um ou mais vetores de movimento.
[028]A unidade de transformada 103 transforma os sinais residuais gerados usando um bloco original e um bloco de predição de modo a gerar um bloco de transformada. Os sinais residuais são transformados em unidades de transformada. O tipo de transformada é uma transformada de número inteiro baseada em DCT ou uma transformada de número inteiro baseada em DST. Por exemplo, na interpredição são usadas transformadas de número inteiro baseada em DCT. No modo de intrapredição, se o tamanho da unidade de transformada for menor que um tamanho predeterminado, são usadas as transformadas de número inteiro baseadas em DST, caso contrário são usadas as transformadas de número inteiro baseadas em DCT.
[029]A unidade de quantização 104 determina um parâmetro de quantização para quantizar o bloco transformado. O parâmetro de quantização é um tamanho de etapa de quantização. O parâmetro de quantização é determinado por unidade de quantização. O tamanho da unidade de quantização é um dos tamanhos permissíveis da unidade de codificação. Se o tamanho da unidade de codificação for igual ao ou maior que o tamanho mínimo da unidade de quantização, a unidade de codificação torna-se a unidade de quantização. Uma série de unidades de codificação pode ser incluída em uma unidade de quantização. O tamanho mínimo da unidade de quantização é determinado por imagem e as informações que especificam o tamanho mínimo da unidade de quantização são incluídas em um conjunto de parâmetros de sequência.
[030]A unidade de quantização 104 gera um preditor de parâmetros de quantização e gera um parâmetro de quantização diferencial subtraindo o preditor de parâmetros de quantização do parâmetro de quantização. O parâmetro de quantização diferencial é codificado por entropia e incluído na sintaxe da unidade de codificação.
[031]O preditor de parâmetros de quantização é gerado pelo uso de parâmetros de quantização de unidades de codificação vizinhas e um parâmetro de quantização da unidade de codificação anterior da maneira seguinte.
[032]Um parâmetro de quantização à esquerda, um parâmetro de quantização acima e um parâmetro de quantização anterior são recuperados sequencialmente nesta ordem. A meda dos dois primeiros parâmetros de quantização disponíveis recuperados nessa ordem é fixada como o preditor de parâmetros de quantização quando dois ou mais parâmetros de quantização estão disponíveis e, quando apenas um parâmetro de quantização está disponível, o parâmetro de quantização disponível é definido como o preditor de parâmetros de quantização. Se apenas um dos parâmetros de quantização à esquerda e acima estiver disponível, a média do parâmetro de quantização disponível e do parâmetro de quantização anterior é fixada como o preditor de parâmetros de quantização. Se ambos os parâmetros de quantização à esquerda e acima estiverem indisponíveis, o parâmetro de quantização anterior é definido como o preditor de parâmetros de quantização. A média é arredondada.
[033]A unidade de quantização 104 quantiza o bloco transformado usando uma matriz de quantização e o parâmetro de quantização para gerar o bloco quantizado. O bloco quantizado é enviado à unidade de quantização inversa 107 e à unidade de varredura 105.
[034]A unidade de varredura 106 determina um padrão de varredura e aplica o padrão de varredura ao bloco quantizado. Quando a CABAC (codificação aritmética binária adaptativa ao Contexto) é usada na codificação por entropia, o padrão de varredura é determinado da maneira seguinte.
[035]Na intrapredição, o padrão de varredura é determinado pelo modo de intrapredição e pelo tamanho da unidade de transformada. O tamanho da unidade de transformada, o tamanho do bloco transformado e o tamanho do bloco quantizado são os mesmos. O padrão de varredura é selecionado dentre uma varredura diagonal, uma varredura vertical e uma varredura horizontal. Os coeficientes de transformada quantizados do bloco quantizado são divididos em indicadores significativos, sinais de coeficiente e níveis de coeficiente, respectivamente. O indicador significativo indica se o coeficiente de transformada quantizado correspondente é zero ou não. O sinal de coeficiente indica um sinal de coeficiente de transformada quantizado não zero, e o nível de coeficiente indica o valor absoluto do coeficiente de transformada quantizado não zero.
[036]Quando o tamanho da unidade de transformada é igual a ou menor que um primeiro tamanho, a varredura horizontal é selecionada para o modo vertical e um número predeterminado de modos de intrapredição vizinhos do modo vertical em direcionalidade, a varredura vertical é selecionada para o modo horizontal e o número predeterminado de modos de intrapredição vizinhos do modo horizontal em direcionalidade, e a varredura diagonal é selecionada para os outros modos de intrapredição. Quando o tamanho da unidade de transformada é maior que o primeiro tamanho, a varredura diagonal é usada. O primeiro tamanho é 8x8.
[037]Na interpredição, um padrão de varredura predeterminado é usado independentemente do tamanho da unidade de transformada. O padrão de varredura predeterminado é a varredura diagonal quando a CABAC é usada na codificação por entropia.
[038]Quando o tamanho da unidade de transformada é maior que um segundo tamanho, o bloco quantizado é dividido em um subconjunto principal e uma série de subconjuntos restantes e o padrão de varredura determinado é aplicado a cada subconjunto. Indicadores significativos, sinais de coeficiente e níveis de coeficiente de cada subconjunto são varridos respectivamente de acordo com o padrão de varredura determinado. O subconjunto principal inclui coeficiente DC e os subconjuntos restantes cobrem a outra região que não a região coberta pelo subconjunto principal. O segundo tamanho é 4x4. O tamanho do subconjunto pode ser um bloco de 4x4 ou pode variar de acordo com o padrão de varredura. O subconjunto contém 16 coeficientes de transformada.
[039]O padrão de varredura para varrer os subconjuntos é o mesmo padrão de varredura para varrer os coeficientes de transformada quantizados de cada subconjunto. Os coeficientes de transformada quantizados de cada subconjunto são varridos na direção inversa. Os subconjuntos são também varridos na direção inversa.
[040]As últimas posições de coeficiente não zero são codificadas e transmitidas para o decodificador. A última posição de coeficiente não zero especifica a posição do último coeficiente de transformada quantizado não zero dentro da unidade de transformada. O indicador de subconjunto não zero é definido para cada subconjunto outro que não o subconjunto principal e o último subconjunto. O último subconjunto cobre o último coeficiente não zero. O indicador de subconjunto não zero indica se o subconjunto contém os coeficientes não zero ou não.
[041]A unidade de quantização inversa 107 quantiza inversamente os coeficientes de transformada quantizados do bloco quantizado.
[042]A unidade de transformada inversa 108 transforma inversamente o bloco quantizado inverso de modo a gerar sinais residuais do domínio espacial.
[043]O adicionador 109 gera um bloco reconstruído adicionando o bloco residual e o bloco de predição.
[044]A unidade de pós-processamento 110 executa um processo de filtragem por desblocagem para remover artefatos de blocagem gerados em uma imagem reconstruída.
[045]A unidade de armazenamento de imagens 111 recebe a imagem pós- processada da unidade de pós-processamento 110 e armazena a imagem em unidades de imagem. Uma imagem pode ser um quadro ou um campo.
[046]A unidade de codificação por entropia 106 codifica por entropia as informações sobre coeficiente unidimensional recebidas da unidade de varredura 105, as informações de intrapredição recebidas da unidade de intrapredição 112, as informações sobre movimento recebidas da unidade de interpredição 113 e assim por diante.
[047]A Figura 2 é um diagrama de blocos de um aparelho de decodificação de imagens 200 de acordo com a presente invenção.
[048]O aparelho de decodificação de imagens 200 de acordo com a presente invenção inclui uma unidade de decodificação por entropia 201, uma unidade de varredura inversa 202, uma unidade de quantização inversa 203, uma unidade de transformada inversa 204, um adicionador 205, uma unidade de pós-processamento 206, uma unidade de armazenamento de imagens 207, uma unidade de intrapredição 208 e uma unidade de interpredição 209.
[049]A unidade de decodificação por entropia 201 extrai as informações de intrapredição, as informações de interpredição e as informações sobre coeficiente unidimensional de um fluxo de bits recebido. A unidade de decodificação por entropia 201 transmite as informações de interpredição para a unidade de interpredição 2)9, as informações de intrapredição para a unidade de intrapredição 208 e as informações sobre coeficiente(s) para a unidade de varredura inversa 202.
[050]A unidade de varredura inversa 202 usa um padrão de varredura inversa para gerar um bloco quantizado. Quando a CABAC é usada para codificação por entropia, o padrão de varredura é determinado da maneira seguinte.
[051]Na intrapredição, o padrão de varredura inversa é determinado pelo modo de intrapredição e pelo tamanho da unidade de transformada. O padrão de varredura inversa é selecionado dentre uma varredura diagonal, uma varredura vertical e uma varredura horizontal. O padrão de varredura inversa selecionado é aplicado a indicadores significativos, sinais de coeficiente e níveis de coeficiente, respectivamente, de modo a se gerar o bloco quantizado.
[052]Quando o tamanho da unidade de transformada é igual a ou menor que um primeiro tamanho, a varredura horizontal é selecionada para o modo vertical e um número predeterminado de modos de intrapredição vizinhos do modo vertical, a varredura vertical é selecionada para o modo horizontal e o número predeterminado de modos de intrapredição vizinhos do modo horizontal, e a varredura diagonal é selecionada para os outros modos de intrapredição. Quando o tamanho da unidade de transformada é maior que o primeiro tamanho, a varredura diagonal é usada. Quando o tamanho da unidade de transformada é maior que o primeiro tamanho, a varredura diagonal é selecionada para todos os modos de intrapredição. O primeiro tamanho é 8x8.
[053]Quando o tamanho da unidade de transformada é maior que o primeiro tamanho, a varredura diagonal é selecionada para todos os modos de intrapredição.
[054]Na interpredição, a varredura diagonal é usada.
[055]Quando o tamanho da unidade de transformada é maior que o segundo tamanho, os indicadores significativos, os sinais de coeficiente e os níveis de coeficiente são varridos inversamente na unidade de subconjunto usando-se o padrão de varredura inversa determinado de modo a se gerarem subconjuntos, e os subconjuntos são varridos inversamente de modo a se gerar o bloco quantizado. O segundo tamanho é 4x4. O tamanho do subconjunto pode ser um bloco de 4x4 ou um bloco não quadrado determinado pelo padrão de varredura. O bloco não quadrado inclui 16 coeficientes de transformada. Por exemplo, o tamanho do subconjunto é 8x2 para a varredura horizontal, 2x8 para a varredura vertical e 4x4 para a varredura diagonal.
[056]O padrão de varredura inversa usado para gerar cada subconjunto é o mesmo padrão de varredura inversa usado para gerar o bloco quantizado. Os indicadores significativos, os sinais de coeficiente e os níveis de coeficiente são varridos inversamente na direção inversa. Os subconjuntos são também varridos inversamente na direção inversa.
[057]A última posição de coeficiente não zero e os indicadores de subconjunto não zero são recebidos do codificador. O número de subconjuntos codificados é determinado de acordo com a última posição de coeficiente não zero e o padrão de varredura inversa. Os indicadores de subconjunto não zero são usados para selecionar subconjuntos a serem gerados. O subconjunto principal e o último subconjunto são gerados usando-se o padrão de varredura inversa.
[058]A unidade de quantização inversa 203 recebe o parâmetro de quantização diferencial da unidade de decodificação por entropia e gera o preditor de parâmetros de quantização. O preditor de parâmetros de quantização é gerado através da mesma operação da unidade de quantização 104 da Figura 1. Em seguida, a unidade de quantização inversa 203 adiciona o parâmetro de quantização diferencial e o preditor de parâmetros de quantização de modo a gerar o parâmetro de quantização da unidade de codificação atual. Se o tamanho da unidade de codificação atual for igual ao ou maior que o tamanho mínimo da unidade de quantização e o parâmetro de quantização diferencial para a unidade de codificação atual não for recebido do codificador, o parâmetro de quantização diferencial é definido em 0.
[059]A unidade de quantização inversa 203 quantiza inversamente o bloco quantizado.
[060]A unidade de transformada inversa 204 transforma inversamente o bloco quantizado por inversão de modo a se restaurar um bloco residual. O tipo de transformada inversa é determinado adaptativamente de acordo com o modo de predição e o tamanho da unidade de transformada. O tipo de transformada inversa é a transformada de número inteiro baseada em DCT ou a transformada de número inteiro baseada em DST. Na interpredição, por exemplo, são usadas transformadas de número inteiro baseadas em DCT. No modo de intrapredição, se o tamanho da unidade de transformada for menor que um tamanho predeterminado, são usadas as transformadas de número inteiro baseadas em DST, caso contrário são usadas as transformada de número inteiro baseadas em DCT.
[061]A unidade de intrapredição 208 restaura o modo de intrapredição da unidade de predição atual usando as informações de intrapredição recebidas e gera um bloco de predição de acordo com o modo de intrapredição restaurado.
[062]A unidade de interpredição 209 restaura as informações sobre movimento da unidade de predição atual usando as informações de interpredição recebidas e gera um bloco de predição usando as informações sobre movimento.
[063]A unidade de pós-processamento 206 funciona da mesma maneira que a unidade de pós-processamento 110 da Figura 1.
[064]A unidade de armazenamento de imagens 207 recebe a imagem pós- processada da unidade de pós-processamento 206 e armazena a imagem em unidades de imagem. Uma imagem pode ser um quadro ou um campo.
[065]O adicionador 205 adiciona o bloco residual restaurado e um bloco de predição de modo a gerar um bloco reconstruído.
[066]A Figura 3 é um fluxograma que mostra um procedimento de gerar um bloco reconstruído na intrapredição de acordo com a presente invenção.
[067]Em primeiro lugar, é derivado um modo de intrapredição da unidade de predição atual (S1100).
[068]A Figura 4 é um fluxograma que mostra um procedimento de derivar o modo de intrapredição da unidade de predição atual de acordo com a presente invenção.
[069]Os parâmetros de intrapredição da unidade de predição atual são extraídos de um fluxo de bits recebido (S1110).
[070]Os parâmetros de intrapredição são um indicador de grupo de modos e um índice de modo de predição. O indicador de grupo de modos é um indicador que indica se o modo de intrapredição da unidade de predição atual pertence a um grupo de modos mais prováveis (grupo MPM). Se o indicador for 1, a unidade de intrapredição da unidade de predição atual pertence ao grupo MPM. Se o indicador for 0, a unidade de intrapredição da unidade de predição atual pertence ao grupo de modos residuais. O grupo de modos residuais inclui todos os modos de intrapredição que não os modos de intrapredição do grupo MPM. O índice de modo de predição especifica o modo de intrapredição da unidade de predição atual dentro do grupo especificado pelo indicador de grupo de modos.
[071]O grupo MPM é construído usando-se os modos de intrapredição das unidades de predição vizinhas (S1120). Os modos de intrapredição do grupo MPM são determinados adaptativamente pelo modo de intrapredição à esquerda e pelo modo de intrapredição acima. O modo de intrapredição à esquerda é o modo de intrapredição da unidade de predição vizinha esquerda, e o modo de intrapredição acima é o modo de intrapredição da unidade de predição vizinha acima. O grupo MPM é constituído por três modos de intrapredição.
[072]Se a unidade de predição vizinha esquerda ou acima não existir, o modo de intrapredição da unidade vizinha esquerda ou acima é definido como indisponível. Por exemplo, se a unidade de predição atual estiver localizada na fronteira esquerda ou superior de uma imagem, a unidade de predição vizinha esquerda ou acima não existe. Se a unidade vizinha esquerda ou acima estiver localizada dentro de outra fatia ou outra justaposição, o modo de intrapredição da unidade vizinha esquerda ou acima é definido como indisponível. Se a unidade vizinha esquerda ou acima for inter- codificada, o modo de intrapredição da unidade vizinha esquerda ou acima é definido como indisponível. Se a unidade vizinha acima estiver localizada dentro de outra LCU, o modo de intrapredição da unidade vizinha esquerda ou acima é definido como indisponível.
[073]A Figura 5 é um diagrama conceptual que mostra modos de intrapredição de acordo com a presente invenção. Conforme mostrado na Figura 5, o número de modos de intrapredição é 35. O modo DC e o modo planar são modos de intrapredição não direcionais e os outros são modos de intrapredição direcionais.
[074]Quanto tanto o modo de intrapredição à esquerda quanto o modo de intrapredição acima estão disponíveis e são diferentes um do outro, o modo de intrapredição à esquerda e o modo de intrapredição acima são incluídos no grupo MPM e um modo de intrapredição adicional é acrescentado ao grupo MPM. O índice 0 é atribuído a um modo de intrapredição de número de modos pequeno e o indica 1 é atribuído ao outro. Ou o índice 0 é atribuído ao modo de intrapredição à esquerda e o índice 1 é atribuído ao modo de intrapredição acima. O modo de intrapredição adicionado é determinado pelos modos de intrapredição à esquerda e acima da maneira seguinte.
[075]Se um dos modos de intrapredição à esquerda e acima for um modo não direcional e o outro for um modo direcional, o outro modo não direcional é adicionado ao grupo MPM. Por exemplo, se um dos modos de intrapredição à esquerda e acima for o modo DC, o modo planar é adicionado ao grupo MPM. Se um dos modos de intrapredição à esquerda e acima for o modo planar, o modo DC é adicionado ao grupo MPM. Se ambos os modos de intrapredição à esquerda e acima forem modos não direcionais, o modo vertical é adicionado ao grupo MPM. Se ambos os modos de intrapredição à esquerda e acima forem modos direcionais, o modo DC ou o modo planar é adicionado ao grupo MPM.
[076]Quando apenas um dos modos de intrapredição à esquerda e acima estiver disponível, o modo de intrapredição disponível é incluído no grupo MPM e dois modos de intrapredição adicionais são acrescentados ao grupo MPM. Os dois modos de intrapredição adicionados são determinados pelos modos de intrapredição disponíveis da maneira seguinte.
[077]Se o modo de intrapredição disponível for um modo não direcional, o outro modo não direcional e o modo vertical são adicionados ao grupo MPM. Por exemplo, se o modo de intrapredição disponível for o modo DC, o modo planar e o modo vertical são adicionados ao grupo MPM. Se o modo de intrapredição disponível for o modo planar, o modo DC e o modo vertical são adicionados ao grupo MPM. Se o modo de intrapredição disponível for um modo direcional, dois modos não direcionais (modo DC e modo planar) são adicionados ao grupo MPM.
[078]Quanto tanto o modo de intrapredição à esquerda quanto o modo de intrapredição acima estiverem disponíveis e forem idênticos entre si, o modo de intrapredição disponível é incluído no grupo MPM e dois modos de intrapredição adicionais são acrescentados ao grupo MPM. Os dois modos de intrapredição adicionados são determinados pelos modos de intrapredição disponíveis da maneira seguinte.
[079]Se o modo de intrapredição disponível for um modo direcional, dois modos direcionais vizinhos são adicionados ao grupo MPM. Por exemplo, se o modo de intrapredição disponível for o modo 23, o modo vizinho à esquerda (modo 1) e o modo vizinho direito (modo 13) são adicionados ao grupo MPM. Se o modo de intrapredição disponível for o modo 30, os dois modos vizinhos (modo 2 e modo 16) são adicionados ao grupo MPM. Se o modo de intrapredição disponível for um modo não direcional, o outro modo não direcional e o modo vertical são adicionados ao grupo MPM. Por exemplo, se o modo de intrapredição disponível for o modo DC, o modo planar e o modo vertical são adicionados ao grupo MPM.
[080]Quando tanto o modo de intrapredição à esquerda quanto o modo de intrapredição acima estiverem indisponíveis, três modos de intrapredição adicionais são acrescentados ao grupo MPM. Os três modos de intrapredição são o modo DC, o modo planar e o modo vertical. Os índices 0, 1 e 2 são atribuídos aos três modos de intrapredição na ordem modo DC, modo planar e modo vertical ou na ordem modo planar, modo DC e o modo vertical.
[081]É determinado se o indicador de grupo de modos indica o grupo MPM (S1130).
[082]Se o indicador de grupo de modos indicar o grupo MPM, a intrapredição do grupo MPM especificada pelo índice de modo de predição é fixada como o modo de intrapredição da unidade de predição atual (S1140).
[083]Se o indicador de grupo de modos não indicar o grupo MPM, as três intra- predições do grupo PM são reordenadas na ordem de número de modos (S1150). Entre os três modos de intrapredição do grupo MPM, o modo de intrapredição com número de modos mais baixo é definido em um primeiro candidato, o modo de intrapredição com número de modos intermediário é definido em um segundo candidato e o modo de intrapredição com número de modos mais elevado é definido em um terceiro candidato.
[084]O índice de modo de predição é comparado com o primeiro candidato (S1160). Se o índice de modo de predição for igual ao ou maior que o primeiro candidato do grupo MPM, o valor do índice de modo de predição é aumentado em um. Caso contrário, o valor do índice de modo de predição é mantido.
[085]O índice de modo de predição é comparado com o segundo candidato (S1170). Se o índice de modo de predição for igual ao ou maior que o segundo candidato do grupo MPM, o valor do índice de modo de predição é aumentado em um. Caso contrário, o valor do índice de modo de predição é mantido.
[086]O índice de modo de predição é comparado com o terceiro candidato (S1180). Se o índice de modo de predição for igual ao ou maior que o terceiro candidato do grupo MPM, o valor do índice de modo de predição é aumentado em um. Caso contrário, o valor do índice de modo de predição é mantido.
[087]O valor do índice de modo de predição final é definido como o número de modos do modo de intrapredição da unidade de predição atual (S1190).
[088]Em seguida, o tamanho do bloco atual é determinado de modo a se gerar um bloco de predição (S1200).
[089]O tamanho do bloco atual é igual ao tamanho da unidade de transformada. O tamanho do bloco atual é determinado usando-se o tamanho da unidade de predição e informações sobre tamanho de transformada. Um bloco de predição e um bloco residual do bloco atual têm o mesmo tamanho da unidade de transformada. As informações sobre tamanho de transformada incluem um ou mais split_tu_flags usados para indicar a estrutura dividida.
[090]Se o tamanho da unidade de transformada for igual ao tamanho da unidade de predição atual, a unidade de predição atual é fixada como o bloco atual.
[091]Se o tamanho da unidade de transformada for menor que o tamanho da unidade de predição atual, a unidade de predição é constituída por uma série de sub- blocos. Cada sub-bloco é definido como o bloco atual. Neste caso, as etapas S1300, S1400 e S1500 são executadas para o primeiro sub-bloco da unidade de predição. Em seguida, as etapas S1300, S1400 e S1500 são executadas repetidamente para os sub-blocos restantes da unidade de predição em ordem de decodificação. O mesmo modo de intrapredição é usado para todos os sub-blocos dentro da unidade de predição.
[092]Em seguida, um bloco de predição é gerado de acordo com o modo de intrapredição (S1300).
[093]A Figura 6 é um fluxograma que mostra um procedimento de gerar o bloco de predição de acordo com a presente invenção.
[094]É determinado se todos os pixels de referência do bloco atual estão disponíveis, e pixels de referência são gerados se um ou mais pixels de referência estiverem indisponíveis (S1210). O bloco atual é a unidade de predição atual ou o sub-bloco da unidade de predição atual. O tamanho do bloco atual é o tamanho da unidade de transformada.
[095]A Figura 7 é um diagrama conceptual que mostra posições dos pixels de referência do bloco atual de acordo com a presente invenção. Conforme mostrado na Figura 7, os pixels de referência do bloco atual são constituídos pelos pixels de referência acima localizados em (x=0,..., 2N-1, y=-1), pelos pixels de referência à esquerda localizados em (x=1-, y=0, ..., 2M-1) e por um pixel de canto localizado em (x=-1). N é a largura do bloco atual e M é a altura do bloco atual.
[096]Se um ou mais pixels de referência estiverem indisponíveis, um ou mais pixels de referência são gerados da maneira seguinte.
[097]Se todos os pixels de referência estiverem indisponíveis, um valor constante substitui os valores de todos os pixels de referência. O valor constante é 2L- 1, e o valor de L é o número de bits usados para representar o valor de pixel de luminância.
[098]Se os pixels de referência disponíveis estiverem localizados em apenas um lado do pixel de referência indisponível, o valor do pixel de referência mais próximo do pixel indisponível substitui o pixel de referência indisponível.
[099]Se os pixels de referência disponíveis estiverem localizados em ambos os lados do pixel de referência indisponível, o valor do pixel de referência mais próximo do pixel indisponível em uma direção predeterminada substitui cada pixel de referência indisponível.
[0100]Os pixels de referência são filtrados adaptativamente com base no modo de intrapredição e no tamanho do bloco atual (S1200). O tamanho do bloco atual é o tamanho da unidade de transformada.
[0101]No modo DC, os pixels de referência não são filtrados. No modo vertical e no modo horizontal, os pixels de referência não são filtrados. Nos modos direcionais que não os modos vertical e horizontal, os pixels de referência são filtrados adaptativamente de acordo com o tamanho do bloco atual.
[0102]Se o tamanho do bloco atual for 4x4, os pixels de referência não são filtrados em todos os modos de intrapredição. Para os tamanhos 8x8, 16x16 e 32x32, o número de modos de intrapredição nos quais os pixels de referência são filtrados aumenta à medida que o tamanho do bloco atual se torna maior.
[0103]Um bloco de predição do bloco atual é gerado usando-se os pixels de referência de acordo com o modo de intrapredição restaurado (S1230).
[0104]No modo DC, os pixels de predição são gerados copiando-se o valor médio dos N pixels de referência localizados em (x=0,...N-1, y=-1) e dos M pixels de referência localizados em (x=-1, y=0,..M-1). O pixel de predição adjacente ao pixel de referência é filtrado por um ou dois pixels de referência adjacentes.
[0105]No modo vertical, os pixels de predição são gerados copiando-se o valor do pixel de referência correspondente. Os pixels de predição adjacentes ao pixel de referência à esquerda são filtrados usando-se o pixel de canto e o pixel vizinho à esquerda.
[0106]No modo horizontal, os pixels de predição são gerados copiando-se o valor do pixel de referência correspondente horizontal. Os pixels de predição adjacentes ao pixel de referência acima são filtrados usando-se o pixel de canto e o pixel vizinho superior.
[0107]Em seguida, um bloco residual é gerado de acordo com o modo de intrapredição (S1400).
[0108]A Figura 8 é um fluxograma que mostra um procedimento de gerar o bloco residual de acordo com a presente invenção.
[0109]Os sinais residuais codificados são decodificados por entropia de modo a se gerarem informações sobre coeficientes quantizados. Quando a CABAC é usada para codificação por entropia, as informações sobre coeficientes incluem indicadores significativos, sinais de coeficiente e níveis de coeficiente. O indicador significativo indica se o coeficiente de transformada quantizado correspondente é zero ou não. O sinal de coeficiente indica um sinal de coeficiente de transformada quantizado não zero e o nível de coeficiente indica o valor absoluto de coeficientes de transformada quantizados não zero.
[0110]Um padrão de varredura inversa é determinado e um bloco quantizado é gerado de acordo com o padrão de varredura inversa (S1420). A etapa é executada pela unidade de varredura inversa 220 da Figura 2. Portanto, a mesma operação da unidade de varredura inversa 220 é executada para determinar o padrão de varredura inversa e para gerar o bloco quantizado.
[0111]O bloco quantizado é quantizado inversamente usando-se um parâmetro de quantização (S1430).
[0112]A Figura 9 é um fluxograma que mostra um procedimento de derivar um parâmetro de quantização de acordo com a presente invenção
[0113]O tamanho mínimo da unidade de quantização é derivado (S1431). O tamanho mínimo da unidade de quantização é igual ao tamanho da LCU ou ao tamanho de um sub-bloco da LCU. O tamanho mínimo da unidade de quantização é determinado por imagem. Um parâmetro (cu_qp_delta_enabled_info) que especifica a profundidade do tamanho mínimo da unidade de quantização é extraído de PPS. O tamanho mínimo da unidade de quantização é derivado da equação seguinte: Log2(MinQUSize) = Log2(MaxCUSize)-cu_qp_delta_enabled_Info
[0114]O MinQUSize é o tamanho mínimo da unidade de quantização. O MaxCUSize é o tamanho da LCU. Apenas um parâmetro é usado para derivar o tamanho mínimo da unidade de quantização.
[0115]O parâmetro de quantização diferencial (dQP) da unidade de codificação atual é restaurado (S1432). O dQP é restaurado por unidade de quantização. Por exemplo, se o tamanho da unidade de codificação atual for igual ao ou maior que o tamanho mínimo da unidade de quantização, o dQP é restaurado para a unidade de codificação atual. Se a unidade de codificação atual não contiver um dQP codificado, o dQP é definido em zero. Se a unidade de quantização incluir várias unidades de codificação, a primeira unidade de codificação que contiver o dQP e a unidade de codificação seguinte dentro da unidade de quantização têm o mesmo dQP.
[0116]O dQP codificado é aritmeticamente decodificado de modo a se gerar uma sequência de binários (bin string), e a sequência de binários é convertida no dQP. A sequência de binários compreende um binário para indicar se o dQP é zero ou não. Quando o dQP não é zero, a sequência de binários compreende também um binário para sinal do dQP e uma sequência de binários para indicar o valor absoluto do dQP.
[0117]Um preditor de parâmetros de quantização da unidade de codificação atual é gerado (S1433). O preditor de parâmetros de codificação é gerado usando-se a mesma operação da unidade de quantização inversa 230 da Figura 2.
[0118]Se a unidade de quantização incluir várias unidades de codificação, o preditor de parâmetros de codificação da primeira unidade de codificação na ordem de codificação é gerado, e o preditor de parâmetros de codificação gerado é usado para todas as unidades de codificação dentro da unidade de quantização.
[0119]O parâmetro de quantização é gerado usando-se o dQP e o preditor de parâmetros de codificação (S1434).
[0120]Entrementes, são também restauradas as matrizes de quantização definidas pelo usuário. Um conjunto das matrizes de quantização definidas pelo usuário é recebido do aparelho de codificação através do SPS ou do PPS. A matriz de quantização definida pelo usuário é restaurada usando-se DPCM inversa. A varredura diagonal é usada para a DPCM. Quando o tamanho da matriz de quantização definida pelo usuário é maior que 8x8, a matriz de quantização definida pelo usuário é restaurada pela amostragem ascendente dos coeficientes da matriz de quantização 8x8 recebida. O coeficiente DC da matriz de quantização definida pelo usuário é extraído do SPS ou do PPS. Por exemplo, se o tamanho da matriz de quantização definida pelo usuário for 16x16, os coeficientes da matriz de quantização 8x8 recebida são amostrados de maneira ascendente usando-se amostragem ascendente 1:4.
[0121]Um bloco residual é gerado transformando-se inversamente o bloco quantizado por inversão (S1440). O tipo de transformada inversa é determinada adaptativamente de acordo com o modo de predição e o tamanho da unidade de transformada. O tipo de transformada inversa é a transformada de número inteiro baseada em DCT ou a transformada de número inteira baseada em DST. No modo de intrapredição, se o tamanho da unidade de transformada for menor que um tamanho predeterminado, são usadas as transformadas de número inteiro baseadas em DST, caso contrário são usadas as transformadas de número inteiro baseadas em DCT.
[0122]Em seguida, um bloco reconstruído é gerado adicionando-se o bloco de predição e o bloco residual (S1500).
[0123]A Figura 10 é um diagrama de blocos que mostra um aparelho 300 para gerar um bloco reconstruído de acordo com a presente invenção.
[0124]Conforme mostrado na Figura 10, o aparelho 300 de acordo com a presente invenção inclui uma unidade de derivação de modo de intrapredição 310, uma unidade de determinação de tamanho de predição 320, uma unidade de geração de blocos de predição 330, uma unidade de geração de blocos residuais 340 e uma unidade de geração de blocos reconstruídos 350.
[0125]A unidade de derivação de modos de intrapredição 310 deriva o modo de intrapredição da unidade de predição atual. A unidade de derivação de modos de intrapredição 310 executa o mesmo procedimento da Figura 4 de modo a derivar o modo de intrapredição.
[0126]A unidade de determinação de tamanho de predição 320 determina o tamanho do bloco atual usando o tamanho da unidade de predição atual e as informações sobre tamanho de transformada. O tamanho do bloco atual é igual ao tamanho da unidade de transformada. Um bloco de predição e um bloco residual do bloco atual têm o mesmo tamanho da unidade de transformada. A unidade de predição atual ou um sub-bloco da unidade de predição atual é definido como o bloco atual com base nas informações sobre tamanho de transformada.
[0127]A unidade de geração de blocos de predição 330 gera o bloco de predição do bloco atual usando o modo de intrapredição. A unidade de geração de blocos de predição 330 inclui um gerador de pixels de referência 331, um filtro de pixels de referência 332 e um gerador de blocos de predição 333.
[0128]O gerador de pixels de referência 331 gera pixels de referência se um ou mais pixels de referência do bloco atual estiverem indisponíveis. Se todos os pixels de referência estiverem indisponíveis, o valor de 2L-1 substitui os valores de todos os pixels de referência. O valor de L é o número de bits usados para representar o valor de pixel de luminância. Se os pixels de referência disponíveis estiverem localizados em apenas um lado do pixel de referência indisponível, o valor do pixel de referência mais próximo do pixel indisponível substitui o pixel de referência indisponível. Se os pixels de referência disponíveis estiverem localizados em ambos os lados do pixel de referência indisponível, o valor do pixel de referência mais próximo do pixel indisponível em uma direção predeterminada substitui cada pixel de referência indisponível.
[0129]O filtro de pixels de referência 332 filtra adaptativamente os pixels de referência com base no modo de intrapredição e no tamanho da unidade de transformada.
[0130]No modo DC, os pixels de referência não são filtrados. No modo vertical e no modo horizontal, os pixels de referência não são filtrados. Nos modos direcionais que não os modos vertical e horizontal, os pixels de referência são filtrados adaptativamente de acordo com o tamanho do bloco atual.
[0131]Se o tamanho do bloco atual for 4x4, os pixels de referência não são filtrados em todos os modos de intrapredição. Para os tamanhos 8x8, 16x16 e 32x32, o número de modos de intrapredição nos quais os pixels de referência são filtrados aumenta à medida que o tamanho do bloco atual se torna maior. Por exemplo, os pixels de referência não são filtrados no modo vertical e em um número predeterminado de modos de intrapredição vizinhos do modo vertical. Os pixels de referência também não são filtrados no modo horizontal e no número predeterminado de modos de intrapredição vizinhos do modo horizontal. O número predeterminado é um de 0-7 e diminui à medida que o tamanho do bloco atual aumenta.
[0132]O gerador de blocos de predição 33 gera um bloco de predição do bloco atual usando os pixels de referência de acordo com o modo de intrapredição.
[0133]No modo DC, os pixels de predição são gerados copiando-se o valor médio dos N pixels de referência localizados em (x=0,...N-1, y=-1) e dos M pixels de referência localizados em (x=-1, y=0,..M-1). O pixel de predição adjacente ao pixel de referência é filtrado por um ou dois pixels de referência adjacentes.
[0134]No modo vertical, os pixels de predição são gerados copiando-se o valor do pixel de referência vertical. Os pixels de predição adjacentes ao pixel de referência à esquerda são filtrados usando-se o pixel de referência de canto e o pixel de referência vizinho à esquerda.
[0135]No modo horizontal, os pixels de predição são gerados copiando-se o valor do pixel de referência horizontal. Os pixels de predição adjacentes ao pixel de referência acima são filtrados usando-se o pixel de referência de canto e o pixel de referência vizinho acima.
[0136]A unidade de geração de blocos residuais 340 gera o bloco residual do bloco atual usando o modo de intrapredição. O mesmo procedimento da Figura 8 é executado pela unidade de geração de blocos residuais 340.
[0137]A unidade de geração de blocos reconstruídos 350 adiciona o bloco de predição e o bloco residual de modo a gerar o bloco reconstruído do bloco atual.
[0138]Embora a invenção tenha sido mostrada e descrita com referência a determinadas modalidades exemplares dela, os versados na técnica entenderão que diversas alterações na forma e nos detalhes podem ser feitas nela sem que se abandonem o espírito e o alcance da invenção definidos pelas reivindicações anexas.

Claims (8)

1. Método para gerar um bloco reconstruído, CARACTERIZADO por compreender: derivar um modo de intrapredição de uma unidade de predição com base em um grupo de Modo Mais Provável (MPM) incluindo três modos de intrapredição que são determinados ao usar os modos de intrapredição à esquerda e acima; determinar um tamanho de um bloco atual usando informações de tamanho de transformada; gerar um bloco de predição do bloco atual de acordo com o modo de intrapredição; gerar um bloco quantizado ao varrer inversamente informações de coeficiente quantizado com base no padrão de varredura inversa determinado ao usar o modo de intrapredição e o tamanho do bloco atual; gerar um bloco residual ao quantizar inversamente o bloco quantizado usando parâmetro de quantização, e ao transformar inversamente o bloco quantizado inversamente; e gerar um bloco reconstruído usando o bloco de predição e o bloco residual, em que o grupo MPM inclui modo DC, modo planar e modo vertical quando os modos de intrapredição à esquerda e acima são diferentes um do outro e ambos os modos de intrapredição à esquerda e acima são modos não-direcionais, em que o tamanho do bloco atual é igual ao ou menor que um tamanho da unidade de predição, e os tamanhos do bloco de predição, do bloco residual e do bloco reconstruído são iguais a um tamanho de uma unidade de transformada, e as informações de tamanho de transformada incluem um ou mais indicadores de unidade de transformada dividida (split_tu_flags), em que o parâmetro de quantização é gerado ao usar um preditor de parâmetro de quantização e um parâmetro de quantização diferencial, quando ambos os parâmetros de quantização à esquerda e acima de uma unidade de codificação atual estão disponíveis, o preditor de parâmetro de quantização é gerado ao usar os parâmetros de quantização à esquerda e acima, e quando apenas um dos parâmetros de quantização à esquerda e acima da unidade de codificação atual está disponível, o preditor de parâmetro de quantização é gerado ao usar o parâmetro de quantização disponível e um parâmetro de quantização anterior.
2. Método de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que derivar o modo de intrapredição da unidade de predição compreende: gerar o grupo MPM que é compreendido pelos três modos de intrapredição; definir um modo de intrapredição no grupo MPM especificado por um índice de modo de predição como o modo de intrapredição da unidade de predição quando um indicador de grupo de modo indica o grupo MPM; e determinar o modo de intrapredição da unidade de predição ao comparar o índice de modo de predição com os três modos de intrapredição no grupo MPM quando o indicador de grupo de modo não indica o grupo MPM.
3. Método de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que, quando apenas um dos modos de intrapredição à esquerda e acima está disponível e o modo de intrapredição disponível é um dentre dois modos não- direcionais, os três modos de intrapredição são os dois não-direcionais e o modo vertical e, quando apenas um dos modos de intrapredição à esquerda e acima está disponível e o modo de intrapredição disponível é um dentre modos direcionais, os três modos de intrapredição são os dois modos não-direcionais e o modo de intrapredição disponível.
4. Método de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que um tipo de uma transformada inversa é determinado pelo tamanho da unidade de transformada.
5. Método de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o padrão de varredura inversa é selecionado dentre varredura diagonal, varredura vertical e varredura horizontal, e uma pluralidade de subconjuntos é gerada quando o tamanho do bloco quantizado é maior que um tamanho predeterminado, e o bloco quantizado é gerado ao varrer inversamente a pluralidade dos subconjuntos usando o padrão de varredura inversa.
6. Método de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o parâmetro de quantização diferencial é reconstruído ao usar uma sequência de binários (bin string) que indica um valor absoluto do parâmetro de quantização diferencial e um binário (bin) que indica um sinal do parâmetro de quantização diferencial.
7. Método de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o grupo MPM inclui modo DC, modo planar e modo vertical quando os modos de intrapredição à esquerda e acima são os mesmos e o modo de intrapredição à esquerda é um modo não-direcional.
8. Método de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o parâmetro de quantização anterior é definido como o preditor de parâmetro de quantização quando ambos os parâmetros de quantização à esquerda e acima da unidade de codificação atual estão indisponíveis.
BR122020014282-0A 2011-11-04 2012-11-02 Método para gerar um bloco reconstruído BR122020014282B1 (pt)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2011-0114609 2011-11-04
KR1020110114609A KR20130049525A (ko) 2011-11-04 2011-11-04 잔차 블록 복원을 위한 역변환 방법
BR112014007869-6A BR112014007869B1 (pt) 2011-11-04 2012-11-02 Método para gerar um bloco reconstruído
PCT/CN2012/083994 WO2013064099A1 (en) 2011-11-04 2012-11-02 Method of generating reconstructed block

Publications (1)

Publication Number Publication Date
BR122020014282B1 true BR122020014282B1 (pt) 2021-07-20

Family

ID=48191360

Family Applications (4)

Application Number Title Priority Date Filing Date
BR122020014298-7A BR122020014298B1 (pt) 2011-11-04 2012-11-02 Método para gerar um bloco reconstruído
BR122020014293-6A BR122020014293B1 (pt) 2011-11-04 2012-11-02 Método para gerar um bloco reconstruído
BR122020014282-0A BR122020014282B1 (pt) 2011-11-04 2012-11-02 Método para gerar um bloco reconstruído
BR122020014288-0A BR122020014288B1 (pt) 2011-11-04 2012-11-02 Método para gerar um bloco reconstruído

Family Applications Before (2)

Application Number Title Priority Date Filing Date
BR122020014298-7A BR122020014298B1 (pt) 2011-11-04 2012-11-02 Método para gerar um bloco reconstruído
BR122020014293-6A BR122020014293B1 (pt) 2011-11-04 2012-11-02 Método para gerar um bloco reconstruído

Family Applications After (1)

Application Number Title Priority Date Filing Date
BR122020014288-0A BR122020014288B1 (pt) 2011-11-04 2012-11-02 Método para gerar um bloco reconstruído

Country Status (29)

Country Link
US (8) US9014262B2 (pt)
EP (5) EP3364373A1 (pt)
JP (6) JP5789343B2 (pt)
KR (4) KR20130049525A (pt)
CN (8) CN107770535B (pt)
AU (5) AU2012331601B2 (pt)
BR (4) BR122020014298B1 (pt)
CA (7) CA2913567C (pt)
CY (1) CY1120400T1 (pt)
DK (1) DK2774122T3 (pt)
ES (2) ES2881980T3 (pt)
HR (1) HRP20181016T1 (pt)
HU (2) HUE054637T2 (pt)
IL (5) IL231705A (pt)
IN (1) IN2014CN03908A (pt)
LT (1) LT2774122T (pt)
MX (7) MX356330B (pt)
MY (6) MY190516A (pt)
NO (1) NO2774122T3 (pt)
PE (1) PE20142032A1 (pt)
PL (2) PL3346447T3 (pt)
PT (1) PT2774122T (pt)
RS (1) RS57282B1 (pt)
RU (5) RU2710996C2 (pt)
SG (2) SG10201607196UA (pt)
SI (1) SI2774122T1 (pt)
TW (6) TWI603610B (pt)
WO (1) WO2013064099A1 (pt)
ZA (2) ZA201600849B (pt)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013047805A1 (ja) 2011-09-29 2013-04-04 シャープ株式会社 画像復号装置、画像復号方法および画像符号化装置
EP3754982B1 (en) * 2011-09-29 2024-05-01 SHARP Kabushiki Kaisha Image decoding device, image decoding method, image encoding method and image encoding device for performing bi-prediction to uni-prediction conversion
PL3379833T3 (pl) * 2011-10-18 2021-12-13 Lg Electronics Inc. Sposób intra-predykcji i jego urządzenie
EP2942954B1 (en) * 2011-10-24 2020-06-03 Innotive Ltd Image decoding apparatus
DK2773118T3 (da) 2011-10-24 2020-12-07 Innotive Ltd Fremgangsmåde og apparat til billedafkodning
KR20130049522A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
US10277915B2 (en) 2011-11-07 2019-04-30 Qualcomm Incorporated Signaling quantization matrices for video coding
KR20130050407A (ko) * 2011-11-07 2013-05-16 오수미 인터 모드에서의 움직임 정보 생성 방법
KR102182628B1 (ko) * 2011-12-05 2020-11-24 엘지전자 주식회사 인트라 예측 방법 및 장치
HUE063933T2 (hu) * 2012-06-29 2024-02-28 Electronics & Telecommunications Res Inst Eljárás és eszköz képek kódolására/dekódolására
US9380307B2 (en) * 2012-11-19 2016-06-28 Qualcomm Incorporated Method and system for intra base layer (BL) transform in video coding
US11470339B2 (en) 2013-08-27 2022-10-11 Qualcomm Incorporated Residual prediction for intra block copying
CN104219531B (zh) * 2014-09-29 2018-02-06 北方工业大学 基于线状帧内块拷贝的hevc屏幕内容编码
JP6671339B2 (ja) 2015-02-27 2020-03-25 Kddi株式会社 符号化装置及び復号装置
US9769499B2 (en) * 2015-08-11 2017-09-19 Google Inc. Super-transform video coding
EP3340632B1 (en) * 2015-08-19 2021-08-11 LG Electronics Inc. Method and device for processing video signals
US10547854B2 (en) 2016-05-13 2020-01-28 Qualcomm Incorporated Neighbor based signaling of intra prediction modes
KR102447450B1 (ko) * 2016-09-05 2022-09-26 엘지전자 주식회사 영상 부호화/복호화 방법 및 이를 위한 장치
WO2018061550A1 (ja) * 2016-09-28 2018-04-05 シャープ株式会社 画像復号装置及び画像符号化装置
US10506228B2 (en) 2016-10-04 2019-12-10 Qualcomm Incorporated Variable number of intra modes for video coding
US10728578B2 (en) 2017-03-06 2020-07-28 Sony Corporation Bias minimization for successive image reconstruction based on embedded codec circuitry
MX2019012294A (es) 2017-04-13 2020-01-27 Lg Electronics Inc Metodo de codificacion/decodificacion de imagenes y dispositivo para el mismo.
WO2018205914A1 (en) * 2017-05-10 2018-11-15 Mediatek Inc. Method and apparatus of reordering motion vector prediction candidate set for video coding
KR20230152835A (ko) 2017-10-18 2023-11-03 삼성전자주식회사 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
GB2567861A (en) 2017-10-27 2019-05-01 Sony Corp Image data encoding and decoding
US11381814B2 (en) 2018-03-08 2022-07-05 Samsung Electronics Co., Ltd. Video decoding method and device, and video encoding method and device
EP3777144A4 (en) * 2018-03-30 2021-12-22 Hulu, LLC SIGNALING OF INTRA PREDICTION MODE FOR VIDEO ENCODING
US10893285B2 (en) * 2018-06-29 2021-01-12 FG Innovation Company Limited Device and method for coding video data based on one or more reference lines
WO2020071871A1 (ko) * 2018-10-05 2020-04-09 엘지전자 주식회사 영상 서비스 처리 방법 및 그 장치
CN118214860A (zh) * 2018-10-12 2024-06-18 英迪股份有限公司 图像解码和编码方法、数字存储介质、发送比特流的方法
US11159789B2 (en) 2018-10-24 2021-10-26 City University Of Hong Kong Generative adversarial network based intra prediction for video coding
CN111263156B (zh) * 2019-02-20 2022-03-25 北京达佳互联信息技术有限公司 视频解码方法、视频编码方法及装置
US11997300B2 (en) 2019-03-11 2024-05-28 Lg Electronics Inc. Method and apparatus for video encoding/decoding using IBC mode, and method for transmitting bitstream
CN117241014A (zh) * 2019-06-05 2023-12-15 华为技术有限公司 Mpm列表构建方法、色度块的帧内预测模式获取方法及装置
MX2022000028A (es) 2019-06-24 2022-03-11 Lg Electronics Inc Método y aparato de codificación/decodificación de imágenes usando ajuste de tamaño de transformación máximo para bloque de croma, y método para transmitir flujo de bits.
EP3965416B1 (en) 2020-09-08 2022-08-03 Axis AB Method and device for intra-coding an image frame

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7236524B2 (en) * 2002-05-28 2007-06-26 Sharp Laboratories Of America, Inc. Methods and systems for image intra-prediction mode communication
JP5017086B2 (ja) * 2002-07-15 2012-09-05 日立コンシューマエレクトロニクス株式会社 動画像復号化方法
JP2006005438A (ja) * 2004-06-15 2006-01-05 Sony Corp 画像処理装置およびその方法
KR100621581B1 (ko) * 2004-07-15 2006-09-13 삼성전자주식회사 기초 계층을 포함하는 비트스트림을 프리디코딩,디코딩하는 방법, 및 장치
CN100348051C (zh) * 2005-03-31 2007-11-07 华中科技大学 一种增强型帧内预测模式编码方法
KR100678911B1 (ko) * 2005-07-21 2007-02-05 삼성전자주식회사 방향적 인트라 예측의 적용을 확장하여 비디오 신호를인코딩하고 디코딩하는 방법 및 장치
KR101311402B1 (ko) * 2006-03-23 2013-09-25 삼성전자주식회사 영상의 부호화 방법 및 장치, 복호화 방법 및 장치
CN101087427B (zh) * 2006-06-06 2011-04-06 北京大学深圳研究生院 一种h.264标准的帧内预测模式选择方法
KR100927733B1 (ko) * 2006-09-20 2009-11-18 한국전자통신연구원 잔여계수의 상관성에 따라 변환기를 선택적으로 이용한부호화/복호화 장치 및 그 방법
US8275039B2 (en) 2006-11-07 2012-09-25 Samsung Electronics Co., Ltd. Method of and apparatus for video encoding and decoding based on motion estimation
TW200830881A (en) * 2007-01-10 2008-07-16 Beyond Innovation Tech Co Ltd Method for processing images
JP5026092B2 (ja) * 2007-01-12 2012-09-12 三菱電機株式会社 動画像復号装置および動画像復号方法
JP2008193627A (ja) * 2007-01-12 2008-08-21 Mitsubishi Electric Corp 画像符号化装置、画像復号装置、および画像符号化方法、画像復号方法
US8233537B2 (en) * 2007-03-19 2012-07-31 Texas Instruments Incorporated Efficient implementation of H.264 4 by 4 intra prediction on a VLIW processor
WO2008120434A1 (ja) * 2007-03-28 2008-10-09 Panasonic Corporation 復号化回路、復号化方法、符号化回路及び符号化方法
US20090147849A1 (en) * 2007-12-07 2009-06-11 The Hong Kong University Of Science And Technology Intra frame encoding using programmable graphics hardware
KR100940444B1 (ko) * 2007-12-18 2010-02-10 한국전자통신연구원 공간적 에지 검출을 이용한 인트라 예측 모드 구성 방법
US20090161757A1 (en) * 2007-12-21 2009-06-25 General Instrument Corporation Method and Apparatus for Selecting a Coding Mode for a Block
US8542730B2 (en) * 2008-02-22 2013-09-24 Qualcomm, Incorporated Fast macroblock delta QP decision
KR101591825B1 (ko) * 2008-03-27 2016-02-18 엘지전자 주식회사 비디오 신호의 인코딩 또는 디코딩 방법 및 장치
US8897359B2 (en) * 2008-06-03 2014-11-25 Microsoft Corporation Adaptive quantization for enhancement layer video coding
US8634456B2 (en) * 2008-10-03 2014-01-21 Qualcomm Incorporated Video coding with large macroblocks
US8514942B2 (en) * 2008-12-31 2013-08-20 Entropic Communications, Inc. Low-resolution video coding content extraction
WO2010131903A2 (en) * 2009-05-12 2010-11-18 Lg Electronics Inc. Method and apparatus for processing a video signal
CN104822066A (zh) * 2009-07-01 2015-08-05 汤姆森特许公司 用于视频编码器和解码器的方法和装置
CN101621692B (zh) * 2009-07-27 2011-04-20 宁波大学 一种基于预测模式的h.264/avc视频信息隐藏方法
KR101452860B1 (ko) * 2009-08-17 2014-10-23 삼성전자주식회사 영상의 부호화 방법 및 장치, 영상 복호화 방법 및 장치
KR101507344B1 (ko) * 2009-08-21 2015-03-31 에스케이 텔레콤주식회사 가변 길이 부호를 이용한 인트라 예측모드 부호화 방법과 장치, 및 이를 위한기록 매체
KR20110065089A (ko) * 2009-12-09 2011-06-15 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
KR101487687B1 (ko) * 2010-01-14 2015-01-29 삼성전자주식회사 큰 크기의 변환 단위를 이용한 영상 부호화, 복호화 방법 및 장치
US8902978B2 (en) * 2010-05-30 2014-12-02 Lg Electronics Inc. Enhanced intra prediction mode signaling
CN101854551B (zh) * 2010-06-08 2012-08-15 浙江大学 帧内预测模式编解码方法及装置
US9661338B2 (en) * 2010-07-09 2017-05-23 Qualcomm Incorporated Coding syntax elements for adaptive scans of transform coefficients for video coding
US9378185B2 (en) * 2010-09-30 2016-06-28 Texas Instruments Incorporated Transform and quantization architecture for video coding and decoding
US20120230418A1 (en) * 2011-03-08 2012-09-13 Qualcomm Incorporated Coding of transform coefficients for video coding
WO2012122495A1 (en) 2011-03-10 2012-09-13 Huawei Technologies Co., Ltd. Using multiple prediction sets to encode extended unified directional intra mode numbers for robustness
US9654785B2 (en) * 2011-06-09 2017-05-16 Qualcomm Incorporated Enhanced intra-prediction mode signaling for video coding using neighboring mode
GB2494468B (en) 2011-09-12 2014-01-15 Canon Kk Method and device for encoding or decoding information representing prediction modes
BR112013014374B8 (pt) * 2011-09-13 2022-08-30 Mediatek Singapore Pte Ltd Método e aparelho para codificação de modo intra em hevc
CN107197309B (zh) 2011-10-07 2020-02-18 英迪股份有限公司 对视频信号进行解码的方法
CN104935941B (zh) * 2011-10-24 2018-06-19 英孚布瑞智有限私人贸易公司 对帧内预测模式进行解码的方法
EP2942954B1 (en) * 2011-10-24 2020-06-03 Innotive Ltd Image decoding apparatus
DK2773118T3 (da) * 2011-10-24 2020-12-07 Innotive Ltd Fremgangsmåde og apparat til billedafkodning
KR20130049522A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
KR20130049524A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
KR20130049523A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 장치
KR20130049526A (ko) * 2011-11-04 2013-05-14 오수미 복원 블록 생성 방법

Also Published As

Publication number Publication date
RU2016142727A3 (pt) 2019-10-31
US20140247868A1 (en) 2014-09-04
CA2913566A1 (en) 2013-05-10
US20150189274A1 (en) 2015-07-02
CA3111640A1 (en) 2013-05-10
JP6367413B2 (ja) 2018-08-01
US20150189275A1 (en) 2015-07-02
JP5789343B2 (ja) 2015-10-07
EP2774122A4 (en) 2015-07-29
RS57282B1 (sr) 2018-08-31
US9503726B2 (en) 2016-11-22
CN107734334B (zh) 2020-07-24
CA3057770C (en) 2021-04-27
US9344728B2 (en) 2016-05-17
CA2913567C (en) 2017-09-26
HUE037565T2 (hu) 2018-09-28
MX356330B (es) 2018-05-24
JP2015195617A (ja) 2015-11-05
CN107682697B (zh) 2020-06-09
MX340476B (es) 2016-07-08
KR20130049525A (ko) 2013-05-14
PT2774122T (pt) 2018-07-03
TWI603610B (zh) 2017-10-21
AU2016203216B2 (en) 2017-12-14
PE20142032A1 (es) 2014-12-17
US20170041603A1 (en) 2017-02-09
US20200228799A1 (en) 2020-07-16
HRP20181016T1 (hr) 2018-11-02
IL231705A0 (en) 2014-05-28
AU2016203214A1 (en) 2016-06-09
SG10201607196UA (en) 2016-10-28
JP2015195615A (ja) 2015-11-05
TWI684350B (zh) 2020-02-01
WO2013064099A1 (en) 2013-05-10
ZA201600847B (en) 2017-05-31
JP2015195614A (ja) 2015-11-05
CY1120400T1 (el) 2019-07-10
US20150189273A1 (en) 2015-07-02
US10015489B2 (en) 2018-07-03
TWI650001B (zh) 2019-02-01
RU2014111828A (ru) 2015-12-10
EP2774122B1 (en) 2018-04-11
AU2012331601A1 (en) 2014-04-10
CA2976066C (en) 2019-12-03
CA2976066A1 (en) 2013-05-10
BR122020014288B1 (pt) 2021-07-13
TW201743608A (zh) 2017-12-16
TW202013959A (zh) 2020-04-01
RU2604340C2 (ru) 2016-12-10
RU2016142729A (ru) 2018-12-17
AU2016203215A1 (en) 2016-06-09
CN107770535A (zh) 2018-03-06
CN103096067A (zh) 2013-05-08
JP6118374B2 (ja) 2017-04-19
JP2014534751A (ja) 2014-12-18
MY170819A (en) 2019-08-30
MX2018006177A (es) 2023-03-06
RU2711306C2 (ru) 2020-01-16
CN107682697A (zh) 2018-02-09
AU2012331601B2 (en) 2016-02-18
SI2774122T1 (en) 2018-06-29
US20180288412A1 (en) 2018-10-04
RU2710996C2 (ru) 2020-01-14
MX2014003912A (es) 2014-07-28
IL247675B (en) 2018-04-30
RU2016142728A (ru) 2018-12-17
ES2669502T3 (es) 2018-05-28
US9014262B2 (en) 2015-04-21
RU2016142725A (ru) 2018-12-17
CA2913566C (en) 2018-04-10
CN107770534A (zh) 2018-03-06
SG11201400674SA (en) 2014-04-28
AU2016203217A1 (en) 2016-06-09
IL247676A (en) 2017-10-31
CA2913567A1 (en) 2013-05-10
AU2016203215B2 (en) 2017-12-14
JP2015195616A (ja) 2015-11-05
TWI715506B (zh) 2021-01-01
RU2016142725A3 (pt) 2019-12-02
MY190529A (en) 2022-04-27
JP6116626B2 (ja) 2017-04-19
BR122020014293B1 (pt) 2021-07-20
MY190514A (en) 2022-04-26
MX340477B (es) 2016-07-08
CN107613293B (zh) 2020-10-20
EP3379492A1 (en) 2018-09-26
TWI558170B (zh) 2016-11-11
PL2774122T3 (pl) 2018-09-28
RU2016142729A3 (pt) 2019-11-29
LT2774122T (lt) 2018-06-11
AU2016203216A1 (en) 2016-06-09
EP3364372A1 (en) 2018-08-22
IL247674B (en) 2019-09-26
TW201644274A (zh) 2016-12-16
JP2017130969A (ja) 2017-07-27
RU2711467C2 (ru) 2020-01-17
MX340475B (es) 2016-07-08
RU2016142728A3 (pt) 2019-10-31
JP6101316B2 (ja) 2017-03-22
IL247674A0 (en) 2016-11-30
CN107770534B (zh) 2020-08-04
EP3364373A1 (en) 2018-08-22
CA3111640C (en) 2023-10-31
PL3346447T3 (pl) 2021-11-29
EP3346447B1 (en) 2021-04-28
IL247673B (en) 2018-04-30
US10623732B2 (en) 2020-04-14
ZA201600849B (en) 2017-05-31
EP2774122A1 (en) 2014-09-10
EP3346447A1 (en) 2018-07-11
CN107809640B (zh) 2020-06-09
RU2016142727A (ru) 2018-12-18
TWI699992B (zh) 2020-07-21
TW201921926A (zh) 2019-06-01
CN107682696A (zh) 2018-02-09
CN107682696B (zh) 2020-06-23
BR122020014298B1 (pt) 2021-07-20
IN2014CN03908A (pt) 2015-10-16
JP6116625B2 (ja) 2017-04-19
CA2849028C (en) 2016-01-26
MX340474B (es) 2016-07-08
ES2881980T3 (es) 2021-11-30
TW202037158A (zh) 2020-10-01
CA3212893A1 (en) 2013-05-10
DK2774122T3 (en) 2018-07-16
CN107613293A (zh) 2018-01-19
CN103096067B (zh) 2017-11-28
KR20140070598A (ko) 2014-06-10
KR20140066760A (ko) 2014-06-02
MY190516A (en) 2022-04-26
MY190530A (en) 2022-04-27
RU2710995C2 (ru) 2020-01-14
AU2016203214B2 (en) 2018-01-18
KR20140074348A (ko) 2014-06-17
MY190515A (en) 2022-04-26
IL231705A (en) 2016-09-29
US10917640B2 (en) 2021-02-09
AU2016203217B2 (en) 2017-12-14
CA3057770A1 (en) 2013-05-10
CN107770535B (zh) 2020-07-14
US9497463B2 (en) 2016-11-15
CN107734334A (zh) 2018-02-23
CA2849028A1 (en) 2013-05-10
CN107809640A (zh) 2018-03-16
US9497462B2 (en) 2016-11-15
US20150195530A1 (en) 2015-07-09
HUE054637T2 (hu) 2021-09-28
TW201342936A (zh) 2013-10-16
NO2774122T3 (pt) 2018-09-08

Similar Documents

Publication Publication Date Title
BR122020014282B1 (pt) Método para gerar um bloco reconstruído
TWI709334B (zh) 對視頻資料解碼的方法
BR112014007869B1 (pt) Método para gerar um bloco reconstruído

Legal Events

Date Code Title Description
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 02/11/2012, OBSERVADAS AS CONDICOES LEGAIS.

B25A Requested transfer of rights approved

Owner name: GENSQUARE LLC (KR)