BR122015001354B1 - Aparelho para decodificação de informações de movimento em modo de fusão - Google Patents

Aparelho para decodificação de informações de movimento em modo de fusão Download PDF

Info

Publication number
BR122015001354B1
BR122015001354B1 BR122015001354-2A BR122015001354A BR122015001354B1 BR 122015001354 B1 BR122015001354 B1 BR 122015001354B1 BR 122015001354 A BR122015001354 A BR 122015001354A BR 122015001354 B1 BR122015001354 B1 BR 122015001354B1
Authority
BR
Brazil
Prior art keywords
block
candidate
merge
fusion
unit
Prior art date
Application number
BR122015001354-2A
Other languages
English (en)
Other versions
BR122015001354A2 (pt
Inventor
Kwangje KIM
Hyunoh OH
Original Assignee
Ibex Pt Holdings Co., Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=47756522&utm_source=***_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=BR122015001354(B1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Ibex Pt Holdings Co., Ltd filed Critical Ibex Pt Holdings Co., Ltd
Publication of BR122015001354A2 publication Critical patent/BR122015001354A2/pt
Publication of BR122015001354B1 publication Critical patent/BR122015001354B1/pt

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/1887Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a variable length codeword
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/198Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including smoothing of a sequence of encoding parameters, e.g. by averaging, by choice of the maximum, minimum or median value
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

aparelho para decodificação de informações de movimento em modo de fusão. descreve-se um aparelho para decodificação de informações de movimento em modo de fusão, para reconstruir um sinal de imagem em movimento, codificado a uma baixa frequência de dados, enquanto mantendo uma alta qualidade de uma imagem. o aparelho para decodificação de informações de movimento em modo de fusão descreve a posição de um candidato em modo de fusão e a configuração de um candidato para prever eficientemente as informações de movimento em modo de fusão. além do mais, um candidato de fusão, indicado pelo índice de fusão de um bloco atual, pode ser reconstruído eficientemente, independentemente de um meio físico de rede, por geração adaptativa de um candidato de fusão, com base no número de candidatos de fusão válidos.

Description

Campo técnico
[001] A presente invenção se refere a um aparelho para decodificação de informações de movimento, e, mais particularmente, a um aparelho para decodificação de informações de movimento em modo de fusão, para reconstrução de informações de movimento codificadas em modo de fusão.
Antecedentes
[002] Muitas técnicas para comprimir efetivamente um sinal de imagem móvel, enquanto mantendo a qualidade de uma imagem, foram propostas. Em particular, um método de codificação de interpredição, isto é, um método de extração de um bloco similar a um bloco atual de uma imagem prévia, e codificação de uma diferença entre o bloco extraído e o bloco atual, é um dos métodos mais efetivos na compressão de uma imagem.
[003] No caso de um método de codificação de interpredição, as informações de movimento correspondentes a cada bloco devem ser transmitidas adicionalmente, em vez de codificação de um bloco residual e transmissão do bloco residual codificado. Por essa razão, o outro método de compressão de imagem vai reduzir a quantidade de dados por codificação efetiva das informações de movimento.
[004] Como o tamanho de um bloco de predição e o número de imagens a serem referidas ficam diferentes, a quantidade de dados de um bloco residual é reduzida, enquanto a quantidade de informações de movimento a serem transmitidas (por exemplo, um vetor de movimento e um índice de imagens de referência) é aumentada gradualmente.
[005] Consequentemente, há uma necessidade para um aparelho capaz de reduzir a quantidade de informações de movimento, a serem transmitidas mais efetivamente.
Descrição Problema técnico
[006] A presente invenção proporciona um aparelho para decodificação de informações de movimento em um modo de fusão, para reconstruir efetivamente as informações de movimento codificadas em modo de fusão.
Solução técnica
[007] O aparelho para decodificação de informações de movimento em um modo de fusão, de acordo com a presente invenção, inclui: uma unidade de decodificação de índice de preditor de fusão, configurada para reconstruir o índice de preditor de fusão de um bloco atual, usando uma chave de código de fusão recebida; uma unidade de derivação de candidato de fusão espacial, configurada para derivar o candidato de fusão espacial do bloco atual; uma unidade de configuração de candidato de fusão temporal, configurada para gerar o candidato de fusão temporal do bloco atual; uma unidade de geração de candidato de fusão, configurada para gerar um candidato de fusão, quando o número de candidatos de fusão válidos do bloco atual é menor do que um número predeterminado; uma unidade de seleção de preditor de fusão, configurada para gerar uma lista de candidatos de fusão usando o candidato de fusão espacial, derivado pela unidade de derivação de candidato de fusão, o candidato de fusão temporal gerado pela unidade de configuração de candidato de fusão temporal, e o candidato de fusão gerado pela unidade de geração de candidato de fusão, e selecionar um preditor de fusão com base no índice de preditor de fusão reconstruído pela unidade de decodificação de índice de preditor de fusão; e uma unidade de geração de informações de movimento, configurada para gerar o índice de imagens de referência e o vetor de movimento de um candidato de fusão, selecionado pela unidade de seleção de preditor de fusão, como o índice de imagens de referência e o vetor de movimento do bloco atual.
Efeitos vantajosos
[008] De acordo com a presente invenção, o índice de preditor de fusão de um bloco atual é reconstruído e o candidato de fusão espacial e o candidato de fusão temporal são gerados, usando uma chave de código de fusão recebida. Se o número de candidatos de fusão válidos do bloco atual for menor do que um número predeterminado, uma lista de candidatos de fusão é feita por geração dos candidatos de fusão. Além do mais, um preditor de fusão é selecionado com base no índice de preditor de fusão reconstruído. Consequentemente, há vantagens pelo fato de que uma velocidade de decodificação pode ser aumentada e as informações de movimento podem ser decodificadas eficientemente, porque o número de candidatos de fusão é fixo e uma tabela de decodificação é usada. Descrição dos desenhos A Figura 1 é um diagrama de blocos de um aparelho de codificação de interpredição, de acordo com a presente invenção. A Figura 2 é um diagrama de blocos de uma unidade de determinação de modo de codificação de informações de movimento, de acordo com a presente invenção. A Figura 3 é um diagrama mestrando a posição de um candidato de fusão, de acordo com uma concretização da presente invenção. A Figura 4 é um diagrama de blocos de um aparelho de codificação de interpredição, de acordo com a presente invenção. A Figura 5 é um diagrama de blocos de uma unidade de decodificação de informações de movimento em modo de fusão, de acordo com uma primeira concretização da presente invenção. A Figura 6 é um diagrama de blocos de uma unidade de decodificação de informações de movimento em modo de fusão, de acordo com uma segunda concretização da presente invenção. A Figura 7 é um diagrama de blocos de uma unidade de decodificação de informações de movimento em modo de fusão, de acordo com uma terceira concretização da presente invenção. A Figura 8 é um diagrama de blocos de uma unidade de decodificação de informações de movimento em modo AMVP, de acordo com uma primeira concretização da presente invenção. A Figura 9 é um diagrama de blocos de uma unidade de decodificação de informações de movimento em modo AMVP, de acordo com uma segunda concretização da presente invenção.
Modo para invenção
[009] A Figura 1 é um diagrama de blocos de um aparelho de codificação de interpredição, de acordo com a presente invenção.
[010] Com referência à Figura 1, o aparelho de codificação de interpredição inclui uma unidade de determinação de informações de movimento 110, uma unidade de determinação de modo de codificação de informações de movimento 120, uma unidade de codificação de informações de movimento 130, uma unidade de geração de blocos de predição 140, uma unidade de geração de blocos residuais 150, uma unidade de codificação de blocos residuais 160, e um multiplexador 170.
[011] A unidade de determinação de informações de movimento 110 determina as informações de movimento de um bloco atual. As informações de movimento incluem um índice de imagens de referência e um vetor de movimento. O índice de imagens de referência indica qualquer uma de imagens previamente codificadas e reconstruídas. Se um bloco atual for codificado usando uma predição única, o índice de imagens de referência indica uma das imagens de referência que pertencem a uma lista 0 L0. Em comparação, se um bloco atual for codificado usando uma predição dupla, o índice de imagens de referência pode indicar uma das imagens de referência incluídas em uma lista 0 L0 e uma das imagens de referência incluídas em uma lista 1 L1. Além do mais, se um bloco atual for codificado usando uma predição dupla, o índice de imagens de referência pode indicar uma ou duas imagens das imagens de referência incluídas em uma lista complexa LC, gerada por combinação de uma lista 0 e uma lista 1.
[012] O vetor de movimento indica uma posição de um bloco de predição dentro de uma imagem, indicada por cada índice de imagens de referência. O vetor de movimento pode ser uma unidade de pixel (por exemplo, uma unidade pixel inteiro), e pode ser também uma unidade de subpixel. Por exemplo, o vetor de movimento pode ter uma resolução de 1/2, 1/4, 1/8 ou 1/16 pixel. Se um vetor de movimento não for uma unidade de pixel inteiro, um bloco de predição é gerado de pixels inteiros.
[013] A unidade de determinação de modo de codificação de informações de movimento 120 determina se as informações de movimento de um bloco atual vão ser codificadas em modo de salto, modo de fusão ou modo AMVP.
[014] O modo de salto é aplicado quando um candidato de salto, tendo as mesmas informações de movimento de um bloco atual, está presente e um sinal residual é 0. Além do mais, o modo de salto é aplicado quando um bloco atual tem o mesmo tamanho que a unidade de codificação. O bloco atual pode ser considerado como sendo uma unidade de predição.
[015] O modo de fusão é aplicado quando um candidato de fusão, tendo as mesmas informações de movimento de um bloco atual, está presente. O modo de fusão é aplicado quando um bloco atual tem um tamanho diferente de uma unidade de codificação, ou quando um sinal residual está presente se um bloco atual tiver o mesmo tamanho que uma unidade de codificação. Um candidato de fusão pode ser idêntico a um candidato de salto.
[016] O modo AMVP é aplicado é aplicado quando o modo de salto e o modo de fusão não são aplicados. Um candidato AMVP, que tem o vetor de movimento mais similar que um bloco atual, é selecionado como um preditor AMVP.
[017] A unidade de codificação de informações de movimento 130 codifica as informações de movimento, de acordo com um método determinado pela unidade de determinação de modo de codificação de informações de movimento 120. Se o modo de codificação de informações de movimento for o modo de salto ou o modo de fusão, a unidade de codificação de informações de movimento 130 executa um processo de codificação de vetor de movimento. Se o modo de codificação de informações de movimento for o modo AMVP, a unidade de codificação de informações de movimento 130 executa um processo de codificação AMVP.
[018] A unidade de geração de blocos de predição 140 gera um bloco de predição, usando as informações de movimento de um bloco atual. Se um vetor de movimento for uma unidade de pixel inteiro, a unidade de geração de blocos de predição 140 gera o bloco de predição de um bloco atual por cópia de um bloco correspondente a uma posição, que é indicada por um vetor de movimento dentro de uma imagem indicada por um índice de imagens de referência.
[019] Se um vetor de movimento não for uma unidade de pixel inteiro, no entanto, a unidade de geração de blocos de predição 140 gera pixels de um bloco de predição de pixels inteiros dentro de uma imagem, indicada por um índice de imagens de referência. Nesse caso, no caso de um pixel de luminância, um bloco de predição pode ser gerado usando um filtro de interpolação de 8 derivações. No caso de um pixel de crominância, um pixel de preditor pode ser gerado usando um filtro de interpolação de 4 derivações.
[020] A unidade de geração de blocos residuais 150 gera um bloco residual, usando o bloco atual e o bloco de predição do bloco atual. Se um bloco atual tiver um tamanho de 2Nx2N, a unidade de geração de blocos residuais 150 gera um bloco residual, usando o bloco atual e um bloco de predição, tendo um tamanho de 2Nx2N, correspondente ao bloco atual. Se um bloco atual, usado para predição, tiver um tamanho de 2NxN ou Nx2N, a unidade de geração de blocos residuais 150 pode obter um bloco de predição para cada um dos dois blocos 2NxN, que formam o tamanho de 2Nx2N, e depois geram um bloco de predição final tendo um tamanho de 2Nx2N, usando os dois blocos de predição 2NxN. Além do mais, a unidade de geração de blocos residuais 150 pode gerar um bloco residual tendo um tamanho de 2Nx2N, usando um bloco residual tendo um tamanho de 2Nx2N. Os pixels, localizados próximos de um limite dos dois blocos de predição, tendo cada um deles o tamanho de 2NxN, podem ser nivelados por sobreposição para solucionar a descontinuidade no limite.
[021] A unidade de codificação de blocos residuais 160 classifica um bloco residual gerado em uma ou mais unidades de transformação. Além do mais, cada uma as unidades de transformação é codificada por execução de codificação de transformação, quantificação, e codificação por entropia. Nesse caso, um tamanho da unidade de transformação pode ser determinado por um método de árvore quádrupla, dependendo de um tamanho do bloco residual.
[022] A unidade de codificação de blocos residuais 160 transforma um bloco residual, gerado pelo método de interpredição, usando uma matriz de transformação baseada em número inteiro. A matriz de transformação é uma matriz DCT à base de número inteiro. A unidade de codificação de blocos residuais 160 usa uma matriz de quantificação, para quantificar os coeficientes do bloco residual transformado pela matriz de transformação. A matriz de quantificação é determinada por um parâmetro de quantificação. O parâmetro de quantificação é determinado para cada unidade de codificação, tendo um tamanho predeterminado ou maior. O tamanho predeterminado pode ser 8x8 ou 16x16. Consequentemente, se uma unidade de codificação atual for menor do que o tamanho predeterminado, apenas o parâmetro de quantificação de uma primeira unidade de codifica em uma ordem de codificação, de entre várias unidades de codificação dentro do tamanho predeterminado, é codificado, e os parâmetros de quantificação das unidades de codificação remanescentes não precisam ser codificados, porque são iguais ao parâmetro de quantificação da primeira unidade de codificação. Além do mais, os coeficientes do bloco de transformação são quantificados usando o parâmetro de quantificação determinado e uma matriz de quantificação determinada, dependendo do modo de predição.
[023] Um parâmetro de quantificação, determinado para cada unidade de codificação, tendo o tamanho predeterminado ou maior, é codificado por execução de uma codificação de predição, usando o parâmetro de quantificação de uma unidade de codificação, que é adjacente a uma unidade de codificação de corrente. Os parâmetros de quantificação podem ser buscados em ordem da unidade de codificação esquerda e da unidade de codificação superior da unidade de codificação atual, e um preditor de parâmetro de quantificação de uma unidade de codificação atual pode ser gerado usando um ou dois parâmetros de quantificação válidos buscados. Por exemplo, um parâmetro de quantificação válido, recuperado primeiro como descrito acima, pode ser determinado como um preditor de parâmetro de quantificação. Em outra concretização, os parâmetros de quantificação podem ser buscados em ordem de uma unidade de codificação esquerda e uma unidade de codificação à direita, antes em ordem de codificação, e um parâmetro de quantificação válido recuperado primeiro pode ser determinado como um preditor de parâmetro de quantificação.
[024] Os coeficientes de um bloco de transformação quantificado são escaneados e transformados em coeficientes de quantificação unidimensionais. Um método de escaneamento pode ser, diferentemente, baseado em um modo de codificação por entropia. Por exemplo, no caso de Codificação Aritmética Binária Adaptativa à Base de Contexto (CABAC), os coeficientes de quantificação, codificados por uso de interpredição, podem ser escaneados usando um método predeterminado (por exemplo, um escaneamento em ziguezague, ou um escaneamento de rastreio diagonal). Em comparação, no caso de CAVLC, os coeficientes de quantificação, codificados por uso de interpredição, podem ser escaneados usando um método diferente do método mencionado acima. Por exemplo, o método de escaneamento pode ser determinado com base no escaneamento em ziguezague, no caso de modo de interpredição, e pode ser determinado com base em modo de intrapredição, no caso de intrapredição. Além do mais, um método de escaneamento de coeficiente pode ser determinado diferentemente, com base no tamanho de uma unidade de transformação. Um modelo de escaneamento pode variar com base em um modo de intrapredição direcional. Os coeficientes de quantificação são escaneados em uma ordem inversa.
[025] O multiplexador 170 multiplica as informações de movimento, codificadas pela unidade de codificação de informações de movimento 130, e os sinais residuais, codificados pela unidade de codificação de blocos residuais 160. As informações de movimento podem incluir diferentes informações, dependendo do modo de codificação. Isto é, em um modo de salto ou em fusão, as informações de movimento incluem apenas um índice indicativo de um preditor. Em comparação, no modo AMVP, as informações de movimento incluem um índice de imagens de referência, um vetor de movimento diferencial e um índice AMVP de um bloco atual.
[026] A Figura 2 é um diagrama de blocos da unidade de determinação de modo de codificação de informações de movimento 120, de acordo com a presente invenção.
[027] A unidade de determinação de modo de codificação de informações de movimento 120, de acordo com a presente invenção, inclui uma unidade de derivação de candidato de fusão espacial 121, uma unidade de derivação de índice de imagens de referência 122 para um candidato de fusão temporal, uma unidade de derivação de vetor de movimento 123 para um candidato de fusão / AMVP temporal, uma unidade de derivação de vetor de movimento 124 para um candidato AMVP espacial, uma unidade de configuração de candidato de fusão temporal 125, uma unidade de geração de lista de candidatos de fusão 126, uma unidade de geração de lista de candidatos AMVP 127, e uma unidade de determinação de modo de codificação 128.
[028] A unidade de derivação de candidato de fusão espacial 121 coloca as informações de movimento válidas nos blocos adjacentes a um bloco atual, como os candidatos de fusão espacial. Quatro candidatos do bloco esquerdo (por exemplo, um bloco A) de um bloco atual, o bloco superior (por exemplo, um bloco B) do bloco atual, o bloco direito superior (por exemplo, um bloco C) do bloco atual, o bloco esquerdo inferior (por exemplo, um bloco D) do bloco atual, e o bloco esquerdo superior (por exemplo, um bloco E) do bloco atual podem vir a ser os candidatos de fusão espaciais, como mostrado na Figura 3. Nesse caso, o bloco E pode ser usado quando um ou mais dos blocos A, B, C e D não são válidos.
[029] Além do mais, o bloco esquerdo (por exemplo, o bloco A') do bloco atual, o bloco superior (por exemplo, um bloco B') do bloco atual, e o bloco de canto (por exemplo, qualquer um dos blocos C, D e E) do bloco atual podem ser colocados como os candidatos de fusão espacial. O bloco de canto é o primeiro bloco, que é válido, quando o escaneamento é feito para o bloco direito superior (por exemplo, um bloco C) do bloco atual, o bloco esquerdo inferior (por exemplo, um bloco D) do bloco atual, e o bloco esquerdo superior (por exemplo, um bloco E) do bloco atual.
[030] Além do mais, dois candidatos, que são válidos quando o escaneamento é feito na ordem dos bloco esquerdo (por exemplo, um bloco A') do bloco atual, bloco superior (por exemplo, um bloco B') do bloco atual, bloco direito superior (por exemplo, um bloco C) do bloco atual, bloco esquerdo inferior (por exemplo, um bloco D) do bloco atual, e bloco esquerdo superior (por exemplo, um bloco E) do bloco atual podem vir a ser os candidatos de fusão espacial.
[031] Nesse caso, o bloco esquerdo pode ser um bloco que não é adjacente ao bloco D, mas adjacente ao bloco E. Igualmente, o bloco superior B' pode ser um bloco que não é adjacente ao bloco C, mas adjacente ao bloco E.
[032] A unidade de derivação de índice de imagens de referência 122, para um candidato de fusão temporal, obtém um índice de imagens de referência para os candidatos de fusão temporal de um bloco atual. O índice de imagens de referência de um dos blocos (por exemplo, as unidades de predição), que é espacialmente adjacente a um bloco atual, pode ser colocado como o índice de imagens de referência para os candidatos de fusão temporal.
[033] Para obter os índices de referência dos candidatos de fusão temporal do bloco atual, alguns ou todos dos índices de imagens de referência dos bloco esquerdo A, bloco superior B, bloco direito superior C, bloco esquerdo inferior D e bloco esquerdo superior E do bloco atual podem ser usados.
[034] Por exemplo, os índices de imagens de referência dos bloco esquerdo A, bloco superior B e bloco de canto (por exemplo, qualquer um dos blocos C, D e E) do bloco atual podem ser usados. Nesse caso, o índice de imagens de referência de um bloco, que é válido primeiro quando os blocos são escaneados na ordem dos bloco direito superior C, bloco esquerdo inferior D e bloco esquerdo superior E, podem ser determinados como o índice de imagens de referência do bloco de canto. Por exemplo, um índice de imagens de referência tendo a frequência mais alta, de entre os índices de imagens de referência válidos dos índices de imagens de referência, pode ser adotado com um índice de imagens de referência de um candidato de salto temporal. Se o número de índices de imagens de referência tiver a frequência mais alta, de entre os candidatos válidos, for plural, um índice de imagens de referência tendo um valor mínimo, de entre os vários índices de imagens de referência, pode ser adotado como um índice de imagens de referência para o candidato de salto temporal.
[035] Para obter os índices de referência dos candidatos de fusão temporal do bloco atual, os índices de imagens de referência de três blocos, que são válidos quando os blocos são escaneados na ordem dos bloco esquerdo A, bloco superior B, bloco direito superior C, bloco esquerdo inferior D e bloco esquerdo superior E do bloco atual, podem ser usados. Embora três ou mais índices de imagens de referência sejam ilustrados como sendo usados, todos os índices de imagens de referência podem ser usados, ou apenas um índice de imagens de referência, em uma posição predeterminada, pode ser usado. Se não houver qualquer índice de imagens de referência, o índice de imagens de referência pode ser ajustado como 0.
[036] A unidade de derivação de vetor de movimento 123 para um candidato de fusão / AMVP temporal determina uma imagem, à qual um bloco de candidato de fusão temporal pertence (a seguir, referida como uma imagem de candidato de fusão temporal). A imagem de candidato de fusão temporal pode ser adotada como uma imagem tendo um índice de imagens de referência de 0. Nesse caso, ser um tipo fatia for P, a imagem de candidato de fusão temporal é adotada como a primeira imagem de uma lista 0 (isto é, uma imagem tendo um índice de 0). Se um tipo de fatia for B, a imagem de candidato de fusão temporal é adotada como a primeira imagem de uma lista de imagens de referência indicada por um marcador, o marcador sendo indicativo de uma lista de candidatos de fusão temporal em um cabeçalho de fatia. Por exemplo, a imagem de candidato de fusão temporal pode ser adotada como uma imagem em uma lista 0, quando o marcador é 1, e como uma imagem em uma lista 1, quando o marcador é 0.
[037] A unidade de derivação de vetor de movimento 123 obtém um bloco de candidato de fusão temporal dentro da imagem de candidato de fusão temporal. Um de vários blocos correspondentes a um bloco atual, dentro da imagem de candidato de fusão temporal, pode ser selecionado como o bloco de candidato de fusão temporal. Nesse caso, a ordem de prioridade pode ser atribuída à pluralidade de blocos correspondentes, e um primeiro bloco correspondente válido pode ser selecionado como o bloco de candidato de fusão temporal, com base na ordem de prioridade.
[038] Por exemplo, um bloco de canto esquerdo inferior BR_C, que é adjacente a um bloco correspondente a um bloco atual, dentro da imagem de candidato de fusão temporal, ou um bloco esquerdo inferior BR, dentro de um bloco correspondente a um bloco atual, dentro da imagem de candidato de fusão temporal, pode ser adotado como um primeiro bloco de candidato, e um bloco C1, que inclui um pixel esquerdo superior na posição central de um bloco correspondente a um bloco atual, dentro da imagem de candidato de fusão temporal, ou um bloco C2, que inclui um pixel direito inferior na posição central de um bloco correspondente a um bloco atual, dentro da imagem de candidato de fusão temporal, pode ser adotado como um segundo bloco de candidato.
[039] Quando o primeiro bloco de candidato é válido, o bloco de candidato de fusão temporal pode ser adotado como o primeiro bloco de candidato. Quando o primeiro bloco de candidato não é válido e o segundo bloco de candidato é válido, o bloco de candidato de fusão temporal pode ser adotado como o segundo bloco de candidato. Em outra concretização, apenas o segundo bloco de candidato é adjacente ao limite inferior de uma fatia ou ao limite inferior de um LCU, apenas o segundo bloco de candidato pode ser usado. Se o segundo bloco de candidato não estiver presente, o candidato de fusão temporal não é determinado como sendo válido.
[040] Após o bloco de candidato de fusão temporal ser determinado, um vetor de movimento de um candidato de fusão temporal é adotado como um vetor de movimento do bloco de candidato de fusão temporal.
[041] Enquanto isso, o candidato de fusão temporal pode não ser usado adaptativamente, dependendo do tamanho de um bloco atual. Por exemplo, no caso de um bloco 4x4, o candidato de fusão temporal pode não ser usado para reduzir a complexidade.
[042] A unidade de derivação de vetor de movimento 124 para um candidato AMVP espacial pode selecionar um do bloco esquerdo (por exemplo, um bloco A) e o bloco esquerdo inferior (por exemplo, um bloco D) de um bloco atual como o candidato espacial esquerdo, e pode selecionar um do bloco superior (por exemplo, um bloco B) do bloco atual, o bloco direito superior (por exemplo, um bloco C) do bloco atual, e o bloco esquerdo superior (por exemplo, o bloco E) do bloco atual como um candidato espacial superior. Nesse caso, um vetor de movimento, que é primeiro válido que os blocos são escaneados em uma ordem predeterminada, é determinado como o candidato espacial esquerdo ou superior. A ordem predeterminada pode ser a ordem dos bloco A e do bloco D, ou uma ordem inversa dela, no caso de um bloco esquerdo, e pode ser a ordem dos bloco B, bloco C e bloco E, ou a ordem dos bloco C, bloco B e bloco E, no caso de um bloco superior. O vetor de movimento válido pode ser um vetor de movimento que satisfaça uma condição predeterminada. A condição predeterminada é estabelecida com base nas informações de movimento de um bloco atual. Um candidato espacial superior pode não ser adotado com base em um candidato espacial esquerdo.
[043] A unidade de configuração de candidato de fusão temporal 125 gera um candidato de fusão temporal, usando um índice de imagens de referência do candidato de fusão temporal, obtido pela unidade de derivação de índice de imagens de referência 122 para o candidato de fusão temporal, e um vetor de movimento do candidato de fusão temporal, obtido pela unidade de derivação de vetor de movimento 123 para o candidato de fusão / AMVP temporal.
[044] A unidade de geração de lista de candidatos de fusão 126 gera uma lista de candidatos de fusão, em uma ordem predeterminada, usando os candidatos de fusão válidos. Se vários candidatos de fusão tiverem as mesmas informações de movimento (por exemplo, o mesmo vetor de movimento e o mesmo índice de imagens de referência), os candidatos de fusão tendo uma ordem de prioridade inferior são eliminados da lista. Por exemplo, a ordem predeterminada pode ser a ordem dos blocos A, B, Col, C e D. Nesse caso, Col significa um candidato de fusão temporal. Se um ou mais dos blocos A, B, C e D não são válidos, as informações de movimento de um bloco válido E podem ser inseridas na posição do primeiro bloco inválido. Além do mais, as informações de movimento do bloco válido E podem ser inseridas na última posição.
[045] Enquanto isso, se o número de candidatos de fusão for menor do que um número predeterminado, um candidato de fusão pode ser gerado. O candidato de fusão adicionado pode ser gerado por combinação das informações de movimento de dois candidatos de fusão válidos. Por exemplo, um candidato de fusão pode ser gerado por combinação por combinação de um índice de imagens de referência de um candidato de fusão temporal e um vetor de movimento espacial válido de um candidato de fusão espacial. Se vários candidatos de fusão puderem ser gerados, os candidatos de fusão gerados podem ser adicionados a uma lista em uma ordem predeterminada. Um candidato de fusão, gerado por combinação do índice de imagens de referência de um candidato de fusão temporal, e o vetor de movimento de um candidato de fusão espacial podem ser primeiro adicionados à lista. Se o número de candidatos de fusão a ser gerado for insuficiente, um candidato de fusão, tendo um vetor de movimento de 0 e um índice de imagens de referência de 0, pode ser adicionado. O número predeterminado pode ser determinado para cada imagem ou fatia.
[046] A unidade de geração de lista de candidatos AMVP 127 gera uma lista de candidatos AMVP, em uma ordem predeterminada, usando candidatos AMVP válidos. Se os vários candidatos AMVP tiverem o mesmo vetor de movimento (mas as imagens de referência não precisam ser iguais), os candidatos AMVP, tendo uma ordem de prioridade inferior, são eliminados da lista. A ordem predeterminada pode ser a ordem do lado esquerdo, o lado superior e Col, ou pode ser a ordem de Col, lado esquerdo e lado superior.
[047] Além do mais, a unidade de geração de lista de candidatos AMVP 127 determina se é necessário gerar ou não um candidato AMVP. Considerando que o número de candidatos AMVP é estabelecido como sendo um valor fixo na configuração de candidatos AMVP apresentada acima, se o número de candidatos AMVP válidos for menor do que o valor fixo, um candidato AMVP é gerado. Além do mais, o candidato AMVP gerado é adicionado a uma posição seguinte a um candidato AMVP, tendo a ordem de prioridade mais baixa na lista. O candidato AMVP adicionado pode ser um candidato tendo um vetor de movimento de 0.
[048] A unidade de determinação de modo de codificação 128 determina se as informações de movimento de um bloco atual vão ser codificadas em um modo de salto, um modo de fusão ou um modo AMVP.
[049] O modo de salto é aplicado quando há um candidato de salto tendo as mesmas informações de movimento que um bloco atual e o sinal residual é 0. Além do mais, o modo de salto é aplicado quando um bloco atual tem o mesmo tamanho que uma unidade de codificação. O bloco atual pode ser considerado como sendo uma unidade de predição.
[050] O modo de fusão é aplicado quando um candidato de fusão, tendo as mesmas informações de movimento que um bloco atual, está presente. O modo de fusão é aplicado quando um bloco atual tem um tamanho diferente de uma unidade de codificação, ou quando um sinal residual está presente, se um bloco atual tiver o mesmo tamanho que uma unidade de codificação. Um candidato de fusão pode ser idêntico a um candidato de salto.
[051] O modo AMVP é aplicado quando o modo de salto e o modo de fusão não são aplicados. Um candidato AMVP, que tem o vetor de movimento mais similar que o bloco atual, é selecionado como um preditor AMVP.
[052] A Figura 4 é um diagrama de blocos de um aparelho de decodificação de interpredição 200, de acordo com a presente invenção.
[053] O aparelho de codificação de interpredição 200, de acordo com a presente invenção, inclui um demultiplexador 210, uma unidade de determinação de modo de codificação de informações de movimento 220, uma unidade de decodificação de informações de movimento em modo de fusão 230, uma unidade de decodificação de informações de movimento em modo AMVP 240, uma unidade de geração de blocos de predição 250, uma unidade de codificação de blocos residuais 260 e uma unidade de geração de blocos de reconstrução 270.
[054] O demultiplexador 210 demultiplexa as informações de movimento codificadas de um bloco atual e os sinais residuais codificados de um fluxo de bits recebido. O demultiplexador 210 transmite as informações de movimento demultiplexadas para a unidade de determinação de modo de codificação de informações de movimento 220, e transmite os sinais residuais demultiplexados para a unidade de decodificação de blocos residuais 260.
[055] A unidade de determinação de modo de codificação de informações de movimento 220 determina o modo de codificação das informações de movimento do bloco atual. Se o marcador de salto, incluído em um fluxo de bits recebido, tiver um valor de 1, a unidade de determinação de modo de codificação de informações de movimento 220 determina que as informações de movimento do bloco atual foram codificadas em modo de salto. Se o skip_flag, incluído no fluxo de bits recebido, tiver um valor de 0, e as informações de movimento, recebidas do demultiplexador 210, tiverem apenas um índice de fusão, a unidade de determinação de modo de codificação de informações de movimento 220 determina que as informações de movimento do bloco atual foram codificadas em modo de fusão. Se o skip_flag, incluído no fluxo de bits recebido, tiver um valor de 0, e as informações de movimento, recebidas do demultiplexador 210, tiverem um índice de imagens de referência, um vetor de movimento diferencial e um índice AMVP, a unidade de determinação de modo de codificação de informações de movimento 220 determina que as informações de movimento do bloco atual foram codificadas em modo AMVP.
[056] A unidade de decodificação de informações de movimento em modo de fusão 230 é ativada quando a unidade de determinação de modo de codificação de informações de movimento 220 determina que as informações de movimento do bloco atual foram codificadas em modo de salto ou modo de fusão.
[057] A unidade de decodificação de informações de movimento em modo AMVP 240 é ativada quando a unidade de determinação de modo de codificação de informações de movimento 220 determina que as informações de movimento de um bloco atual foram codificadas em modo AMVP.
[058] A unidade de geração de blocos de predição 250 gera o bloco de predição do bloco atual, usando as informações de movimento reconstruídas pela unidade de decodificação de informações de movimento em modo de fusão 230 ou unidade de decodificação de informações de movimento em modo AMVP 240. Se um vetor de movimento tiver uma unidade de pixel inteiro, a unidade de geração de blocos de predição 250 gera o bloco de predição do bloco atual por cópia de um bloco correspondente a uma posição que é indicada por um vetor de movimento dentro de uma imagem indicada por um índice de imagens de referência. Se um vetor de movimento não tiver uma unidade de pixel inteiro, no entanto, a unidade de geração de blocos de predição 250 gera pixels de um bloco de predição de pixels inteiros dentro de uma imagem indicada por um índice de imagens de referência. No caso de um pixel de luminância, um pixel de predição pode ser gerado usando um filtro de interpolação de 8 derivações. No caso de um pixel de crominância, um pixel de predição pode ser gerado usando um filtro de interpolação de 4 derivações. um filtro de interpolação de 8 derivações. No caso de um pixel de crominância, um pixel de predição pode ser gerado usando um filtro de interpolação de 4 derivações.
[059] A unidade de codificação de blocos residuais 260 executa decodificação por entropia em um sinal residual. Além do mais, a unidade de codificação de blocos residuais 260 gera um bloco de coeficiente quantificado bidimensional por coeficientes decodificados por escaneamento inverso. Um método de escaneamento inverso pode variar com base em um método de decodificação por entropia. Isto é, o método de escaneamento inverso de um sinal residual de interpredição, no caso de decodificação baseada em Codificação Aritmética Binária Adaptativa a Contexto (CABAC), pode ser diferente do método de escaneamento inverso de um sinal residual de interpredição, no caso de decodificação baseada em Codificação de Comprimento Variável Adaptativo com Base em Contexto (CAVLC). Por exemplo, um método de escaneamento inverso de rastreio diagonal pode ser usado no caso de decodificação baseada em CABAC. e um método de escaneamento inverso em ziguezague pode ser usado no caso de decodificação baseada em CAVLC. Além do mais, o método de escaneamento inverso pode ser determinado com base em um tamanho de um bloco de predição.
[060] A unidade de codificação de blocos residuais 260 quantifica inversamente um bloco de coeficiente gerado usando uma matriz de quantificação inversa. Para derivar a matriz de quantificação, um parâmetro de quantificação é reconstruído. Um tamanho de etapa de quantificação é reconstruído para cada unidade de codificação tendo um tamanho igual ou superior a um predeterminado. O tamanho predeterminado pode ser 8x8 ou 16x16. Consequentemente, de uma unidade de codificação atual for menor do que o tamanho predeterminado, apenas o parâmetro de quantificação da primeira unidade de codificação, na ordem de codificação, de entre várias unidades de codificação dentro do tamanho predeterminado, é reconstruído, e os parâmetros de quantificação das unidades de codificação remanescentes não precisam ser codificados porque são iguais ao parâmetro de quantificação da primeira unidade de codificação.
[061] Para reconstruir um parâmetro de quantificação determinado para cada unidade de codificação, tendo o tamanho predeterminado ou maior, o parâmetro de quantificação de uma unidade de codificação, vizinha a uma unidade de codificação atual, é usado. O primeiro parâmetro de quantificação, que é válido quando o escaneamento é conduzido, na ordem da unidade de codificação esquerda e da unidade de codificação superior de uma unidade de codificação atual, pode ser determinado como um preditor de parâmetro de quantificação da unidade de codificação atual. Além do mais, o primeiro parâmetro de quantificação, que é válido quando o escaneamento é feito na ordem da unidade de codificação esquerda e da unidade de codificação direita, antes da ordem de codificação da unidade de codificação atual, pode ser determinado como um preditor de parâmetro de quantificação. O parâmetro de quantificação de uma unidade de predição atual é reconstruído usando o preditor de parâmetro de quantificação determinado e um parâmetro de quantificação diferencial.
[062] A unidade de codificação de blocos residuais 260 reconstrói um bloco residual por transformação inversa do bloco de coeficiente quantificado inversamente.
[063] A unidade de geração de blocos de reconstrução 270 gera um bloco de reconstrução por adição de um bloco de predição, gerado pela unidade de geração de blocos de predição 250, a um bloco residual, gerado pela unidade de codificação de blocos residuais 260.
[064] A Figura 5 é um diagrama de blocos da unidade de decodificação de informações de movimento em modo de fusão 230, de acordo com uma primeira concretização da presente invenção.
[065] A unidade de decodificação de informações de movimento em modo de fusão 230, de acordo com a primeira concretização da presente invenção, inclui uma unidade de determinação de chave de código 231, uma unidade de derivação de candidatos de fusão espacial 232, uma unidade de derivação de índices de imagens de referência 233 para um candidato de fusão temporal, uma unidade de derivação de vetor de movimento 234 para um candidato de fusão temporal, uma unidade de configuração de candidatos de fusão temporal 235, uma unidade de geração de lista de candidatos de fusão 236, uma unidade de decodificação de índices de candidatos de fusão 237, e uma unidade de geração de informações de movimento 238. Nesse caso, o número de candidatos de fusão não é fixo.
[066] A unidade de determinação de chave de código 231 determina se há ou não uma chave de código, correspondente a um índice de candidatos de fusão. Se, em consequência da determinação, uma chave de código, correspondente ao índice de candidatos de fusão, for determinado como não estando presente, a unidade de determinação de chave de código 231 determina que um candidato de fusão estão ou não presente. Se, em consequência da determinação, um candidato de fusão for determinado como não estando presente, as informações de movimento de um bloco atual são reconstruídas como as informações de movimento tendo um vetor de movimento de 0 e um índice de imagens de referência de 0. Se, em consequência da determinação, um candidato de fusão for determinado como estando presente, as informações de movimento do bloco atual são reconstruídas como as informações de movimento do candidato de fusão.
[067] A unidade de derivação de candidatos de fusão espacial 232 estabelece nas informações de movimento válidas de um bloco, que é adjacente a um bloco atual, como um candidato de fusão espacial. Como mostrado na Figura 3, quatro candidatos do bloco esquerdo (por exemplo, um bloco A) de um bloco atual, o bloco superior (por exemplo, um bloco B) do bloco atual, o bloco direito superior (por exemplo, um bloco C) do bloco atual, o bloco esquerdo inferior (por exemplo, um bloco D) do bloco atual, e o bloco esquerdo superior (por exemplo, um bloco E) do bloco atual podem ser usados para estabelecer os candidatos de fusão espaciais. Nesse caso, o bloco E pode ser usado quando um ou mais dos blocos A, B, C e D não são válidos.
[068] Além do mais, o bloco esquerdo (por exemplo, um bloco A') de um bloco atual, o bloco superior (por exemplo, um bloco B') do bloco atual, e o bloco de canto (por exemplo, qualquer um dos blocos C, D e E) do bloco atual podem ser estabelecidos como os candidatos de fusão espacial. O bloco de canto é o primeiro bloco que é válido, quando o escaneamento é feito na ordem dos bloco direito superior (por exemplo, um bloco C), bloco esquerdo inferior (por exemplo, um bloco D) do bloco atual e bloco esquerdo superior (por exemplo, um bloco E) do bloco atual.
[069] Além do mais, dois candidatos que são válidos quando o escaneamento é feito na ordem dos bloco esquerdo (por exemplo, um bloco A') do bloco atual, bloco superior (bloco B') do bloco atual, bloco direito superior (por exemplo, um bloco C) do bloco atual, bloco esquerdo inferior (por exemplo, um bloco D) do bloco atual, e bloco esquerdo superior (por exemplo, um bloco E) do bloco atual podem ser adotados como os candidatos de fusão espacial.
[070] Nesse caso, o bloco esquerdo A' pode ser um bloco que não é adjacente ao bloco D, mas é adjacente ao bloco E. Igualmente, o bloco superior B1 pode ser um bloco que não é adjacente ao bloco C, mas é adjacente ao bloco E.
[071] Nas concretizações mencionadas acima, as informações de movimento de candidatos de fusão colocadas no lado superior de uma unidade de predição atual, de entre os candidatos de fusão espacial, podem ser estabelecidas diferentemente, com base na posição da unidade de predição atual. Por exemplo, se a unidade de predição atual ficar em contato com o limite superior de um LCU, as informações de movimento da unidade de predição superior (por exemplo, um bloco B, C ou E) da unidade de predição atual podem ser suas próprias informações de movimento ou informações de movimento de uma unidade de predição adjacente. As informações de movimento da unidade de predição superior podem ser determinadas como suas próprias informações de movimento ou informações de movimento (por exemplo, um índice de imagens de referência e um vetor de movimento) de uma unidade de predição vizinha, com base nos tamanho e posição da unidade de predição atual.
[072] A unidade de derivação de índices de imagens de referência 233 obtém o índice de imagens de referência dos candidatos de fusão temporal de um bloco atual. O índice de imagens de referência do candidato de fusão temporal pode ser estabelecido como o índice de imagens de referência de um dos blocos (isto é, unidades de predição), que é espacialmente adjacente a um bloco atual. Em outra concretização, o índice de imagens de referência do candidato de fusão temporal pode ser estabelecido como 0.
[073] Para obter os índices de referência dos candidatos de fusão temporal de um bloco atual, alguns ou todos os índices de imagens de referência dos bloco esquerdo A, bloco superior B, bloco direito superior C, bloco esquerdo inferior D e bloco esquerdo superior E de um bloco atual podem ser usados.
[074] Por exemplo, os índices de imagens de referência dos bloco esquerdo A, bloco superior B e bloco de canto (por exemplo, qualquer um dos blocos C, D e E) de um bloco atual podem ser usados. Nesse caso, o índice de imagens de referência do primeiro bloco que é válido, quando o escaneamento é feito na ordem dos bloco direito superior C, bloco esquerdo inferior D e bloco E, pode ser determinado como o índice de imagens de referência do bloco de canto. Por exemplo, um índice de imagens de referência tendo a frequência mais alta, de entre os índices de imagens de referência válidos dos índices de imagens de referência, pode ser estabelecido como o índice de imagens de referência de um candidato de salto temporal. Se houver vários índices de imagens de referência, tendo a frequência mais alta de entre os candidatos válidos, um índice de imagens de referência, tendo um valor mínimo de entre os vários índices de imagens de referência, pode ser estabelecido como um índice de imagens de referência de um candidato de salto temporal.
[075] Para obter os índices de referência dos candidatos de fusão temporal de um bloco atual, os índices de imagens de referência de três blocos, que são válidos quando o escaneamento é feito na ordem dos bloco esquerdo, A, bloco superior B, bloco direito superior C, bloco esquerdo inferior D e bloco esquerdo superior E de um bloco atual, podem ser usados. Embora três ou mais índices de imagens de referência sejam ilustrados como sendo usados, todos os índices de imagens de referência válidos podem ser usados, ou apenas um índice de imagens de referência, em uma posição predeterminada, pode ser usado. Se não houver qualquer índice de imagens de referência, o índice de imagens de referência pode ser estabelecido como 0.
[076] A unidade de derivação de vetor de movimento 234 determina uma imagem à qual o candidato de fusão temporal pertence (referida a seguir como uma imagem de candidato de fusão temporal). A imagem de candidato de fusão temporal pode ser estabelecida como uma imagem tendo um índice de imagens de referência de 0. Nesse caso, se um tipo de fatia for P, a imagem de candidato de fusão temporal é estabelecida como a primeira imagem incluída em uma lista 0 (isto é, uma imagem tendo um índice de 0). Se um tipo de fatia for B, a imagem de candidato de fusão temporal é estabelecida como a primeira imagem de uma lista de imagens de referência indicada por um marcador, o marcador sendo indicativo de uma lista de candidatos de fusão temporal em um cabeçalho de fatia. Por exemplo, a imagem de candidato de fusão temporal pode ser estabelecida como uma imagem em uma lista 0, quando o marcador é 1, e como uma imagem em uma lista 1, quando o marcador é 0.
[077] A unidade de derivação de vetor de movimento 234 obtém um bloco de candidato de fusão temporal dentro da imagem de candidato de fusão temporal. Um de vários blocos correspondentes, relacionado a um bloco atual dentro da imagem de candidato de fusão temporal, pode ser selecionado como o bloco de candidato de fusão temporal. Nesse caso, a ordem de prioridade pode ser atribuída aos vários blocos correspondentes, e um primeiro bloco de validação pode ser selecionado como o bloco de candidato de fusão temporal, com base na ordem de prioridade.
[078] Por exemplo, o bloco de canto esquerdo inferior BR_C, que é adjacente a um bloco correspondente a um bloco atual, dentro da imagem de candidato de fusão temporal, ou um bloco esquerdo inferior BR, dentro de um bloco correspondente a um bloco atual, dentro da imagem de candidato de fusão temporal, pode ser estabelecido como um primeiro bloco de candidato, e um bloco C1, que inclui um pixel esquerdo superior na posição central de um bloco correspondente a um bloco atual, dentro da imagem de candidato de fusão temporal, ou um bloco C2, que inclui um pixel direito inferior na posição central de um bloco correspondente a um bloco atual, dentro da imagem de candidato de fusão temporal, pode ser estabelecido como um segundo bloco de candidato.
[079] Quando o primeiro bloco de candidato é válido, o primeiro bloco de candidato pode ser estabelecido como o bloco de candidato de fusão temporal. Quando o primeiro bloco de candidato não é válido e o segundo bloco de candidato é válido, o bloco de candidato de fusão temporal pode ser estabelecido como o segundo bloco de candidato. Em outra concretização, apenas o segundo bloco de candidato pode ser usado, dependendo da posição de um bloco atual. Por exemplo, se um bloco atual é adjacente ao limite inferior de uma fatia ou ao limite inferior de um LCU, apenas o segundo bloco de candidato pode ser usado. Se o segundo bloco de candidato não estiver presente, o candidato de fusão temporal é determinado como sendo não válido.
[080] Após o bloco de predição de candidato de fusão temporal ser determinado, o vetor de movimento de um candidato de fusão temporal é estabelecido como o vetor de movimento do bloco de predição de candidato de fusão temporal.
[081] Enquanto isso, o candidato de fusão temporal pode não ser usado adaptativamente, dependendo do tamanho de um bloco atual. Por exemplo, no caso de um bloco 4x4, o candidato de fusão temporal pode não ser usado, para reduzir a complexidade.
[082] A unidade de configuração de candidato de fusão temporal 235 determina um índice de imagens de referência, obtido pela unidade de derivação de índice de imagens de referência 233, e um vetor de movimento, obtido pela unidade de derivação de vetor de movimento 234, como o índice de imagens de referência e o vetor de movimento de um candidato de fusão temporal.
[083] A unidade de geração de lista de candidatos de fusão 236 gera uma lista de candidatos de fusão, em uma ordem predeterminada, usando os candidatos de fusão válidos. Se vários candidatos de fusão tiverem as mesmas informações de movimento (por exemplo, o mesmo vetor de movimento e o mesmo índice de imagens de referência), os candidatos de fusão tendo uma ordem de prioridade mais baixa são eliminados da lista. Por exemplo, a ordem predeterminada pode ser a ordem dos blocos A, B, Col, C e D. Nesse caso, Col significa um candidato de fusão temporal. Se um ou mais dos blocos A, B, C e D não são válidos, as informações de movimento de um bloco válido E podem ser inseridas na posição do primeiro bloco inválido. Além do mais, as informações de movimento do bloco válido E podem ser inseridas na última posição.
[084] A unidade de decodificação de índices de candidatos de fusão 237 seleciona uma tabela de decodificação correspondente ao número de candidatos válidos, obtidos pela unidade de geração de lista de candidatos de fusão 236. Além do mais, a unidade de decodificação de índices de candidatos de fusão 237 determina um índice, correspondente à chave de código de candidato de fusão dentro da tabela de decodificação, como o índice de candidato de fusão de um bloco atual.
[085] A unidade de geração de informações de movimento 238 seleciona um preditor de fusão, correspondente ao índice de candidato de fusão, da lista gerada pela unidade de geração de lista de candidatos de fusão 236, e determina as informações de movimento (isto é, um vetor de movimento e um índice de imagens de referência) do preditor de fusão selecionado, como as informações de movimento de um bloco atual.
[086] A Figura 6 é um diagrama de blocos da unidade de decodificação de informações de movimento em modo de fusão 230, de acordo com uma segunda dispositivo da presente invenção.
[087] A unidade de decodificação de informações de movimento em modo de fusão 230, de acordo com a segunda concretização da presente invenção, inclui uma unidade de decodificação de índice de preditor de fusão 331, uma unidade de derivação de candidato de fusão espacial 332, uma unidade de derivação de índice de imagens de referência 333 para um candidato de fusão temporal, uma unidade de derivação de vetor de movimento 334 para um candidato de fusão temporal, uma unidade de configuração de candidato de fusão temporal 335, uma unidade de seleção de preditor de fusão 336 e uma unidade de geração de informações de movimento 337. Nesse caso, considera-se que o número de candidatos de fusão é fixo. O número de candidatos de fusão pode ser fixo para cada imagem ou fatia.
[088] A unidade de decodificação de índice de preditor de fusão 331 reconstrói um índice de preditor de fusão, correspondente a uma chave de código de preditor de fusão recebida, usando uma tabela predeterminada, correspondente ao número de candidatos de fusão.
[089] A operação da unidade de derivação de candidato de fusão espacial 332 é igual àquela da unidade de derivação de candidato de fusão espacial 232, mostrada na Figura 5, e, desse modo, uma descrição dela é omitida.
[090] As operações das unidade de derivação de índice de imagens de referência 333, unidade de derivação de vetor de movimento 334 e unidade de configuração de candidato de fusão temporal 335 são iguais àquelas das unidade de derivação de índice de imagens de referência 233, unidade de derivação de vetor de movimento 234 e unidade de configuração de candidato de fusão temporal 235, mostradas na Figura 5, respectivamente, e, desse modo, uma descrição delas é omitida.
[091] A unidade de seleção de preditor de fusão 336 seleciona um candidato de fusão, correspondente a um índice de preditor de fusão, reconstruído pela unidade de decodificação de índice de preditor de fusão 331, de uma lista de candidatos de fusão, e seleciona o candidato de fusão selecionado como o preditor de fusão de um bloco atual. A lista de candidatos de fusão é gerada por uso de um candidato de fusão válido. Nesse caso, se vários candidatos de fusão tiverem as mesmas informações de movimento (por exemplo, o mesmo vetor de movimento e o mesmo índice de imagens de referência), os candidatos de fusão tendo uma ordem de prioridade mais baixa são eliminados da lista. Por exemplo, a ordem predeterminada pode ser a ordem dos blocos A, B, Col, C e D. Nesse caso, Col significa um candidato de fusão temporal. No entanto, se um ou mais dos blocos A, B, C e D não são válidos, as informações de movimento de um bloco válido E podem ser inseridas na posição do primeiro bloco inválido. Além do mais, as informações de movimento do bloco válido E podem ser inseridas na última posição.
[092] Enquanto isso, se o número de candidatos de fusão for menor do que um número predeterminado, um candidato de fusão pode ser gerado. O candidato de fusão adicionado pode ser gerado por combinação das informações de movimento de dois candidatos de fusão válidos. Por exemplo, um candidato de fusão pode ser gerado por combinação por combinação de um índice de imagens de referência de um candidato de fusão temporal e o vetor de movimento espacial válido de um candidato de fusão espacial. Se vários candidatos de fusão puderem ser gerados, os candidatos de fusão gerados podem ser adicionados a uma lista em uma ordem predeterminada. Um candidato de fusão, gerado por combinação do índice de imagens de referência de um candidato de fusão temporal, e o vetor de movimento de um candidato de fusão espacial podem ser primeiro adicionados à lista. Se o número de candidatos de fusão a ser gerado for insuficiente, um candidato de fusão, tendo um vetor de movimento de 0 e um índice de imagens de referência de 0, pode ser adicionado. O número predeterminado pode ser determinado para cada imagem ou fatia.
[093] A unidade de geração de informações de movimento 337 seleciona um preditor de fusão, correspondente ao índice de candidato de fusão, da lista gerada pela unidade de geração de lista de candidatos de fusão 236, e determina as informações de movimento (isto é, um vetor de movimento e um índice de imagens de referência) do preditor de fusão selecionado, como as informações de movimento de um bloco atual.
[094] A Figura 7 é um diagrama de blocos de uma unidade de decodificação de informações de movimento em modo de fusão, de acordo com uma segunda concretização da presente invenção.
[095] A unidade de decodificação de informações de movimento em modo de fusão 230, de acordo com a terceira concretização da presente invenção, inclui ainda uma unidade de geração de candidato de fusão 437, que é adicionada à configuração da unidade de decodificação de informações de movimento em modo de fusão 230, de acordo com a segunda concretização da presente invenção. Consequentemente, as operações de uma unidade de decodificação de índice de preditor de fusão 431, uma unidade de derivação de candidato de fusão espacial 432, uma unidade de derivação de índice de imagens de referência 433 para um candidato de fusão temporal, uma unidade de derivação de vetor de movimento 434 para um candidato de fusão temporal, uma unidade de configura de candidato de fusão temporal 435, uma unidade de sele de preditor de fusão 436 e uma unidade de geração de informações de movimento 438 são iguais àquelas da segunda concretização, e, desse modo, uma descrição delas é omitida.
[096] A unidade de geração de candidato de fusão 437 pode gerar um candidato de fusão, quando o número de candidatos de fusão é menor do que um número predeterminado. Nesse caso, um candidato de fusão adicionado pode ser gerado por combinação das informações de movimento de dois candidatos de fusão válidos. Por exemplo, um candidato de fusão adicionado pode ser gerado por combinação do índice de imagens de referência de um candidato de fusão temporal e do vetor de movimento espacial válido de um candidato de fusão espacial. Se vários candidatos de fusão puderem ser gerados, os vários candidatos de fusão podem ser adicionados a uma lista em uma ordem predeterminada. Um candidato de fusão, gerado por combinação do índice de imagens de referência de um candidato de fusão temporal e o vetor de movimento de um candidato de fusão espacial, pode ser adicionado primeiro a uma lista. O número de candidatos de fusão adicionados como descrito acima pode ser predeterminado. Se o número de candidatos de fusão a serem gerados for insuficiente, um candidato de fusão tendo um vetor de movimento de 0 e um índice de imagens de referência de 0 pode ser adicionado à lista. O número predeterminado pode ser determinado para cada imagem ou fatia.
[097] A unidade de sele de preditor de fusão 436 obtém uma lista de candidatos de fusão usando um candidato de fusão espacial, derivado pela unidade de derivação de candidato de fusão espacial 432, um candidato de fusão temporal, gerado pela unidade de configura de candidato de fusão temporal 435, e candidatos de fusão, gerados pela unidade de geração de candidato de fusão 437. Se vários candidatos de fusão tiverem as mesmas tiverem as mesmas informações de movimento (isto é, o mesmo vetor de movimento e o mesmo índice de imagens de referência), um candidato de fusão tendo uma ordem de prioridade mais baixa é eliminado da lista. Por exemplo, a ordem predeterminada é a ordem dos blocos A, B, Col, C e D. Nesse caso, Col significa um candidato de fusão temporal. No entanto, se um ou mais dos blocos A, B, C e D não são válidos, as informações de movimento de um bloco válido E podem ser inseridas na posição do primeiro bloco inválido. Além do mais, as informações de movimento do bloco válido E podem ser inseridas na última posição. A unidade de sele de preditor de fusão 436 seleciona um candidato de fusão, correspondente a um índice de fusão, reconstruído pela unidade de decodificação de índice de preditor de fusão 431, da lista de candidatos de fusão, e seleciona o candidato de fusão selecionado como o preditor de fusão de um bloco atual.
[098] A Figura 8 é um diagrama de blocos de uma unidade de decodificação de informações de movimento em modo AMVP, de acordo com uma primeira concretização da presente invenção.
[099] A unidade de decodificação de informações de movimento em modo AMVP, de acordo com uma primeira concretização da presente invenção, inclui uma unidade de decodificação de índice de predição AMVP 341, uma unidade de leitura de informações de movimento residuais 342, uma unidade de derivação de candidato AMVP espacial 343, uma unidade de derivação de candidato AMVP temporal 344, uma unidade de seleção de preditor AMVP 345, uma unidade de geração de preditor de vetor de movimento 346 e uma unidade de geração de informações de movimento 347. A presente invenção é aplicada quando o número de candidatos AMVP é variável.
[0100] A unidade de decodificação de índice de predição AMVP 341 determina se há ou não uma chave de código correspondente a um índice de predição AMVP. Se, em consequência da determinação, uma chave de código correspondente a um índice de predição AMVP for determinada como não estando presente, a unidade de decodificação de índice de predição AMVP 341 determina que um candidato AMVP está ou não presente. Se um candidato AMVP for determinado como não estando presente, a unidade de geração de preditor de vetor de movimento 346 reconstrói um vetor de movimento de 0 no vetor de movimento de um bloco atual. Em comparação, se um candidato AMVP for determinado como estando presente, a unidade de geração de preditor de vetor de movimento 346 reconstrói o vetor de movimento do candidato AMVP no vetor de movimento de um bloco atual.
[0101] A unidade de leitura de informações de movimento residuais 342 lê o índice de imagens de referência e o vetor de movimento de um bloco atual.
[0102] A unidade de derivação de candidato AMVP espacial 343 pode selecionar um dos bloco esquerdo (por exemplo, um bloco A) e bloco esquerdo inferior (por exemplo, um bloco D) de um bloco atual como um candidato espacial esquerdo, e selecionar um dos bloco superior (por exemplo, um bloco B) do bloco atual, bloco direito superior (por exemplo, um bloco C) do bloco atual e bloco esquerdo superior (por exemplo, um bloco E) do bloco atual, como um candidato espacial superior. Nesse caso, o vetor de movimento do primeiro bloco, que é válido quando o escaneamento é executado em uma ordem predeterminada, é selecionado como o candidato. A ordem predeterminada pode ser a ordem do bloco A e do bloco D, ou uma ordem inversa a ela, no caso de um bloco esquerdo, e pode ser a ordem dos bloco B, bloco C e bloco E, ou a ordem dos bloco C, bloco B e bloco E, no caso de um bloco superior. A posição do bloco do candidato AMVP é idêntica à posição do bloco de um candidato de fusão.
[0103] A unidade de derivação de candidato AMVP temporal 344 obtém um candidato de fusão temporal usando o vetor de movimento de um candidato de fusão temporal, obtido pela unidade de derivação de vetor de movimento 123 da Figura 2.
[0104] A unidade de seleção de preditor AMVP 345 gera uma lista usando os candidatos AMVP válidos, derivados pela unidade de derivação de candidato AMVP espacial 343 e a unidade de derivação de candidato AMVP temporal 344. A unidade de seleção de preditor AMVP 345 gera uma lista de candidatos AMVP, em uma ordem predeterminada, usando os candidatos AMVP válidos. Nesse caso, se vários candidatos AMVP tiverem o mesmo vetor de movimento (nesse caso, os vários candidatos AMVP não precisam ter a mesma imagem de referência), os candidatos AMVP tendo uma ordem de prioridade mais baixa são eliminados da lista. A ordem predeterminada pode ser a ordem dos lado esquerdo, lado superior e Col, ou pode ser a ordem de Col, lado esquerdo e lado superior.
[0105] Além do mais, a unidade de seleção de preditor AMVP 345 seleciona uma tabela de decodificação, correspondente ao número de candidatos AMVP válidos dentro da lista gerada, e seleciona o preditor AMVP de um bloco atual, usando a tabela de decodificação selecionada.
[0106] A unidade de geração de preditor de vetor de movimento 346 determina o vetor de movimento de um candidato, selecionado pela unidade de seleção de preditor AMVP 345, como um preditor de vetor de movimento de um bloco atual.
[0107] A unidade de geração de informações de movimento 347 gera o vetor de movimento de um bloco atual por adição de um preditor de vetor de movimento, gerado pela unidade de geração de preditor de vetor de movimento 346, e um vetor de movimento diferencial, lido pela unidade de leitura de informações de movimento residuais 342. Além do mais, a unidade de geração de informações de movimento 347 estabelece um índice de imagens de referência, lido pela unidade de leitura de informações de movimento residuais 342, como o índice de imagens de referência do bloco atual.
[0108] A Figura 9 é um diagrama de blocos de uma unidade de decodificação de informações de movimento em modo AMVP, de acordo com uma segunda concretização da presente invenção.
[0109] A unidade de decodificação de informações de movimento em modo AMVP, de acordo com a segunda concretização da presente invenção, inclui uma unidade de decodificação de índice de predição AMVP 441, uma unidade de leitura de informações de movimento residuais 442, uma unidade de derivação de candidato AMVP espacial 443, uma unidade de derivação de candidato AMVP temporal 444, uma unidade de seleção de preditor AMVP 445, uma unidade de geração de candidato AMVP 446, uma unidade de geração de preditor de vetor de movimento 447 e uma unidade de geração de informações de movimento 448. A presente concretização é aplicada quando o número de candidatos AMVP é variável.
[0110] As operações das unidade de decodificação de índice de predição AMVP 441, unidade de leitura de informações de movimento residuais 442, unidade de derivação de candidato AMVP espacial 443, unidade de derivação de candidato AMVP temporal 444 e unidade de geração de informações de movimento 448 são iguais àquelas dos respectivos elementos da Figura 11, e, desse modo, uma descrição delas é omitida.
[0111] A unidade de geração de candidato AMVP 446 determina se é necessário gerar ou não um candidato AMVP. Considerando que o número de candidatos água tratada é estabelecido a um valor fixo na configuração de candidato AMVP acima, se o número de candidatos AMVP válidos for menor do que um valor fixo, um candidato AMVP é gerado. Além do mais, o candidato AMVP gerado é adicionado a uma posição seguinte a um candidato AMVP, tendo a ordem de prioridade mais baixa em uma lista. Se os vários candidatos AMVP forem pedidos para serem adicionados, os vários candidatos AMVP são adicionados em uma ordem predeterminada. Os candidatos AMVP adicionados podem incluir um candidato tendo um vetor de movimento de 0.
[0112] A unidade de seleção de preditor AMVP 445 gera uma lista de candidatos AMVP usando um candidato AMVP espacial, derivado pela unidade de derivação de candidato AMVP espacial 443, um candidato AMVP temporal gerado pela unidade de derivação de candidato AMVP temporal 444, e os candidatos AMVP gerados pela unidade de geração de candidato AMVP 446. Se vários candidatos AMVP têm o mesmo vetor de movimento (isto é, o mesmo vetor de movimento e o mesmo índice de imagens de referência), os candidatos AMVP tendo uma ordem de prioridade mais baixa são eliminados da lista. A ordem predeterminada pode ser a ordem dos lado esquerdo, lado superior e Col, ou pode ser a ordem de Col, lado esquerdo e lado superior. Além do mais, uma tabela de decodificação, correspondente ao número de candidatos AMVP válidos na lista gerada, é selecionada, e o preditor AMVP de um bloco atual é selecionado usando a tabela de decodificação selecionada.
[0113] Embora algumas concretizações exemplificativas da presente invenção tenham sido descritas, uma pessoa versada na técnica vai considerar que a presente invenção pode ser modificada e variada de vários modos, sem que se afaste dos espírito e âmbito da presente invenção, que estão escritos nas reivindicações a seguir.

Claims (7)

1. Aparelho para decodificação de informações de movimento em um modo de fusão, CARACTERIZADO pelo fato de que compreende: uma unidade de decodificação de índice de preditor de fusão configurada para reconstruir um índice de preditor de fusão de um bloco atual, usando uma chave de código de fusão recebida; uma unidade de indução de candidato de fusão espacial configurada para induzir um candidato de fusão espacial do bloco atual; uma unidade de configuração de candidato de fusão temporal configurada para gerar um candidato de fusão temporal do bloco atual; uma unidade de geração de candidato de fusão configurada para gerar um candidato de fusão, quando um número de candidatos de fusão válidos do bloco atual é menor do que um número predeterminado; uma unidade de seleção de preditor de fusão configurada para construir uma lista de candidatos de fusão usando o candidato de fusão espacial induzido pela unidade de indução de candidato de fusão, o candidato de fusão temporal gerado pela unidade de configuração de candidato de fusão temporal, e o candidato de fusão gerado pela unidade de geração de candidato de fusão, e selecionar um preditor de fusão com base no índice de preditor de fusão reconstruído pela unidade de decodificação de índice de preditor de fusão; e uma unidade de geração de informações de movimento configurada para gerar um índice de imagens de referência e um vetor de movimento de um candidato de fusão, selecionado pela unidade de seleção de preditor de fusão, como um índice de imagens de referência e um vetor de movimento do bloco atual.
2. Aparelho, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que a unidade de configuração de candidato de fusão temporal estabelece um índice de imagens de referência de um dos blocos vizinhos ao bloco atual, ou 0, como um índice de imagens de referência do candidato de fusão temporal.
3. Aparelho, de acordo com a reivindicação 2, CARACTERIZADO pelo fato de que: a unidade de configuração de candidato de fusão temporal determina uma imagem de candidato de fusão temporal e determina um bloco de candidato de fusão temporal dentro da imagem de candidato de fusão temporal para gerar um vetor de movimento do candidato de fusão temporal; e a imagem de candidato de fusão temporal é determinada diferentemente dependendo de um tipo de fatia.
4. Aparelho, de acordo com a reivindicação 3, CARACTERIZADO pelo fato de que a imagem de candidato de fusão temporal tem um índice de imagens de referência de 0.
5. Aparelho, de acordo com a reivindicação 3, CARACTERIZADO pelo fato de que o bloco de candidato de fusão temporal é um primeiro bloco válido recuperado quando o primeiro bloco de candidato e o segundo bloco de candidato são buscados em uma ordem devida, dependendo de uma posição do bloco atual.
6. Aparelho, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que a unidade de geração de candidato de fusão gera o candidato de fusão por combinação de partes de informações de movimento nos candidatos de fusão válidos, ou gera o candidato de fusão tendo um vetor de movimento de 0 e um índice de imagens de referência de 0.
7. Aparelho, de acordo com a reivindicação 6, CARACTERIZADO pelo fato de que a unidade de geração de candidato de fusão gera o candidato de fusão, cujo número é igual ou menor do que o número predeterminado, se o candidato de fusão for gerado por combinação de partes de informações de movimento de candidatos de fusão válidos predeterminados.
BR122015001354-2A 2011-08-29 2012-01-20 Aparelho para decodificação de informações de movimento em modo de fusão BR122015001354B1 (pt)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2011-0086524 2011-08-29
KR20110086524 2011-08-29
BR112014004922-0A BR112014004922B1 (pt) 2011-08-29 2012-01-20 Aparelho para decodificação de informações de movimento em modo de fusão
PCT/KR2012/000523 WO2013032074A1 (ko) 2011-08-29 2012-01-20 머지 모드 움직임 정보 복호화 장치

Publications (2)

Publication Number Publication Date
BR122015001354A2 BR122015001354A2 (pt) 2019-08-20
BR122015001354B1 true BR122015001354B1 (pt) 2022-06-14

Family

ID=47756522

Family Applications (2)

Application Number Title Priority Date Filing Date
BR122015001354-2A BR122015001354B1 (pt) 2011-08-29 2012-01-20 Aparelho para decodificação de informações de movimento em modo de fusão
BR112014004922-0A BR112014004922B1 (pt) 2011-08-29 2012-01-20 Aparelho para decodificação de informações de movimento em modo de fusão

Family Applications After (1)

Application Number Title Priority Date Filing Date
BR112014004922-0A BR112014004922B1 (pt) 2011-08-29 2012-01-20 Aparelho para decodificação de informações de movimento em modo de fusão

Country Status (6)

Country Link
US (9) US8774279B2 (pt)
KR (2) KR101210893B1 (pt)
CN (8) CN103765891B (pt)
BR (2) BR122015001354B1 (pt)
MX (8) MX346819B (pt)
WO (1) WO2013032074A1 (pt)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101279573B1 (ko) * 2008-10-31 2013-06-27 에스케이텔레콤 주식회사 움직임 벡터 부호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
SI3907999T1 (sl) 2010-09-02 2024-02-29 Lg Electronics, Inc. Inter napoved
CN107071461B (zh) * 2010-12-14 2019-11-12 M&K控股株式会社 用于解码运动画面的设备
EP3139611A1 (en) * 2011-03-14 2017-03-08 HFI Innovation Inc. Method and apparatus for deriving temporal motion vector prediction
CN103765891B (zh) * 2011-08-29 2017-07-28 苗太平洋控股有限公司 用于解码合并模式下的运动信息的装置
KR101210892B1 (ko) * 2011-08-29 2012-12-11 주식회사 아이벡스피티홀딩스 Amvp 모드에서의 예측 블록 생성 방법
CN107483946B (zh) * 2011-11-08 2021-01-12 株式会社Kt 利用解码装置对视频信号进行解码的方法
US8693551B2 (en) 2011-11-16 2014-04-08 Vanguard Software Solutions, Inc. Optimal angular intra prediction for block-based video coding
KR102072124B1 (ko) * 2011-11-24 2020-02-04 에스케이텔레콤 주식회사 세밀한 예측 단위를 사용하는 효과적인 부호화/복호화 방법 및 장치
US9106922B2 (en) * 2012-12-19 2015-08-11 Vanguard Software Solutions, Inc. Motion estimation engine for video encoding
US10904551B2 (en) * 2013-04-05 2021-01-26 Texas Instruments Incorporated Video coding using intra block copy
US20150271512A1 (en) * 2014-03-18 2015-09-24 Texas Instruments Incorporated Dynamic frame padding in a video hardware engine
CN108989815B9 (zh) * 2014-03-19 2021-06-04 株式会社Kt 针对多视图视频信号生成合并候选列表的方法及解码装置
KR102553844B1 (ko) * 2014-11-27 2023-07-10 주식회사 케이티 비디오 신호 처리 방법 및 장치
US10805627B2 (en) * 2015-10-15 2020-10-13 Cisco Technology, Inc. Low-complexity method for generating synthetic reference frames in video coding
KR102345660B1 (ko) * 2015-11-24 2021-12-30 삼성전자주식회사 비디오 복호화 방법 및 장치, 그 부호화 방법 및 장치
CN116708785A (zh) * 2016-07-12 2023-09-05 韩国电子通信研究院 图像编码/解码方法以及用于该方法的记录介质
KR102471208B1 (ko) 2016-09-20 2022-11-25 주식회사 케이티 비디오 신호 처리 방법 및 장치
KR102559063B1 (ko) 2017-02-24 2023-07-24 주식회사 케이티 비디오 신호 처리 방법 및 장치
US11172203B2 (en) * 2017-08-08 2021-11-09 Mediatek Inc. Intra merge prediction
WO2019192170A1 (zh) * 2018-04-02 2019-10-10 深圳市大疆创新科技有限公司 视频图像处理方法与装置
CN117294837A (zh) 2018-04-02 2023-12-26 深圳市大疆创新科技有限公司 用于图像处理的方法和图像处理装置
WO2020003258A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Virtual merge candidates
WO2020008330A1 (en) 2018-07-01 2020-01-09 Beijing Bytedance Network Technology Co., Ltd. Priority-based non-adjacent merge design
TWI719524B (zh) * 2018-07-01 2021-02-21 大陸商北京字節跳動網絡技術有限公司 降低非相鄰Merge設計的複雜度
WO2020060177A1 (ko) * 2018-09-18 2020-03-26 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
CN116634170A (zh) * 2018-10-10 2023-08-22 华为技术有限公司 帧间预测方法及装置
WO2020130714A1 (ko) * 2018-12-21 2020-06-25 주식회사 엑스리스 영상 신호 부호화/복호화 방법 및 이를 위한 장치
CN111866502A (zh) * 2019-04-25 2020-10-30 华为技术有限公司 图像预测方法、装置和计算机可读存储介质
EP3955569A4 (en) * 2019-04-25 2022-07-27 Huawei Technologies Co., Ltd. METHOD AND APPARATUS FOR IMAGE PREDICTION AND COMPUTER READABLE INFORMATION MEDIA
EP4032297A4 (en) 2019-09-19 2022-11-23 Alibaba Group Holding Limited METHODS FOR CONSTRUCTING A LIST OF MERGER CANDIDATES
CN113840148A (zh) * 2020-06-24 2021-12-24 Oppo广东移动通信有限公司 帧间预测方法、编码器、解码器以及计算机存储介质

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6195389B1 (en) 1998-04-16 2001-02-27 Scientific-Atlanta, Inc. Motion estimation system and methods
JP2001086508A (ja) * 1999-09-13 2001-03-30 Victor Co Of Japan Ltd 動画像復号方法及び動画像復号装置
US7162080B2 (en) * 2001-02-23 2007-01-09 Zoran Corporation Graphic image re-encoding and distribution system and method
JP4015934B2 (ja) 2002-04-18 2007-11-28 株式会社東芝 動画像符号化方法及び装置
CN100466735C (zh) * 2004-07-15 2009-03-04 三星电子株式会社 视频编码和解码方法以及视频编码器和解码器
KR100678949B1 (ko) 2004-07-15 2007-02-06 삼성전자주식회사 비디오 코딩 및 디코딩 방법, 비디오 인코더 및 디코더
KR100584603B1 (ko) * 2004-08-03 2006-05-30 학교법인 대양학원 다시점 영상의 다이렉트 모드 움직임 예측 방법 및 장치
KR20060098514A (ko) 2005-03-03 2006-09-19 김정재 의료용 부목
CN1658673A (zh) * 2005-03-23 2005-08-24 南京大学 视频压缩编解码方法
KR20070020994A (ko) * 2005-08-17 2007-02-22 삼성전자주식회사 영상신호 변환장치 및 그 방법
WO2009028922A2 (en) * 2007-09-02 2009-03-05 Lg Electronics Inc. A method and an apparatus for processing a video signal
EP2210421A4 (en) * 2007-10-16 2013-12-04 Lg Electronics Inc METHOD AND APPARATUS FOR PROCESSING A VIDEO SIGNAL
JP4829867B2 (ja) * 2007-10-30 2011-12-07 日本放送協会 画像符号化装置及び画像復号装置
WO2009115901A2 (en) * 2008-03-19 2009-09-24 Nokia Corporation Combined motion vector and reference index prediction for video coding
CN101860754B (zh) * 2009-12-16 2013-11-13 香港应用科技研究院有限公司 运动矢量编码和解码的方法和装置
KR20110071047A (ko) 2009-12-20 2011-06-28 엘지전자 주식회사 비디오 신호 디코딩 방법 및 장치
WO2011077632A1 (ja) * 2009-12-22 2011-06-30 Jvc・ケンウッド・ホールディングス株式会社 画像符号化装置、画像符号化方法および画像符号化プログラム、ならびに画像復号装置、画像復号方法および画像復号プログラム
JP2011151775A (ja) 2009-12-22 2011-08-04 Jvc Kenwood Holdings Inc 画像復号装置、画像復号方法および画像復号プログラム
EP3739883B1 (en) * 2010-05-04 2022-11-16 LG Electronics Inc. Method and apparatus for encoding and decoding a video signal
KR20120016991A (ko) * 2010-08-17 2012-02-27 오수미 인터 프리딕션 방법
CN107071461B (zh) * 2010-12-14 2019-11-12 M&K控股株式会社 用于解码运动画面的设备
EP3139611A1 (en) 2011-03-14 2017-03-08 HFI Innovation Inc. Method and apparatus for deriving temporal motion vector prediction
US9143795B2 (en) * 2011-04-11 2015-09-22 Texas Instruments Incorporated Parallel motion estimation in video coding
BR112013023478B8 (pt) * 2011-04-12 2022-09-13 Panassonic Corp Método de codificação de imagem em movimento, aparelho de codificação de imagem em movimento, método de decodificação de imagem em movimento, aparelho de decodificação de imagem em movimento e aparelho de codificação e decodificação de imagem em movimento
US9247266B2 (en) * 2011-04-18 2016-01-26 Texas Instruments Incorporated Temporal motion data candidate derivation in video coding
CN103765891B (zh) * 2011-08-29 2017-07-28 苗太平洋控股有限公司 用于解码合并模式下的运动信息的装置
JP6308495B2 (ja) * 2011-10-19 2018-04-11 サン パテント トラスト 画像復号方法、および、画像復号装置

Also Published As

Publication number Publication date
CN107222745A (zh) 2017-09-29
US8654855B2 (en) 2014-02-18
MX340912B (es) 2016-07-29
MX2019013757A (es) 2020-01-15
KR101210894B1 (ko) 2012-12-11
US20130148735A1 (en) 2013-06-13
CN104837024B (zh) 2016-04-27
MX346819B (es) 2017-03-30
CN105376575A (zh) 2016-03-02
CN105376576A (zh) 2016-03-02
US9025669B1 (en) 2015-05-05
CN107295347A (zh) 2017-10-24
US20140286432A1 (en) 2014-09-25
CN103765891A (zh) 2014-04-30
US20150124886A1 (en) 2015-05-07
CN105376575B (zh) 2018-04-03
US8774279B2 (en) 2014-07-08
USRE49907E1 (en) 2024-04-02
US9161043B2 (en) 2015-10-13
MX340913B (es) 2016-07-29
KR101210893B1 (ko) 2012-12-11
CN105376577A (zh) 2016-03-02
BR112014004922B1 (pt) 2022-04-05
MX341355B (es) 2016-08-16
CN104837024A (zh) 2015-08-12
US20150131733A1 (en) 2015-05-14
BR112014004922A2 (pt) 2017-04-11
WO2013032074A1 (ko) 2013-03-07
CN107360432A (zh) 2017-11-17
US20140153641A1 (en) 2014-06-05
US9025668B2 (en) 2015-05-05
US9036709B1 (en) 2015-05-19
MX369711B (es) 2019-11-19
US20130136183A1 (en) 2013-05-30
CN103765891B (zh) 2017-07-28
CN105376576B (zh) 2017-07-28
CN107295347B (zh) 2020-06-26
MX2014002347A (es) 2014-04-25
US8855209B2 (en) 2014-10-07
MX337284B (es) 2016-02-23
BR122015001354A2 (pt) 2019-08-20
US20150124887A1 (en) 2015-05-07
US20150382014A1 (en) 2015-12-31

Similar Documents

Publication Publication Date Title
BR122015001354B1 (pt) Aparelho para decodificação de informações de movimento em modo de fusão
TWI634783B (zh) 用於二叉樹分割塊的確定候選集的方法及裝置
TWI554086B (zh) 解碼器、編碼器、及相關聯方法和電腦程式
KR102126374B1 (ko) 블록 병합 및 스킵 모드를 지원하는 화상 코딩
CN109891883A (zh) 视频编码/解码方法和设备以及存储比特流的记录介质
CN109691099A (zh) 视频编码/解码方法和装置以及在其中存储比特流的记录介质
BR112019019702A2 (pt) método de transformada em sistema de codificação de imagem e aparelho para o mesmo
BR112014004914B1 (pt) Método de codificação de uma imagem em um modo amvp
BRPI0911141B1 (pt) Método para decodificar uma sequência de bits de vídeo, método para decodificar um quadro de vídeo em uma sequência de vídeo e método para gerar uma sequência de bits de vídeo para decodificação paralela
KR20130110129A (ko) 영상 복호화 방법 및 컴퓨터로 읽을 수 있는 기록 매체
BR112021008091A2 (pt) método de codificação e decodificação de sinal de vídeo e aparelho de decodificação de vídeo
KR20200078646A (ko) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
KR20070026914A (ko) 영상의 부호화 및 복호화 장치와, 그 방법, 및 이를수행하기 위한 프로그램이 기록된 기록 매체
CN105409215A (zh) 深度预测模式选择方法及装置
BR112021000750A2 (pt) método e aparelho para codificar/decodificar imagens e mídia de gravação na qual um fluxo de bits é armazenado
CN113906740A (zh) 帧间预测信息编码/解码方法和装置
KR101576200B1 (ko) 계층적 데이터 단위의 스캔 순서에 기반한 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치
RU2810123C2 (ru) Способ и оборудование кодирования/декодирования изображений для выполнения внутреннего предсказания и способ для передачи потока битов
KR20150084742A (ko) 계층적 데이터 단위의 스캔 순서에 기반한 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치

Legal Events

Date Code Title Description
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B15K Others concerning applications: alteration of classification

Free format text: A CLASSIFICACAO ANTERIOR ERA: H04N 7/00

Ipc: H04N 19/103 (2006.01)

B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 20/01/2012, OBSERVADAS AS CONDICOES LEGAIS. PATENTE CONCEDIDA CONFORME ADI 5.529/DF, QUE DETERMINA A ALTERACAO DO PRAZO DE CONCESSAO.