BR122020014288B1 - Método para gerar um bloco reconstruído - Google Patents
Método para gerar um bloco reconstruído Download PDFInfo
- Publication number
- BR122020014288B1 BR122020014288B1 BR122020014288-0A BR122020014288A BR122020014288B1 BR 122020014288 B1 BR122020014288 B1 BR 122020014288B1 BR 122020014288 A BR122020014288 A BR 122020014288A BR 122020014288 B1 BR122020014288 B1 BR 122020014288B1
- Authority
- BR
- Brazil
- Prior art keywords
- mode
- intraprediction
- block
- unit
- size
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/107—Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
- H04N19/126—Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/129—Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/13—Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/18—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/192—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/463—Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Electrotherapy Devices (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
é apresentado um método que deriva um modo de intrapredição de uma unidade de predição, determina o tamanho do bloco atual usando-se informações sobre tamanho de transformada, gera um bloco de predição do bloco atual de acordo com o modo de intrapredição, gerando um bloco residual do bloco atual de acordo com o modo de intrapredição e gerando um bloco reconstruído do bloco atual usando-se o bloco de predição e o bloco residual. os tamanhos do bloco de predição e do bloco residual são definidos como iguais ao tamanho de uma unidade de transformada. portanto, a distância de intrapredição se torna curta, e a quantidade de bits de codificação do bloco residual é reduzida pela geração de um bloco de predição muito semelhante ao bloco original. além disto, os bits de sinalização necessários para sinalizar o modo de intrapredição diminuem com a geração de um grupo mpm adaptativamente de acordo com os modos de intrapredição vizinhos.
Description
[001]A presente invenção refere-se a um método e um aparelho para decodificar uma imagem e, mais especificamente, a um método e um aparelho para gerar adaptativamente um bloco de predição e um bloco residual que têm tamanho igual ao de uma unidade de transformada de acordo com um modo de intrapredição.
[002]No H.264/MPEG-4 AVC, uma imagem é dividida em macroblocos de modo a se codificar uma imagem, os respectivos macroblocos sendo codificados pela geração de um bloco de predição com o uso de interpredição ou intrapredição. A diferença entre um bloco original e o bloco de predição é transformada de modo a se gerar um bloco transformado, e o bloco transformado é quantizado usando-se um parâmetro de quantização e uma de uma série de matrizes de quantização predeterminadas. O coeficiente quantizado do bloco quantizado é varrido por um tipo de varredura predeterminado e em seguida codificado por entropia. Os parâmetros de quantização são ajustados por macrobloco e codificados usando-se um parâmetro de quantização prévio.
[003]Entrementes, técnicas que usam diversos tamanhos de unidade de codificação são introduzidas para aperfeiçoar a eficácia de codificação. Técnicas que aumentam o número de modos de intrapredição são também introduzidas para gerar um bloco de predição mais semelhante a um bloco original.
[004]Porém, se o número de modos de intrapredição aumentar, a quantidade de bits de codificação necessários para sinalizar o modo de intrapredição torna-se maior. Além disto, se o tamanho da unidade de codificação for maior, a diferença entre um bloco original e um bloco de predição é maior.
[005]Por conseguinte, é necessário um método mais eficaz para sinalizar o modo de intrapredição. Um método mais eficaz é também necessário para reduzir ao mínimo a diferença entre o bloco original e o bloco de predição e para reduzir ao mínimo os bits de codificação do bloco residual.
[006]A presente invenção refere-se a um método para derivar um modo de intrapredição de uma unidade de predição, determinar o tamanho do bloco atual com o uso de informações sobre tamanho de transformada, gerar um bloco de predição e um bloco residual do bloco atual de acordo com o modo de intrapredição e gerar um bloco reconstruído do bloco atual com o uso do bloco de predição e do bloco residual.
[007]Um aspecto da presente invenção provê um método para gerar um bloco reconstruído, que compreende: derivar um modo de intrapredição de uma unidade de predição, determinar o tamanho do bloco atual com o uso de informações sobre tamanho de transformada, gerar um bloco de predição e um bloco residual do bloco atual de acordo com o modo de intrapredição, gerar um bloco residual do bloco atual de acordo com o modo de intrapredição e gerar um bloco reconstruído do bloco atual com o uso do bloco de predição e do bloco residual.
[008]Um método de acordo com a presente invenção deriva um modo de intrapredição de uma unidade de predição, determina o tamanho do bloco atual com o uso de informações sobre tamanho de transformada, gera um bloco de predição do bloco atual de acordo com o modo de intrapredição, gera um bloco residual do bloco atual de acordo com o modo de intrapredição e gera um bloco reconstruído do bloco atual com o uso do bloco de predição e do bloco residual. Os tamanhos do bloco de predição e do bloco residual são definidos como iguais ao tamanho de uma unidade de transformada. Portanto, a distância de intrapredição torna-se curta, e a quantidade de bits de codificação do bloco residual é reduzida com a geração de um bloco de predição muito semelhante ao bloco original. Além disto, os bits de sinalização necessários para sinalizar o modo de intrapredição diminuem com a geração do grupo MPM adaptativamente de acordo com os modos de intrapredição vizinhos.
[009]A Figura 1 é um diagrama de blocos de um aparelho de codificação de imagens de acordo com a presente invenção.
[010]A Figura 2 é um diagrama de blocos de um aparelho de decodificação de imagens de acordo com a presente invenção.
[011]A Figura 3 é um fluxograma que mostra um procedimento de gerar um bloco reconstruído em intrapredição de acordo com a presente invenção.
[012]A Figura 4 é um fluxograma que mostra um procedimento de derivar um modo de intrapredição da unidade de predição atual de acordo com a presente invenção.
[013]A Figura 5 é um diagrama conceptual que mostra modos de intrapredição de acordo com a presente invenção.
[014]A Figura 6 é um fluxograma que mostra um procedimento de gerar um bloco de predição de acordo com a presente invenção.
[015]A Figura 7 é um diagrama conceptual que mostra posições dos pixels de referência do bloco atual de acordo com a presente invenção.
[016]A Figura 8 é um fluxograma que mostra um procedimento de gerar um bloco residual de acordo com a presente invenção.
[017]A Figura 9 é um fluxograma que mostra um procedimento de derivar parâmetros de quantização de acordo com a presente invenção.
[018]A Figura 10 é um diagrama de blocos que mostra um aparelho para gerar um bloco reconstruído de acordo com a presente invenção.
[019]Em seguida, diversas modalidades da presente invenção serão descritas em detalhe com referência aos desenhos anexos. Entretanto, a presente invenção não está limitada às modalidades exemplares reveladas a seguir, mas pode ser implementada em diversos tipos. Portanto, muitas outras modificações e variações da presente invenção são possíveis, e deve ficar entendido que, dentro do alcance do conceito revelado, a presente invenção pode ser posta em prática de uma maneira diferente da que foi especificamente descrita.
[020]A Figura 1 é um diagrama de blocos de um aparelho de codificação de imagens 100 de acordo com a presente invenção.
[021]Com referência à Figura 1, o aparelho de codificação de imagens 100 de acordo com a presente invenção inclui uma unidade de divisão de imagens 101, uma unidade de transformada 103, uma unidade de quantização 104, uma unidade de varredura 105, uma unidade de codificação por entropia 106, uma unidade de quantização inversa 107, uma unidade de transformada inversa 108, uma unidade de pós-processamento 110, uma unidade de armazenamento de imagens 111, uma unidade de intrapredição 112, uma unidade de interpredição 113, um subtrator 102 e um adicionador 109.
[022]A unidade de divisão de imagens 101 divide uma imagem ou uma fatia em uma série de unidades de codificação maiores (LCUs) e divide cada LCU em uma ou mais unidades de codificação. A unidade de divisão de imagens 101 determina o modo de predição de cada unidade de codificação e o tamanho da unidade de predição e o tamanho da unidade de transformada.
[023]Uma LCU inclui uma ou mais unidades de codificação. A LCU tem uma estrutura de transformação quad-tree recursiva para especificar uma estrutura de divisão. Informações que especificam o tamanho máximo e o tamanho mínimo da unidade de codificação são incluídas em um conjunto de parâmetros de sequência. A estrutura de divisão é especificada por um ou mais indicadores de unidade de codificação dividida (split_cu_flags). A unidade de codificação tem um tamanho de 2Nx2N.
[024]Uma unidade de codificação inclui uma ou mais unidades de predição. Na intrapredição, o tamanho da unidade de predição é 2Nx2N ou NxN. Na interpredição, o tamanho da unidade de predição é 2Nx2N, 2NxN ou NxN. Quando a unidade de predição é uma partição assimétrica na interpredição, o tamanho da unidade de predição pode ser também um de hNx2N, (2-h)Nx2N, 2NxhN e 2Nx(2-h)N. O valor de h é 1/2.
[025]A unidade de codificação inclui uma ou mais unidades de transformada. A unidade de transformada tem uma estrutura de transformação quad-tree recursiva para especificar uma estrutura de divisão. A estrutura de divisão é especificada por um ou mais indicadores de unidade de transformada dividida (split_tu_flags). Informações que especificam o tamanho máximo e o tamanho mínimo da unidade de transformada são incluídas em um conjunto de parâmetros de sequência.
[026]A unidade de intrapredição 112 determina um modo de intrapredição de unidade de predição atual e gera um bloco de predição usando o modo de intrapredição. O bloco de predição tem o mesmo tamanho da unidade de transformada.
[027]A unidade de interpredição 113 determina informações sobre movimento da unidade de predição atual usando uma ou mais imagens de referência armazenadas na unidade de armazenamento de imagens 111 e gera um bloco de predição da unidade de predição. As informações sobre movimento incluem um ou mais índices de imagem de referência e um ou mais vetores de movimento.
[028]A unidade de transformada 103 transforma os sinais residuais gerados usando um bloco original e um bloco de predição de modo a gerar um bloco de transformada. Os sinais residuais são transformados em unidades de transformada. O tipo de transformada é uma transformada de número inteiro baseada em DCT ou uma transformada de número inteiro baseada em DST. Por exemplo, na interpredição são usadas transformadas de número inteiro baseada em DCT. No modo de intrapredição, se o tamanho da unidade de transformada for menor que um tamanho predeterminado, são usadas as transformadas de número inteiro baseadas em DST, caso contrário são usadas as transformadas de número inteiro baseadas em DCT.
[029]A unidade de quantização 104 determina um parâmetro de quantização para quantizar o bloco transformado. O parâmetro de quantização é um tamanho de etapa de quantização. O parâmetro de quantização é determinado por unidade de quantização. O tamanho da unidade de quantização é um dos tamanhos permissíveis da unidade de codificação. Se o tamanho da unidade de codificação for igual ao ou maior que o tamanho mínimo da unidade de quantização, a unidade de codificação torna-se a unidade de quantização. Uma série de unidades de codificação pode ser incluída em uma unidade de quantização. O tamanho mínimo da unidade de quantização é determinado por imagem e as informações que especificam o tamanho mínimo da unidade de quantização são incluídas em um conjunto de parâmetros de sequência.
[030]A unidade de quantização 104 gera um preditor de parâmetros de quantização e gera um parâmetro de quantização diferencial subtraindo o preditor de parâmetros de quantização do parâmetro de quantização. O parâmetro de quantização diferencial é codificado por entropia e incluído na sintaxe da unidade de codificação.
[031]O preditor de parâmetros de quantização é gerado pelo uso de parâmetros de quantização de unidades de codificação vizinhas e um parâmetro de quantização da unidade de codificação anterior da maneira seguinte.
[032]Um parâmetro de quantização à esquerda, um parâmetro de quantização acima e um parâmetro de quantização anterior são recuperados sequencialmente nesta ordem. A meda dos dois primeiros parâmetros de quantização disponíveis recuperados nessa ordem é fixada como o preditor de parâmetros de quantização quando dois ou mais parâmetros de quantização estão disponíveis e, quando apenas um parâmetro de quantização está disponível, o parâmetro de quantização disponível é definido como o preditor de parâmetros de quantização. Se apenas um dos parâmetros de quantização à esquerda e acima estiver disponível, a média do parâmetro de quantização disponível e do parâmetro de quantização anterior é fixada como o preditor de parâmetros de quantização. Se ambos os parâmetros de quantização à esquerda e acima estiverem indisponíveis, o parâmetro de quantização anterior é definido como o preditor de parâmetros de quantização. A média é arredondada.
[033]A unidade de quantização 104 quantiza o bloco transformado usando uma matriz de quantização e o parâmetro de quantização para gerar o bloco quantizado. O bloco quantizado é enviado à unidade de quantização inversa 107 e à unidade de varredura 105.
[034]A unidade de varredura 106 determina um padrão de varredura e aplica o padrão de varredura ao bloco quantizado. Quando a CABAC (codificação aritmética binária adaptativa ao Contexto) é usada na codificação por entropia, o padrão de varredura é determinado da maneira seguinte.
[035]Na intrapredição, o padrão de varredura é determinado pelo modo de intrapredição e pelo tamanho da unidade de transformada. O tamanho da unidade de transformada, o tamanho do bloco transformado e o tamanho do bloco quantizado são os mesmos. O padrão de varredura é selecionado dentre uma varredura diagonal, uma varredura vertical e uma varredura horizontal. Os coeficientes de transformada quantizados do bloco quantizado são divididos em indicadores significativos, sinais de coeficiente e níveis de coeficiente, respectivamente. O indicador significativo indica se o coeficiente de transformada quantizado correspondente é zero ou não. O sinal de coeficiente indica um sinal de coeficiente de transformada quantizado não zero, e o nível de coeficiente indica o valor absoluto do coeficiente de transformada quantizado não zero.
[036]Quando o tamanho da unidade de transformada é igual a ou menor que um primeiro tamanho, a varredura horizontal é selecionada para o modo vertical e um número predeterminado de modos de intrapredição vizinhos do modo vertical em direcionalidade, a varredura vertical é selecionada para o modo horizontal e o número predeterminado de modos de intrapredição vizinhos do modo horizontal em direcionalidade, e a varredura diagonal é selecionada para os outros modos de intrapredição. Quando o tamanho da unidade de transformada é maior que o primeiro tamanho, a varredura diagonal é usada. O primeiro tamanho é 8x8.
[037]Na interpredição, um padrão de varredura predeterminado é usado independentemente do tamanho da unidade de transformada. O padrão de varredura predeterminado é a varredura diagonal quando a CABAC é usada na codificação por entropia.
[038]Quando o tamanho da unidade de transformada é maior que um segundo tamanho, o bloco quantizado é dividido em um subconjunto principal e uma série de subconjuntos restantes e o padrão de varredura determinado é aplicado a cada subconjunto. Indicadores significativos, sinais de coeficiente e níveis de coeficiente de cada subconjunto são varridos respectivamente de acordo com o padrão de varredura determinado. O subconjunto principal inclui coeficiente DC e os subconjuntos restantes cobrem a outra região que não a região coberta pelo subconjunto principal. O segundo tamanho é 4x4. O tamanho do subconjunto pode ser um bloco de 4x4 ou pode variar de acordo com o padrão de varredura. O subconjunto contém 16 coeficientes de transformada.
[039]O padrão de varredura para varrer os subconjuntos é o mesmo padrão de varredura para varrer os coeficientes de transformada quantizados de cada subconjunto. Os coeficientes de transformada quantizados de cada subconjunto são varridos na direção inversa. Os subconjuntos são também varridos na direção inversa.
[040]As últimas posições de coeficiente não zero são codificadas e transmitidas para o decodificador. A última posição de coeficiente não zero especifica a posição do último coeficiente de transformada quantizado não zero dentro da unidade de transformada. O indicador de subconjunto não zero é definido para cada subconjunto outro que não o subconjunto principal e o último subconjunto. O último subconjunto cobre o último coeficiente não zero. O indicador de subconjunto não zero indica se o subconjunto contém os coeficientes não zero ou não.
[041]A unidade de quantização inversa 107 quantiza inversamente os coeficientes de transformada quantizados do bloco quantizado.
[042]A unidade de transformada inversa 108 transforma inversamente o bloco quantizado inverso de modo a gerar sinais residuais do domínio espacial.
[043]O adicionador 109 gera um bloco reconstruído adicionando o bloco residual e o bloco de predição.
[044]A unidade de pós-processamento 110 executa um processo de filtragem por desblocagem para remover artefatos de blocagem gerados em uma imagem reconstruída.
[045]A unidade de armazenamento de imagens 111 recebe a imagem pós- processada da unidade de pós-processamento 110 e armazena a imagem em unidades de imagem. Uma imagem pode ser um quadro ou um campo.
[046]A unidade de codificação por entropia 106 codifica por entropia as informações sobre coeficiente unidimensional recebidas da unidade de varredura 105, as informações de intrapredição recebidas da unidade de intrapredição 112, as informações sobre movimento recebidas da unidade de interpredição 113 e assim por diante.
[047]A Figura 2 é um diagrama de blocos de um aparelho de decodificação de imagens 200 de acordo com a presente invenção.
[048]O aparelho de decodificação de imagens 200 de acordo com a presente invenção inclui uma unidade de decodificação por entropia 201, uma unidade de varredura inversa 202, uma unidade de quantização inversa 203, uma unidade de transformada inversa 204, um adicionador 205, uma unidade de pós-processamento 206, uma unidade de armazenamento de imagens 207, uma unidade de intrapredição 208 e uma unidade de interpredição 209.
[049]A unidade de decodificação por entropia 201 extrai as informações de intrapredição, as informações de interpredição e as informações sobre coeficiente unidimensional de um fluxo de bits recebido. A unidade de decodificação por entropia 201 transmite as informações de interpredição para a unidade de interpredição 2)9, as informações de intrapredição para a unidade de intrapredição 208 e as informações sobre coeficiente(s) para a unidade de varredura inversa 202.
[050]A unidade de varredura inversa 202 usa um padrão de varredura inversa para gerar um bloco quantizado. Quando a CABAC é usada para codificação por entropia, o padrão de varredura é determinado da maneira seguinte.
[051]Na intrapredição, o padrão de varredura inversa é determinado pelo modo de intrapredição e pelo tamanho da unidade de transformada. O padrão de varredura inversa é selecionado dentre uma varredura diagonal, uma varredura vertical e uma varredura horizontal. O padrão de varredura inversa selecionado é aplicado a indicadores significativos, sinais de coeficiente e níveis de coeficiente, respectivamente, de modo a se gerar o bloco quantizado.
[052]Quando o tamanho da unidade de transformada é igual a ou menor que um primeiro tamanho, a varredura horizontal é selecionada para o modo vertical e um número predeterminado de modos de intrapredição vizinhos do modo vertical, a varredura vertical é selecionada para o modo horizontal e o número predeterminado de modos de intrapredição vizinhos do modo horizontal, e a varredura diagonal é selecionada para os outros modos de intrapredição. Quando o tamanho da unidade de transformada é maior que o primeiro tamanho, a varredura diagonal é usada. Quando o tamanho da unidade de transformada é maior que o primeiro tamanho, a varredura diagonal é selecionada para todos os modos de intrapredição. O primeiro tamanho é 8x8.
[053]Quando o tamanho da unidade de transformada é maior que o primeiro tamanho, a varredura diagonal é selecionada para todos os modos de intrapredição.
[054]Na interpredição, a varredura diagonal é usada.
[055]Quando o tamanho da unidade de transformada é maior que o segundo tamanho, os indicadores significativos, os sinais de coeficiente e os níveis de coeficiente são varridos inversamente na unidade de subconjunto usando-se o padrão de varredura inversa determinado de modo a se gerarem subconjuntos, e os subconjuntos são varridos inversamente de modo a se gerar o bloco quantizado. O segundo tamanho é 4x4. O tamanho do subconjunto pode ser um bloco de 4x4 ou um bloco não quadrado determinado pelo padrão de varredura. O bloco não quadrado inclui 16 coeficientes de transformada. Por exemplo, o tamanho do subconjunto é 8x2 para a varredura horizontal, 2x8 para a varredura vertical e 4x4 para a varredura diagonal.
[056]O padrão de varredura inversa usado para gerar cada subconjunto é o mesmo padrão de varredura inversa usado para gerar o bloco quantizado. Os indicadores significativos, os sinais de coeficiente e os níveis de coeficiente são varridos inversamente na direção inversa. Os subconjuntos são também varridos inversamente na direção inversa.
[057]A última posição de coeficiente não zero e os indicadores de subconjunto não zero são recebidos do codificador. O número de subconjuntos codificados é determinado de acordo com a última posição de coeficiente não zero e o padrão de varredura inversa. Os indicadores de subconjunto não zero são usados para selecionar subconjuntos a serem gerados. O subconjunto principal e o último subconjunto são gerados usando-se o padrão de varredura inversa.
[058]A unidade de quantização inversa 203 recebe o parâmetro de quantização diferencial da unidade de decodificação por entropia e gera o preditor de parâmetros de quantização. O preditor de parâmetros de quantização é gerado através da mesma operação da unidade de quantização 104 da Figura 1. Em seguida, a unidade de quantização inversa 203 adiciona o parâmetro de quantização diferencial e o preditor de parâmetros de quantização de modo a gerar o parâmetro de quantização da unidade de codificação atual. Se o tamanho da unidade de codificação atual for igual ao ou maior que o tamanho mínimo da unidade de quantização e o parâmetro de quantização diferencial para a unidade de codificação atual não for recebido do codificador, o parâmetro de quantização diferencial é definido em 0.
[059]A unidade de quantização inversa 203 quantiza inversamente o bloco quantizado.
[060]A unidade de transformada inversa 204 transforma inversamente o bloco quantizado por inversão de modo a se restaurar um bloco residual. O tipo de transformada inversa é determinado adaptativamente de acordo com o modo de predição e o tamanho da unidade de transformada. O tipo de transformada inversa é a transformada de número inteiro baseada em DCT ou a transformada de número inteiro baseada em DST. Na interpredição, por exemplo, são usadas transformadas de número inteiro baseadas em DCT. No modo de intrapredição, se o tamanho da unidade de transformada for menor que um tamanho predeterminado, são usadas as transformadas de número inteiro baseadas em DST, caso contrário são usadas as transformada de número inteiro baseadas em DCT.
[061]A unidade de intrapredição 208 restaura o modo de intrapredição da unidade de predição atual usando as informações de intrapredição recebidas e gera um bloco de predição de acordo com o modo de intrapredição restaurado.
[062]A unidade de interpredição 209 restaura as informações sobre movimento da unidade de predição atual usando as informações de interpredição recebidas e gera um bloco de predição usando as informações sobre movimento.
[063]A unidade de pós-processamento 206 funciona da mesma maneira que a unidade de pós-processamento 110 da Figura 1.
[064]A unidade de armazenamento de imagens 207 recebe a imagem pós- processada da unidade de pós-processamento 206 e armazena a imagem em unidades de imagem. Uma imagem pode ser um quadro ou um campo.
[065]O adicionador 205 adiciona o bloco residual restaurado e um bloco de predição de modo a gerar um bloco reconstruído.
[066]A Figura 3 é um fluxograma que mostra um procedimento de gerar um bloco reconstruído na intrapredição de acordo com a presente invenção.
[067]Em primeiro lugar, é derivado um modo de intrapredição da unidade de predição atual (S1100).
[068]A Figura 4 é um fluxograma que mostra um procedimento de derivar o modo de intrapredição da unidade de predição atual de acordo com a presente invenção.
[069]Os parâmetros de intrapredição da unidade de predição atual são extraídos de um fluxo de bits recebido (S1110).
[070]Os parâmetros de intrapredição são um indicador de grupo de modos e um índice de modo de predição. O indicador de grupo de modos é um indicador que indica se o modo de intrapredição da unidade de predição atual pertence a um grupo de modos mais prováveis (grupo MPM). Se o indicador for 1, a unidade de intrapredição da unidade de predição atual pertence ao grupo MPM. Se o indicador for 0, a unidade de intrapredição da unidade de predição atual pertence ao grupo de modos residuais. O grupo de modos residuais inclui todos os modos de intrapredição que não os modos de intrapredição do grupo MPM. O índice de modo de predição especifica o modo de intrapredição da unidade de predição atual dentro do grupo especificado pelo indicador de grupo de modos.
[071]O grupo MPM é construído usando-se os modos de intrapredição das unidades de predição vizinhas (S1120). Os modos de intrapredição do grupo MPM são determinados adaptativamente pelo modo de intrapredição à esquerda e pelo modo de intrapredição acima. O modo de intrapredição à esquerda é o modo de intrapredição da unidade de predição vizinha esquerda, e o modo de intrapredição acima é o modo de intrapredição da unidade de predição vizinha acima. O grupo MPM é constituído por três modos de intrapredição.
[072]Se a unidade de predição vizinha esquerda ou acima não existir, o modo de intrapredição da unidade vizinha esquerda ou acima é definido como indisponível. Por exemplo, se a unidade de predição atual estiver localizada na fronteira esquerda ou superior de uma imagem, a unidade de predição vizinha esquerda ou acima não existe. Se a unidade vizinha esquerda ou acima estiver localizada dentro de outra fatia ou outra justaposição, o modo de intrapredição da unidade vizinha esquerda ou acima é definido como indisponível. Se a unidade vizinha esquerda ou acima for inter- codificada, o modo de intrapredição da unidade vizinha esquerda ou acima é definido como indisponível. Se a unidade vizinha acima estiver localizada dentro de outra LCU, o modo de intrapredição da unidade vizinha esquerda ou acima é definido como indisponível.
[073]A Figura 5 é um diagrama conceptual que mostra modos de intrapredição de acordo com a presente invenção. Conforme mostrado na Figura 5, o número de modos de intrapredição é 35. O modo DC e o modo planar são modos de intrapredição não direcionais e os outros são modos de intrapredição direcionais.
[074]Quanto tanto o modo de intrapredição à esquerda quanto o modo de intrapredição acima estão disponíveis e são diferentes um do outro, o modo de intrapredição à esquerda e o modo de intrapredição acima são incluídos no grupo MPM e um modo de intrapredição adicional é acrescentado ao grupo MPM. O índice 0 é atribuído a um modo de intrapredição de número de modos pequeno e o indica 1 é atribuído ao outro. Ou o índice 0 é atribuído ao modo de intrapredição à esquerda e o índice 1 é atribuído ao modo de intrapredição acima. O modo de intrapredição adicionado é determinado pelos modos de intrapredição à esquerda e acima da maneira seguinte.
[075]Se um dos modos de intrapredição à esquerda e acima for um modo não direcional e o outro for um modo direcional, o outro modo não direcional é adicionado ao grupo MPM. Por exemplo, se um dos modos de intrapredição à esquerda e acima for o modo DC, o modo planar é adicionado ao grupo MPM. Se um dos modos de intrapredição à esquerda e acima for o modo planar, o modo DC é adicionado ao grupo MPM. Se ambos os modos de intrapredição à esquerda e acima forem modos não direcionais, o modo vertical é adicionado ao grupo MPM. Se ambos os modos de intrapredição à esquerda e acima forem modos direcionais, o modo DC ou o modo planar é adicionado ao grupo MPM.
[076]Quando apenas um dos modos de intrapredição à esquerda e acima estiver disponível, o modo de intrapredição disponível é incluído no grupo MPM e dois modos de intrapredição adicionais são acrescentados ao grupo MPM. Os dois modos de intrapredição adicionados são determinados pelos modos de intrapredição disponíveis da maneira seguinte.
[077]Se o modo de intrapredição disponível for um modo não direcional, o outro modo não direcional e o modo vertical são adicionados ao grupo MPM. Por exemplo, se o modo de intrapredição disponível for o modo DC, o modo planar e o modo vertical são adicionados ao grupo MPM. Se o modo de intrapredição disponível for o modo planar, o modo DC e o modo vertical são adicionados ao grupo MPM. Se o modo de intrapredição disponível for um modo direcional, dois modos não direcionais (modo DC e modo planar) são adicionados ao grupo MPM.
[078]Quanto tanto o modo de intrapredição à esquerda quanto o modo de intrapredição acima estiverem disponíveis e forem idênticos entre si, o modo de intrapredição disponível é incluído no grupo MPM e dois modos de intrapredição adicionais são acrescentados ao grupo MPM. Os dois modos de intrapredição adicionados são determinados pelos modos de intrapredição disponíveis da maneira seguinte.
[079]Se o modo de intrapredição disponível for um modo direcional, dois modos direcionais vizinhos são adicionados ao grupo MPM. Por exemplo, se o modo de intrapredição disponível for o modo 23, o modo vizinho à esquerda (modo 1) e o modo vizinho direito (modo 13) são adicionados ao grupo MPM. Se o modo de intrapredição disponível for o modo 30, os dois modos vizinhos (modo 2 e modo 16) são adicionados ao grupo MPM. Se o modo de intrapredição disponível for um modo não direcional, o outro modo não direcional e o modo vertical são adicionados ao grupo MPM. Por exemplo, se o modo de intrapredição disponível for o modo DC, o modo planar e o modo vertical são adicionados ao grupo MPM.
[080]Quando tanto o modo de intrapredição à esquerda quanto o modo de intrapredição acima estiverem indisponíveis, três modos de intrapredição adicionais são acrescentados ao grupo MPM. Os três modos de intrapredição são o modo DC, o modo planar e o modo vertical. Os índices 0, 1 e 2 são atribuídos aos três modos de intrapredição na ordem modo DC, modo planar e modo vertical ou na ordem modo planar, modo DC e o modo vertical.
[081]É determinado se o indicador de grupo de modos indica o grupo MPM (S1130).
[082]Se o indicador de grupo de modos indicar o grupo MPM, a intrapredição do grupo MPM especificada pelo índice de modo de predição é fixada como o modo de intrapredição da unidade de predição atual (S1140).
[083]Se o indicador de grupo de modos não indicar o grupo MPM, as três intra- predições do grupo PM são reordenadas na ordem de número de modos (S1150). Entre os três modos de intrapredição do grupo MPM, o modo de intrapredição com número de modos mais baixo é definido em um primeiro candidato, o modo de intrapredição com número de modos intermediário é definido em um segundo candidato e o modo de intrapredição com número de modos mais elevado é definido em um terceiro candidato.
[084]O índice de modo de predição é comparado com o primeiro candidato (S1160). Se o índice de modo de predição for igual ao ou maior que o primeiro candidato do grupo MPM, o valor do índice de modo de predição é aumentado em um. Caso contrário, o valor do índice de modo de predição é mantido.
[085]O índice de modo de predição é comparado com o segundo candidato (S1170). Se o índice de modo de predição for igual ao ou maior que o segundo candidato do grupo MPM, o valor do índice de modo de predição é aumentado em um. Caso contrário, o valor do índice de modo de predição é mantido.
[086]O índice de modo de predição é comparado com o terceiro candidato (S1180). Se o índice de modo de predição for igual ao ou maior que o terceiro candidato do grupo MPM, o valor do índice de modo de predição é aumentado em um. Caso contrário, o valor do índice de modo de predição é mantido.
[087]O valor do índice de modo de predição final é definido como o número de modos do modo de intrapredição da unidade de predição atual (S1190).
[088]Em seguida, o tamanho do bloco atual é determinado de modo a se gerar um bloco de predição (S1200).
[089]O tamanho do bloco atual é igual ao tamanho da unidade de transformada. O tamanho do bloco atual é determinado usando-se o tamanho da unidade de predição e informações sobre tamanho de transformada. Um bloco de predição e um bloco residual do bloco atual têm o mesmo tamanho da unidade de transformada. As informações sobre tamanho de transformada incluem um ou mais split_tu_flags usados para indicar a estrutura dividida.
[090]Se o tamanho da unidade de transformada for igual ao tamanho da unidade de predição atual, a unidade de predição atual é fixada como o bloco atual.
[091]Se o tamanho da unidade de transformada for menor que o tamanho da unidade de predição atual, a unidade de predição é constituída por uma série de sub- blocos. Cada sub-bloco é definido como o bloco atual. Neste caso, as etapas S1300, S1400 e S1500 são executadas para o primeiro sub-bloco da unidade de predição. Em seguida, as etapas S1300, S1400 e S1500 são executadas repetidamente para os sub-blocos restantes da unidade de predição em ordem de decodificação. O mesmo modo de intrapredição é usado para todos os sub-blocos dentro da unidade de predição.
[092]Em seguida, um bloco de predição é gerado de acordo com o modo de intrapredição (S1300).
[093]A Figura 6 é um fluxograma que mostra um procedimento de gerar o bloco de predição de acordo com a presente invenção.
[094]É determinado se todos os pixels de referência do bloco atual estão disponíveis, e pixels de referência são gerados se um ou mais pixels de referência estiverem indisponíveis (S1210). O bloco atual é a unidade de predição atual ou o sub-bloco da unidade de predição atual. O tamanho do bloco atual é o tamanho da unidade de transformada.
[095]A Figura 7 é um diagrama conceptual que mostra posições dos pixels de referência do bloco atual de acordo com a presente invenção. Conforme mostrado na Figura 7, os pixels de referência do bloco atual são constituídos pelos pixels de referência acima localizados em (x=0,..., 2N-1, y=-1), pelos pixels de referência à esquerda localizados em (x=1-, y=0, ..., 2M-1) e por um pixel de canto localizado em (x=-1). N é a largura do bloco atual e M é a altura do bloco atual.
[096]Se um ou mais pixels de referência estiverem indisponíveis, um ou mais pixels de referência são gerados da maneira seguinte.
[097]Se todos os pixels de referência estiverem indisponíveis, um valor constante substitui os valores de todos os pixels de referência. O valor constante é 2L- 1, e o valor de L é o número de bits usados para representar o valor de pixel de luminância.
[098]Se os pixels de referência disponíveis estiverem localizados em apenas um lado do pixel de referência indisponível, o valor do pixel de referência mais próximo do pixel indisponível substitui o pixel de referência indisponível.
[099]Se os pixels de referência disponíveis estiverem localizados em ambos os lados do pixel de referência indisponível, o valor do pixel de referência mais próximo do pixel indisponível em uma direção predeterminada substitui cada pixel de referência indisponível.
[0100]Os pixels de referência são filtrados adaptativamente com base no modo de intrapredição e no tamanho do bloco atual (S1200). O tamanho do bloco atual é o tamanho da unidade de transformada.
[0101]No modo DC, os pixels de referência não são filtrados. No modo vertical e no modo horizontal, os pixels de referência não são filtrados. Nos modos direcionais que não os modos vertical e horizontal, os pixels de referência são filtrados adaptativamente de acordo com o tamanho do bloco atual.
[0102]Se o tamanho do bloco atual for 4x4, os pixels de referência não são filtrados em todos os modos de intrapredição. Para os tamanhos 8x8, 16x16 e 32x32, o número de modos de intrapredição nos quais os pixels de referência são filtrados aumenta à medida que o tamanho do bloco atual se torna maior.
[0103]Um bloco de predição do bloco atual é gerado usando-se os pixels de referência de acordo com o modo de intrapredição restaurado (S1230).
[0104]No modo DC, os pixels de predição são gerados copiando-se o valor médio dos N pixels de referência localizados em (x=0,...N-1, y=-1) e dos M pixels de referência localizados em (x=-1, y=0,..M-1). O pixel de predição adjacente ao pixel de referência é filtrado por um ou dois pixels de referência adjacentes.
[0105]No modo vertical, os pixels de predição são gerados copiando-se o valor do pixel de referência correspondente. Os pixels de predição adjacentes ao pixel de referência à esquerda são filtrados usando-se o pixel de canto e o pixel vizinho à esquerda.
[0106]No modo horizontal, os pixels de predição são gerados copiando-se o valor do pixel de referência correspondente horizontal. Os pixels de predição adjacentes ao pixel de referência acima são filtrados usando-se o pixel de canto e o pixel vizinho superior.
[0107]Em seguida, um bloco residual é gerado de acordo com o modo de intrapredição (S1400).
[0108]A Figura 8 é um fluxograma que mostra um procedimento de gerar o bloco residual de acordo com a presente invenção.
[0109]Os sinais residuais codificados são decodificados por entropia de modo a se gerarem informações sobre coeficientes quantizados. Quando a CABAC é usada para codificação por entropia, as informações sobre coeficientes incluem indicadores significativos, sinais de coeficiente e níveis de coeficiente. O indicador significativo indica se o coeficiente de transformada quantizado correspondente é zero ou não. O sinal de coeficiente indica um sinal de coeficiente de transformada quantizado não zero e o nível de coeficiente indica o valor absoluto de coeficientes de transformada quantizados não zero.
[0110]Um padrão de varredura inversa é determinado e um bloco quantizado é gerado de acordo com o padrão de varredura inversa (S1420). A etapa é executada pela unidade de varredura inversa 220 da Figura 2. Portanto, a mesma operação da unidade de varredura inversa 220 é executada para determinar o padrão de varredura inversa e para gerar o bloco quantizado.
[0111]O bloco quantizado é quantizado inversamente usando-se um parâmetro de quantização (S1430).
[0112]A Figura 9 é um fluxograma que mostra um procedimento de derivar um parâmetro de quantização de acordo com a presente invenção
[0113]O tamanho mínimo da unidade de quantização é derivado (S1431). O tamanho mínimo da unidade de quantização é igual ao tamanho da LCU ou ao tamanho de um sub-bloco da LCU. O tamanho mínimo da unidade de quantização é determinado por imagem. Um parâmetro (cu_qp_delta_enabled_info) que especifica a profundidade do tamanho mínimo da unidade de quantização é extraído de PPS. O tamanho mínimo da unidade de quantização é derivado da equação seguinte: Log2(MinQUSize) = Log2(MaxCUSize)-cu_qp_delta_enabled_Info
[0114]O MinQUSize é o tamanho mínimo da unidade de quantização. O MaxCUSize é o tamanho da LCU. Apenas um parâmetro é usado para derivar o tamanho mínimo da unidade de quantização.
[0115]O parâmetro de quantização diferencial (dQP) da unidade de codificação atual é restaurado (S1432). O dQP é restaurado por unidade de quantização. Por exemplo, se o tamanho da unidade de codificação atual for igual ao ou maior que o tamanho mínimo da unidade de quantização, o dQP é restaurado para a unidade de codificação atual. Se a unidade de codificação atual não contiver um dQP codificado, o dQP é definido em zero. Se a unidade de quantização incluir várias unidades de codificação, a primeira unidade de codificação que contiver o dQP e a unidade de codificação seguinte dentro da unidade de quantização têm o mesmo dQP.
[0116]O dQP codificado é aritmeticamente decodificado de modo a se gerar uma sequência de binários (bin string), e a sequência de binários é convertida no dQP. A sequência de binários compreende um binário para indicar se o dQP é zero ou não. Quando o dQP não é zero, a sequência de binários compreende também um binário para sinal do dQP e uma sequência de binários para indicar o valor absoluto do dQP.
[0117]Um preditor de parâmetros de quantização da unidade de codificação atual é gerado (S1433). O preditor de parâmetros de codificação é gerado usando-se a mesma operação da unidade de quantização inversa 230 da Figura 2.
[0118]Se a unidade de quantização incluir várias unidades de codificação, o preditor de parâmetros de codificação da primeira unidade de codificação na ordem de codificação é gerado, e o preditor de parâmetros de codificação gerado é usado para todas as unidades de codificação dentro da unidade de quantização.
[0119]O parâmetro de quantização é gerado usando-se o dQP e o preditor de parâmetros de codificação (S1434).
[0120]Entrementes, são também restauradas as matrizes de quantização definidas pelo usuário. Um conjunto das matrizes de quantização definidas pelo usuário é recebido do aparelho de codificação através do SPS ou do PPS. A matriz de quantização definida pelo usuário é restaurada usando-se DPCM inversa. A varredura diagonal é usada para a DPCM. Quando o tamanho da matriz de quantização definida pelo usuário é maior que 8x8, a matriz de quantização definida pelo usuário é restaurada pela amostragem ascendente dos coeficientes da matriz de quantização 8x8 recebida. O coeficiente DC da matriz de quantização definida pelo usuário é extraído do SPS ou do PPS. Por exemplo, se o tamanho da matriz de quantização definida pelo usuário for 16x16, os coeficientes da matriz de quantização 8x8 recebida são amostrados de maneira ascendente usando-se amostragem ascendente 1:4.
[0121]Um bloco residual é gerado transformando-se inversamente o bloco quantizado por inversão (S1440). O tipo de transformada inversa é determinada adaptativamente de acordo com o modo de predição e o tamanho da unidade de transformada. O tipo de transformada inversa é a transformada de número inteiro baseada em DCT ou a transformada de número inteira baseada em DST. No modo de intrapredição, se o tamanho da unidade de transformada for menor que um tamanho predeterminado, são usadas as transformadas de número inteiro baseadas em DST, caso contrário são usadas as transformadas de número inteiro baseadas em DCT.
[0122]Em seguida, um bloco reconstruído é gerado adicionando-se o bloco de predição e o bloco residual (S1500).
[0123]A Figura 10 é um diagrama de blocos que mostra um aparelho 300 para gerar um bloco reconstruído de acordo com a presente invenção.
[0124]Conforme mostrado na Figura 10, o aparelho 300 de acordo com a presente invenção inclui uma unidade de derivação de modo de intrapredição 310, uma unidade de determinação de tamanho de predição 320, uma unidade de geração de blocos de predição 330, uma unidade de geração de blocos residuais 340 e uma unidade de geração de blocos reconstruídos 350.
[0125]A unidade de derivação de modos de intrapredição 310 deriva o modo de intrapredição da unidade de predição atual. A unidade de derivação de modos de intrapredição 310 executa o mesmo procedimento da Figura 4 de modo a derivar o modo de intrapredição.
[0126]A unidade de determinação de tamanho de predição 320 determina o tamanho do bloco atual usando o tamanho da unidade de predição atual e as informações sobre tamanho de transformada. O tamanho do bloco atual é igual ao tamanho da unidade de transformada. Um bloco de predição e um bloco residual do bloco atual têm o mesmo tamanho da unidade de transformada. A unidade de predição atual ou um sub-bloco da unidade de predição atual é definido como o bloco atual com base nas informações sobre tamanho de transformada.
[0127]A unidade de geração de blocos de predição 330 gera o bloco de predição do bloco atual usando o modo de intrapredição. A unidade de geração de blocos de predição 330 inclui um gerador de pixels de referência 331, um filtro de pixels de referência 332 e um gerador de blocos de predição 333.
[0128]O gerador de pixels de referência 331 gera pixels de referência se um ou mais pixels de referência do bloco atual estiverem indisponíveis. Se todos os pixels de referência estiverem indisponíveis, o valor de 2L-1substitui os valores de todos os pixels de referência. O valor de L é o número de bits usados para representar o valor de pixel de luminância. Se os pixels de referência disponíveis estiverem localizados em apenas um lado do pixel de referência indisponível, o valor do pixel de referência mais próximo do pixel indisponível substitui o pixel de referência indisponível. Se os pixels de referência disponíveis estiverem localizados em ambos os lados do pixel de referência indisponível, o valor do pixel de referência mais próximo do pixel indisponível em uma direção predeterminada substitui cada pixel de referência indisponível.
[0129]O filtro de pixels de referência 332 filtra adaptativamente os pixels de referência com base no modo de intrapredição e no tamanho da unidade de transformada.
[0130]No modo DC, os pixels de referência não são filtrados. No modo vertical e no modo horizontal, os pixels de referência não são filtrados. Nos modos direcionais que não os modos vertical e horizontal, os pixels de referência são filtrados adaptativamente de acordo com o tamanho do bloco atual.
[0131]Se o tamanho do bloco atual for 4x4, os pixels de referência não são filtrados em todos os modos de intrapredição. Para os tamanhos 8x8, 16x16 e 32x32, o número de modos de intrapredição nos quais os pixels de referência são filtrados aumenta à medida que o tamanho do bloco atual se torna maior. Por exemplo, os pixels de referência não são filtrados no modo vertical e em um número predeterminado de modos de intrapredição vizinhos do modo vertical. Os pixels de referência também não são filtrados no modo horizontal e no número predeterminado de modos de intrapredição vizinhos do modo horizontal. O número predeterminado é um de 0-7 e diminui à medida que o tamanho do bloco atual aumenta.
[0132]O gerador de blocos de predição 33 gera um bloco de predição do bloco atual usando os pixels de referência de acordo com o modo de intrapredição.
[0133]No modo DC, os pixels de predição são gerados copiando-se o valor médio dos N pixels de referência localizados em (x=0,...N-1, y=-1) e dos M pixels de referência localizados em (x=-1, y=0,..M-1). O pixel de predição adjacente ao pixel de referência é filtrado por um ou dois pixels de referência adjacentes.
[0134]No modo vertical, os pixels de predição são gerados copiando-se o valor do pixel de referência vertical. Os pixels de predição adjacentes ao pixel de referência à esquerda são filtrados usando-se o pixel de referência de canto e o pixel de referência vizinho à esquerda.
[0135]No modo horizontal, os pixels de predição são gerados copiando-se o valor do pixel de referência horizontal. Os pixels de predição adjacentes ao pixel de referência acima são filtrados usando-se o pixel de referência de canto e o pixel de referência vizinho acima.
[0136]A unidade de geração de blocos residuais 340 gera o bloco residual do bloco atual usando o modo de intrapredição. O mesmo procedimento da Figura 8 é executado pela unidade de geração de blocos residuais 340.
[0137]A unidade de geração de blocos reconstruídos 350 adiciona o bloco de predição e o bloco residual de modo a gerar o bloco reconstruído do bloco atual.
[0138]Embora a invenção tenha sido mostrada e descrita com referência a determinadas modalidades exemplares dela, os versados na técnica entenderão que diversas alterações na forma e nos detalhes podem ser feitas nela sem que se abandonem o espírito e o alcance da invenção definidos pelas reivindicações anexas.
Claims (8)
1. Método para gerar um bloco reconstruído, CARACTERIZADO por compreender: derivar um modo de intrapredição de uma unidade de predição ao usar um grupo de Modo Mais Provável (MPM) incluindo três modos de intrapredição que são determinados com base nos modos de intrapredição à esquerda e acima; determinar um tamanho de um bloco atual usando informações de tamanho de transformada que inclui um ou mais indicadores de unidade de transformada dividida (split_tu_flags); gerar um bloco de predição do bloco atual de acordo com o modo de intrapre- dição; gerar um bloco residual do bloco atual ao quantizar inversamente um bloco quantizado usando parâmetro de quantização e ao transformar inversamente o bloco quantizado inversamente ; e gerar um bloco reconstruído usando o bloco de predição e o bloco residual, em que o grupo MPM inclui os modos de intrapredição à esquerda e acima e o modo planar quando os modos de intrapredição à esquerda e acima são diferentes um do outro e ambos os modos de intrapredição à esquerda e acima são modos dire-cionais, em que o tamanho do bloco atual é igual ao ou menor que um tamanho da unidade de predição, e os tamanhos do bloco de predição, do bloco residual e do bloco reconstruído são iguais a um tamanho de uma unidade de transformada, na geração do bloco residual, o bloco quantizado é gerado ao varrer inversa-mente as informações de coeficiente quantizado usando um padrão de varredura in-versa que é determinado com base no modo de intrapredição e no tamanho do bloco atual, em que o parâmetro de quantização é gerado ao usar um preditor de parâmetro de quantização e um parâmetro de quantização diferencial, quando ambos os parâmetros de quantização à esquerda e acima de uma unidade de codificação atual estão disponíveis, o preditor de parâmetro de quantiza- ção é gerado ao usar os parâmetros de quantização à esquerda e acima, e quando apenas um dos parâmetros de quantização à esquerda e acima da unidade de codificação atual está disponível, o preditor de parâmetro de quantização é gerado ao usar o parâmetro de quantização disponível e um parâmetro de quanti- zação anterior.
2. Método de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que derivar o modo de intrapredição da unidade de predição compreende: gerar um grupo MPM que é compreendido pelos três modos de intrapredição; definir um modo de intrapredição no grupo MPM especificado por um índice de modo de predição como o modo de intrapredição da unidade de predição quando um indicador de grupo de modo indica o grupo MPM; e determinar o modo de intrapredição da unidade de predição ao comparar o índice de modo de predição com os três modos de intrapredição no grupo MPM quando o indicador de grupo de modo não indica o grupo MPM.
3. Método de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que, quando apenas um dos modos de intrapredição à esquerda e acima está dispo-nível e o modo de intrapredição disponível é um dentre dois modos não-direcionais, os três modos de intrapredição são os dois modos não-direcionais e o modo vertical e, quando apenas um dos modos de intrapredição à esquerda e acima está disponível e o modo de intrapredição disponível é um dentre modos direcionais, os três modos de intrapredição são os dois modos não-direcionais e o modo de intrapredição disponível.
4. Método de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que um tipo de uma transformada inversa é determinado pelo tamanho da unidade de transformada.
5. Método de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o padrão de varredura inversa é selecionado dentre varredura diagonal, varredura vertical e varredura horizontal, e uma pluralidade de subconjuntos é gerada quando o tamanho do bloco quantizado é maior que um tamanho predeterminado, e o bloco quantizado é gerado ao varrer inversamente a pluralidade dos subconjuntos usando o padrão de varredura inversa.
6. Método de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o parâmetro de quantização diferencial é reconstruído ao usar uma sequência de binários (bin string) que indica um valor absoluto do parâmetro de quantização diferencial e um binário (bin) que indica um sinal do parâmetro de quantização diferencial.
7. Método de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o grupo MPM inclui modo DC, modo planar e modo vertical quando os modos de intrapredição à esquerda e acima são os mesmos e o modo de intrapredição à es-querdaé um modo não-direcional.
8. Método de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o parâmetro de quantização anterior é definido como o preditor de parâmetro de quantização quando ambos os parâmetros de quantização à esquerda e acima da unidade de codificação atual estão indisponíveis.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2011-0114609 | 2011-11-04 | ||
KR1020110114609A KR20130049525A (ko) | 2011-11-04 | 2011-11-04 | 잔차 블록 복원을 위한 역변환 방법 |
BR112014007869-6A BR112014007869B1 (pt) | 2011-11-04 | 2012-11-02 | Método para gerar um bloco reconstruído |
PCT/CN2012/083994 WO2013064099A1 (en) | 2011-11-04 | 2012-11-02 | Method of generating reconstructed block |
Publications (1)
Publication Number | Publication Date |
---|---|
BR122020014288B1 true BR122020014288B1 (pt) | 2021-07-13 |
Family
ID=48191360
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BR122020014298-7A BR122020014298B1 (pt) | 2011-11-04 | 2012-11-02 | Método para gerar um bloco reconstruído |
BR122020014293-6A BR122020014293B1 (pt) | 2011-11-04 | 2012-11-02 | Método para gerar um bloco reconstruído |
BR122020014282-0A BR122020014282B1 (pt) | 2011-11-04 | 2012-11-02 | Método para gerar um bloco reconstruído |
BR122020014288-0A BR122020014288B1 (pt) | 2011-11-04 | 2012-11-02 | Método para gerar um bloco reconstruído |
Family Applications Before (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BR122020014298-7A BR122020014298B1 (pt) | 2011-11-04 | 2012-11-02 | Método para gerar um bloco reconstruído |
BR122020014293-6A BR122020014293B1 (pt) | 2011-11-04 | 2012-11-02 | Método para gerar um bloco reconstruído |
BR122020014282-0A BR122020014282B1 (pt) | 2011-11-04 | 2012-11-02 | Método para gerar um bloco reconstruído |
Country Status (29)
Country | Link |
---|---|
US (8) | US9014262B2 (pt) |
EP (5) | EP3364373A1 (pt) |
JP (6) | JP5789343B2 (pt) |
KR (4) | KR20130049525A (pt) |
CN (8) | CN107770535B (pt) |
AU (5) | AU2012331601B2 (pt) |
BR (4) | BR122020014298B1 (pt) |
CA (7) | CA2913567C (pt) |
CY (1) | CY1120400T1 (pt) |
DK (1) | DK2774122T3 (pt) |
ES (2) | ES2881980T3 (pt) |
HR (1) | HRP20181016T1 (pt) |
HU (2) | HUE054637T2 (pt) |
IL (5) | IL231705A (pt) |
IN (1) | IN2014CN03908A (pt) |
LT (1) | LT2774122T (pt) |
MX (7) | MX356330B (pt) |
MY (6) | MY190516A (pt) |
NO (1) | NO2774122T3 (pt) |
PE (1) | PE20142032A1 (pt) |
PL (2) | PL3346447T3 (pt) |
PT (1) | PT2774122T (pt) |
RS (1) | RS57282B1 (pt) |
RU (5) | RU2710996C2 (pt) |
SG (2) | SG10201607196UA (pt) |
SI (1) | SI2774122T1 (pt) |
TW (6) | TWI603610B (pt) |
WO (1) | WO2013064099A1 (pt) |
ZA (2) | ZA201600849B (pt) |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013047805A1 (ja) | 2011-09-29 | 2013-04-04 | シャープ株式会社 | 画像復号装置、画像復号方法および画像符号化装置 |
EP3754982B1 (en) * | 2011-09-29 | 2024-05-01 | SHARP Kabushiki Kaisha | Image decoding device, image decoding method, image encoding method and image encoding device for performing bi-prediction to uni-prediction conversion |
PL3379833T3 (pl) * | 2011-10-18 | 2021-12-13 | Lg Electronics Inc. | Sposób intra-predykcji i jego urządzenie |
EP2942954B1 (en) * | 2011-10-24 | 2020-06-03 | Innotive Ltd | Image decoding apparatus |
DK2773118T3 (da) | 2011-10-24 | 2020-12-07 | Innotive Ltd | Fremgangsmåde og apparat til billedafkodning |
KR20130049522A (ko) * | 2011-11-04 | 2013-05-14 | 오수미 | 인트라 예측 블록 생성 방법 |
US10277915B2 (en) | 2011-11-07 | 2019-04-30 | Qualcomm Incorporated | Signaling quantization matrices for video coding |
KR20130050407A (ko) * | 2011-11-07 | 2013-05-16 | 오수미 | 인터 모드에서의 움직임 정보 생성 방법 |
KR102182628B1 (ko) * | 2011-12-05 | 2020-11-24 | 엘지전자 주식회사 | 인트라 예측 방법 및 장치 |
HUE063933T2 (hu) * | 2012-06-29 | 2024-02-28 | Electronics & Telecommunications Res Inst | Eljárás és eszköz képek kódolására/dekódolására |
US9380307B2 (en) * | 2012-11-19 | 2016-06-28 | Qualcomm Incorporated | Method and system for intra base layer (BL) transform in video coding |
US11470339B2 (en) | 2013-08-27 | 2022-10-11 | Qualcomm Incorporated | Residual prediction for intra block copying |
CN104219531B (zh) * | 2014-09-29 | 2018-02-06 | 北方工业大学 | 基于线状帧内块拷贝的hevc屏幕内容编码 |
JP6671339B2 (ja) | 2015-02-27 | 2020-03-25 | Kddi株式会社 | 符号化装置及び復号装置 |
US9769499B2 (en) * | 2015-08-11 | 2017-09-19 | Google Inc. | Super-transform video coding |
EP3340632B1 (en) * | 2015-08-19 | 2021-08-11 | LG Electronics Inc. | Method and device for processing video signals |
US10547854B2 (en) | 2016-05-13 | 2020-01-28 | Qualcomm Incorporated | Neighbor based signaling of intra prediction modes |
KR102447450B1 (ko) * | 2016-09-05 | 2022-09-26 | 엘지전자 주식회사 | 영상 부호화/복호화 방법 및 이를 위한 장치 |
WO2018061550A1 (ja) * | 2016-09-28 | 2018-04-05 | シャープ株式会社 | 画像復号装置及び画像符号化装置 |
US10506228B2 (en) | 2016-10-04 | 2019-12-10 | Qualcomm Incorporated | Variable number of intra modes for video coding |
US10728578B2 (en) | 2017-03-06 | 2020-07-28 | Sony Corporation | Bias minimization for successive image reconstruction based on embedded codec circuitry |
MX2019012294A (es) | 2017-04-13 | 2020-01-27 | Lg Electronics Inc | Metodo de codificacion/decodificacion de imagenes y dispositivo para el mismo. |
WO2018205914A1 (en) * | 2017-05-10 | 2018-11-15 | Mediatek Inc. | Method and apparatus of reordering motion vector prediction candidate set for video coding |
KR20230152835A (ko) | 2017-10-18 | 2023-11-03 | 삼성전자주식회사 | 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치 |
GB2567861A (en) | 2017-10-27 | 2019-05-01 | Sony Corp | Image data encoding and decoding |
US11381814B2 (en) | 2018-03-08 | 2022-07-05 | Samsung Electronics Co., Ltd. | Video decoding method and device, and video encoding method and device |
EP3777144A4 (en) * | 2018-03-30 | 2021-12-22 | Hulu, LLC | SIGNALING OF INTRA PREDICTION MODE FOR VIDEO ENCODING |
US10893285B2 (en) * | 2018-06-29 | 2021-01-12 | FG Innovation Company Limited | Device and method for coding video data based on one or more reference lines |
WO2020071871A1 (ko) * | 2018-10-05 | 2020-04-09 | 엘지전자 주식회사 | 영상 서비스 처리 방법 및 그 장치 |
CN118214860A (zh) * | 2018-10-12 | 2024-06-18 | 英迪股份有限公司 | 图像解码和编码方法、数字存储介质、发送比特流的方法 |
US11159789B2 (en) | 2018-10-24 | 2021-10-26 | City University Of Hong Kong | Generative adversarial network based intra prediction for video coding |
CN111263156B (zh) * | 2019-02-20 | 2022-03-25 | 北京达佳互联信息技术有限公司 | 视频解码方法、视频编码方法及装置 |
US11997300B2 (en) | 2019-03-11 | 2024-05-28 | Lg Electronics Inc. | Method and apparatus for video encoding/decoding using IBC mode, and method for transmitting bitstream |
CN117241014A (zh) * | 2019-06-05 | 2023-12-15 | 华为技术有限公司 | Mpm列表构建方法、色度块的帧内预测模式获取方法及装置 |
MX2022000028A (es) | 2019-06-24 | 2022-03-11 | Lg Electronics Inc | Método y aparato de codificación/decodificación de imágenes usando ajuste de tamaño de transformación máximo para bloque de croma, y método para transmitir flujo de bits. |
EP3965416B1 (en) | 2020-09-08 | 2022-08-03 | Axis AB | Method and device for intra-coding an image frame |
Family Cites Families (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7236524B2 (en) * | 2002-05-28 | 2007-06-26 | Sharp Laboratories Of America, Inc. | Methods and systems for image intra-prediction mode communication |
JP5017086B2 (ja) * | 2002-07-15 | 2012-09-05 | 日立コンシューマエレクトロニクス株式会社 | 動画像復号化方法 |
JP2006005438A (ja) * | 2004-06-15 | 2006-01-05 | Sony Corp | 画像処理装置およびその方法 |
KR100621581B1 (ko) * | 2004-07-15 | 2006-09-13 | 삼성전자주식회사 | 기초 계층을 포함하는 비트스트림을 프리디코딩,디코딩하는 방법, 및 장치 |
CN100348051C (zh) * | 2005-03-31 | 2007-11-07 | 华中科技大学 | 一种增强型帧内预测模式编码方法 |
KR100678911B1 (ko) * | 2005-07-21 | 2007-02-05 | 삼성전자주식회사 | 방향적 인트라 예측의 적용을 확장하여 비디오 신호를인코딩하고 디코딩하는 방법 및 장치 |
KR101311402B1 (ko) * | 2006-03-23 | 2013-09-25 | 삼성전자주식회사 | 영상의 부호화 방법 및 장치, 복호화 방법 및 장치 |
CN101087427B (zh) * | 2006-06-06 | 2011-04-06 | 北京大学深圳研究生院 | 一种h.264标准的帧内预测模式选择方法 |
KR100927733B1 (ko) * | 2006-09-20 | 2009-11-18 | 한국전자통신연구원 | 잔여계수의 상관성에 따라 변환기를 선택적으로 이용한부호화/복호화 장치 및 그 방법 |
US8275039B2 (en) | 2006-11-07 | 2012-09-25 | Samsung Electronics Co., Ltd. | Method of and apparatus for video encoding and decoding based on motion estimation |
TW200830881A (en) * | 2007-01-10 | 2008-07-16 | Beyond Innovation Tech Co Ltd | Method for processing images |
JP5026092B2 (ja) * | 2007-01-12 | 2012-09-12 | 三菱電機株式会社 | 動画像復号装置および動画像復号方法 |
JP2008193627A (ja) * | 2007-01-12 | 2008-08-21 | Mitsubishi Electric Corp | 画像符号化装置、画像復号装置、および画像符号化方法、画像復号方法 |
US8233537B2 (en) * | 2007-03-19 | 2012-07-31 | Texas Instruments Incorporated | Efficient implementation of H.264 4 by 4 intra prediction on a VLIW processor |
WO2008120434A1 (ja) * | 2007-03-28 | 2008-10-09 | Panasonic Corporation | 復号化回路、復号化方法、符号化回路及び符号化方法 |
US20090147849A1 (en) * | 2007-12-07 | 2009-06-11 | The Hong Kong University Of Science And Technology | Intra frame encoding using programmable graphics hardware |
KR100940444B1 (ko) * | 2007-12-18 | 2010-02-10 | 한국전자통신연구원 | 공간적 에지 검출을 이용한 인트라 예측 모드 구성 방법 |
US20090161757A1 (en) * | 2007-12-21 | 2009-06-25 | General Instrument Corporation | Method and Apparatus for Selecting a Coding Mode for a Block |
US8542730B2 (en) * | 2008-02-22 | 2013-09-24 | Qualcomm, Incorporated | Fast macroblock delta QP decision |
KR101591825B1 (ko) * | 2008-03-27 | 2016-02-18 | 엘지전자 주식회사 | 비디오 신호의 인코딩 또는 디코딩 방법 및 장치 |
US8897359B2 (en) * | 2008-06-03 | 2014-11-25 | Microsoft Corporation | Adaptive quantization for enhancement layer video coding |
US8634456B2 (en) * | 2008-10-03 | 2014-01-21 | Qualcomm Incorporated | Video coding with large macroblocks |
US8514942B2 (en) * | 2008-12-31 | 2013-08-20 | Entropic Communications, Inc. | Low-resolution video coding content extraction |
WO2010131903A2 (en) * | 2009-05-12 | 2010-11-18 | Lg Electronics Inc. | Method and apparatus for processing a video signal |
CN104822066A (zh) * | 2009-07-01 | 2015-08-05 | 汤姆森特许公司 | 用于视频编码器和解码器的方法和装置 |
CN101621692B (zh) * | 2009-07-27 | 2011-04-20 | 宁波大学 | 一种基于预测模式的h.264/avc视频信息隐藏方法 |
KR101452860B1 (ko) * | 2009-08-17 | 2014-10-23 | 삼성전자주식회사 | 영상의 부호화 방법 및 장치, 영상 복호화 방법 및 장치 |
KR101507344B1 (ko) * | 2009-08-21 | 2015-03-31 | 에스케이 텔레콤주식회사 | 가변 길이 부호를 이용한 인트라 예측모드 부호화 방법과 장치, 및 이를 위한기록 매체 |
KR20110065089A (ko) * | 2009-12-09 | 2011-06-15 | 삼성전자주식회사 | 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치 |
KR101487687B1 (ko) * | 2010-01-14 | 2015-01-29 | 삼성전자주식회사 | 큰 크기의 변환 단위를 이용한 영상 부호화, 복호화 방법 및 장치 |
US8902978B2 (en) * | 2010-05-30 | 2014-12-02 | Lg Electronics Inc. | Enhanced intra prediction mode signaling |
CN101854551B (zh) * | 2010-06-08 | 2012-08-15 | 浙江大学 | 帧内预测模式编解码方法及装置 |
US9661338B2 (en) * | 2010-07-09 | 2017-05-23 | Qualcomm Incorporated | Coding syntax elements for adaptive scans of transform coefficients for video coding |
US9378185B2 (en) * | 2010-09-30 | 2016-06-28 | Texas Instruments Incorporated | Transform and quantization architecture for video coding and decoding |
US20120230418A1 (en) * | 2011-03-08 | 2012-09-13 | Qualcomm Incorporated | Coding of transform coefficients for video coding |
WO2012122495A1 (en) | 2011-03-10 | 2012-09-13 | Huawei Technologies Co., Ltd. | Using multiple prediction sets to encode extended unified directional intra mode numbers for robustness |
US9654785B2 (en) * | 2011-06-09 | 2017-05-16 | Qualcomm Incorporated | Enhanced intra-prediction mode signaling for video coding using neighboring mode |
GB2494468B (en) | 2011-09-12 | 2014-01-15 | Canon Kk | Method and device for encoding or decoding information representing prediction modes |
BR112013014374B8 (pt) * | 2011-09-13 | 2022-08-30 | Mediatek Singapore Pte Ltd | Método e aparelho para codificação de modo intra em hevc |
CN107197309B (zh) | 2011-10-07 | 2020-02-18 | 英迪股份有限公司 | 对视频信号进行解码的方法 |
CN104935941B (zh) * | 2011-10-24 | 2018-06-19 | 英孚布瑞智有限私人贸易公司 | 对帧内预测模式进行解码的方法 |
EP2942954B1 (en) * | 2011-10-24 | 2020-06-03 | Innotive Ltd | Image decoding apparatus |
DK2773118T3 (da) * | 2011-10-24 | 2020-12-07 | Innotive Ltd | Fremgangsmåde og apparat til billedafkodning |
KR20130049522A (ko) * | 2011-11-04 | 2013-05-14 | 오수미 | 인트라 예측 블록 생성 방법 |
KR20130049524A (ko) * | 2011-11-04 | 2013-05-14 | 오수미 | 인트라 예측 블록 생성 방법 |
KR20130049523A (ko) * | 2011-11-04 | 2013-05-14 | 오수미 | 인트라 예측 블록 생성 장치 |
KR20130049526A (ko) * | 2011-11-04 | 2013-05-14 | 오수미 | 복원 블록 생성 방법 |
-
2011
- 2011-11-04 KR KR1020110114609A patent/KR20130049525A/ko not_active Application Discontinuation
-
2012
- 2012-11-02 RU RU2016142728A patent/RU2710996C2/ru active
- 2012-11-02 PL PL18158853T patent/PL3346447T3/pl unknown
- 2012-11-02 SI SI201231289T patent/SI2774122T1/en unknown
- 2012-11-02 MY MYPI2017001719A patent/MY190516A/en unknown
- 2012-11-02 EP EP18166532.4A patent/EP3364373A1/en active Pending
- 2012-11-02 TW TW105130614A patent/TWI603610B/zh active
- 2012-11-02 MX MX2016009077A patent/MX356330B/es unknown
- 2012-11-02 BR BR122020014298-7A patent/BR122020014298B1/pt active IP Right Grant
- 2012-11-02 BR BR122020014293-6A patent/BR122020014293B1/pt active IP Right Grant
- 2012-11-02 BR BR122020014282-0A patent/BR122020014282B1/pt active IP Right Grant
- 2012-11-02 CA CA2913567A patent/CA2913567C/en active Active
- 2012-11-02 PT PT128464013T patent/PT2774122T/pt unknown
- 2012-11-02 AU AU2012331601A patent/AU2012331601B2/en active Active
- 2012-11-02 HU HUE18158853A patent/HUE054637T2/hu unknown
- 2012-11-02 MY MYPI2017001718A patent/MY190515A/en unknown
- 2012-11-02 KR KR1020147009904A patent/KR20140070598A/ko not_active Application Discontinuation
- 2012-11-02 PL PL12846401T patent/PL2774122T3/pl unknown
- 2012-11-02 RU RU2016142727A patent/RU2710995C2/ru active
- 2012-11-02 BR BR122020014288-0A patent/BR122020014288B1/pt active IP Right Grant
- 2012-11-02 RU RU2016142729A patent/RU2711306C2/ru active
- 2012-11-02 ES ES18158853T patent/ES2881980T3/es active Active
- 2012-11-02 TW TW101140903A patent/TWI558170B/zh active
- 2012-11-02 MY MYPI2014000912A patent/MY170819A/en unknown
- 2012-11-02 NO NO12846401A patent/NO2774122T3/no unknown
- 2012-11-02 CA CA2849028A patent/CA2849028C/en active Active
- 2012-11-02 DK DK12846401.3T patent/DK2774122T3/en active
- 2012-11-02 CA CA3057770A patent/CA3057770C/en active Active
- 2012-11-02 CA CA2913566A patent/CA2913566C/en active Active
- 2012-11-02 KR KR1020147009907A patent/KR20140066760A/ko not_active Application Discontinuation
- 2012-11-02 ES ES12846401.3T patent/ES2669502T3/es active Active
- 2012-11-02 PE PE2014000612A patent/PE20142032A1/es not_active Application Discontinuation
- 2012-11-02 RU RU2014111828/08A patent/RU2604340C2/ru active
- 2012-11-02 HU HUE12846401A patent/HUE037565T2/hu unknown
- 2012-11-02 CA CA2976066A patent/CA2976066C/en active Active
- 2012-11-02 MX MX2014003912A patent/MX2014003912A/es active IP Right Grant
- 2012-11-02 CA CA3111640A patent/CA3111640C/en active Active
- 2012-11-02 TW TW109119897A patent/TWI715506B/zh active
- 2012-11-02 TW TW106131377A patent/TWI650001B/zh active
- 2012-11-02 MY MYPI2017001714A patent/MY190514A/en unknown
- 2012-11-02 MX MX2015015707A patent/MX340475B/es unknown
- 2012-11-02 IN IN3908CHN2014 patent/IN2014CN03908A/en unknown
- 2012-11-02 US US14/349,465 patent/US9014262B2/en active Active
- 2012-11-02 EP EP18166529.0A patent/EP3379492A1/en active Pending
- 2012-11-02 LT LTEP12846401.3T patent/LT2774122T/lt unknown
- 2012-11-02 TW TW107147143A patent/TWI684350B/zh active
- 2012-11-02 MY MYPI2017001721A patent/MY190530A/en unknown
- 2012-11-02 SG SG10201607196UA patent/SG10201607196UA/en unknown
- 2012-11-02 MY MYPI2017001720A patent/MY190529A/en unknown
- 2012-11-02 EP EP12846401.3A patent/EP2774122B1/en active Active
- 2012-11-02 WO PCT/CN2012/083994 patent/WO2013064099A1/en active Application Filing
- 2012-11-02 TW TW108146231A patent/TWI699992B/zh active
- 2012-11-02 SG SG11201400674SA patent/SG11201400674SA/en unknown
- 2012-11-02 RU RU2016142725A patent/RU2711467C2/ru active
- 2012-11-02 JP JP2014539232A patent/JP5789343B2/ja active Active
- 2012-11-02 MX MX2015015705A patent/MX340476B/es unknown
- 2012-11-02 RS RS20180662A patent/RS57282B1/sr unknown
- 2012-11-02 EP EP18158853.4A patent/EP3346447B1/en active Active
- 2012-11-02 EP EP18166480.6A patent/EP3364372A1/en active Pending
- 2012-11-02 MX MX2015015706A patent/MX340474B/es unknown
- 2012-11-02 CA CA3212893A patent/CA3212893A1/en active Pending
- 2012-11-02 KR KR1020147009908A patent/KR20140074348A/ko not_active Application Discontinuation
- 2012-11-05 CN CN201711011967.XA patent/CN107770535B/zh active Active
- 2012-11-05 CN CN201711011941.5A patent/CN107613293B/zh active Active
- 2012-11-05 CN CN201711007921.0A patent/CN107770534B/zh active Active
- 2012-11-05 CN CN201210436434.7A patent/CN103096067B/zh active Active
- 2012-11-05 CN CN201711011944.9A patent/CN107734334B/zh active Active
- 2012-11-05 CN CN201711020359.5A patent/CN107682697B/zh active Active
- 2012-11-05 CN CN201711011969.9A patent/CN107809640B/zh active Active
- 2012-11-05 CN CN201711011928.XA patent/CN107682696B/zh active Active
-
2014
- 2014-03-25 IL IL231705A patent/IL231705A/en active IP Right Grant
- 2014-03-31 MX MX2015015704A patent/MX340477B/es unknown
- 2014-03-31 MX MX2018006177A patent/MX2018006177A/es unknown
-
2015
- 2015-03-17 US US14/660,752 patent/US9503726B2/en active Active
- 2015-03-17 US US14/660,787 patent/US9344728B2/en active Active
- 2015-03-17 US US14/660,731 patent/US9497462B2/en active Active
- 2015-03-17 US US14/660,766 patent/US9497463B2/en active Active
- 2015-07-31 JP JP2015151583A patent/JP6118374B2/ja active Active
- 2015-07-31 JP JP2015151586A patent/JP6116626B2/ja active Active
- 2015-07-31 JP JP2015151585A patent/JP6116625B2/ja active Active
- 2015-07-31 JP JP2015151584A patent/JP6101316B2/ja active Active
-
2016
- 2016-02-08 ZA ZA2016/00849A patent/ZA201600849B/en unknown
- 2016-02-08 ZA ZA2016/00847A patent/ZA201600847B/en unknown
- 2016-05-17 AU AU2016203217A patent/AU2016203217B2/en active Active
- 2016-05-17 AU AU2016203216A patent/AU2016203216B2/en active Active
- 2016-05-17 AU AU2016203214A patent/AU2016203214B2/en active Active
- 2016-05-17 AU AU2016203215A patent/AU2016203215B2/en active Active
- 2016-09-07 IL IL247673A patent/IL247673B/en unknown
- 2016-09-07 IL IL247676A patent/IL247676A/en active IP Right Grant
- 2016-09-07 IL IL247675A patent/IL247675B/en unknown
- 2016-09-07 IL IL247674A patent/IL247674B/en active IP Right Grant
- 2016-10-24 US US15/332,717 patent/US10015489B2/en active Active
-
2017
- 2017-03-24 JP JP2017059314A patent/JP6367413B2/ja active Active
-
2018
- 2018-05-22 CY CY20181100538T patent/CY1120400T1/el unknown
- 2018-06-07 US US16/002,904 patent/US10623732B2/en active Active
- 2018-07-02 HR HRP20181016TT patent/HRP20181016T1/hr unknown
-
2020
- 2020-03-24 US US16/828,340 patent/US10917640B2/en active Active
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
BR122020014288B1 (pt) | Método para gerar um bloco reconstruído | |
TWI709334B (zh) | 對視頻資料解碼的方法 | |
BR112014007869B1 (pt) | Método para gerar um bloco reconstruído |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
B09A | Decision: intention to grant [chapter 9.1 patent gazette] | ||
B16A | Patent or certificate of addition of invention granted [chapter 16.1 patent gazette] |
Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 02/11/2012, OBSERVADAS AS CONDICOES LEGAIS. |
|
B25A | Requested transfer of rights approved |
Owner name: GENSQUARE LLC (KR) |