BR122020014037B1 - Método de quantizar inversamente um bloco quantizado - Google Patents
Método de quantizar inversamente um bloco quantizado Download PDFInfo
- Publication number
- BR122020014037B1 BR122020014037B1 BR122020014037-2A BR122020014037A BR122020014037B1 BR 122020014037 B1 BR122020014037 B1 BR 122020014037B1 BR 122020014037 A BR122020014037 A BR 122020014037A BR 122020014037 B1 BR122020014037 B1 BR 122020014037B1
- Authority
- BR
- Brazil
- Prior art keywords
- quantization
- quantization parameter
- unit
- mode
- intraprediction
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000003874 inverse correlation nuclear magnetic resonance spectroscopy Methods 0.000 title 1
- 238000013139 quantization Methods 0.000 claims abstract description 318
- 239000011159 matrix material Substances 0.000 claims description 28
- 238000010408 sweeping Methods 0.000 claims 1
- 230000011664 signaling Effects 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 10
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 9
- 238000012805 post-processing Methods 0.000 description 7
- 238000010276 construction Methods 0.000 description 6
- 230000007423 decrease Effects 0.000 description 4
- 238000001914 filtration Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
- H04N19/126—Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/91—Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/463—Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression Of Band Width Or Redundancy In Fax (AREA)
- Auxiliary Devices For Music (AREA)
Abstract
É fornecido um método que restaura um parâmetro de quantização diferencial de uma unidade de codificação atual, gera um preditor de parâmetro de quantização da unidade de codificação atual usando um ou dois parâmetros de quantização de um parâmetro de quantização à esquerda, um parâmetro de quantização acima e um parâmetro de quantização anterior e gera um parâmetro de quantização da unidade de codificação atual usando o parâmetro de quantização diferencial e o preditor de parâmetro de quantização, em que um tamanho mínimo de unidade de quantização é ajustado por imagem. Portanto, a complexidade do aparelho de codificação e decodificação é reduzida ao ajustar o tamanho mínimo da unidade de quantização. Também, eficiência de codificação é melhorada ao codificar o parâmetro de quantização usando uma pluralidade parâmetros de quantização e ao sinalizar o tamanho mínimo da unidade de quantização por imagem
Description
[001] A presente invenção diz respeito a um método e a um aparelho de derivar um parâmetro de quantização, e mais particularmente a um método e aparelho de codificar e decodificar um parâmetro de quantização ao gerar um preditor de parâmetro de quantização similar ao parâmetro de quantização usando parâmetro de quantização vizinho.
[002] Em H.264/MPEG-4 AVC, uma imagem é dividida em macroblocos, os respectivos macroblocos são codificados ao gerar um bloco de predição usando interpredi- ção ou intrapredição. A diferença entre um bloco original e o bloco de predição é transformada para gerar um bloco transformado, e o bloco transformado é quantizado usando um parâmetro de quantização e matriz de quantização. O parâmetro de quan- tização é ajustado por macrobloco e é codificado usando um parâmetro de quantiza- ção anterior como um preditor de parâmetro de quantização.
[003] Entretanto, em HEVC (Codificação de Vídeo de Alta Eficiência) em construção vários tamanhos de unidade de codificação são introduzidos para obter o dobro de eficiência de compressão. A unidade de codificação tem uma função similar à do macrobloco da H.264.
[004] Mas, se o parâmetro de quantização for ajustado por unidade de codificação, o número de parâmetros de quantização a ser codificados aumenta à medida que o tamanho da unidade de codificação é menor. Portanto, ajustar parâmetro de quanti- zação por unidade de codificação resulta em maior quantidade de bits de codificação exigidos para codificar o parâmetro de quantização, o que degrada a eficiência de codificação. Também, por causa de o uso de vários tamanhos de unidade de codificação tornar a correlação entre o parâmetro de quantização e o parâmetro de quantização anterior mais frágil que aquela da H.264, um novo método de codificar e decodificar o parâmetro de quantização é exigido para vários tamanhos da unidade de codificação.
[005] A presente invenção diz respeito a um método de restaurar um parâmetro de quantização diferencial de uma unidade de codificação atual, gerar um preditor de parâmetro de quantização da unidade de codificação atual, e gerar um parâmetro de quantização da unidade de codificação atual usando o parâmetro de quantização diferencial e o preditor de parâmetro de quantização.
[006] Um aspecto da presente invenção fornece a método de decodificar parâmetro de quantização de uma unidade de codificação atual, compreendendo: restaurar um parâmetro de quantização diferencial de uma unidade de codificação atual, gerar um preditor de parâmetro de quantização da unidade de codificação atual, e gerar um parâmetro de quantização da unidade de codificação atual usando o parâmetro de quantização diferencial e o preditor de parâmetro de quantização, em que o preditor de parâmetro de quantização é gerado usando um ou dois parâmetros de quantização de um parâmetro de quantização à esquerda, um parâmetro de quantização acima e um parâmetro de quantização anterior.
[007] Um método de acordo com a presente invenção restaura um parâmetro de quantização diferencial de uma unidade de codificação atual, gera um preditor de parâmetro de quantização da unidade de codificação atual usando um ou dois parâmetros de quantização de um parâmetro de quantização à esquerda, um parâmetro de quantização acima e um parâmetro de quantização anterior, e gera um parâmetro de quantização da unidade de codificação atual usando o parâmetro de quantização diferencial e o preditor de parâmetro de quantização, em que um tamanho mínimo de unidade de quantização é ajustado por imagem. Portanto, a complexidade do aparelho de codificação e decodificação é reduzida ao ajustar o tamanho mínimo da unidade de quantização. Também, eficiência de codificação é melhorada ao codificar o parâmetro de quantização usando uma pluralidade parâmetros de quantização e ao sinalizar o tamanho mínimo da unidade de quantização por imagem.
[008] A figura 1 é um diagrama de blocos de um aparelho de codificação de imagem de acordo com a presente invenção.
[009] A figura 2 é um diagrama conceitual ilustrando modos de intrapredição de acordo com a presente invenção.
[010] A figura 3 é um fluxograma ilustrando um método de codificar parâmetro de quantização de acordo com a presente invenção.
[011] A figura 4 é um diagrama de blocos de um aparelho de decodificação de imagem de acordo com a presente invenção.
[012] A figura 5 é um fluxograma ilustrando um método de gerar um bloco de predição em intrapredição de acordo com a presente invenção.
[013] A figura 6 é um fluxograma ilustrando um procedimento de restaurar modo de intrapredição de acordo com a presente invenção.
[014] A figura 7 é um diagrama de blocos ilustrando um aparelho de gerar um bloco de predição em intrapredição de acordo com a presente invenção.
[015] A figura 8 é um diagrama conceitual ilustrando posições de pixels de referência de um bloco atual de acordo com a presente invenção.
[016] A figura 9 é um fluxograma ilustrando um método de decodificar parâmetro de quantização de acordo com a presente invenção.
[017] Em seguida, várias modalidades da presente invenção serão descritas detalhadamente com referência aos desenhos anexos. Entretanto, a presente invenção não está limitada às modalidades exemplares reveladas a seguir, mas pode ser implementada em vários tipos. Por esta razão muitas outras modificações e variações da presente invenção são possíveis, e é para ser entendido que dentro do escopo do conceito revelado a presente invenção pode ser praticada de outro modo a não ser tal como descrito especificamente.
[018] A figura 1 é um diagrama de blocos de um aparelho de codificação de imagem 100 de acordo com a presente invenção.
[019] Referindo-se à figura 1, o aparelho de codificação de imagem 100 de acordo com a presente invenção inclui uma unidade de divisão de imagem 101, uma unidade de transformada 103, uma unidade de quantização 104, uma unidade de varredura 105, uma unidade de codificação de entropia 106, uma unidade de quantização inversa 107, uma unidade de transformada inversa 108, uma unidade de pós-processa- mento 110, uma unidade de armazenamento de imagens 111, uma unidade de intra- predição 112, uma unidade de interpredição 113, um subtrator 102 e um somador 109.
[020] A unidade de divisão de imagem 101 divide uma imagem ou uma fatia em uma pluralidade de unidades de codificação maiores (LCUs), e divide cada LCU em uma ou mais unidades de codificação. A unidade de divisão de imagem 101 determina modo de predição de cada unidade de codificação e um tamanho de unidade de predição e um tamanho de unidade de transformada.
[021] Uma LCU inclui uma ou mais unidades de codificação. A LCU tem uma estrutura de árvore quadrada recursiva para especificar uma estrutura de divisão. Informação especificando o tamanho máximo e o tamanho mínimo da unidade de codificação é incluída em um conjunto de parâmetros de sequência. A estrutura de divisão é especificada por meio de uma ou mais sinalizações de unidade de codificação de divisão (split_cu_flags). A unidade de codificação tem um tamanho de 2Nx2N.
[022] Uma unidade de codificação inclui uma ou mais unidades de predição. Em intrapredição, o tamanho da unidade de predição é 2Nx2N ou NxN. Em interpredição, o tamanho da unidade de predição é 2Nx2N, 2NxN, Nx2N ou NxN. Quando a unidade de predição é uma partição assimétrica em interpredição, o tamanho da unidade de predição também pode ser um de hNx2N, (2-h)Nx2N, 2NxhN e 2Nx(2-h)N. O valor de h é 1/2.
[023] Uma unidade de codificação inclui uma ou mais unidades de transformada. A unidade de transformada tem uma estrutura de árvore quadrada recursiva para especificar uma estrutura de divisão. A estrutura de divisão é especificada por meio de uma ou mais sinalizações de unidade de transformada de divisão (split_tu_flags). Informação especificando o tamanho máximo e o tamanho mínimo da unidade de transformada é incluída em um conjunto de parâmetros de sequência.
[024] A unidade de intrapredição 112 determina um modo de intrapredição de uma unidade de predição atual e gera um ou mais blocos de predição usando o modo de intrapredição. O bloco de predição tem o mesmo tamanho da unidade de transfor-mada. A unidade de intrapredição 112 gera pixels de referência se não existirem pixels de referência disponíveis de um bloco atual, filtra adaptativamente os pixels de refe-rência do bloco atual de acordo com o tamanho do bloco atual e o modo de intrapre- dição, e gera um bloco de predição do bloco atual. O bloco atual tem o mesmo tamanho do bloco de predição.
[025] A figura 2 é um diagrama conceitual ilustrando modos de intrapredição de acordo com a presente invenção. Tal como mostrado na figura 2, o número de modos de intrapredição é 35. O modo DC e o modo planar são modos de intrapredição não direcionais e os outros são modos de intrapredição direcionais.
[026] A unidade de interpredição 113 determina informação de movimento da unidade de predição atual usando uma ou mais imagens de referência armazenadas na unidade de armazenamento de imagens 111, e gera um bloco de predição da unidade de predição. A informação de movimento inclui um ou mais índices de imagem de referência e um ou mais vetores de movimento.
[027] A unidade de transformada 103 transforma sinais residuais gerados usando um bloco original e um bloco de predição para gerar um bloco transformado. Os sinais residuais são transformados em unidades de transformada. Um tipo de transformada é determinado pelo modo de predição e pelo tamanho da unidade de transformada. O tipo de transformada é uma transformada de número inteiro baseada em DCT ou uma transformada de número inteiro baseada em DST.
[028] A unidade de quantização 104 determina um parâmetro de quantização para quantizar o bloco transformado. O parâmetro de quantização é um tamanho de etapa de quantização. O parâmetro de quantização é determinado por unidade de quantiza- ção tendo um tamanho de unidade de codificação igual ou maior que um tamanho de referência. O tamanho de referência é um tamanho mínimo da unidade de quantiza- ção. Se um tamanho da unidade de codificação for igual ou maior que o tamanho mínimo da unidade de quantização, a unidade de codificação se torna a unidade de quantização. Uma pluralidade de unidades de codificação pode ser incluída na unidade de quantização mínima. O tamanho mínimo da unidade de quantização é um dos tamanhos admissíveis da unidade de codificação.
[029] A unidade de quantização 104 gera um preditor de parâmetro de quantização e gera um parâmetro de quantização diferencial ao subtrair o preditor de parâmetro de quantização do parâmetro de quantização. O parâmetro de quantização diferencial é codificado e transmitido para o decodificador. Se não existirem sinais residuais a ser transmitidos dentro da unidade de codificação, o parâmetro de quantização diferencial da unidade de codificação pode não ser transmitido.
[030] O preditor de parâmetro de quantização é gerado ao usar parâmetros de quantização de unidades de codificação vizinhas e/ou um parâmetro de quantização de unidade de codificação anterior.
[031] Em um exemplo, a unidade de quantização 104 recupera sequencialmente um parâmetro de quantização à esquerda, um parâmetro de quantização acima e um parâmetro de quantização acima à esquerda nesta ordem, e gera o preditor de parâmetro de quantização usando um ou dois parâmetros de quantização disponíveis. Por exemplo, uma média dos dois primeiros parâmetros de quantização disponíveis recuperados nessa ordem é definida como o preditor de parâmetro de quantização quando pelo menos dois parâmetros de quantização estão disponíveis. Quando somente um parâmetro de quantização está disponível, o parâmetro de quantização disponível é definido como o preditor de parâmetro de quantização. O parâmetro de quantização à esquerda é um parâmetro de quantização de uma unidade de codificação vizinha à esquerda. O parâmetro de quantização acima é um parâmetro de quantização de uma unidade de codificação vizinha acima. O parâmetro de quantização acima à esquerda é um parâmetro de quantização de uma unidade de codificação vizinha acima à es-querda.
[032] Em um outro exemplo, a unidade de quantização 104 recupera sequencialmente um parâmetro de quantização à esquerda, um parâmetro de quantização acima e um parâmetro de quantização anterior nesta ordem, e gera o preditor de parâmetro de quantização usando um ou dois parâmetros de quantização disponíveis. Uma média dos dois primeiros parâmetros de quantização disponíveis recuperados nessa ordem é definida como o preditor de parâmetro de quantização quando pelo menos dois parâmetros de quantização estão disponíveis. Quando somente um parâmetro de quantização está disponível, o disponível parâmetro de quantização é definido como o preditor de parâmetro de quantização. Isto é, se ambos de o parâmetro de quanti- zação à esquerda e o parâmetro de quantização acima estiverem disponíveis, a média entre o parâmetro de quantização à esquerda e o parâmetro de quantização acima é definida como o preditor de parâmetro de quantização. Se um de o parâmetro de quantização à esquerda e o parâmetro de quantização acima estiver disponível, a média entre o parâmetro de quantização disponível e o parâmetro de quantização anterior é definida como o preditor de parâmetro de quantização. Se ambos de o parâmetro de quantização à esquerda e o parâmetro de quantização acima estiverem indisponíveis, o parâmetro de quantização anterior é definido como o preditor de parâmetro de quantização. O parâmetro de quantização anterior é um parâmetro de quantização de uma unidade de codificação anterior na ordem de codificação. A média é arredondada.
[033] A unidade de quantização 104 quantiza o bloco transformado usando uma matriz de quantização e o parâmetro de quantização para gerar um bloco quantizado. O bloco quantizado é fornecido para a unidade de quantização inversa 107 e para a unidade de varredura 105.
[034] A unidade de varredura 105 determina um padrão de varredura e aplica o padrão de varredura ao bloco quantizado. Quando CABAC (Codificação Aritmética Binária Adaptativa de Contexto) é usada para codificação de entropia, o padrão de varredura é determinado como se segue.
[035] Em intrapredição, a distribuição dos coeficientes de transformada quantiza- dos varia de acordo com o modo de intrapredição e o tamanho da unidade de transformada. Assim, o padrão de varredura é determinado pelo modo de intrapredição e pelo tamanho da unidade de transformada. O padrão de varredura é selecionado entre uma varredura diagonal, varredura vertical e varredura horizontal. Os coeficientes de transformada quantizados do bloco quantizado são divididos em sinalizações significativas, sinais de coeficiente e níveis de coeficiente. O padrão de varredura é aplicado às sinalizações significativas, sinais de coeficiente e aos níveis de coeficiente respectivamente.
[036] Quando o tamanho da unidade de transformada é igual ou menor que um primeiro tamanho, a varredura horizontal é selecionada para o modo vertical e um número predeterminado de modos de intrapredição vizinhos do modo vertical, a var-redura vertical é selecionada para o modo horizontal e o número predeterminado de modos de intrapredição vizinhos do modo horizontal, e a varredura diagonal é selecionada para os outros modos de intrapredição. O primeiro tamanho é 8x8.
[037] Quando o tamanho da unidade de transformada é maior que o primeiro tamanho, a varredura diagonal é selecionada para todos os modos de intrapredição.
[038] Em interpredição, a varredura diagonal é usada.
[039] Quando o tamanho da unidade de transformada é maior que um segundo tamanho, o bloco quantizado é dividido em uma pluralidade de subconjuntos e é varrido. O segundo tamanho é 4x4. O padrão de varredura para varrer os subconjuntos é o mesmo padrão de varredura para varrer coeficientes de transformada quantizados de cada subconjunto. Os coeficientes de transformada quantizados de cada subconjunto são varridos na direção contrária. Os subconjuntos também são varridos na direção contrária.
[040] A última posição diferente de zero é codificada e transmitida para o decodifi- cador. A última posição diferente de zero especifica posição do último coeficiente de transformada quantizado diferente de zero dentro da unidade de transformada. Sinalizações de subconjuntos diferentes de zero são determinadas e codificadas. A sinalização de subconjunto diferente de zero indica se o subconjunto contém coeficientes diferentes de zero ou não. A sinalização de subconjunto diferente de zero não é definida para um subconjunto cobrindo um coeficiente DC e um subconjunto cobrindo último coeficiente diferente de zero.
[041] A unidade de quantização inversa 107 quantiza inversamente os coeficientes de transformada quantizados do bloco quantizado.
[042] A unidade de transformada inversa 108 transforma inversamente o bloco quantizado inverso para gerar sinais residuais do domínio espacial.
[043] O somador 109 gera um bloco reconstruído ao somar o bloco residual e o bloco de predição.
[044] A unidade de pós-processamento 110 executa um processo de filtragem redutora de blocagem para remover artefato de blocagem gerado em uma imagem reconstruída.
[045] A unidade de armazenamento de imagens 111 recebe imagem pós-proces- sada da unidade de pós-processamento 110, e armazena a imagem em unidades de imagem. Uma imagem pode ser um quadro ou um campo.
[046] A unidade de codificação de entropia 106 codifica por entropia a informação de coeficiente unidimensional recebida da unidade de varredura 105, informação de intrapredição recebida da unidade de intrapredição 112, informação de movimento recebida da unidade de interpredição 113 e assim por diante.
[047] A figura 3 é um fluxograma ilustrando um método de codificar parâmetro de quantização de acordo com a presente invenção.
[048] Um tamanho mínimo da unidade de quantização é determinado (S110). O tamanho mínimo da unidade de quantização é igual a um tamanho de LCU ou um tamanho de sub-bloco de LCU. O tamanho mínimo da unidade de quantização é determinado por imagem.
[049] Um parâmetro de quantização é determinado (S120). O parâmetro de quan- tização é determinado por unidade de quantização. Se o tamanho da unidade de codificação atual for igual ou maior que o tamanho mínimo da unidade de quantização, a unidade de codificação atual se torna a unidade de quantização. Se a unidade de quantização mínima incluir múltiplas unidades de codificação, o parâmetro de quanti- zação é determinado para todas as unidades de codificação dentro da unidade de quantização mínima.
[050] Um preditor de parâmetro de quantização é gerado (S130). O preditor de parâmetro de quantização também é determinado por unidade de quantização. Se o tamanho da unidade de codificação atual for igual ou maior que o tamanho mínimo da unidade de quantização, o parâmetro de quantização para a unidade de codificação atual é gerado. Se a unidade de quantização mínima incluir uma pluralidade de unidades de codificação, o preditor de parâmetro de quantização para a primeira unidade de codificação na ordem de codificação é determinado e usado para as unidades de codificação remanescentes dentro da unidade de quantização mínima.
[051] O parâmetro de quantização é gerado ao usar parâmetros de quantização de unidades de codificação vizinhas e parâmetro de quantização de unidade de codificação anterior.
[052] Em um exemplo, um parâmetro de quantização à esquerda, um parâmetro de quantização acima e um parâmetro de quantização acima à esquerda são recuperados sequencialmente nesta ordem, e o preditor de parâmetro de quantização é gerado usando um ou dois parâmetros de quantização disponíveis. Por exemplo, uma média dos dois primeiros parâmetros de quantização disponíveis recuperados nessa ordem é definida como o preditor de parâmetro de quantização quando pelo menos dois parâmetros de quantização estão disponíveis. Quando somente um parâmetro de quan- tização está disponível, o parâmetro de quantização disponível é definido como o pre- ditor de parâmetro de quantização. O parâmetro de quantização à esquerda é um parâmetro de quantização de uma unidade de codificação vizinha à esquerda. O parâmetro de quantização acima é um parâmetro de quantização de uma unidade de codificação vizinha acima. O parâmetro de quantização acima à esquerda é um parâmetro de quantização de uma unidade de codificação vizinha acima à esquerda.
[053] Em um outro exemplo, um parâmetro de quantização à esquerda, um parâmetro de quantização acima e um parâmetro de quantização anterior são recuperados sequencialmente nesta ordem, e o preditor de parâmetro de quantização é gerado usando um ou dois parâmetros de quantização disponíveis. Uma média dos dois primeiros parâmetros de quantização disponíveis recuperado nessa ordem é definida como o preditor de parâmetro de quantização quando pelo menos dois parâmetros de quantização estão disponíveis. Quando somente um parâmetro de quantização está disponível, o parâmetro de quantização disponível é definido como o preditor de parâmetro de quantização. Isto é, se ambos de o parâmetro de quantização à esquerda e o parâmetro de quantização acima estiverem disponíveis, a média entre o parâmetro de quantização à esquerda e o parâmetro de quantização acima é definida como o preditor de parâmetro de quantização. Se um de o parâmetro de quantização à esquerda e o parâmetro de quantização acima estiver disponível, a média entre o parâmetro de quantização disponível e o parâmetro de quantização anterior é definida como o preditor de parâmetro de quantização. Se ambos de o parâmetro de quantiza- ção à esquerda e o parâmetro de quantização acima estiverem indisponíveis, o parâmetro de quantização anterior é definido como o preditor de parâmetro de quantiza- ção. O parâmetro de quantização anterior é um parâmetro de quantização de uma unidade de codificação anterior na ordem de codificação. A média é arredondada.
[054] Um parâmetro de quantização diferencial (dQP) é gerado ao usar o parâmetro de quantização da unidade de codificação atual e o preditor de parâmetro de quanti- zação da unidade de codificação atual (S140).
[055] O parâmetro de quantização diferencial é codificado por entropia (S150). O dQP é convertido em um valor absoluto do dQP e em uma sinalização evidenciando o sinal do dQP. O valor absoluto do dQP é binarizado como unário truncado. Então, o valor absoluto e a sinalização são codificados aritmeticamente. Se o valor absoluto for zero, a sinalização não existe.
[056] Entretanto, o tamanho mínimo da unidade de quantização também é sinalizado para um aparelho de decodificação.
[057] Duas etapas são exigidas para sinalizar o tamanho mínimo da unidade de quantização no HM atual (Modelo de Teste HEVC) em construção. Primeiramente, é determinado se o parâmetro de quantização é ajustado por LCU ou por sub-bloco de LCU em nível de sequência, e se for determinado que o parâmetro de quantização é ajustado por sub-bloco de LCU em nível de sequência, então o tamanho mínimo da unidade de quantização é determinado em nível de imagem. Um primeiro parâmetro (cu_qp_delta_enabled_flag) indicando se o parâmetro de quantização é ajustado por LCU ou por sub-bloco de LCU é incluído no SPS (conjunto de parâmetros de sequência). Se o primeiro parâmetro indicar que o parâmetro de quantização é ajustado por sub-bloco de LCU, um segundo parâmetro (max_cu_qp_delta_depth) é incluído no PPS (conjunto de parâmetros de imagem). O segundo parâmetro especifica o tama-nho mínimo da unidade de quantização menor que o tamanho de LCU. Portanto, complexidade de processo de codificação aumenta e dois parâmetros devem ser transmitidos se o tamanho mínimo da unidade de quantização for usado em pelo menos uma imagem.
[058] Na presente invenção, é omitido determinar se o tamanho mínimo da unidade de quantização é menor que o tamanho de LCU ou não em nível de sequência. Isto é, o tamanho mínimo da unidade de quantização é determinado para cada imagem. Portanto, um parâmetro (por exemplo, cu_qp_delta_enabled_info) pode ser usado para especificar o tamanho mínimo da unidade de quantização. O parâmetro especi-fica profundidade da unidade de quantização mínima. O tamanho mínimo da unidade de quantização pode ser igual a um tamanho de LCU ou um tamanho de sub-bloco de LCU. Desta maneira, os bits de codificação exigidos para sinalizar o tamanho mínimo da unidade de quantização diminuem e a complexidade de processo de codificação também diminui.
[059] Uma matriz de quantização predeterminada e uma matriz de quantização definida por usuário podem ser usadas para quantizar o bloco transformado. Quando uma ou mais matrizes de quantização definidas por usuário são usadas, a uma ou mais matrizes de quantização definidas por usuário devem ser incluídas no SPS ou PPS. Para reduzir bits de sinalização da matriz de quantização definida por usuário, os coeficientes da matriz de quantização definida por usuário são codificados usando DPCM (modulação por código de pulso diferencial). Uma varredura diagonal é aplicada aos coeficientes para DPCM.
[060] Quando um tamanho da matriz de quantização definida por usuário é maior que um tamanho predeterminado, os coeficientes da matriz de quantização definida por usuário são subamostrados para reduzir os bits de sinalização e então codificados usando DPCM. O tamanho predeterminado pode ser 8x8. Por exemplo, se o tamanho da matriz de quantização definida por usuário for 16x16, coeficientes a não ser coefi-ciente DC da matriz de quantização definida por usuário são subamostrados usando subamostragem de 4:1. O coeficiente DC é sinalizado separadamente da matriz su- bamostrada.
[061] A figura 4 é um diagrama de blocos de um aparelho de decodificação de imagem 200 de acordo com a presente invenção.
[062] O aparelho de decodificação de imagem 200 de acordo com a presente invenção inclui uma unidade de decodificação de entropia 201, uma unidade de varredura inversa 202, uma unidade de quantização inversa 203, uma unidade de transfor-mada inversa 204, um somador 205, uma unidade de pós-processamento 206, uma unidade de armazenamento de imagens 207, uma unidade de intrapredição 208 e uma unidade de interpredição 209.
[063] A unidade de decodificação de entropia 201 extrai a informação de intrapre- dição, a informação de interpredição e a informação de coeficiente unidimensional de um fluxo de bits recebido. A unidade de decodificação de entropia 201 transmite a informação de interpredição para a unidade de interpredição 209, a informação de intrapredição para a unidade de intrapredição 208 e a informação de coeficiente para a unidade de varredura inversa 202.
[064] A unidade de varredura inversa 202 usa um padrão de varredura inversa para gerar bloco quantizado bidimensional. É suposto que CABAC é usada como método de codificação de entropia. O padrão de varredura inversa é uma de a varredura diagonal, a varredura vertical e a varredura horizontal.
[065] Em intrapredição, o padrão de varredura inversa é determinado pelo modo de intrapredição e pelo tamanho da unidade de transformada. O padrão de varredura inversa é selecionado entre uma varredura diagonal, varredura vertical e varredura horizontal. O padrão de varredura inversa selecionado é aplicado às sinalizações sig-nificativas, aos sinais de coeficiente e aos níveis de coeficiente respectivamente para gerar o bloco quantizado.
[066] Quando o tamanho da unidade de transformada é igual ou menor que o primeiro tamanho, a varredura horizontal é selecionada para o modo vertical e um número predeterminado de modos de intrapredição vizinhos do modo vertical, a varre-dura vertical é selecionada para o modo horizontal e o número predeterminado de modos de intrapredição vizinhos do modo horizontal, e a varredura diagonal é selecionada para os outros modos de intrapredição. O primeiro tamanho é 8x8.
[067] Quando o tamanho da unidade de transformada é maior que o primeiro tamanho, a varredura diagonal é selecionada para todos os modos de intrapredição.
[068] Em interpredição, a varredura diagonal é usada.
[069] Quando o tamanho da unidade de transformada é maior que o segundo tamanho, as sinalizações significativas, os sinais de coeficiente e os níveis de coeficiente são varridos inversamente na unidade do subconjunto para gerar subconjuntos. E os subconjuntos são varridos inversamente para gerar o bloco quantizado. O segundo tamanho é 4x4.
[070] O padrão de varredura inversa usado para gerar cada subconjunto é o mesmo padrão de varredura inversa usado para gerar o bloco quantizado. As sinalizações significativas, os sinais de coeficiente e os níveis de coeficiente são varridos na direção contrária. Os subconjuntos também são varridos na direção contrária.
[071] A última posição diferente de zero e as sinalizações de subconjuntos diferentes de zero são recebidas do codificador. A última posição diferente de zero é usada para determinar o número de subconjuntos a ser gerados. As sinalizações de subconjuntos diferentes de zero são usadas para determinar os subconjuntos a ser gerados ao aplicar o padrão de varredura inversa. O subconjunto cobrindo o coeficiente DC e o subconjunto cobrindo o último coeficiente diferente de zero são gerados usando o padrão de varredura inversa por causa de as sinalizações de subconjuntos diferentes de zero para um subconjunto cobrindo um coeficiente DC e de um subconjunto cobrindo último coeficiente diferente de zero não serem transmitidas.
[072] A unidade de quantização inversa 203 recebe o parâmetro de quantização diferencial da unidade de decodificação de entropia 201 e gera o preditor de parâmetro de quantização. O preditor de parâmetro de quantização é gerado por meio da mesma operação da unidade de quantização 104 da figura 1. Então, a unidade de quantização inversa 203 soma o parâmetro de quantização diferencial e o preditor de parâmetro de quantização para gerar o parâmetro de quantização da unidade de codificação atual. Se a unidade de codificação atual for igual ou maior que a unidade de quantiza- ção mínima e o parâmetro de quantização diferencial para a unidade de codificação atual não for recebido do codificador, o parâmetro de quantização diferencial é defi-nido para 0.
[073] A unidade de quantização inversa 203 quantiza inversamente o bloco quanti- zado.
[074] A unidade de transformada inversa 204 transforma inversamente o bloco quantizado inverso para restaurar um bloco residual. O tipo de transformada inversa é determinado adaptativamente de acordo com o modo de predição e o tamanho da unidade de transformada. O tipo de transformada inversa é a transformada de número inteiro baseada em DCT ou a transformada de número inteiro baseada em DST.
[075] A unidade de intrapredição 208 restaura o modo de intrapredição da unidade de predição atual usando a informação de intrapredição recebida, e gera um bloco de predição de acordo com o modo de intrapredição restaurado. O tamanho do bloco de predição é igual àquele da unidade de transformada. A unidade de intrapredição 208 gera pixels de referência se não existirem pixels de referência disponíveis de um bloco atual, e filtra adaptativamente os pixels de referência do bloco atual de acordo com o tamanho do bloco atual e o modo de intrapredição. O tamanho do bloco atual é igual àquele da unidade de transformada.
[076] A unidade de interpredição 209 restaura a informação de movimento da unidade de predição atual usando a informação de interpredição recebida, e gera um bloco de predição usando a informação de movimento.
[077] A unidade de pós-processamento 206 opera no mesmo modo que a unidade de pós-processamento 110 da figura 1.
[078] A unidade de armazenamento de imagens 207 recebe imagem pós-proces- sada da unidade de pós-processamento 206, e armazena a imagem em unidades de imagem. Uma imagem pode ser um quadro ou um campo.
[079] O somador 205 soma o bloco residual restaurado e um bloco de predição para gerar um bloco reconstruído.
[080] A figura 5 é um fluxograma ilustrando um método de decodificar parâmetro de quantização de acordo com a presente invenção.
[081] O tamanho mínimo da unidade de quantização é derivado (S210). O parâmetro (cu_qp_delta_enabled_info) especificando a profundidade da unidade de quanti- zação mínima é extraído de PPS. O tamanho mínimo da unidade de quantização é derivado por imagem como se segue:
[082] Log2(MinQUSize) = Log2(MaxCUSize)-cu_qp_delta_enabled_info
[083] O MinQUSize é o tamanho mínimo da unidade de quantização. O MaxCUSize é o tamanho de LCU.
[084] O parâmetro de quantização diferencial (dQP) da unidade de codificação atual é restaurado (S220). O dQP é restaurado por unidade de quantização. Por exemplo, se o tamanho da unidade de codificação atual for igual ou maior que o tamanho mínimo da unidade de quantização, o dQP é restaurado para a unidade de codificação atual. Se a unidade de codificação atual não contiver um dQP codificado, o dQP é definido para zero. Se a unidade de quantização incluir múltiplas unidades de codificação, uma primeira unidade de codificação contendo pelo menos um coeficiente diferente de zero na ordem de decodificação contém o dQP codificado.
[085] O dQP codificado é decodificado aritmeticamente para gerar um valor absoluto do dQP e uma sinalização evidenciando o sinal do dQP. O valor absoluto do dQP é sequência de bins (bin string) binarizada como unário truncado. Então, o dQP é restaurado da sequência de bins do valor absoluto e da sinalização. Se o valor absoluto for zero, a sinalização não existe.
[086] O preditor de parâmetro de quantização da unidade de codificação atual é gerado (S230). O preditor de parâmetro de quantização é gerado usando a mesma operação da etapa 130 da figura 3. Se uma unidade de quantização incluir múltiplas unidades de codificação, o preditor de parâmetro de quantização da primeira unidade de codificação na ordem de decodificação é gerado, e o gerado preditor de parâmetro de quantização é usado para todas as unidades de codificação dentro da unidade de quantização.
[087] O parâmetro de quantização é gerado usando o dQP e o preditor de parâmetro de quantização (S240).
[088] Entretanto, as matrizes de quantização definidas por usuário também são restauradas. Um conjunto das matrizes de quantização definidas por usuário é recebido do aparelho de codificação por meio do SPS ou do PPS. A matriz de quantização definida por usuário é restaurada usando DPCM inversa. A varredura diagonal é usada para a DPCM. Quando o tamanho da matriz de quantização definida por usuário é maior que 8x8, a matriz de quantização definida por usuário é restaurada por meio de superamostragem dos coeficientes da matriz de quantização de 8x8 recebida. O coeficiente DC da matriz de quantização definida por usuário é extraído do SPS ou do PPS. Por exemplo, se o tamanho da matriz de quantização definida por usuário for 16x16, coeficientes da matriz de quantização de 8x8 recebida são superamostrados usando superamostragem de 1:4.
[089] A figura 6 é um fluxograma ilustrando um método de gerar um bloco de predição em intrapredição de acordo com a presente invenção.
[090] Informação de intrapredição da unidade de predição atual é decodificada por entropia (S310).
[091] A informação de intrapredição inclui um indicador de grupo de modo e um índice de modo de predição. O indicador de grupo de modo é uma sinalização indicando se o modo de intrapredição da unidade de predição atual pertence a um grupo de modo mais provável (grupo MPM). Se a sinalização for 1, a unidade de intrapredi- ção da unidade de predição atual pertence ao grupo MPM. Se a sinalização for 0, a unidade de intrapredição da unidade de predição atual pertence a um grupo de modo residual. O grupo de modo residual inclui todos os modos de intrapredição a não ser os modos de intrapredição pertencendo ao grupo MPM. O índice de modo de predição especifica o modo de intrapredição da unidade de predição atual dentro do grupo especificado pelo indicador de grupo de modo.
[092] O modo de intrapredição da unidade de predição atual é derivado usando a informação de intrapredição (S320).
[093] A figura 7 é um fluxograma ilustrando um procedimento de derivar modo de intrapredição de acordo com a presente invenção. O modo de intrapredição da unidade de predição atual é restaurado usando as etapas ordenadas a seguir.
[094] O grupo MPM é construído usando modos de intrapredição das unidades de predição vizinhas (S321). Os modos de intrapredição do grupo MPM são determinados adaptativamente por meio de um modo de intrapredição à esquerda e de um modo de intrapredição acima. O modo de intrapredição à esquerda é o modo de intrapredi- ção da unidade de predição vizinha à esquerda, e o modo de intrapredição acima é o modo de intrapredição da unidade de predição vizinha acima. O grupo MPM é compreendido de três modos de intrapredição.
[095] Se a unidade de predição vizinha à esquerda ou acima não existir, o modo de intrapredição da unidade vizinha à esquerda ou acima é definido como indisponível. Por exemplo, se a unidade de predição atual estiver localizada no limite esquerdo ou superior de uma imagem, a unidade de predição vizinha à esquerda ou acima não existe. Se a unidade vizinha à esquerda ou acima estiver localizada dentro de outra fatia ou outra peça, o modo de intrapredição da unidade vizinha à esquerda ou acima é definido como indisponível. Se a unidade vizinha à esquerda ou acima estiver inter- codificada, o modo de intrapredição da unidade vizinha à esquerda ou acima é definido como indisponível. Se a unidade vizinha acima estiver localizada dentro de outra LCU, o modo de intrapredição da unidade vizinha à esquerda ou acima é definido como indisponível.
[096] Quando ambos de o modo de intrapredição à esquerda e o modo de intrapre- dição acima estão disponíveis e são diferentes um do outro, o modo de intrapredição à esquerda e o modo de intrapredição acima são incluídos no grupo MPM e um modo de intrapredição adicional é acrescentado ao grupo MPM. Índice 0 é designado para um modo de intrapredição de número de modo pequeno e índice 1 é designado para o outro. Ou índice 0 é designado para a modo de intrapredição à esquerda e índice 1 é designado para o modo de intrapredição acima. O modo de intrapredição acrescentado é determinado pelos modos de intrapredição à esquerda e acima como se segue.
[097] Se um dos modos de intrapredição à esquerda e acima for um modo não direcional e o outro for um modo direcional, o outro modo não direcional é acrescentado ao grupo MPM. Por exemplo, se o um dos modos de intrapredição à esquerda e acima for o modo DC, o modo planar é acrescentado ao grupo MPM. Se o um dos modos de intrapredição à esquerda e acima for o modo planar, o modo DC é acrescentado ao grupo MPM. Se ambos os modos de intrapredição à esquerda e acima forem modos não direcionais, o modo vertical é acrescentado ao grupo MPM. Se ambos os modos de intrapredição à esquerda e acima forem modos direcionais, o modo DC ou o modo planar é acrescentado ao grupo MPM.
[098] Quando somente um de o modo de intrapredição à esquerda e o modo de intrapredição acima está disponível, o modo de intrapredição disponível é incluído no grupo MPM e dois modos de intrapredição adicionais são acrescentados ao grupo MPM. Os dois modos de intrapredição acrescentados são determinados pelos modos de intrapredição disponíveis como se segue.
[099] Se o modo de intrapredição disponível for um modo não direcional, o outro modo não direcional e o modo vertical são acrescentados ao grupo MPM. Por exemplo, se o modo de intrapredição disponível for o modo DC, o modo planar e o modo vertical são acrescentados ao grupo MPM. Se o modo de intrapredição disponível for o modo planar, o modo DC e o modo vertical são acrescentados ao grupo MPM. Se o modo de intrapredição disponível for um modo direcional, dois modos não direcionais (modo DC e modo planar) são acrescentados ao grupo MPM.
[0100] Quando ambos de o modo de intrapredição à esquerda e o modo de intrapre- dição acima estão disponíveis e são iguais um ao outro, o modo de intrapredição disponível é incluído no grupo MPM e dois modos de intrapredição adicionais são acrescentados ao grupo MPM. Os dois modos de intrapredição acrescentados são determinados pelos modos de intrapredição disponíveis como se segue.
[0101] Se o modo de intrapredição disponível for um modo direcional, dois modos direcionais vizinhos são acrescentados ao grupo MPM. Por exemplo, se o modo de intrapredição disponível for o modo 23, o modo vizinho à esquerda (modo 1) e o modo vizinho à direita (modo 13) são acrescentados ao grupo MPM. Se o modo de intrapre- dição disponível for o modo 30, os dois modos vizinhos (modo 2 e modo 16) são acrescentados ao grupo MPM. Se o modo de intrapredição disponível for um modo não direcional, o outro modo não direcional e o modo vertical são acrescentados ao grupo MPM. Por exemplo, se o modo de intrapredição disponível for o modo DC, o modo planar e o modo vertical são acrescentados ao grupo MPM.
[0102] Quando ambos de o modo de intrapredição à esquerda e o modo de intrapre- dição acima estão indisponíveis, três modos de intrapredição adicionais são acrescentados ao grupo MPM. Os três modos de intrapredição são o modo DC, o modo planar e o modo vertical. Índices 0, 1 e 2 são designados para os três modos de intra- predição na ordem de o modo DC, o modo planar e o modo vertical ou na ordem de o modo planar, o modo DC e o modo vertical.
[0103] É determinado se o indicador de grupo de modo indica o grupo MPM (S322).
[0104] Se o indicador de grupo de modo indicar o grupo MPM, a intrapredição do grupo MPM especificado pelo índice de modo de predição é definida como o modo de intrapredição da unidade de predição atual (S323).
[0105] Se o indicador de grupo de modo não indicar o grupo MPM, a intrapredição do grupo de modo residual especificado pelo índice de modo de predição é definida como o modo de intrapredição da unidade de predição atual (S324). O modo de intra- predição da unidade atual é derivado usando o índice de modo de predição e os modos de intrapredição do grupo MPM tal como as etapas ordenadas a seguir.
[0106] Entre os três modos de intrapredição do grupo MPM, o modo de intrapredição com número de modo mais baixo é definido para um primeiro candidato, o modo de intrapredição com número de modo intermediário é definido para um segundo candidato, e o modo de intrapredição com número de modo mais alto é definido para um terceiro candidato.
[0107] 1) O índice de modo de predição é comparado com o primeiro candidato. Se o índice de modo de predição for igual ou maior que o primeiro candidato do grupo MPM, o valor do índice de modo de predição é aumentado por um. De outro modo, o valor do índice de modo de predição é mantido.
[0108] 2) O índice de modo de predição é comparado com o segundo candidato. Se o índice de modo de predição for igual ou maior que o segundo candidato do grupo MPM, o valor do índice de modo de predição é aumentado por um. De outro modo, o valor do índice de modo de predição é mantido.
[0109] 3) O índice de modo de predição é comparado com o terceiro candidato. Se o índice de modo de predição for igual ou maior que o terceiro candidato do grupo MPM, o valor do índice de modo de predição é aumentado por um. De outro modo, o valor do índice de modo de predição é mantido.
[0110] 4) O valor do índice de modo de predição final é definido como o número de modo do modo de intrapredição da unidade de predição atual.
[0111] Um tamanho do bloco de predição é determinado com base na informação de tamanho de transformada especificando o tamanho da unidade de transformada (S330). A informação de tamanho de transformada pode ser uma ou mais split_trans- form_flags especificando o tamanho da unidade de transformada.
[0112] Se o tamanho da unidade de transformada for igual ao tamanho da unidade de predição atual, o tamanho do bloco de predição é igual ao tamanho da unidade de predição atual.
[0113] Se o tamanho da unidade de transformada for menor que o tamanho da unidade de predição atual, o tamanho do bloco de predição é igual ao tamanho da unidade de transformada. Neste caso, um processo de gerar um bloco reconstruído é executado em cada sub-bloco da unidade de predição atual. Isto é, um bloco de predição e um bloco residual de um sub-bloco atual são gerados e um bloco reconstruído de cada sub-bloco é gerado ao somar o bloco de predição e o bloco residual. Então, um bloco de predição, um bloco residual e um bloco reconstruído do próximo sub- bloco na ordem de decodificação são gerados. O modo de intrapredição restaurado é usado para gerar todos os blocos de predição de todos os sub-blocos. Alguns pixels do bloco reconstruído do sub-bloco atual são usados como pixels de referência do próximo sub-bloco. Portanto, é possível gerar um bloco de predição que é mais similar ao sub-bloco original.
[0114] A seguir, é determinado se todos os pixels de referência do bloco atual estão disponíveis, e pixels de referência são gerados se um ou mais pixels de referência estiverem indisponíveis (S340). O bloco atual é a unidade de predição atual ou o sub- bloco atual. O tamanho do bloco atual é o tamanho da unidade de transformada.
[0115] A figura 8 é um diagrama conceitual ilustrando as posições de pixels de referência do bloco atual de acordo com a presente invenção. Tal como mostrado na figura 8, os pixels de referência dos blocos atuais são compreendidos de pixels de referência acima localizados em (x=0, ..., 2N-1, y=-1), pixels de referência à esquerda localizados em (x=-1, y=0, ..., 2M-1) e um pixel de canto localizado em (x=-1, y=-1). N é a largura do bloco atual e M é a altura do bloco atual.
[0116] Se pixels reconstruídos não existirem em posições correspondentes ou pixels reconstruídos estiverem localizados dentro de uma outra fatia, os pixels de referência são definidos como indisponíveis. Em modo de intrapredição restringido (modo CIP), os pixels reconstruídos de modo inter também são definidos como indisponíveis.
[0117] Se um ou mais pixels de referência estiverem indisponíveis, um ou mais pixels de referência são gerados para o um ou mais pixels de referência indisponíveis como se segue.
[0118] Se todos os pixels de referência estiverem indisponíveis, o valor de 2L-1 é o substituto para os valores de todos os pixels de referência. O valor de L é o número de bits usados para representar valor de pixel de luminância.
[0119] Se pixels de referência disponíveis estiverem localizados somente em um lado do pixel de referência indisponível, o valor do pixel de referência mais próximo ao pixel indisponível é o substituto para o pixel de referência indisponível.
[0120] Se pixels de referência disponíveis estiverem localizados em ambos os lados do pixel de referência indisponível, o valor médio dos pixels de referência mais próximos ao pixel indisponível em cada lado ou o valor do pixel de referência mais próximo ao pixel indisponível em uma direção predeterminada é o substituto para cada pixel de referência indisponível.
[0121] A seguir, os pixels de referência são filtrados adaptativamente com base no modo de intrapredição e no tamanho do bloco atual (S350). O tamanho do bloco atual é o tamanho da unidade de transformada.
[0122] No modo DC os pixels de referência não são filtrados. No modo vertical e no modo horizontal os pixels de referência não são filtrados. Nos modos direcionais a não ser os modos vertical e horizontal, os pixels de referência são filtrados adaptativa- mente de acordo com o tamanho do bloco atual.
[0123] Se o tamanho do bloco atual for 4x4, os pixels de referência não são filtrados em todos os modos de intrapredição. Para os tamanhos 8x8, 16x16 e 32x32, o número de modo de intrapredição onde os pixels de referência são filtrados aumenta à medida que o tamanho do bloco atual se torna maior. Por exemplo, os pixels de referência não são filtrados no modo vertical e em um número predeterminado de modo de intra- predição vizinho do modo vertical. Os pixels de referência também não são filtrados no modo horizontal e no número predeterminado de modo de intrapredição vizinho do modo horizontal. O número predeterminado é um de 0~7 e diminui à medida que o tamanho do bloco atual aumenta.
[0124] A seguir, um bloco de predição do bloco atual é gerado usando os pixels de referência de acordo com o modo de intrapredição restaurado (S360).
[0125] No modo DC, o pixel de predição do bloco de predição que não é adjacente ao pixel de referência é gerado ao calcular a média dos N pixels de referência localizados em (x=0, ...N-1, y= -1) e dos M pixels de referência localizados em (x=-1, y=0, ...M-1). O pixel de predição adjacente ao pixel de referência é gerado usando o valor médio e um ou dois pixels de referência adjacentes.
[0126] No modo vertical, os pixels de predição que não são adjacentes ao pixel de referência à esquerda são gerados ao copiar o valor do pixel de referência vertical. Os pixels de predição que são adjacentes ao pixel de referência à esquerda são gerados pelo pixel de referência vertical e pela variância entre o pixel de canto e o pixel vizinho à esquerda.
[0127] No modo horizontal, os pixels de predição são gerados usando o mesmo método.
[0128] A figura 9 é um diagrama de blocos ilustrando um aparelho de gerar um bloco de predição em intrapredição de acordo com a presente invenção.
[0129] O aparelho 300 de acordo com a presente invenção inclui uma unidade de análise 310, uma unidade de decodificação de modo de predição 320, uma unidade de determinação de tamanho de predição 330, uma unidade de verificação de disponibilidade de pixels de referência 340, uma unidade de geração de pixels de referência 350, uma unidade de filtragem de pixels de referência 360 e uma unidade de geração de bloco de predição 370.
[0130] A unidade de análise 310 restaura a informação de intrapredição da unidade de predição atual do fluxo de bits.
[0131] A informação de intrapredição inclui o indicador de grupo de modo e um índice de modo de predição. O indicador de grupo de modo é uma sinalização indicando se o modo de intrapredição da unidade de predição atual pertence a um grupo de modo mais provável (grupo MPM). Se a sinalização for 1, a unidade de intrapredição da unidade de predição atual pertence ao grupo MPM. Se a sinalização for 0, a unidade de intrapredição da unidade de predição atual pertence a um grupo de modo residual. O grupo de modo residual inclui todos os modos de intrapredição a não ser os modos de intrapredição pertencendo ao grupo MPM. O índice de modo de predição especifica o modo de intrapredição da unidade de predição atual dentro do grupo especificado pelo indicador de grupo de modo.
[0132] A unidade de decodificação de modo de predição 320 inclui uma unidade de construção de grupo MPM 321 e uma unidade de restauração de modo de predição 322.
[0133] A unidade de construção de grupo MPM 321 constrói o grupo MPM da unidade de predição atual. O grupo MPM é construído usando modos de intrapredição das unidades de predição vizinhas. Os modos de intrapredição do grupo MPM são determinados adaptativamente por meio de um modo de intrapredição à esquerda e um modo de intrapredição acima. O modo de intrapredição à esquerda é o modo de intrapredição da unidade de predição vizinha à esquerda, e o modo de intrapredição acima é o modo de intrapredição da unidade de predição vizinha acima. O grupo MPM é compreendido de três modos de intrapredição.
[0134] A unidade de construção de grupo MPM 321 verifica a disponibilidade do modo de intrapredição à esquerda e do modo de intrapredição acima. Se a unidade de predição vizinha à esquerda ou acima não existir, o modo de intrapredição da unidade vizinha à esquerda ou acima é definido como indisponível. Por exemplo, se a unidade de predição atual estiver localizada no limite esquerdo ou superior de uma imagem, a unidade de predição vizinha à esquerda ou acima não existe. Se a unidade vizinha à esquerda ou acima estiver localizada dentro de outra fatia ou de outra peça, o modo de intrapredição da unidade vizinha à esquerda ou acima é definido como indisponível. Se a unidade vizinha à esquerda ou acima estiver intercodificada, o modo de intrapredição da unidade vizinha à esquerda ou acima é definido como indisponível. Se a unidade vizinha acima estiver localizada dentro de outra LCU, o modo de intra- predição da unidade vizinha à esquerda ou acima é definido como indisponível.
[0135] A unidade de construção de grupo MPM 321 constrói o grupo MPM como se segue.
[0136] Quando ambos de o modo de intrapredição à esquerda e o modo de intrapre- dição acima estão disponíveis e são diferentes um do outro, o modo de intrapredição à esquerda e o modo de intrapredição acima são incluídos no grupo MPM e um modo de intrapredição adicional é acrescentado ao grupo MPM. Índice 0 é designado para um modo de intrapredição de número de modo pequeno e índice 1 é designado para o outro. Ou índice 0 é designado para o modo de intrapredição à esquerda e índice 1 é designado para o modo de intrapredição acima. O modo de intrapredição acrescentado é determinado pelos modos de intrapredição à esquerda e acima como se segue.
[0137] Se um dos modos de intrapredição à esquerda e acima for um modo não direcional e o outro for um modo direcional, o outro modo não direcional é acrescentado ao grupo MPM. Por exemplo, se o um dos modos de intrapredição à esquerda e acima for o modo DC, o modo planar é acrescentado ao grupo MPM. Se o um dos modos de intrapredição à esquerda e acima for o modo planar, o modo DC é acrescentado ao grupo MPM. Se ambos os modos de intrapredição à esquerda e acima forem modos não direcionais, o modo vertical é acrescentado ao grupo MPM. Se ambos os modos de intrapredição à esquerda e acima forem modos direcionais, o modo DC ou o modo planar é acrescentado ao grupo MPM.
[0138] Quando somente um de o modo de intrapredição à esquerda e o modo de intrapredição acima está disponível, o modo de intrapredição disponível é incluído no grupo MPM e dois modos de intrapredição adicionais são acrescentados ao grupo MPM. Os dois modos de intrapredição acrescentados são determinados pelos modos de intrapredição disponíveis como se segue.
[0139] Se o modo de intrapredição disponível for um modo não direcional, o outro modo não direcional e o modo vertical são acrescentados ao grupo MPM. Por exemplo, se o modo de intrapredição disponível for o modo DC, o modo planar e o modo vertical são acrescentados ao grupo MPM. Se o modo de intrapredição disponível for o modo planar, o modo DC e o modo vertical são acrescentados ao grupo MPM. Se o modo de intrapredição disponível for um modo direcional, dois modos não direcionais (modo DC e modo planar) são acrescentados ao grupo MPM.
[0140] Quando ambos de o modo de intrapredição à esquerda e o modo de intrapre- dição acima estão disponíveis e são iguais um ao outro, o modo de intrapredição disponível é incluído no grupo MPM e dois modos de intrapredição adicionais são acrescentados ao grupo MPM. Os dois modos de intrapredição acrescentados são determinados pelos modos de intrapredição disponíveis como se segue.
[0141] Se o modo de intrapredição disponível for um modo direcional, dois modos direcionais vizinhos são acrescentados ao grupo MPM. Por exemplo, se o modo de intrapredição disponível for o modo 23, o modo vizinho à esquerda (modo 1) e o modo vizinho à direita (modo 13) são acrescentados ao grupo MPM. Se o modo de intrapre- dição disponível for o modo 30, os dois modos vizinhos (modo 2 e modo 16) são acrescentados ao grupo MPM. Se o modo de intrapredição disponível for um modo não direcional, o outro modo não direcional e o modo vertical são acrescentados ao grupo MPM. Por exemplo, se o modo de intrapredição disponível for o modo DC, o modo planar e o modo vertical são acrescentados ao grupo MPM.
[0142] Quando ambos de o modo de intrapredição à esquerda e o modo de intrapre- dição acima estão indisponíveis, três modos de intrapredição adicionais são acrescentados ao grupo MPM. Os três modos de intrapredição são o modo DC, o modo planar e o modo vertical. Índices 0, 1 e 2 são designados para os três modos de intra- predição na ordem de o modo DC, o modo planar e o modo vertical ou na ordem de o modo planar, o modo DC e o modo vertical.
[0143] A unidade de restauração de modo de predição 322 deriva o modo de intra- predição da unidade de predição atual usando o indicador de grupo de modo e o índice de modo de predição como se segue.
[0144] A unidade de restauração de modo de predição 322 determina se o indicador de grupo de modo indica o grupo MPM.
[0145] Se o indicador de grupo de modo indicar o grupo MPM, a unidade de restauração de modo de predição 322 determina a intrapredição do grupo MPM especificado pelo índice de modo de predição como o modo de intrapredição da unidade de predi-ção atual.
[0146] Se o indicador de grupo de modo não indicar o grupo MPM, a unidade de restauração de modo de predição 322 determina a intrapredição do grupo de modo residual especificado pelo índice de modo de predição como o modo de intrapredição da unidade de predição atual. O modo de intrapredição da unidade atual é derivado usando o índice de modo de predição e os modos de intrapredição do grupo MPM tal como as etapas ordenadas a seguir.
[0147] Entre os três modos de intrapredição do grupo MPM, o modo de intrapredição com número de modo mais baixo é definido para um primeiro candidato, o modo de intrapredição com número de modo intermediário é definido para um segundo candidato, e o modo de intrapredição com número de modo mais alto é definido para um terceiro candidato.
[0148] 1) O índice de modo de predição é comparado com o primeiro candidato. Se o índice de modo de predição for igual ou maior que o primeiro candidato do grupo MPM, o valor do índice de modo de predição é aumentado por um. De outro modo, o valor do índice de modo de predição é mantido.
[0149] 2) O índice de modo de predição é comparado com o segundo candidato. Se o índice de modo de predição for igual ou maior que o segundo candidato do grupo MPM, o valor do índice de modo de predição é aumentado por um. De outro modo, o valor do índice de modo de predição é mantido.
[0150] 3) O índice de modo de predição é comparado com o terceiro candidato. Se o índice de modo de predição for igual ou maior que o terceiro candidato do grupo MPM, o valor do índice de modo de predição é aumentado por um. De outro modo, o valor do índice de modo de predição é mantido.
[0151] 4) O valor do índice de modo de predição final é definido como o número de modo do modo de intrapredição da unidade de predição atual.
[0152] A unidade de determinação de tamanho de predição 330 determina o tamanho do bloco de predição com base na informação de tamanho de transformada especificando o tamanho da unidade de transformada. A informação de tamanho de transformada pode ser uma ou mais split_transform_flags especificando o tamanho da unidade de transformada.
[0153] Se o tamanho da unidade de transformada for igual ao tamanho da unidade de predição atual, o tamanho do bloco de predição é igual ao tamanho da unidade de predição atual.
[0154] Se o tamanho da unidade de transformada for menor que o tamanho da unidade de predição atual, o tamanho do bloco de predição é igual ao tamanho da unidade de transformada. Neste caso, um processo de gerar um bloco reconstruído é executado em cada sub-bloco da unidade de predição atual. Isto é, um bloco de predição e um bloco residual de um sub-bloco atual são gerados e um bloco reconstruído de cada sub-bloco é gerado ao somar o bloco de predição e o bloco residual. Então, um bloco de predição, um bloco residual e um bloco reconstruído do próximo sub- bloco na ordem de decodificação são gerados. O modo de intrapredição restaurado é usado para gerar todos os blocos de predição de todos os sub-bloco. Alguns pixels do bloco reconstruído do sub-bloco atual são usados como pixels de referência do próximo sub-bloco. Portanto, é possível gerar um bloco de predição que é mais similar ao sub-bloco original.
[0155] A unidade de verificação de disponibilidade de pixels de referência 340 determina se todos os pixels de referência do bloco atual estão disponíveis. O bloco atual é a unidade de predição atual ou o sub-bloco atual. O tamanho do bloco atual é o tamanho da unidade de transformada.
[0156] A unidade de geração de pixels de referência 350 gera pixels de referência se um ou mais pixels de referência do bloco atual estiverem indisponíveis.
[0157] Se todos os pixels de referência estiverem indisponíveis, o valor de 2L-1 é o substituto para os valores de todos os pixels de referência. O valor de L é o número de bits usados para representar valor de pixel de luminância.
[0158] Se pixels de referência disponíveis estiverem localizados somente em um lado do pixel de referência indisponível, o valor do pixel de referência mais próximo ao pixel indisponível é o substituto para o pixel de referência indisponível.
[0159] Se pixels de referência disponíveis estiverem localizados em ambos os lados do pixel de referência indisponível, o valor médio dos pixels de referência mais próximos ao pixel indisponível em cada lado ou o valor do pixel de referência mais próximo ao pixel indisponível em uma direção predeterminada é o substituto para cada pixel de referência indisponível.
[0160] A unidade de filtragem de pixels de referência 360 filtra adaptativamente os pixels de referência com base no modo de intrapredição e no tamanho do bloco atual.
[0161] No modo DC os pixels de referência não são filtrados. No modo vertical e no modo horizontal os pixels de referência não são filtrados. Nos modos direcionais a não ser os modos vertical e horizontal os pixels de referência são filtrados adaptativamente de acordo com o tamanho do bloco atual.
[0162] Se o tamanho do bloco atual for 4x4, os pixels de referência não são filtrados em todos os modos de intrapredição. Para os tamanhos 8x8, 16x16 e 32x32, o número de modo de intrapredição onde os pixels de referência são filtrados aumenta à medida que o tamanho do bloco atual se torna maior. Por exemplo, os pixels de referência não são filtrados no modo vertical e em um número predeterminado de modo de intra- predição vizinho do modo vertical. Os pixels de referência também são não filtrados no modo horizontal e no número predeterminado de modo de intrapredição vizinho do modo horizontal. O número predeterminado é um de 0~7 e diminui as o tamanho do bloco atual aumenta.
[0163] A unidade de geração de bloco de predição 370 gera um bloco de predição do bloco atual usando os pixels de referência de acordo com o modo de intrapredição restaurado.
[0164] No modo DC, o pixel de predição do bloco de predição que não é adjacente ao pixel de referência é gerado ao calcular a média dos N pixels de referência localizados em (x=0, ...N-1, y= -1) e dos M pixels de referência localizados em (x=-1, y=0, ...M-1). O pixel de predição adjacente ao pixel de referência é gerado usando o valor médio e um ou dois pixels de referência adjacentes.
[0165] No modo vertical, os pixels de predição que não são adjacentes ao pixel de referência à esquerda são gerados ao copiar o valor do pixel de referência vertical. Os pixels de predição que são adjacentes ao pixel de referência à esquerda são gerados pelo pixel de referência vertical e pela variância entre o pixel de canto e o pixel vizinho à esquerda.
[0166] No modo horizontal, os pixels de predição são gerados usando o mesmo método.
[0167] Embora a invenção tenha sido mostrada e descrita com referência para certas modalidades exemplares da mesma, será entendido pelos versados na técnica que várias mudanças em forma e detalhes podem ser feitas na mesma sem divergir do espírito e escopo da invenção tal como definida pelas reivindicações anexas.
Claims (8)
1. Método de quantizar inversamente um bloco quantizado, o método CARACTERIZADO pelo fato de que compreende: restaurar um parâmetro de quantização diferencial; gerar um preditor de parâmetro de quantização; gerar um parâmetro de quantização usando o parâmetro de quantização diferencial e o preditor de parâmetro de quantização; e quantizar inversamente o bloco quantizado usando o parâmetro de quantiza- ção e uma matriz de quantização, em que o parâmetro de quantização diferencial é restaurado usando uma sequência de bins (bin string) indicando um valor absoluto do parâmetro de quantização diferencial e um bin indicando um sinal do parâmetro de quantização diferencial, se dois ou mais parâmetros de quantização estiverem disponíveis dentre um parâmetro de quantização à esquerda, um parâmetro de quantização acima e um parâmetro de quantização anterior de uma unidade de codificação atual, o preditor de parâmetro de quantização é gerado usando dois parâmetros de quantização disponíveis determinados de acordo com uma ordem predeterminada, o parâmetro de quantização é restaurado por unidade de quantização, e um tamanho mínimo da unidade de quantização é ajustado por um conjunto de parâmetros de imagem, se a matriz de quantização é uma matriz de quantização definida por usuário, a matriz de quantização é restaurada ao usar uma modulação de código de pulso diferencial (DPCM) inversa, e o bloco quantizado é gerado ao varrer inversamente sinalizações significativas, sinais de coeficiente e níveis de coeficiente de acordo com um padrão de varredura inverso que é selecionado com base em um modo de intrapredição e em um tamanho de uma unidade de transformada.
2. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que, se somente um parâmetro de quantização estiver disponível, o parâmetro de quantização disponível é definido como o preditor de parâmetro de quantização.
3. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que a ordem predeterminada é uma ordem do parâmetro de quantização à esquerda, do parâmetro de quantização acima e do parâmetro de quantização anterior.
4. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o tamanho da unidade de quantização é derivado usando um tamanho de uma Unidade de Codificação Maior (LCU) e um parâmetro especificando profundidade do tamanho mínimo da unidade de quantização.
5. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que, se os parâmetros de quantização à esquerda e acima estiverem disponíveis, uma média dos parâmetros de quantização à esquerda e acima é definida como o preditor de parâmetro de quantização.
6. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que, se o parâmetro de quantização à esquerda não estiver disponível, uma média do parâmetro de quantização acima e do parâmetro de quantização anterior é definida como o preditor de parâmetro de quantização.
7. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que, se a matriz de quantização for maior que a matriz de quantização restaurada, a matriz de quantização é gerada ao ampliar a amostragem da matriz de quantização restaurada.
8. Método, de acordo com a reivindicação 7, CARACTERIZADO pelo fato de que um coeficiente DC da matriz de quantização é restaurado separadamente dos coeficientes AC da matriz de quantização.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2011-0114607 | 2011-11-04 | ||
KR20110114607A KR20130049523A (ko) | 2011-11-04 | 2011-11-04 | 인트라 예측 블록 생성 장치 |
BR112014010639-8A BR112014010639B1 (pt) | 2011-11-04 | 2012-11-02 | Método de quantizar inversamente um bloco quantizado |
PCT/CN2012/083978 WO2013064095A1 (en) | 2011-11-04 | 2012-11-02 | Method of deriving quantization parameter |
Publications (3)
Publication Number | Publication Date |
---|---|
BR122020014037A2 BR122020014037A2 (pt) | 2020-10-06 |
BR122020014037A8 BR122020014037A8 (pt) | 2022-10-04 |
BR122020014037B1 true BR122020014037B1 (pt) | 2023-12-12 |
Family
ID=48191357
Family Applications (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BR122020014036-4A BR122020014036B1 (pt) | 2011-11-04 | 2012-11-02 | Método de quantizar inversamente um bloco quantizado |
BR112014010639-8A BR112014010639B1 (pt) | 2011-11-04 | 2012-11-02 | Método de quantizar inversamente um bloco quantizado |
BR122020014037-2A BR122020014037B1 (pt) | 2011-11-04 | 2012-11-02 | Método de quantizar inversamente um bloco quantizado |
BR122020014038-0A BR122020014038B1 (pt) | 2011-11-04 | 2012-11-02 | Método de quantizar inversamente um bloco quantizado |
BR122020014035-6A BR122020014035B1 (pt) | 2011-11-04 | 2012-11-02 | Método de quantizar inversamente um bloco quantizado |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BR122020014036-4A BR122020014036B1 (pt) | 2011-11-04 | 2012-11-02 | Método de quantizar inversamente um bloco quantizado |
BR112014010639-8A BR112014010639B1 (pt) | 2011-11-04 | 2012-11-02 | Método de quantizar inversamente um bloco quantizado |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BR122020014038-0A BR122020014038B1 (pt) | 2011-11-04 | 2012-11-02 | Método de quantizar inversamente um bloco quantizado |
BR122020014035-6A BR122020014035B1 (pt) | 2011-11-04 | 2012-11-02 | Método de quantizar inversamente um bloco quantizado |
Country Status (14)
Country | Link |
---|---|
US (11) | US9264723B2 (pt) |
EP (6) | EP3402191B8 (pt) |
JP (8) | JP5841264B2 (pt) |
KR (6) | KR20130049523A (pt) |
CN (8) | CN108366260B (pt) |
BR (5) | BR122020014036B1 (pt) |
CA (4) | CA2853706C (pt) |
ES (1) | ES2784007T3 (pt) |
HU (1) | HUE048753T2 (pt) |
MX (6) | MX340478B (pt) |
PL (1) | PL3402191T3 (pt) |
SG (9) | SG10201600418XA (pt) |
TW (7) | TWI696380B (pt) |
WO (1) | WO2013064095A1 (pt) |
Families Citing this family (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105847814B (zh) | 2010-04-13 | 2019-01-08 | 太阳专利托管公司 | 图像编码方法及图像编码装置 |
KR20130049522A (ko) * | 2011-11-04 | 2013-05-14 | 오수미 | 인트라 예측 블록 생성 방법 |
KR20130049523A (ko) | 2011-11-04 | 2013-05-14 | 오수미 | 인트라 예측 블록 생성 장치 |
KR20130049525A (ko) | 2011-11-04 | 2013-05-14 | 오수미 | 잔차 블록 복원을 위한 역변환 방법 |
US10277915B2 (en) * | 2011-11-07 | 2019-04-30 | Qualcomm Incorporated | Signaling quantization matrices for video coding |
JP6120490B2 (ja) * | 2011-11-07 | 2017-04-26 | キヤノン株式会社 | 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム |
KR20130050407A (ko) | 2011-11-07 | 2013-05-16 | 오수미 | 인터 모드에서의 움직임 정보 생성 방법 |
KR20130058524A (ko) * | 2011-11-25 | 2013-06-04 | 오수미 | 색차 인트라 예측 블록 생성 방법 |
JP6064580B2 (ja) * | 2011-12-21 | 2017-01-25 | 株式会社Jvcケンウッド | 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、並びに送信装置、送信方法及び送信プログラム |
JP6064581B2 (ja) * | 2011-12-21 | 2017-01-25 | 株式会社Jvcケンウッド | 動画像復号装置、動画像復号方法及び動画像復号プログラム、並びに受信装置、受信方法及び受信プログラム |
US11323747B2 (en) * | 2013-06-05 | 2022-05-03 | Qualcomm Incorporated | Residual differential pulse code modulation (DPCM) extensions and harmonization with transform skip, rotation, and scans |
JP6587046B2 (ja) * | 2013-07-08 | 2019-10-09 | サン パテント トラスト | 画像符号化方法、画像復号方法、画像符号化装置及び画像復号装置 |
CN104427338B (zh) * | 2013-09-07 | 2019-11-05 | 上海天荷电子信息有限公司 | 一种使用块匹配的图像编码以及图像解码的方法和装置 |
KR20170118728A (ko) * | 2015-02-17 | 2017-10-25 | 엘지전자 주식회사 | 적응적 스캔 오더를 이용하여 비디오 신호를 인코딩, 디코딩하는 방법 및 장치 |
WO2016205999A1 (en) * | 2015-06-23 | 2016-12-29 | Mediatek Singapore Pte. Ltd. | Adaptive coding group for image/video coding |
EP4178204A1 (en) | 2015-08-20 | 2023-05-10 | Nippon Hoso Kyokai | Image decoding device, and image decoding method |
EP4037316A1 (en) | 2016-02-16 | 2022-08-03 | Samsung Electronics Co., Ltd. | Method for decoding an image |
JP6660868B2 (ja) * | 2016-11-15 | 2020-03-11 | Kddi株式会社 | 動画像符号化装置及び動画像復号装置並びにプログラム |
CN108805943B (zh) * | 2017-04-27 | 2022-12-09 | 腾讯科技(深圳)有限公司 | 图片转码方法和装置 |
US11064201B2 (en) | 2017-09-06 | 2021-07-13 | Kaonmedia Co., Ltd. | Method and device for image encoding/decoding based on effective transmission of differential quantization parameter |
US11178405B2 (en) * | 2017-10-18 | 2021-11-16 | Samsung Electronics Co., Ltd. | Method and apparatus for video decoding, and method and apparatus for video encoding |
US11262088B2 (en) | 2017-11-06 | 2022-03-01 | International Business Machines Corporation | Adjusting settings of environmental devices connected via a network to an automation hub |
CN111543056B (zh) | 2018-01-02 | 2023-03-28 | 三星电子株式会社 | 编码方法及其设备以及解码方法及其设备 |
US10491914B2 (en) * | 2018-03-29 | 2019-11-26 | Tencent America LLC | Transform information prediction |
KR102030384B1 (ko) | 2018-06-19 | 2019-11-08 | 광운대학교 산학협력단 | 잔차 계수 부호화/복호화 방법 및 장치 |
US11350093B2 (en) | 2018-06-11 | 2022-05-31 | Hanwha Techwin Co., Ltd. | Residual coefficient encoding/decoding method and device |
US11927280B2 (en) | 2018-06-30 | 2024-03-12 | Fujikin Incorporated | Diaphragm valve and monitoring method thereof with improved leak detection |
EP4346211A3 (en) * | 2018-09-03 | 2024-06-19 | Huawei Technologies Co., Ltd. | Method and apparatus for intra prediction |
US11516506B2 (en) * | 2018-10-05 | 2022-11-29 | Lg Electronics Inc. | Method and apparatus for processing image service |
CN111050169B (zh) * | 2018-10-15 | 2021-12-14 | 华为技术有限公司 | 图像编码中量化参数的生成方法、装置及终端 |
CN109688409B (zh) * | 2018-12-28 | 2021-03-02 | 北京奇艺世纪科技有限公司 | 一种视频编码方法及装置 |
CN109831670B (zh) * | 2019-02-26 | 2020-04-24 | 北京大学深圳研究生院 | 一种反量化方法、***、设备及计算机可读介质 |
EP3939269A4 (en) * | 2019-04-10 | 2022-06-15 | Beijing Dajia Internet Information Technology Co., Ltd. | METHOD AND APPARATUS FOR VIDEO CODING USING AN IMPROVED MATRIX-BASED INTRA PREDICTION CODING MODE |
EP3958570A4 (en) | 2019-04-17 | 2023-01-25 | Lg Electronics Inc. | VIDEO CODING/DECODING DEVICE AND METHOD USING A BDPCM, AND TRANSMISSION BITSTREAM METHOD |
CA3137163C (en) | 2019-04-24 | 2024-05-14 | Bytedance Inc. | Constraints on quantized residual differential pulse code modulation representation of coded video |
CN113796069B (zh) * | 2019-05-01 | 2024-03-08 | 字节跳动有限公司 | 使用量化残差差分脉冲编解码调制编解码的帧内编解码视频 |
CN112004084B (zh) * | 2019-05-27 | 2022-03-29 | 北京君正集成电路股份有限公司 | 一种利用量化参数排序的码率控制优化方法及*** |
KR20220012345A (ko) * | 2019-06-21 | 2022-02-03 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 기하학적 파티션 모드에 대한 크로마 샘플 가중 도출 |
CN110464326B (zh) * | 2019-08-19 | 2022-05-10 | 上海联影医疗科技股份有限公司 | 一种扫描参数推荐方法、***、装置及存储介质 |
US11800110B2 (en) * | 2021-04-20 | 2023-10-24 | Tencent America LLC | Adaptive scanning with multiple transform selection |
US20230069984A1 (en) * | 2021-08-24 | 2023-03-09 | Tencent America LLC | Hardware friendly design for intra mode coding |
US11917144B2 (en) * | 2021-09-29 | 2024-02-27 | Mediatek Inc. | Efficient in-loop filtering for video coding |
CN116095316B (zh) * | 2023-03-17 | 2023-06-23 | 北京中星微人工智能芯片技术有限公司 | 视频图像处理方法及装置、电子设备及存储介质 |
Family Cites Families (75)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8625665B2 (en) * | 1996-09-20 | 2014-01-07 | At&T Intellectual Property Ii, L.P. | Video coder providing implicit coefficient prediction and scan adaptation for image coding and intra coding of video |
EP0944261A3 (en) * | 1998-03-17 | 1999-10-06 | Matsushita Electric Industrial Co., Ltd. | Video signal processing apparatus |
JP2001298368A (ja) * | 2000-04-14 | 2001-10-26 | Sakai Yasue | 圧縮方法及び装置、伸長方法及び装置、圧縮伸長システム、記録媒体 |
JP3561485B2 (ja) * | 2000-08-18 | 2004-09-02 | 株式会社メディアグルー | 符号化信号分離・合成装置、差分符号化信号生成装置、符号化信号分離・合成方法、差分符号化信号生成方法、符号化信号分離・合成プログラムを記録した媒体および差分符号化信号生成プログラムを記録した媒体 |
CN100530977C (zh) * | 2001-11-27 | 2009-08-19 | 三星电子株式会社 | 对数据进行编码和译码的方法和装置 |
CN1206864C (zh) * | 2002-07-22 | 2005-06-15 | 中国科学院计算技术研究所 | 结合率失真优化的码率控制的方法及其装置 |
EP1453004A2 (en) * | 2003-02-28 | 2004-09-01 | NTT DoCoMo, Inc. | Image encoding apparatus and method |
JP2006005438A (ja) * | 2004-06-15 | 2006-01-05 | Sony Corp | 画像処理装置およびその方法 |
CN100348051C (zh) * | 2005-03-31 | 2007-11-07 | 华中科技大学 | 一种增强型帧内预测模式编码方法 |
WO2007032600A1 (en) * | 2005-07-21 | 2007-03-22 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding and decoding video signal by extending application of directional intra-prediction |
JP2007089035A (ja) * | 2005-09-26 | 2007-04-05 | Toshiba Corp | 動画像符号化方法、装置及びプログラム |
US20070274385A1 (en) * | 2006-05-26 | 2007-11-29 | Zhongli He | Method of increasing coding efficiency and reducing power consumption by on-line scene change detection while encoding inter-frame |
JP4254867B2 (ja) | 2007-01-31 | 2009-04-15 | ソニー株式会社 | 情報処理装置および方法、プログラム、並びに記録媒体 |
EP1983759A1 (en) * | 2007-04-19 | 2008-10-22 | Matsushita Electric Industrial Co., Ltd. | Estimation of separable adaptive interpolation filters for hybrid video coding |
CN100493198C (zh) * | 2007-05-31 | 2009-05-27 | 北京中星微电子有限公司 | 算术编码中的概率模型存储方法 |
US8488668B2 (en) * | 2007-06-15 | 2013-07-16 | Qualcomm Incorporated | Adaptive coefficient scanning for video coding |
US8571104B2 (en) * | 2007-06-15 | 2013-10-29 | Qualcomm, Incorporated | Adaptive coefficient scanning in video coding |
CN100551075C (zh) * | 2007-10-15 | 2009-10-14 | 中兴通讯股份有限公司 | 一种低复杂度的帧内预测模式选择方法 |
KR100940444B1 (ko) * | 2007-12-18 | 2010-02-10 | 한국전자통신연구원 | 공간적 에지 검출을 이용한 인트라 예측 모드 구성 방법 |
US20090161757A1 (en) * | 2007-12-21 | 2009-06-25 | General Instrument Corporation | Method and Apparatus for Selecting a Coding Mode for a Block |
US8542730B2 (en) * | 2008-02-22 | 2013-09-24 | Qualcomm, Incorporated | Fast macroblock delta QP decision |
CN101262603B (zh) * | 2008-03-27 | 2011-08-31 | 方春 | 一种自适应码率控制方法 |
CN100596202C (zh) * | 2008-05-30 | 2010-03-24 | 四川虹微技术有限公司 | 一种快速帧内模式选择方法 |
US8897359B2 (en) * | 2008-06-03 | 2014-11-25 | Microsoft Corporation | Adaptive quantization for enhancement layer video coding |
BRPI0904324A2 (pt) * | 2008-06-27 | 2015-06-30 | Sony Corp | Dispositivo de processamento de imagem, e, método de processamento de imagem |
KR101501568B1 (ko) * | 2008-07-04 | 2015-03-12 | 에스케이 텔레콤주식회사 | 영상 부호화 및 복호화 장치 및, 방법 |
CN101729886B (zh) * | 2008-10-24 | 2011-09-28 | 安凯(广州)微电子技术有限公司 | 一种视频解码方法、***和设备 |
CN101494776B (zh) * | 2009-02-13 | 2011-01-05 | 北京邮电大学 | 一种h.264码率控制方法 |
JP5174737B2 (ja) * | 2009-05-05 | 2013-04-03 | 国立大学法人広島大学 | 画像配信システム、符号装置及び復号装置 |
KR101507344B1 (ko) * | 2009-08-21 | 2015-03-31 | 에스케이 텔레콤주식회사 | 가변 길이 부호를 이용한 인트라 예측모드 부호화 방법과 장치, 및 이를 위한기록 매체 |
JP5649296B2 (ja) * | 2009-10-26 | 2015-01-07 | キヤノン株式会社 | 画像符号化装置 |
KR101457894B1 (ko) * | 2009-10-28 | 2014-11-05 | 삼성전자주식회사 | 영상 부호화 방법 및 장치, 복호화 방법 및 장치 |
KR101751559B1 (ko) * | 2009-10-30 | 2017-06-27 | 선 페이턴트 트러스트 | 복호방법, 복호장치, 부호화 방법 및 부호화 장치 |
KR101441905B1 (ko) | 2009-11-18 | 2014-09-24 | 에스케이텔레콤 주식회사 | 후보 예측 움직임 벡터 집합 선택을 이용한 움직임 벡터 부호화/복호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치 |
US20110274162A1 (en) * | 2010-05-04 | 2011-11-10 | Minhua Zhou | Coding Unit Quantization Parameters in Video Coding |
US8588297B2 (en) * | 2009-12-23 | 2013-11-19 | Oracle America, Inc. | Quantization parameter prediction |
KR101768207B1 (ko) * | 2010-01-19 | 2017-08-16 | 삼성전자주식회사 | 축소된 예측 움직임 벡터의 후보들에 기초해 움직임 벡터를 부호화, 복호화하는 방법 및 장치 |
WO2011096770A2 (ko) * | 2010-02-02 | 2011-08-11 | (주)휴맥스 | 영상 부호화/복호화 장치 및 방법 |
JP2011160359A (ja) * | 2010-02-03 | 2011-08-18 | Sharp Corp | ブロックノイズ量予測装置、ブロックノイズ量予測方法、画像処理装置、プログラム、及び、記録媒体 |
US8588303B2 (en) * | 2010-03-31 | 2013-11-19 | Futurewei Technologies, Inc. | Multiple predictor sets for intra-frame coding |
US8929440B2 (en) * | 2010-04-09 | 2015-01-06 | Sony Corporation | QP adaptive coefficients scanning and application |
JP5688136B2 (ja) * | 2010-04-23 | 2015-03-25 | エム アンド ケー ホールディングス インコーポレイテッド | 映像を符号化する装置及び方法 |
CN102238376B (zh) * | 2010-04-28 | 2014-04-23 | 鸿富锦精密工业(深圳)有限公司 | 图像处理***及方法 |
US8902978B2 (en) * | 2010-05-30 | 2014-12-02 | Lg Electronics Inc. | Enhanced intra prediction mode signaling |
WO2011156458A1 (en) * | 2010-06-10 | 2011-12-15 | Technicolor Usa, Inc. | Methods and apparatus for determining quantization parameter predictors from a plurality of neighboring quantization parameters |
CN101888550A (zh) * | 2010-06-28 | 2010-11-17 | 中兴通讯股份有限公司 | 一种slice头信息中量化参数编码方法和装置 |
KR20120012385A (ko) * | 2010-07-31 | 2012-02-09 | 오수미 | 인트라 예측 부호화 장치 |
KR101373814B1 (ko) * | 2010-07-31 | 2014-03-18 | 엠앤케이홀딩스 주식회사 | 예측 블록 생성 장치 |
US9667987B2 (en) | 2011-03-10 | 2017-05-30 | Futurewei Technologies, Inc. | Using multiple prediction sets to encode extended unified directional intra mode numbers for robustness |
CN106534872B (zh) | 2011-03-11 | 2019-05-17 | 索尼公司 | 图像处理装置和方法 |
CN102685484B (zh) * | 2011-03-11 | 2014-10-08 | 华为技术有限公司 | 编码方法以及装置、解码方法以及装置 |
CN102685478B (zh) | 2011-03-11 | 2015-04-29 | 华为技术有限公司 | 编码方法以及装置、解码方法以及装置 |
CN102685483B (zh) | 2011-03-11 | 2014-12-03 | 华为技术有限公司 | 解码方法 |
CN102685485B (zh) * | 2011-03-11 | 2014-11-05 | 华为技术有限公司 | 编码方法以及装置、解码方法以及装置 |
CN102137258B (zh) * | 2011-03-22 | 2013-04-24 | 宁波大学 | 一种立体视频码率控制方法 |
GB2491391B (en) * | 2011-06-02 | 2014-09-03 | Canon Kk | Encoding mode values representing prediction modes |
US9654785B2 (en) * | 2011-06-09 | 2017-05-16 | Qualcomm Incorporated | Enhanced intra-prediction mode signaling for video coding using neighboring mode |
MY165837A (en) * | 2011-06-13 | 2018-05-17 | Sun Patent Trust | Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus |
US9112526B2 (en) * | 2011-06-15 | 2015-08-18 | Sony Corporation | Binarization of DQP using separate absolute value and sign (SAVS) in CABAC |
LT3136729T (lt) * | 2011-06-28 | 2018-02-12 | Samsung Electronics Co., Ltd. | Vaizdo dekodavimo aparatas su vidine prognoze |
KR20110111339A (ko) * | 2011-08-23 | 2011-10-11 | 한국전자통신연구원 | 화면내 예측 시스템에서 최적 모드를 예측하는 장치 및 방법 |
GB2494468B (en) | 2011-09-12 | 2014-01-15 | Canon Kk | Method and device for encoding or decoding information representing prediction modes |
CN106851300B (zh) | 2011-09-13 | 2020-05-26 | 寰发股份有限公司 | 基于最可能模式的帧内预测模式的方法及装置 |
CN103959789B (zh) | 2011-10-07 | 2017-06-06 | 英迪股份有限公司 | 利用候选帧内预测模式对帧内预测模式编码/解码的方法和设备 |
CN107087183B (zh) * | 2011-10-24 | 2020-02-14 | 英孚布瑞智有限私人贸易公司 | 对帧内预测模式进行解码的方法 |
CN105306932B (zh) * | 2011-10-24 | 2018-11-13 | 英孚布瑞智有限私人贸易公司 | 用于图像解码的方法和装置 |
KR20130049523A (ko) | 2011-11-04 | 2013-05-14 | 오수미 | 인트라 예측 블록 생성 장치 |
KR20130049522A (ko) * | 2011-11-04 | 2013-05-14 | 오수미 | 인트라 예측 블록 생성 방법 |
KR20130050407A (ko) * | 2011-11-07 | 2013-05-16 | 오수미 | 인터 모드에서의 움직임 정보 생성 방법 |
KR20130050404A (ko) * | 2011-11-07 | 2013-05-16 | 오수미 | 인터 모드에서의 복원 블록 생성 방법 |
KR20130050405A (ko) * | 2011-11-07 | 2013-05-16 | 오수미 | 인터 모드에서의 시간 후보자 결정방법 |
KR20130058524A (ko) * | 2011-11-25 | 2013-06-04 | 오수미 | 색차 인트라 예측 블록 생성 방법 |
AR092786A1 (es) * | 2012-01-09 | 2015-05-06 | Jang Min | Metodos para eliminar artefactos de bloque |
RU2602986C2 (ru) * | 2012-01-17 | 2016-11-20 | Инфобридж Пте. Лтд. | Способ применения краевого смещения |
CN102658478B (zh) | 2012-05-11 | 2014-11-05 | 山东海华汽车部件有限公司 | 一种板簧流水装配线 |
-
2011
- 2011-11-04 KR KR20110114607A patent/KR20130049523A/ko not_active Application Discontinuation
-
2012
- 2012-11-02 SG SG10201600418XA patent/SG10201600418XA/en unknown
- 2012-11-02 BR BR122020014036-4A patent/BR122020014036B1/pt active IP Right Grant
- 2012-11-02 BR BR112014010639-8A patent/BR112014010639B1/pt active IP Right Grant
- 2012-11-02 KR KR20147010213A patent/KR20140071438A/ko not_active Application Discontinuation
- 2012-11-02 BR BR122020014037-2A patent/BR122020014037B1/pt active IP Right Grant
- 2012-11-02 CA CA2853706A patent/CA2853706C/en active Active
- 2012-11-02 SG SG10201600413TA patent/SG10201600413TA/en unknown
- 2012-11-02 MX MX2015015821A patent/MX340478B/es unknown
- 2012-11-02 ES ES18181699T patent/ES2784007T3/es active Active
- 2012-11-02 SG SG10201600412WA patent/SG10201600412WA/en unknown
- 2012-11-02 TW TW107139881A patent/TWI696380B/zh active
- 2012-11-02 EP EP18181699.2A patent/EP3402191B8/en active Active
- 2012-11-02 PL PL18181699T patent/PL3402191T3/pl unknown
- 2012-11-02 BR BR122020014038-0A patent/BR122020014038B1/pt active IP Right Grant
- 2012-11-02 TW TW106145413A patent/TWI645708B/zh active
- 2012-11-02 MX MX2016009075A patent/MX345037B/es unknown
- 2012-11-02 MX MX2015015826A patent/MX340480B/es unknown
- 2012-11-02 CA CA2989193A patent/CA2989193C/en active Active
- 2012-11-02 CA CA3085029A patent/CA3085029C/en active Active
- 2012-11-02 SG SG10202002041XA patent/SG10202002041XA/en unknown
- 2012-11-02 EP EP21156631.0A patent/EP3843401A1/en active Pending
- 2012-11-02 HU HUE18181699A patent/HUE048753T2/hu unknown
- 2012-11-02 TW TW110132475A patent/TWI803958B/zh active
- 2012-11-02 SG SG10202002042VA patent/SG10202002042VA/en unknown
- 2012-11-02 TW TW105143712A patent/TWI615016B/zh active
- 2012-11-02 KR KR1020147010215A patent/KR20140066240A/ko not_active Application Discontinuation
- 2012-11-02 CA CA3217419A patent/CA3217419A1/en active Pending
- 2012-11-02 EP EP12845200.0A patent/EP2774377A4/en not_active Ceased
- 2012-11-02 KR KR20147010216A patent/KR20140074350A/ko not_active Application Discontinuation
- 2012-11-02 TW TW109115848A patent/TWI742656B/zh active
- 2012-11-02 US US14/353,891 patent/US9264723B2/en active Active
- 2012-11-02 MX MX2015015820A patent/MX339983B/es unknown
- 2012-11-02 SG SG10202001287TA patent/SG10202001287TA/en unknown
- 2012-11-02 BR BR122020014035-6A patent/BR122020014035B1/pt active IP Right Grant
- 2012-11-02 WO PCT/CN2012/083978 patent/WO2013064095A1/en active Application Filing
- 2012-11-02 EP EP21156609.6A patent/EP3843392B1/en active Active
- 2012-11-02 SG SG10202001375VA patent/SG10202001375VA/en unknown
- 2012-11-02 MX MX2015015824A patent/MX340479B/es unknown
- 2012-11-02 EP EP21156612.0A patent/EP3843393B1/en active Active
- 2012-11-02 TW TW101140895A patent/TWI572189B/zh active
- 2012-11-02 KR KR1020147010214A patent/KR20140066239A/ko not_active Application Discontinuation
- 2012-11-02 TW TW112115445A patent/TW202333500A/zh unknown
- 2012-11-02 SG SG10201600414RA patent/SG10201600414RA/en unknown
- 2012-11-02 JP JP2014539230A patent/JP5841264B2/ja active Active
- 2012-11-02 EP EP21156479.4A patent/EP3843400A1/en active Pending
- 2012-11-02 MX MX2014005327A patent/MX2014005327A/es active IP Right Grant
- 2012-11-02 KR KR1020147010207A patent/KR101472974B1/ko active IP Right Review Request
- 2012-11-02 SG SG11201401926RA patent/SG11201401926RA/en unknown
- 2012-11-05 CN CN201810074625.0A patent/CN108366260B/zh active Active
- 2012-11-05 CN CN201810073418.3A patent/CN108184119B/zh active Active
- 2012-11-05 CN CN201810073355.1A patent/CN108347614B/zh active Active
- 2012-11-05 CN CN201810072887.3A patent/CN108495133B/zh active Active
- 2012-11-05 CN CN201810074631.6A patent/CN108259907B/zh active Active
- 2012-11-05 CN CN201810073988.2A patent/CN108259906B/zh active Active
- 2012-11-05 CN CN201810073432.3A patent/CN108184120B/zh active Active
- 2012-11-05 CN CN201210436688.9A patent/CN103096070B/zh active Active
-
2015
- 2015-01-08 US US14/592,809 patent/US9204151B2/en active Active
- 2015-09-11 US US14/852,115 patent/US9712824B2/en active Active
- 2015-09-11 US US14/852,197 patent/US9912950B2/en active Active
- 2015-09-11 US US14/852,167 patent/US9699460B2/en active Active
- 2015-09-11 US US14/852,144 patent/US9712825B2/en active Active
- 2015-11-12 JP JP2015222051A patent/JP6101774B2/ja active Active
-
2017
- 2017-02-27 JP JP2017035017A patent/JP6275897B2/ja active Active
-
2018
- 2018-01-10 JP JP2018001995A patent/JP6469265B2/ja active Active
- 2018-01-25 US US15/879,994 patent/US10313671B2/en active Active
-
2019
- 2019-01-15 JP JP2019004278A patent/JP6648315B2/ja active Active
- 2019-04-26 US US16/396,267 patent/US10742983B2/en active Active
-
2020
- 2020-01-15 JP JP2020004431A patent/JP6906070B2/ja active Active
- 2020-07-10 US US16/926,206 patent/US11290719B2/en active Active
-
2021
- 2021-06-28 JP JP2021106230A patent/JP7192045B2/ja active Active
- 2021-06-28 JP JP2021106229A patent/JP7192044B2/ja active Active
-
2022
- 2022-02-28 US US17/682,914 patent/US11825092B2/en active Active
-
2023
- 2023-10-23 US US18/382,831 patent/US20240048706A1/en active Pending
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6636573B2 (ja) | 映像復号化方法 | |
BR122020014037B1 (pt) | Método de quantizar inversamente um bloco quantizado | |
KR20140071428A (ko) | 양자화 블록을 생성하는 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
B350 | Update of information on the portal [chapter 15.35 patent gazette] | ||
B07A | Application suspended after technical examination (opinion) [chapter 7.1 patent gazette] | ||
B25A | Requested transfer of rights approved |
Owner name: GENSQUARE LLC (KR) |
|
B09A | Decision: intention to grant [chapter 9.1 patent gazette] | ||
B16A | Patent or certificate of addition of invention granted [chapter 16.1 patent gazette] |
Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 02/11/2012, OBSERVADAS AS CONDICOES LEGAIS. PATENTE CONCEDIDA CONFORME ADI 5.529/DF, QUE DETERMINA A ALTERACAO DO PRAZO DE CONCESSAO. |