BR112014032227B1 - Dispositivo e método de decodificação - Google Patents

Dispositivo e método de decodificação Download PDF

Info

Publication number
BR112014032227B1
BR112014032227B1 BR112014032227-9A BR112014032227A BR112014032227B1 BR 112014032227 B1 BR112014032227 B1 BR 112014032227B1 BR 112014032227 A BR112014032227 A BR 112014032227A BR 112014032227 B1 BR112014032227 B1 BR 112014032227B1
Authority
BR
Brazil
Prior art keywords
image
unit
rps
short
picture
Prior art date
Application number
BR112014032227-9A
Other languages
English (en)
Other versions
BR112014032227A2 (pt
Inventor
Shuo LU
Kazushi Sato
Original Assignee
Velos Media International Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Velos Media International Limited filed Critical Velos Media International Limited
Publication of BR112014032227A2 publication Critical patent/BR112014032227A2/pt
Publication of BR112014032227B1 publication Critical patent/BR112014032227B1/pt

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/58Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/177Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a group of pictures [GOP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

DISPOSITIVO E MÉTODO DE DECODIFICAÇÃO. A presente tecnologia se refere a um dispositivo de decodificação e um método de decodificação com os quais a quantidade de informação com relação à informação que especifica uma imagem de referência pode ser reduzida. Em casos quando uma imagem a ser codificada é uma imagem que não a primeira imagem em um grupo de imagem (GOP), uma unidade de recepção recebe "inter_ref_pic_set_prediction_flag" indicando a informação de identificação de imagem de referência previamente transmitida, que identifica uma imagem de referência usada para gerar uma imagem prevista, de uma imagem anterior na ordem de codificação para a imagem a ser codificada ser usada como a informação de identificação de imagem de referência da imagem a ser codificada. A presente tecnologia é aplicável a dispositivos de decodificação ou similares para o formato de codificação de vídeo de alta eficiência (HEVC).

Description

CAMPO TÉCNICO
[001] A presente tecnologia se refere a um dispositivo de decodificação e um método de decodificação e, mais particularmente, a um dispositivo de deco- dificação e um método de decodificação capaz de reduzir a quantidade de informação que se refere à informação que especifica uma imagem de referência.
FUNDAMENTOS DA TÉCNICA
[002] Recentemente, informação de imagem é manipulada como dados digitais, e, para o propósito de transmissão e armazenamento de informação tendo alta eficiência com o tempo, dispositivos que estão em conformidade com o sistema de MPEG (fase de Grupo de Especialistas de Imagem em Movimento) ou semelhantes que realiza uma transformada ortogonal tal como uma transformada de cosseno discreta e compressão usando compensação de movimento, usando a redundância que é única à informação de imagem, são bastante usadas tanto para distribuição de informação em estação de transmissão e semelhantes quanto de recepção de informação em casas padrão.
[003] Particularmente, o sistema de MPEG2 (ISO/IEC 13818-2) é definido como um sistema de codificação de imagem de propósito geral e atualmente é usado bastante para uma grande faixa de aplicações para o uso profissional e para o uso de consumidor como padrões que cobrem tanto uma imagem de varredura entrelaçada quanto uma imagem de varredura sequencial e uma imagem de resolução padrão e uma imagem de alta definição. Usando o sistema de MPEG2, por exemplo, uma quantidade de código (taxa de bit) de 4 a 8 Mbps no caso de uma imagem de varredura entrelaçada de uma resolução padrão de 720 x 480 pixels e uma quantidade de código de 18 a 22 Mbps no caso de uma imagem de varredura entrelaçada de alta definição de 1920 x 1088 pixels serem alocadas, enquanto que uma alta taxa de compressão e uma quantidade de imagem aprimorada podem ser realizadas.
[004] O MPEG2 é alvo para codificação de alta qualidade de imagem que é principalmente adequada para a transmissão, mas não responde a um sistema de codificação de uma quantidade de código (taxa de bit) menor do que aquela de MPEG1, em outras palavras, um sistema de codificação de uma maior taxa de compressão. De acordo com a popularização de terminais móveis, o pedido por tal sistema de codificação é predito de aumentar no futuro, e um sistema de codificação de MPEG4 foi padronizado em resposta a isto. Com relação ao sistema de codificação de imagem de MPEG4, uma especificação foi aprovada em dezembro de 1998 para ser um padrão internacional como ISO/IEC 14496-2.
[005] Além disso, recentemente, para o propósito de codificação de imagem para conferências de televisão, a padronização de H.26L (ITU-T Q6/16 VCEG) está em progresso. Enquanto H.26L requer a quantidade de cálculo de acordo com a codificação e a decodificação que é maior do que aquela de um sistema de codificação convencional tal como MPEG2 ou MPEG4, é conhecido que uma maior eficiência de codificação é realizada.
[006] Adicionalmente, atualmente, como parte das atividades de MPEG4, a padronização de uma especificação, que é baseada em H.26L, incluindo funções não suportadas em H.26L e realizando maior eficiência de codificação está no processo como Modelo de Junção de Codificação de Vídeo de Compressão Melhorada. Esta padronização é padronizada internacionalmente com base no título de H.264 e MPEG-4 Parte 10 (AVC (Codificação de Vídeo Avançada)) de março de 2003.
[007] Além disso, a padronização de FRExt (Extensão de Faixa de Fidelidade) incluindo, como extensões, uma ferramenta de codificação, que é necessária para um negócio, chamada RGB, 4:2:2 ou 4:4:4 e 8 x 8 DCT e uma matriz de quantização definida em MPEG-2 foi completada em fevereiro de 2005. De maneira apropriada, o AVC se torna um sistema de codificação capaz de representar um ruído de filme incluído em um filme de uma maneira aprimorada bem como é um sistema em que é usado para uma grande faixa de aplicações tais como um Disco de Blu-Ray (marca registrada).
[008] No entanto, nestes dias, o pedido por codificação de taxa de compressão superior necessário para comprimir uma imagem de cerca de 4000 x 2000 pixels, que são quatro vezes aqueles de uma alta imagem de visão, e para distribuir a alta imagem de visão em um ambiente de capacidade de transmissão limitada tal como a Internet tem aumentado. Por esta razão, em um VCEG (Grupo de Especialistas de Codificação de Vídeo) sob o ITU-T, revisões para aprimorar a eficiência de codificação têm sido realizados continuamente.
[009] Enquanto isso, em um sistema de HEVC (Codificação de Vídeo de Alta Eficiência), um conjunto de imagem de referência de curto prazo (aqui a seguir, referido como um RPS) usado para reconhecer informação de especificação de imagem de referência que especifica uma imagem de referência em um dispositivo de decodificação está incluído em um SPS (Conjunto de Parâmetro de Sequência) (por exemplo, ver Documento Não Patente 1).
[010] A Fig. 1 é um diagrama que ilustra um exemplo da sintaxe de um RPS.
[011] Como ilustrado na segunda linha na Fig. 1, no RPS, in- ter_ref_pic_set_prediction_flag está incluído. Aqui, in- ter_ref_pic_set_prediction_flag é a informação de referência que representa se a informação de especificação de imagem de referência que especifica uma imagem de referência de uma imagem anterior, que é uma imagem anterior a uma imagem de codificação atual na ordem de codificação dentro de um GOP (Grupo de Imagem) da imagem de codificação atual, é usada como informação de espe-cificação de imagem de referência da imagem de codificação atual.
[012] Aqui, inter_ref_pic_set_prediction_flag é “1” em um caso onde representa que a informação de especificação de imagem de referência especificando a imagem de referência da imagem anterior é usada como a informação de especificação de imagem de referência da imagem de codificação atual e é “0” em um caso onde representa que a informação de especificação de imagem de referência especificando a imagem de referência da imagem anterior não é usada como a informação de especificação de imagem de referência da imagem de codificação atual.
[013] Como a terceira e a quarta linhas na Fig. 1, em um caso onde in- ter_ref_pic_set_prediction_flag é “1”, delta_idx_minus1 que é a imagem anterior especificando a informação que especifica a imagem anterior está incluído no RPS. Mais especificamente, delta_idx_minus1 possui um valor adquirido subtraindo um de um valor que é adquirido subtraindo o número de codificação da imagem anterior do número de codificação (ordem de codificação) da imagem de codificação atual. Aqui, o número de codificação é um número que é designado para cada imagem dentro do GOP a partir de um valor pequeno em ordem de codificação.
[014] Além disso, como ilustrado nas linhas 13 até 23 na Fig. 1, em um caso onde inter_ref_pic_set_prediction_flag é “0”, a informação de especificação de imagem de referência está incluída no RPS.
[015] A Fig. 2 é um diagrama que ilustra um exemplo de in- ter_ref_pic_set_prediction_flag e delta_idx_minus1.
[016] No exemplo ilustrado na Fig. 2, a informação de especificação de imagem de referência da imagem de codificação atual da qual o número de codificação é N é a mesma que a informação de especificação de imagem de referência da imagem anterior, da qual o número de codificação é “N-1”, que é anterior à imagem de codificação atual na ordem de codificação.
[017] Neste caso, inter_ref_pic_set_prediction_flag é definido para “1” que representa a informação de especificação de imagem de referência da imagem anterior é usada como a informação de especificação de imagem de referência da imagem de codificação atual. Além disso, delta_idx_minus1 é definido para “0” que é adquirido subtraindo “N-1” que é o número de codificação da imagem anterior a partir de N que é o número de codificação da imagem de codificação atual e então, a partir de um valor de “1” que é adquirido como um resultado da subtração, adicionalmente subtraindo um.
LISTA DE CITAÇÃO DOCUMENTO NÃO PATENTE
[018] Documento Não Patente 1: Benjamin Bross, Woo-Jin Han, Jens- Rainer Ohm, Gary J. Sullivan, Thomas Wiegand, “High efficiency video coding (HEVC) text specification draft 7”, JCTVC-I1003_d4, 2012.4.27-5.7
SUMÁRIO DA INVENÇÃO PROBLEMAS A SEREM RESOLVIDOS PELA INVENÇÃO
[019] No entanto, a quantidade de informação que se refere à informação de especificação de imagem de referência tal como o RPS não é suficientemente reduzida.
[020] A presente tecnologia é planejada em consideração de tal situação e permite a redução da quantidade de informação que se refere à informação que especifica uma imagem de referência.
SOLUÇÕES PARA OS PROBLEMAS
[021] De acordo com um aspecto da presente tecnologia, é provido um dispositivo de decodificação incluindo: uma unidade de recepção que recebe informação de referência representando se a informação de especificação de imagem de referência especificando uma imagem de referência, que é usada para gerar uma imagem predita, de uma imagem anterior que é uma imagem antes de uma imagem de codificação atual na ordem de codificação que é transmitida em um caso onde a imagem de codificação atual é uma imagem diferente de uma primeira imagem de um GOP (Grupo de Imagem) é usada como a informação de especificação de imagem de referência da imagem de codificação atual; uma unidade de definição de imagem de referência que gera a informação de especificação de imagem de referência de uma imagem de decodificação atual com base na informação de referência em um caso onde a informação de referência é recebida pela unidade de recepção e gera a informação de especificação de imagem de referência da imagem de decodificação atual com base na informação de referência representando que a informação de especificação de imagem de referência da imagem anterior não é usada como a informação de especificação de imagem de referência da imagem de codificação atual em um caso onde a informação de referência não é recebida pela unidade de recepção; e uma unidade de geração de imagem predita que gera uma imagem predita usando a imagem de referência que é especificada pela informação de especificação de imagem de referência gerada pela unidade de definição de imagem de referência.
[022] Um método de decodificação de acordo com outro aspecto da presente tecnologia corresponde ao dispositivo de decodificação de acordo com o aspecto da presente tecnologia.
[023] De acordo com o aspecto da presente tecnologia, informação de referência representando se a informação de especificação de imagem de referência especificando uma imagem de referência, que é usada para gerar uma imagem predita, de uma imagem anterior que é uma imagem antes de uma imagem de codificação atual na ordem de codificação que é transmitida em um caso onde a imagem de codificação atual é uma imagem diferente de uma primeira imagem de um GOP (Grupo de Imagem) é usada como a informação de especificação de imagem de referência da imagem de codificação atual é recebida. A informação de especificação de imagem de referência de uma imagem de decodifi- cação atual é gerada com base na informação de referência em um caso onde a informação de referência é recebida e a informação de especificação de imagem de referência da imagem de decodificação atual é gerada com base na informação de referência representando que a informação de especificação de imagem de referência da imagem anterior não é usada como a informação de especificação de imagem de referência da imagem de codificação atual em um caso onde a informação de referência não é recebida. Então, a imagem predita é gerada usando a imagem de referência que é especificada pela informação de especificação de imagem de referência.
[024] Além disso, o dispositivo de decodificação de acordo com o aspecto da presente tecnologia pode ser realizado fazendo com que um computador execute um programa.
[025] Adicionalmente, de maneira a realizar o dispositivo de decodifica- ção de acordo com o aspecto da presente tecnologia, o programa executado pelo computador pode ser provido sendo transmitido através de um meio de transmissão ou sendo gravado em um meio de gravação.
EFEITOS DA INVENÇÃO
[026] De acordo com a presente tecnologia, uma corrente codificada em que a quantidade de informação que se refere à informação que especifica uma imagem de referência é reduzida pode ser decodificada.
BREVE DESCRIÇÃO DOS DESENHOS
[027] A Fig. 1 é um diagrama que ilustra um exemplo da sintaxe de um RPS.
[028] A Fig. 2 é um diagrama que ilustra um exemplo de in- ter_ref_pic_set_prediction_flag e delta_idx_minus1.
[029] A Fig. 3 é um diagrama de bloco que ilustra um exemplo da configuração de um dispositivo de codificação, ao qual a presente tecnologia é aplicada, de acordo com uma primeira modalidade.
[030] A Fig. 4 é um diagrama de bloco que ilustra um exemplo da configuração de uma unidade de codificação ilustrada na Fig. 3.
[031] A Fig. 5 é um diagrama que ilustra um exemplo da sintaxe de um SPS que é definido por uma unidade de definição 12 ilustrada na Fig. 3.
[032] A Fig. 6 é um diagrama que ilustra um exemplo da sintaxe de um RPS.
[033] A Fig. 7 é um diagrama que ilustra a quantidade de informação do RPS que é definido pela unidade de definição 12 ilustrada na Fig. 3.
[034] A Fig. 8 é um diagrama que ilustra a quantidade de informação de um RPS convencional.
[035] A Fig. 9 é um diagrama que ilustra um exemplo da sintaxe de um cabeçalho de pedaço.
[036] A Fig. 10 é um fluxograma que ilustra um processo de geração realizado pelo dispositivo de codificação ilustrado na Fig. 3.
[037] A Fig. 11 é um fluxograma que ilustra um processo de definição de RPS ilustrado na Fig. 10 em detalhe.
[038] A Fig. 12 é um fluxograma que ilustra um processo de codificação ilustrado na Fig. 10 em detalhe.
[039] A Fig. 13 é um fluxograma que ilustra o processo de codificação ilustrado na Fig. 10 em detalhe.
[040] A Fig. 14 é um fluxograma que ilustra um processo de determinação de índice de RPS ilustrado na Fig. 12 em detalhe.
[041] A Fig. 15 é um diagrama de bloco que ilustra um exemplo da configuração de um dispositivo de decodificação, ao qual a presente tecnologia é aplicada, de acordo com a primeira modalidade.
[042] A Fig. 16 é um diagrama de bloco que ilustra um exemplo da configuração de uma unidade de decodificação ilustrada na Fig. 15.
[043] A Fig. 17 é um fluxograma que ilustra um processo de recepção realizado pelo dispositivo de decodificação ilustrado na Fig. 15.
[044] A Fig. 18 é um fluxograma que ilustra um processo de definição de RPS ilustrado na Fig. 17 em detalhe.
[045] A Fig. 19 é um fluxograma que ilustra um processo de decodifica- ção ilustrado na Fig. 17 em detalhe.
[046] A Fig. 20 é um diagrama de bloco que ilustra um exemplo da configuração de um dispositivo de codificação, ao qual a presente tecnologia é aplicada, de acordo com uma segunda modalidade.
[047] A Fig. 21 é um diagrama que ilustra um exemplo da sintaxe de um SPS que é definido por uma unidade de definição ilustrada na Fig. 20.
[048] A Fig. 22 é um diagrama que ilustra um exemplo da sintaxe de um RPS ilustrado na Fig. 21.
[049] A Fig. 23 é um diagrama que ilustra a quantidade de informação do RPS que é definido pela unidade de definição ilustrada na Fig. 20.
[050] A Fig. 24 é um diagrama que ilustra a quantidade de informação do RPS que é definido pela unidade de definição ilustrada na Fig. 20.
[051] A Fig. 25 é um diagrama que ilustra a quantidade de informação de um RPS convencional.
[052] A Fig. 26 é um fluxograma que ilustra um processo de definição de RPS realizado pelo dispositivo de codificação ilustrado na Fig. 20 em detalhe.
[053] A Fig. 27 é um diagrama de bloco que ilustra um exemplo da configuração de um dispositivo de decodificação, ao qual a presente tecnologia é aplicada, de acordo com a segunda modalidade.
[054] A Fig. 28 é um fluxograma que ilustra um processo de definição de RPS realizado pelo dispositivo de decodificação ilustrado na Fig. 27 em detalhe.
[055] A Fig. 29 é um diagrama de bloco que ilustra um exemplo da configuração de um dispositivo de codificação, ao qual a presente tecnologia é aplicada, de acordo com uma terceira modalidade.
[056] A Fig. 30 é um diagrama que ilustra um exemplo da sintaxe de um SPS que é definido por uma unidade de definição ilustrada na Fig. 29.
[057] A Fig. 31 é um diagrama que ilustra um exemplo da sintaxe de um RPS ilustrado na Fig. 30.
[058] A Fig. 32 é um diagrama que ilustra a quantidade de informação do RPS que é definido pela unidade de definição ilustrada na Fig. 29.
[059] A Fig. 33 é um fluxograma que ilustra um processo de definição de RPS realizado pelo dispositivo de codificação ilustrado na Fig. 29 em detalhe.
[060] A Fig. 34 é um diagrama de bloco que ilustra um exemplo da configuração de um dispositivo de decodificação, ao qual a presente tecnologia é aplicada, de acordo com a terceira modalidade.
[061] A Fig. 35 é um fluxograma que ilustra um processo de definição de RPS realizado pelo dispositivo de decodificação ilustrado na Fig. 34 em deta- lhe.
[062] A Fig. 36 é um diagrama de bloco que ilustra um exemplo da configuração de um dispositivo de codificação, ao qual a presente tecnologia é aplicada, de acordo com uma quarta modalidade.
[063] A Fig. 37 é um diagrama de bloco que ilustra um exemplo da configuração de uma unidade de codificação ilustrada na Fig. 36.
[064] A Fig. 38 é um diagrama que ilustra um exemplo da sintaxe de um PPS que é definido por uma unidade de definição ilustrada na Fig. 36.
[065] A Fig. 39 é um diagrama que ilustra um exemplo da sintaxe do PPS que é definido pela unidade de definição ilustrada na Fig. 36.
[066] A Fig. 40 é um diagrama que ilustra um exemplo da sintaxe de um PPS em um sistema de HEVC convencional.
[067] A Fig. 41 é um diagrama que ilustra um exemplo da sintaxe de um PPS em um sistema de HEVC convencional.
[068] A Fig. 42 é um diagrama que ilustra um exemplo da sintaxe de um cabeçalho de pedaço que é adicionado por uma unidade de codificação sem perdas ilustrada na Fig. 37.
[069] A Fig. 43 é um diagrama que ilustra um exemplo da sintaxe do cabeçalho de pedaço que é adicionado pela unidade de codificação sem perdas ilustrada na Fig. 37.
[070] A Fig. 44 é um diagrama que ilustra um exemplo da sintaxe do cabeçalho de pedaço que é adicionado pela unidade de codificação sem perdas ilustrada na Fig. 37.
[071] A Fig. 45 é um diagrama que ilustra um exemplo da sintaxe de um cabeçalho de pedaço em um sistema de HEVC convencional.
[072] A Fig. 46 é um diagrama que ilustra um exemplo da sintaxe de um cabeçalho de pedaço em um sistema de HEVC convencional.
[073] A Fig. 47 é um diagrama que ilustra um exemplo da sintaxe de um cabeçalho de pedaço em um sistema de HEVC convencional.
[074] A Fig. 48 é um fluxograma que ilustra um processo de geração realizado pelo dispositivo de codificação ilustrado na Fig. 36.
[075] A Fig. 49 é um fluxograma que ilustra um processo de codificação ilustrado na Fig. 48 em detalhe.
[076] A Fig. 50 é um fluxograma que ilustra o processo de codificação ilustrado na Fig. 48 em detalhe.
[077] A Fig. 51 é um fluxograma que ilustra um processo de definição de PPS ilustrado na Fig. 48 em detalhe.
[078] A Fig. 52 é um diagrama de bloco que ilustra um exemplo da configuração de um dispositivo de decodificação, ao qual a presente tecnologia é aplicada, de acordo com uma quarta modalidade.
[079] A Fig. 53 é um diagrama de bloco que ilustra um exemplo da configuração de uma unidade de decodificação ilustrada na Fig. 52.
[080] A Fig. 54 é um fluxograma que ilustra um processo de recepção realizado pelo dispositivo de decodificação ilustrado na Fig. 52.
[081] A Fig. 55 é um fluxograma que ilustra um processo de decodifica- ção ilustrado na Fig. 54 em detalhe.
[082] A Fig. 56 é um diagrama que ilustra um exemplo de um sistema de codificação de imagem de múltiplos pontos de vista.
[083] A Fig. 57 é um diagrama que ilustra um exemplo da configuração principal de um dispositivo de codificação de imagem de múltiplos pontos de vista ao qual a presente tecnologia é aplicada.
[084] A Fig. 58 é um diagrama que ilustra um exemplo da configuração principal de um dispositivo de decodificação de imagem de múltiplos pontos de vista ao qual a presente tecnologia é aplicada.
[085] A Fig. 59 é um diagrama que ilustra um exemplo de um sistema de codificação de imagem hierárquica.
[086] A Fig. 60 é um diagrama que ilustra um exemplo da configuração principal de um dispositivo de codificação de imagem hierárquica ao qual a pre- sente tecnologia é aplicada.
[087] A Fig. 61 é um diagrama que ilustra um exemplo da configuração principal de um dispositivo de decodificação de imagem hierárquica ao qual a presente tecnologia é aplicada.
[088] A Fig. 62 é um diagrama de bloco que ilustra um exemplo da configuração de hardware de um computador.
[089] A Fig. 63 é um diagrama que ilustra um exemplo da configuração esquemática de um aparelho de televisão ao qual a presente tecnologia é aplicada.
[090] A Fig. 64 é um diagrama que ilustra um exemplo da configuração esquemática de um telefone móvel ao qual a presente tecnologia é aplicada.
[091] A Fig. 65 é um diagrama que ilustra um exemplo da configuração esquemática de um dispositivo de gravação e reprodução ao qual a presente tecnologia é aplicada.
[092] A Fig. 66 é um diagrama que ilustra um exemplo da configuração esquemática de um dispositivo de formação de imagem ao qual a presente tecnologia é aplicada.
[093] A Fig. 67 é um diagrama de bloco que ilustra um exemplo do uso de codificação escalonável.
[094] A Fig. 68 é um diagrama de bloco que ilustra outro exemplo do uso da codificação escalonável.
[095] A Fig. 69 é um diagrama de bloco que ilustra mais um exemplo do uso da codificação escalonável.
[096] A Fig. 70 é um diagrama que ilustra um exemplo da configuração esquemática de um conjunto de vídeo ao qual a presente tecnologia é aplicada.
[097] A Fig. 71 é um diagrama que ilustra um exemplo da configuração esquemática de um processador de vídeo ao qual a presente tecnologia é aplicada.
[098] A Fig. 72 é um diagrama que ilustra outro exemplo da configura- ção esquemática de um processador de vídeo ao qual a presente tecnologia é aplicada.
MODO PARA REALIZAR A INVENÇÃO <Primeira modalidade> (Exemplo de Configuração de Dispositivo de codificação de acordo com Primeira modalidade)
[099] A Fig. 3 é um diagrama de bloco que ilustra um exemplo da configuração de um dispositivo de codificação, ao qual a presente tecnologia é aplicada, de acordo com a primeira modalidade.
[0100] Um dispositivo de codificação 10 ilustrado na Fig. 3 é configurado por uma unidade de codificação 11, uma unidade de definição 12, e uma unidade de transmissão 13 e codifica uma imagem de acordo com um sistema de HEVC.
[0101] Mais especificamente, uma imagem que é configurada em unidades de quadros é entrada para a unidade de codificação 11 do dispositivo de codificação 10 como um sinal de entrada. A unidade de codificação 11 codifica o sinal de entrada de acordo com o sistema de HEVC em referência a um RPS que é fornecido a partir da unidade de definição 12 e fornece dados codificados adquiridos como um resultado do mesmo para a unidade de definição 12.
[0102] A unidade de definição 12 define um RPS que não inclui in- ter_ref_pic_set_prediction_flag mas inclui a informação de especificação de imagem de referência e um RPS que inclui inter_ref_pic_set_prediction_flag e a informação de especificação de imagem de referência ou delta_idx_minus1. Para cada RPS, a unidade de definição 12 designa um índice como informação de imagem de referência especificando informação que especifica o RPS (informação de imagem de referência). Aqui, é assumido que “0” é definido como um índice do RPS que não inclui inter_ref_pic_set_prediction_flag mas inclui a informação de especificação de imagem de referência.
[0103] A unidade de definição 12 fornece o RPS ao qual o índice foi designado para a unidade de codificação 11. A unidade de definição 12 define um SPS incluindo o RPS, um PPS (Definição de Parâmetro de Imagem), e semelhantes.
[0104] A unidade de definição 12 gera uma corrente codificada com base no SPS e no PPS, que foram definidos e dados codificados fornecidos a partir da unidade de codificação 11. A unidade de definição 12 fornece a corrente codificada para a unidade de transmissão 13.
[0105] A unidade de transmissão 13 transmite a corrente codificada fornecida a partir da unidade de definição 12 para como um dispositivo de decodifi- cação a ser descrito posteriormente.
(Exemplo de Configuração de Unidade de codificação)
[0106] A Fig. 4 é um diagrama de bloco que ilustra um exemplo da configuração da unidade de codificação 11 ilustrada na Fig. 3.
[0107] A unidade de codificação 11 ilustrada na Fig. 4 inclui: um conversor A/D 31; um buffer de rearranjo de tela 32; uma unidade de cálculo 33; uma unidade de transformada ortogonal 34; uma unidade de quantização 35; uma unidade de codificação sem perdas 36; um buffer de acúmulo 37; uma unidade de quantização inversa 38; uma unidade de transformada ortogonal inversa 39; uma unidade de adição 40; um filtro de desblocagem 41, um filtro de deslocamento adaptativo 42; um filtro de ciclo adaptativo 43; uma memória de quadro 44; um comutador 45; uma unidade de intrapredição 46; uma unidade de compensa- ção/predição de movimento 47; uma unidade de seleção de imagem predita 48; uma unidade de definição de imagem de referência 49; e uma unidade de controle de taxa 50.
[0108] Mais especificamente, o conversor A/D 31 da unidade de codificação 11 realiza a conversão A/D de uma imagem, que é em unidades de quadros, que é entrada como um sinal de entrada e emite a imagem convertida para o buffer de rearranjo de tela 32 de forma a ser armazenada no mesmo. O buffer de rearranjo de tela 32 rearranja imagens armazenadas, que estão em unidades de quadros, que estão em ordem de exibição de acordo com a estrutura do GOP em ordem de exibição na ordem de codificação e emite as imagens rearranjadas para a unidade de cálculo 33, a unidade de intrapredição 46, e a unidade de compen- sação/predição de movimento 47.
[0109] A unidade de cálculo 33 serve como uma unidade de codificação e realiza codificação através do cálculo de uma diferença entre uma imagem predita fornecida a partir da unidade de seleção de imagem predita 48 e uma imagem de codificação atual emitida a partir do buffer de rearranjo de tela 32. Mais especificamente, a unidade de cálculo 33 realiza codificação subtraindo uma imagem predita fornecida a partir da unidade de seleção de imagem predita 48 a partir de uma imagem de codificação atual emitida a partir do buffer de rearranjo de tela 32. A unidade de cálculo 33 emite uma imagem adquirida como um resultado do mesmo para a unidade de transformada ortogonal 34 como informação residual. Além disso, em um caso onde uma imagem predita não é fornecida a partir da unidade de seleção de imagem predita 48, a unidade de cálculo 33 emite diretamente a imagem lida a partir do buffer de rearranjo de tela 32 para a unidade de transformada ortogonal 34 como a informação residual.
[0110] A unidade de transformada ortogonal 34 realiza uma transformada ortogonal da informação residual emitida a partir da unidade de cálculo 33, gerando desta forma um coeficiente de transformada ortogonal. A unidade de transformada ortogonal 34 fornece o coeficiente de transformada ortogonal gerado para a unidade de quantização 35.
[0111] A unidade de quantização 35 realiza a quantização do coeficiente de transformada ortogonal que é fornecido a partir da unidade de transformada ortogonal 34 usando parâmetros de quantização fornecidos a partir da unidade de controle de taxa 50. A unidade de quantização 35 entra o coeficiente adquirido como um resultado do mesmo para a unidade de codificação sem perdas 36.
[0112] A unidade de codificação sem perdas 36 adquire informação (aqui a seguir, referido como informação de modo de intrapredição) que representa um modo de intrapredição ideal a partir da unidade de intrapredição 46. Além disso, a unidade de codificação sem perdas 36 adquire informação (aqui a seguir, referido como informação de modo de interpredição) que representa o modo de interpredi- ção ideal, um vetor movimento, e semelhantes a partir da unidade de compensa- ção/predição de movimento 47. Além disso, a unidade de codificação sem perdas 36 adquire o índice de um RPS, o RPS, ou semelhantes a partir da unidade de definição de imagem de referência 49 e adquire parâmetros de quantização a partir da unidade de controle de taxa 50.
[0113] Além disso, a unidade de codificação sem perdas 36 adquire um indicador de armazenamento, um índice ou um deslocamento, e informação de tipo a partir do filtro de deslocamento adaptativo 42 como informação de filtro de deslocamento e adquire um coeficiente de filtro a partir do filtro de ciclo adaptativo 43.
[0114] A unidade de codificação sem perdas 36 realiza codificação sem perdas tal como codificação de comprimento variável (por exemplo, CAVLC (Codificação de Comprimento Variável de Contexto Adaptativo) ou semelhantes) ou codificação aritmética (por exemplo, CABAC (Codificação Aritmética Binária Adaptativa ao Contexto) para o coeficiente quantizado que é fornecido a partir da unidade de quantização 35.
[0115] Além disso, a unidade de codificação sem perdas 36 realiza codificação sem perdas dos parâmetros de quantização, a informação de filtro de deslocamento, e o coeficiente de filtro tal como a informação de modo de intrapredi- ção ou a informação de modo de interpredição, o vetor movimento, o índice do RPS ou o RPS como informação de codificação que se refere à codificação. A unidade de codificação sem perdas 36 fornece a informação de codificação e os coeficientes, que foram codificados de uma maneira sem perdas para o buffer de acúmulo 37 como dados codificados de forma a ser armazenada no mesmo. Além disso, a informação de codificação que foi codificada de uma maneira sem perdas pode ser considerada como informação de cabeçalho (cabeçalho de pedaço) do coeficiente que é codificado de uma maneira sem perdas.
[0116] O buffer de acúmulo 37 armazena temporariamente os dados codificados fornecidos a partir da unidade de codificação sem perdas 36. Além disso, o buffer de acúmulo 37 fornece os dados codificados que são armazenados para a unidade de definição 12 ilustrada na Fig. 3.
[0117] Além disso, o coeficiente quantizado que é emitido a partir da unidade de quantização 35 também é entrado para a unidade de quantização inversa 38. A unidade de quantização inversa 38 realiza quantização inversa do coeficiente quantizado pela unidade de quantização 35 usando os parâmetros de quanti- zação fornecidos a partir da unidade de controle de taxa 50 e fornece um coeficiente de transformada ortogonal adquirido como um resultado do mesmo para a unidade de transformada ortogonal inversa 39.
[0118] A unidade de transformada ortogonal inversa 39 realiza uma transformada ortogonal inversa do coeficiente de transformada ortogonal fornecido a partir da unidade de quantização inversa 38. A unidade de transformada ortogonal inversa 39 fornece informação residual adquirido como um resultado da transformada ortogonal inversa para a unidade de adição 40.
[0119] A unidade de adição 40 adiciona a informação residual fornecida a partir da unidade de transformada ortogonal inversa 39 e a imagem predita fornecida a partir da unidade de seleção de imagem predita 48, desta forma adquirindo uma imagem que foi localmente decodificada. Além disso, em um caso onde a imagem predita não é fornecida a partir da unidade de seleção de imagem predita 48, a unidade de adição 40 define a informação residual fornecida a partir da unidade de transformada ortogonal inversa 39 como uma imagem localmente decodificada. A unidade de adição 40 fornece a imagem localmente decodificada para o filtro de desblocagem 41 e fornece a imagem localmente decodificada para a memória de quadro 44 de forma a ser armazenada no mesmo.
[0120] O filtro de desblocagem 41 realiza um processo de filtro de des- blocagem adaptativo para remover uma distorção de bloco para a imagem localmente decodificada que é fornecida a partir da unidade de adição 40 e fornece uma imagem adquirida como um resultado do mesmo para o filtro de deslocamento adaptativo 42.
[0121] O filtro de deslocamento adaptativo 42 realiza um processo de filtro de deslocamento adaptativo (SAO: Deslocamento adaptativo de amostra) que remove principalmente zumbido para a imagem após o processo de filtro de des- blocagem adaptativo realizado pelo filtro de desblocagem 41.
[0122] Mais especificamente, o filtro de deslocamento adaptativo 42 determina o tipo de processo de filtro de deslocamento adaptativo para cada LCU (Maior Unidade de Codificação) que é uma unidade de codificação máxima e adquire um deslocamento que é usado no processo de filtro de deslocamento adap- tativo. O filtro de deslocamento adaptativo 42 realiza um processo de filtro de deslocamento adaptativo do tipo determinado para a imagem após o processo de filtro de desblocagem adaptativo usando o deslocamento adquirido. Então, o filtro de deslocamento adaptativo 42 fornece a imagem após o processo de filtro de deslocamento adaptativo para o filtro de ciclo adaptativo 43.
[0123] Além disso, o filtro de deslocamento adaptativo 42 possui um buffer em que um deslocamento é armazenado. O filtro de deslocamento adaptativo 42, para cada LCU, determina se o deslocamento usado para o processo de filtro de desblocagem adaptativo já foi armazenado no buffer ou não.
[0124] Em um caso onde é determinado que o deslocamento usado para o processo de filtro de desblocagem adaptativo já foi armazenado no buffer, o filtro de deslocamento adaptativo 42 define o indicador de armazenamento, que representa se o deslocamento é armazenado no buffer ou não, para um valor (aqui, “1”) representando que o deslocamento é armazenado no buffer.
[0125] Então, o filtro de deslocamento adaptativo 42, para cada LCU, fornece o indicador de armazenamento definido para “1”, o índice que representa a posição de armazenamento de um deslocamento no buffer, e a informação de tipo que representa o tipo de o processo de filtro de deslocamento adaptativo que foi realizado para a unidade de codificação sem perdas 36.
[0126] Por outro lado, em um caso onde o deslocamento usado no processo de filtro de desblocagem adaptativo não foi armazenado no buffer, o filtro de deslocamento adaptativo 42 armazena o deslocamento em ordem no buffer. Além disso, o filtro de deslocamento adaptativo 42 define o indicador de armazenamento para um valor (aqui, “0”) representa que o deslocamento não é armazenado no buffer. Então, o filtro de deslocamento adaptativo 42, para cada LCU, fornece o indicador de armazenamento definido para “0”, o deslocamento, e a in-formação de tipo para a unidade de codificação sem perdas 36.
[0127] O filtro de ciclo adaptativo 43 realiza, por exemplo, para cada LCU, um processo de filtro de ciclo adaptativo (ALF: Filtro de ciclo adaptativo) para a imagem após o processo de filtro de deslocamento adaptativo que é fornecido a partir do filtro de deslocamento adaptativo 42. Como o processo de filtro de ciclo adaptativo, por exemplo, um processo usando um filtro de Wiener bidimensional é usado. É aparente que um filtro diferente do filtro de Wiener pode ser usado.
[0128] Mais especificamente, o filtro de ciclo adaptativo 43, para cada LCU, calcula um coeficiente de filtro usado no processo de filtro de ciclo adaptati- vo tal que um residual entre a imagem original que é uma imagem emitida a partir do buffer de rearranjo de tela 32 e uma imagem após o processo de filtro de ciclo adaptativo ser minimizado. Então, o filtro de ciclo adaptativo 43 realiza, para cada LCU, o processo de filtro de ciclo adaptativo para a imagem após o processo de filtro de deslocamento adaptativo usando o coeficiente de filtro calculado.
[0129] O filtro de ciclo adaptativo 43 fornece a imagem após o processo de filtro de ciclo adaptativo para a memória de quadro 44. Além disso, o filtro de ciclo adaptativo 43 fornece o coeficiente de filtro para a unidade de codificação sem perdas 36.
[0130] Aqui, apesar de o processo de filtro de ciclo adaptativo ser assumido como sendo realizado para cada LCU, a unidade de processamento do processo de filtro de ciclo adaptativo não está limitada à LCU. No entanto, corres- pondendo à unidade de processamentos do filtro de deslocamento adaptativo 42 e o filtro de ciclo adaptativo 43 entre si, o processo pode ser realizado de maneira eficiente.
[0131] A memória de quadro 44 armazena a imagem fornecida a partir do filtro de ciclo adaptativo 43 e a imagem fornecida a partir da unidade de adição 40. A imagem armazenada na memória de quadro 44 é emitida para a unidade de intrapredição 46 ou a unidade de compensação/predição de movimento 47 através do comutador 45 como uma imagem de referência.
[0132] A unidade de intrapredição 46 realiza processos de intrapredição de todos os modos de intrapredição que são candidatos usando a imagem de referência lida a partir da memória de quadro 44 através do comutador 45.
[0133] Além disso, a unidade de intrapredição 46 calcula valores de função custo (a ser descritos em detalhe) para todos os modos de intrapredição que são candidatos com base na imagem lida a partir do buffer de rearranjo de tela 32 e a imagem predita gerada como um resultado do processo de intrapredição. Então, a unidade de intrapredição 46 determina um modo de intrapredição do qual o valor de função custo é o mínimo como um modo de intrapredição ideal.
[0134] A unidade de intrapredição 46 fornece a imagem predita que é gerada no modo de intrapredição ideal e um valor de função custo correspondente para a unidade de seleção de imagem predita 48. Em um caso onde a unidade de intrapredição 46 é notificada da seleção da imagem de predição gerada no modo de intrapredição ideal a partir da unidade de seleção de imagem predita 48, a unidade de intrapredição 46 fornece a informação de modo de intrapredição para a unidade de codificação sem perdas 36.
[0135] O valor de função custo também é chamado de um custo de RD (Distorção de Taxa) e, por exemplo, como definido em JM (Modelo de Junção) que é software de referência de acordo com o sistema H.264/AVC, é calculado com base em uma técnica de um de um modo de alta complexidade e um modo de baixa complexidade.
[0136] Mais especificamente, em um caso onde o modo de alta complexidade é empregado como a técnica para calcular o valor de função custo, para todos os modos de predição que são os candidatos, a decodificação é realizada temporariamente para todos os modos de predição que são os candidatos, e um valor de função custo representado na seguinte Equação (1) é calculado para cada modo de predição. Custo(Modo) = D + À.R ... (1)
[0137] Aqui, D é uma diferença (distorção) entre a imagem original e a imagem decodificada, R é a quantidade de codificação gerada incluindo também o coeficiente da transformada ortogonal, e À é um multiplicador de Lagrange dado como uma função do parâmetro de quantização QP.
[0138] Por outro lado, em um caso onde o modo de baixa complexidade é empregado como a técnica para calcular o valor de função custo, para cada um dos modos de predição que são os candidatos, a geração de uma imagem predita e o cálculo da quantidade de codificação da informação de codificação são realizados, e uma função custo representada na seguinte Equação (2) é calculada para cada modo de predição. Custo(Modo) = D + QPtoQuant(QP).Header_Bit ... (2)
[0139] Aqui, D é uma diferença (distorção) entre a imagem original e a imagem decodificada, Header_Bit é a quantidade de codificação da informação de codificação, e QPtoQuant é uma função dado como uma função do parâmetro de quantização QP.
[0140] No modo de baixa complexidade, para todos os modos de predição, apenas as imagens de predição podem ser geradas, e não é necessário gerar imagens decodificadas, enquanto que a quantidade de cálculo é pequena.
[0141] A unidade de compensação/predição de movimento 47 realiza o processo de predição/compensação de movimento de todos os modos de inter- predição que são os candidatos. Mais especificamente, a unidade de compensa- ção/predição de movimento 47 detecta os vetores movimento de todos os modos de interpredição que são os candidatos com base na imagem fornecida a partir do buffer de rearranjo de tela 32 e a imagem de referência que é lida a partir da memória de quadro 44 através do comutador 45. Então, a unidade de compensa- ção/predição de movimento 47 serve como uma unidade de geração de imagem predita e gera imagens preditas realizando processos de compensação da imagem de referência com base nos vetores movimento.
[0142] Neste momento, a unidade de compensação/predição de movimento 47 calcula valores de função custo para todos os modos de interpredição que são os candidatos com base na imagem fornecida a partir do buffer de rear- ranjo de tela 32 e a imagens preditas e determina um modo de interpredição do qual o valor de função custo é o mínimo como o modo de interpredição ideal. Então, a unidade de compensação/predição de movimento 47 fornece o valor de função custo do modo de interpredição ideal e uma correspondente imagem predita para a unidade de seleção de imagem predita 48. Além disso, em um caso onde a unidade de compensação/predição de movimento 47 é notificada da seleção da imagem predita gerada no modo de interpredição ideal a partir da unidade de seleção de imagem predita 48, a unidade de compensação/predição de movimento 47 emite a informação de modo de interpredição, o correspondente vetor movimento, e semelhantes para a unidade de codificação sem perdas 36 e emite a informação de especificação de imagem de referência para a unidade de definição de imagem de referência 49.
[0143] A unidade de seleção de imagem predita 48 determina um de o modo de intrapredição ideal e o modo de interpredição ideal do qual o correspondente valor de função custo é menor do que o modo de predição ideal com base nos valores de função custo fornecidos a partir da unidade de intrapredição 46 e a unidade de compensação/predição de movimento 47. Então, a unidade de seleção de imagem predita 48 fornece a imagem predita do modo de predição ideal para a unidade de cálculo 33 e a unidade de adição 40. Além disso, a unidade de seleção de imagem predita 48 notifica a unidade de intrapredição 46 ou a unidade de compensação/predição de movimento 47 da seleção da imagem predita do modo de predição ideal.
[0144] A unidade de definição de imagem de referência 49 mantém a informação de especificação de imagem de referência, que é fornecida a partir da unidade de compensação/predição de movimento 47, que corresponde ao GOP. Em um caso onde a imagem de codificação atual é uma primeira imagem do GOP, a unidade de definição de imagem de referência 49 fornece “0” como o índice do RPS e o indicador de RPS representando que o RPS da imagem de codificação atual é um RPS incluído no SPS para a unidade de codificação sem perdas 36.
[0145] Por outro lado, em um caso onde a imagem de codificação atual é uma imagem diferente da primeira imagem do GOP, a unidade de definição de imagem de referência 49 compara a imagem de referência mantida especificando a informação da imagem anterior e a informação de especificação de imagem de referência da imagem de codificação atual entre si e determina in- ter_ref_pic_set_prediction_flag e delta_idx_minus1 com base em um resultado da comparação. Então, a unidade de definição de imagem de referência 49 define o RPS incluindo o inter_ref_pic_set_prediction_flag determinado e a informação de especificação de imagem de referência da imagem de codificação atual ou del- ta_idx_minus1 como o RPS da imagem de codificação atual.
[0146] Então, em um caso onde o RPS que é o mesmo que o RPS da imagem de codificação atual é fornecido a partir da unidade de definição 12, a unidade de definição de imagem de referência 49 fornece o índice do RPS e o indicador de RPS representando que o RPS da imagem de codificação atual é o RPS incluído no SPS para a unidade de codificação sem perdas 36. Por outro lado, em um caso onde o RPS que é o mesmo que o RPS da imagem de codificação atual não é fornecido a partir da unidade de definição 12, a unidade de de-finição de imagem de referência 49 fornece o RPS da imagem de codificação atual e o indicador de RPS representando que o RPS da imagem de codificação atu- al não é o RPS incluído no SPS para a unidade de codificação sem perdas 36.
[0147] A unidade de controle de taxa 50 determina parâmetros de quan- tização usados pela unidade de quantização 35 com base nos dados codificados armazenados no buffer de acúmulo 37 tal que um excesso de fluxo ou um subflu- xo não ocorre. A unidade de controle de taxa 50 fornece os parâmetros de quanti- zação determinados para a unidade de quantização 35, a unidade de codificação sem perdas 36, e a unidade de quantização inversa 38.
(Exemplo de Sintaxe de SPS)
[0148] A Fig. 5 é um diagrama que ilustra um exemplo da sintaxe de SPS que é definido pela unidade de definição 12 ilustrada na Fig. 3.
[0149] Como ilustrado na linha 18 na Fig. 5, o RPS de cada índice (i) está incluído no SPS.
(Exemplo de Sintaxe de RPS)
[0150] A Fig. 6 é um diagrama que ilustra um exemplo da sintaxe de o RPS.
[0151] Enquanto não ilustrado na figura, descrições da sexta linha e linhas subsequentes ilustradas na Fig. 6 são as mesmas que aquelas da terceira linha e linhas subsequentes ilustradas na Fig. 1.
[0152] Como ilustrado na segunda e na terceira linhas na Fig. 6, no RPS do qual o índice (idx) é zero, inter_ref_pic_set_prediction_flag não está incluído mas a informação de especificação de imagem de referência incluída em um caso onde inter_ref_pic_set_prediction_flag é “0” está incluído.
[0153] Por outro lado, como ilustrado na quarta e na quinta linhas, no RPS do qual o índice (idx) é diferente de “0”, inter_ref_pic_set_prediction_flag está incluído. Então, em um caso onde inter_ref_pic_set_prediction_flag é “0”, a informação de especificação de imagem de referência está incluída. Por outro lado, em um caso onde inter_ref_pic_set_prediction_flag é “1”, delta_idx_minus1 está incluído. (Descrição das Vantagens da Presente Tecnologia)
[0154] A Fig. 7 é um diagrama que ilustra a quantidade de informação do RPS que é definido pela unidade de definição 12 ilustrada na Fig. 3, e a Fig. 8 é um diagrama que ilustra a quantidade de informação de um RPS convencional.
[0155] Nos exemplos ilustrados nas Figs. 7 e 8, a informação de especificação de imagem de referência da segunda e oitava imagens a partir do início dentro do GOP é a mesma que a informação de especificação de imagem de referência de uma imagem anterior na ordem de codificação.
[0156] Neste caso, como ilustrado na Fig. 7, a unidade de definição 12 define a informação de especificação de imagem de referência da primeira imagem do GOP como o RPS do qual o índice é “0”. Além disso, a unidade de definição 12, por exemplo, como o RPS do qual o índice é “1”, define “1” como in- ter_ref_pic_set_prediction_flag e define “0” como delta_idx_minus1. Assim, o índice do RPS da primeira imagem do GOP é definido como “0”, e os índices de RPS da segunda e oitava imagens são definidos como “1”.
[0157] Em contraste, como ilustrado na Fig. 8, no caso convencional, por exemplo, como o RPS do qual o índice é “0”, “0” como in- ter_ref_pic_set_prediction_flag e a informação de especificação de imagem de referência da primeira imagem do GOP são definidos. Além disso, similar ao caso da unidade de definição 12, o RPS do qual o índice é “1” é definido. Assim, o índice da primeira imagem do GOP é definido como “0”, e os índices de RPS da segunda e oitava imagens são definidos como “1”.
[0158] Como dito acima, a unidade de definição 12 não define in- ter_ref_pic_set_prediction_flag como o RPS do qual o índice é “0” que é usada como o RPS da primeira imagem. Em outras palavras, como a primeira imagem do GOP não possui qualquer imagem anterior na ordem de codificação, in- ter_ref_pic_set_prediction_flag necessariamente deve ser “0”. De maneira apropriada, a unidade de definição 12 não define inter_ref_pic_set_prediction_flag como o RPS, do qual o índice é “0”, usado como o RPS da primeira imagem mas define apenas a informação de especificação de imagem de referência devido a inter_ref_pic_set_prediction_flag sendo “0”. Como um resultado, a quantidade de informação do RPS pode ser diminuída a partir daquela de um caso convencional por uma quantidade que corresponde a inter_ref_pic_set_prediction_flag da primeira imagem.
(Exemplo de Sintaxe de Cabeçalho de pedaço)
[0159] A Fig. 9 é um diagrama que ilustra um exemplo da sintaxe de um cabeçalho de pedaço.
[0160] Como ilustrado na quinta linha na Fig. 9, no cabeçalho de pedaço, um indicador de RPS (short_term_ref_pic_set_sps_flag) de um correspondente coeficiente está incluído. Além disso, como ilustrado na sexta e na sétima linhas na Fig. 9, em um caso onde o indicador de RPS é “0” representando que o RPS da imagem de codificação atual não é o RPS incluído no SPS, no cabeçalho de pedaço, o RPS de um correspondente coeficiente está incluído como short_term_ref_pic_set (num_short_term_ref_pic_sets).
[0161] Por outro lado, como ilustrado na oitava e na nona linhas na Fig. 9, em um caso onde o indicador de RPS é “1” representando que o RPS da imagem de codificação atual é o RPS incluído no SPS, no cabeçalho de pedaço, o índice do RPS de um correspondente coeficiente está incluído como short_term_ref_pic_set_idx (num_short_term_ref_pic_sets). (Descrição do Processo do Dispositivo de codificação)
[0162] A Fig. 10 é um fluxograma que ilustra um processo de geração realizado pelo dispositivo de codificação 10 ilustrado na Fig. 3.
[0163] Na Etapa S11 ilustrada na Fig. 10, a unidade de definição 12 do dispositivo de codificação 10 realiza um processo de definição de RPS para definir o RPS. Este processo de definição de RPS será descrito em detalhe posteriormente com referência à Fig. 11 a ser descrita posteriormente. Na Etapa S12, a unidade de codificação 11 realiza um processo de codificação para codificar uma imagem, que é configurada em unidades de quadros, que entra a partir do exterior como um sinal de entrada de acordo com o sistema de HEVC. Este processo de codificação será descrito posteriormente em detalhe com referência às Figs. 12 e 13 a ser descritas posteriormente.
[0164] Na Etapa S13, a unidade de definição 12 define o SPS que inclui o RPS ao qual o índice é designado. Na Etapa S14, a unidade de definição 12 define o PPS. Na Etapa S15, a unidade de definição 12 gera uma corrente codificada com base no SPS e no PPS, que foi definido, e os dados codificados fornecidos a partir da unidade de codificação 11. A unidade de definição 12 fornece a corrente codificada para a unidade de transmissão 13.
[0165] Na Etapa S16, a unidade de transmissão 13 transmite a corrente codificada fornecida a partir da unidade de definição 12 para o dispositivo de de- codificação a ser descrito posteriormente e termina o processo.
[0166] A Fig. 11 é um fluxograma que ilustra um processo de definição de RPS representado na Etapa S11 que é ilustrado na Fig. 10 em detalhe.
[0167] Na Etapa S21 ilustrado na Fig. 11, a unidade de definição 12 define o índice i do RPS para “0”. Na Etapa S22, é determinado se o índice i do RPS é “0” ou não. Na Etapa S22, em um caso onde o índice i do RPS é determinado para ser “0”, na Etapa S23, a unidade de definição 12 define in- ter_ref_pic_set_prediction_flag para “0”, e o processo prossegue para a Etapa S25.
[0168] Por outro lado, em um caso onde o índice i do RPS é determinado para não ser “0” na Etapa S22, a unidade de definição 12, na Etapa S24, define o RPS do índice i como inter_ref_pic_set_prediction_flag, e o processo prossegue para a Etapa S25.
[0169] Na Etapa S25, a unidade de definição 12 determina se in- ter_ref_pic_set_prediction_flag é “1” ou não. Em um caso onde é determinado que inter_ref_pic_set_prediction_flag é “1” na Etapa S25, na Etapa S26, a unidade de definição 12 define delta_idx_minus1 como o RPS do índice i, e o processo prossegue para a Etapa S28.
[0170] Por outro lado, em um caso onde é determinado que in ter_ref_pic_set_prediction_flag não é “1” na Etapa S25, em outras palavras, em um caso onde inter_ref_pic_set_prediction_flag é “0”, na Etapa S27, a unidade de definição 12 define a informação de especificação de imagem de referência, e o processo prossegue para a Etapa S28.
[0171] Na Etapa S28, a unidade de definição 12 incrementa o índice i por um. Na Etapa S29, a unidade de definição 12 determina se o índice i é igual a ou maior do que o número num_short_term_ref_pic_sets dos RPS incluídos no SPS ou não.
[0172] Em um caso onde é determinado que o índice i não é o número num_short_term_ref_pic_sets ou mais na Etapa S29, o processo é retornado para a Etapa S22, e o processo das Etapas S22 a S29 é repetido até que o índice i se torne o número num_short_term_ref_pic_sets ou mais.
[0173] Por outro lado, em um caso onde é determinado que o índice i é o número num_short_term_ref_pic_sets ou mais na Etapa S29, o processo é retornado para a Etapa S11 ilustrada na Fig. 10 e prossegue para a Etapa S12.
[0174] As Figs. 12 e 13 representam um fluxograma que ilustra o processo de codificação da Etapa S12 ilustrada na Fig. 10 em detalhe.
[0175] Na Etapa S31 ilustrada na Fig. 12, o conversor A/D 31 da unidade de codificação 11 realiza a conversão A/D de uma imagem, que é em unidades de quadros, que entra como um sinal de entrada e emite a imagem convertida para o buffer de rearranjo de tela 32 de forma a ser armazenada no mesmo.
[0176] Na Etapa S32, o buffer de rearranjo de tela 32 rearranja as imagens armazenadas de quadros, que são arranjadas em ordem de exibição, em ordem para codificar de acordo com a estrutura do GOP. O buffer de rearranjo de tela 32 fornece as imagens que são configuradas em unidades de quadros após o rearranjo para a unidade de cálculo 33, a unidade de intrapredição 46, e a unidade de compensação/predição de movimento 47.
[0177] Na Etapa S33, a unidade de intrapredição 46 realiza um processo de intrapredição de todos os modos de intrapredição que são candidatos. Além disso, a unidade de intrapredição 46 calcula valores de função custo para todos os modos de intrapredição que são os candidatos com base na imagem lida a partir do buffer de rearranjo de tela 32 e a imagem predita gerada como um resultado do processo de intrapredição. Então, a unidade de intrapredição 46 determina um modo de intrapredição do qual o valor de função custo é o mínimo como um modo de intrapredição ideal. A unidade de intrapredição 46 fornece a imagem predita gerada no modo de intrapredição ideal e um valor de função custo corres-pondente para a unidade de seleção de imagem predita 48.
[0178] Além disso, a unidade de compensação/predição de movimento 47 realiza um processo de predição/compensação de movimento de todos os modos de interpredição que são candidatos. Adicionalmente, a unidade de compen- sação/predição de movimento 47 calcula valores de função custo de todos os modos de interpredição que são os candidatos com base na imagem fornecida a partir do buffer de rearranjo de tela 32 e a imagens preditas e determina um modo de interpredição do qual o valor de função custo é o mínimo como um modo de interpredição ideal. Então, a unidade de compensação/predição de movimento 47 fornece o valor de função custo do modo de interpredição ideal e uma correspondente imagem predita para a unidade de seleção de imagem predita 48.
[0179] Na Etapa S34, a unidade de seleção de imagem predita 48 determina um de o modo de intrapredição ideal e o modo de interpredição ideal do qual o valor de função custo é o mínimo como um modo de predição ideal com base nos valores de função custo fornecidos a partir da unidade de intrapredição 46 e a unidade de compensação/predição de movimento 47 no processo da Etapa S33. Então, a unidade de seleção de imagem predita 48 fornece uma imagem predita do modo de predição ideal para a unidade de cálculo 33 e a unidade de adição 40.
[0180] Na Etapa S35, a unidade de seleção de imagem predita 48 determina se o modo de predição ideal é o modo de interpredição ideal ou não. Em um caso onde é determinado que o modo de predição ideal é o modo de interpre- dição ideal na Etapa S35, a unidade de seleção de imagem predita 48 notifica a unidade de compensação/predição de movimento 47 da seleção da imagem predita gerada no modo de interpredição ideal.
[0181] Então, na Etapa S36, a unidade de compensação/predição de movimento 47 fornece a informação de modo de interpredição e um correspondente vetor movimento para a unidade de codificação sem perdas 36. A unidade de compensação/predição de movimento 47 fornece a informação de especificação de imagem de referência para a unidade de definição de imagem de referência 49.
[0182] Na Etapa S37, a unidade de definição de imagem de referência 49 realiza um processo de determinação de índice de RPS para determinar o índice do RPS. Este processo de determinação de índice de RPS será descrito posteriormente em detalhe com referência à Fig. 14 a ser descrito posteriormente.
[0183] Por outro lado, na Etapa S35, em um caso onde é determinado que o modo de predição ideal não é o modo de interpredição ideal, em outras palavras, em um caso onde o modo de predição ideal é o modo de intrapredição ideal, a unidade de seleção de imagem predita 48 notifica a unidade de intrapredi- ção 46 da seleção da imagem predita gerada no modo de intrapredição ideal. Então, na Etapa S38, a unidade de intrapredição 46 fornece a informação de modo de intrapredição para a unidade de codificação sem perdas 36, e o processo prossegue para a Etapa S39.
[0184] Na Etapa S39, a unidade de cálculo 33 subtrai a imagem predita fornecida a partir da unidade de seleção de imagem predita 48 da imagem fornecida a partir do buffer de rearranjo de tela 32, desta forma realizando a codificação. A unidade de cálculo 33 emite uma imagem adquirida como um resultado do mesmo para a unidade de transformada ortogonal 34 como informação residual.
[0185] Na Etapa S40, a unidade de transformada ortogonal 34 realiza uma transformada ortogonal para a informação residual emitida a partir da unidade de cálculo 33 e fornece um coeficiente de transformada ortogonal adquirido como um resultado do mesmo para a unidade de quantização 35.
[0186] Na Etapa S41, a unidade de quantização 35 quantiza o coeficiente fornecido a partir da unidade de transformada ortogonal 34 usando os parâmetros de quantização fornecidos a partir da unidade de controle de taxa 50. O coeficiente quantizado é entrada para a unidade de codificação sem perdas 36 e a unidade de quantização inversa 38.
[0187] Na Etapa S42 ilustrado na Fig. 13, a unidade de quantização inversa 38 realiza quantização inversa do coeficiente quantizado fornecido a partir da unidade de quantização 35 usando os parâmetros de quantização fornecidos a partir da unidade de controle de taxa 50 e fornece um coeficiente de transformada ortogonal adquirido como um resultado do mesmo para a unidade de transformada ortogonal inversa 39.
[0188] Na Etapa S43, a unidade de transformada ortogonal inversa 39 realiza uma transformada ortogonal inversa para o coeficiente de transformada ortogonal fornecido a partir da unidade de quantização inversa 38 e fornece informação residual adquirido como um resultado do mesmo para a unidade de adição 40.
[0189] Na Etapa S44, a unidade de adição 40 adiciona a informação residual fornecida a partir da unidade de transformada ortogonal inversa 39 e a imagem predita fornecida a partir da unidade de seleção de imagem predita 48, desta forma adquirindo uma imagem localmente decodificada. A unidade de adição 40 fornece a imagem adquirida para o filtro de desblocagem 41 e a memória de quadro 44.
[0190] Na Etapa S45, o filtro de desblocagem 41 realiza um processo de filtro de desblocagem para a imagem localmente decodificada que é fornecida a partir da unidade de adição 40. O filtro de desblocagem 41 fornece uma imagem adquirida como um resultado do mesmo para o filtro de deslocamento adaptativo 42.
[0191] Na Etapa S46, o filtro de deslocamento adaptativo 42 realiza um processo de filtro de deslocamento adaptativo para a imagem fornecida a partir do filtro de desblocagem 41 para cada LCU. O filtro de deslocamento adaptativo 42 fornece uma imagem adquirida como um resultado do mesmo para o filtro de ciclo adaptativo 43. Além disso, o filtro de deslocamento adaptativo 42, para cada LCU, fornece o indicador de armazenamento, o índice ou o deslocamento, e a informação de tipo para a unidade de codificação sem perdas 36 como a informação de filtro de deslocamento.
[0192] Na Etapa S47, o filtro de ciclo adaptativo 43 realiza um processo de filtro de ciclo adaptativo para a imagem fornecida a partir do filtro de deslocamento adaptativo 42 para cada LCU. O filtro de ciclo adaptativo 43 fornece uma imagem adquirida como um resultado do mesmo para a memória de quadro 44. Além disso, o filtro de ciclo adaptativo 43 fornece o coeficiente de filtro usado no processo de filtro de ciclo adaptativo para a unidade de codificação sem perdas 36.
[0193] Na Etapa S48, a memória de quadro 44 armazena a imagem fornecida a partir do filtro de ciclo adaptativo 43 e a imagem fornecida a partir da unidade de adição 40. As imagens armazenadas na memória de quadro 44 são emitidas para a unidade de intrapredição 46 ou a unidade de compensa- ção/predição de movimento 47 através do comutador 45 como imagens de referência.
[0194] Na Etapa S49, a unidade de codificação sem perdas 36 realiza codificação sem perdas para parâmetros de quantização, informação de filtro de deslocamento, e coeficientes de filtro, que são fornecidos a partir da unidade de controle de taxa 50, tal como a informação de modo de intrapredição ou a informação de modo de interpredição, o vetor movimento, o índice do RPS ou o RPS, e semelhantes como informação de codificação.
[0195] Na Etapa S50, a unidade de codificação sem perdas 36 realiza codificação sem perdas para o coeficiente quantizado fornecido a partir da unidade de quantização 35. Então, a unidade de codificação sem perdas 36 gera dados codificados com base na informação de codificação e o coeficiente que foi codificado de uma maneira sem perdas no processo da Etapa S49.
[0196] Na Etapa S51, o buffer de acúmulo 37 armazena temporariamente os dados codificados fornecidos a partir da unidade de codificação sem perdas 36.
[0197] Na Etapa S52, a unidade de controle de taxa 50 determina os parâmetros de quantização usados pela unidade de quantização 35 com base nos dados codificados armazenados no buffer de acúmulo 37 tal que um excesso de fluxo ou um subfluxo não ocorre. A unidade de controle de taxa 50 fornece os parâmetros de quantização determinados para a unidade de quantização 35, a unidade de codificação sem perdas 36, e a unidade de quantização inversa 38.
[0198] Na Etapa S53, o buffer de acúmulo 37 emite os dados codificados armazenados para a unidade de definição 12 ilustrada na Fig. 3.
[0199] No processo de codificação ilustrado nas Figs. 12 e 13, para a simplificação da descrição, enquanto tanto o processo de intrapredição quanto o processo de predição/compensação de movimento são configurados para ser realizados constantemente, na verdade, apenas um dos mesmos pode ser realizado de acordo com o tipo de imagem ou semelhantes.
[0200] A Fig. 14 é um fluxograma que ilustra o processo de determinação de índice de RPS representado na Etapa S37 ilustrada na Fig. 12 em detalhe.
[0201] Na Etapa S71 ilustrado na Fig. 14, a unidade de definição de imagem de referência 49 mantém a informação de especificação de imagem de referência, que é fornecida a partir da unidade de compensação/predição de movimento 47, que corresponde ao GOP. Na Etapa S72, a unidade de definição de imagem de referência 49 determina se a imagem de codificação atual é a primeira imagem do GOP ou não.
[0202] Em um caso onde a imagem de codificação atual é determinada para ser a primeira imagem do GOP na Etapa S72, na Etapa S73, a unidade de definição de imagem de referência 49 define o indicador de RPS para “1”. Na Eta- pa S74, a unidade de definição de imagem de referência 49 define o índice do RPS para “0”, e o processo prossegue para a Etapa S79.
[0203] Por outro lado, em um caso onde a imagem de codificação atual é determinada para ser uma imagem diferente da primeira imagem do GOP na Etapa S72, na Etapa S75, a unidade de definição de imagem de referência 49 gera um RPS da imagem de codificação atual.
[0204] Mais especificamente, a unidade de definição de imagem de referência 49 determina se a imagem de referência mantida especificando a informação da imagem anterior e a informação de especificação de imagem de referência da imagem de codificação atual são as mesmas ou não. Em um caso onde a imagem de referência mantida especificando a informação da imagem anterior e a informação de especificação de imagem de referência da imagem de codificação atual são determinadas para ser as mesmas, a unidade de definição de imagem de referência 49 gera o RPS da imagem de codificação atual que inclui “1” como inter_ref_pic_set_prediction_flag e inclui delta_idx_minus1.
[0205] Por outro lado, em um caso onde a imagem de referência mantida especificando a informação da imagem anterior e a informação de especificação de imagem de referência da imagem de codificação atual são determinadas para não ser as mesmas, a unidade de definição de imagem de referência 49 gera o RPS da imagem de codificação atual que inclui “0” como in- ter_ref_pic_set_prediction_flag.
[0206] Na Etapa S76, a unidade de definição de imagem de referência 49 determina se o RPS da imagem de codificação atual é o mesmo que o RPS incluído no SPS que é fornecido a partir da unidade de definição 12 ou não. Na Etapa S76, em um caso onde o RPS da imagem de codificação atual é determinado para ser o mesmo que o RPS incluído no SPS, na Etapa S77, a unidade de definição de imagem de referência 49 define o indicador de RPS para “1”.
[0207] Na Etapa S78, a unidade de definição de imagem de referência 49 reconhece o índice do RPS incluído no SPS que é o mesmo que o RPS da imagem de codificação atual, e o processo prossegue para a Etapa S79. Na Etapa S79, a unidade de definição de imagem de referência 49 fornece o indicador de RPS definido na Etapa S73 ou na Etapa S77 e o índice do RPS que é definido na Etapa S74 ou o índice do RPS que é reconhecido na Etapa S78 para a unidade de codificação sem perdas 36. Então, o processo é retornado para a Etapa S37 ilustrada na Fig. 12, e o processo prossegue para a Etapa S39.
[0208] Por outro lado, em um caso onde o RPS da imagem de codificação atual é determinado para não ser o mesmo que o RPS incluído no SPS na Etapa S76, a unidade de definição de imagem de referência 49 define o indicador de RPS para “0”. Na Etapa S81, a unidade de definição de imagem de referência 49 fornece o indicador de RPS definido na Etapa S80 e o RPS gerado na Etapa S75 para a unidade de codificação sem perdas 36. Então, o processo é retornado para a Etapa S37 ilustrada na Fig. 12, e o processo prossegue para a Etapa S39.
[0209] Como dito acima, em um caso onde a imagem de codificação atual é uma imagem diferente da primeira imagem do GOP, o dispositivo de codificação 10 transmite inter_ref_pic_set_prediction_flag. Em outras palavras, em um caso onde a imagem de codificação atual é a primeira imagem do GOP, o dispositivo de codificação 10 não transmite inter_ref_pic_set_prediction_flag. De maneira apropriada, a quantidade de informação do RPS que se refere à informação de especificação de imagem de referência pode ser diminuída por uma quantidade que corresponde a inter_ref_pic_set_prediction_flag da primeira imagem do GOP.
[0210] (Exemplo de Configuração de Dispositivo de decodificação de acordo com a Primeira modalidade)
[0211] A Fig. 15 é um diagrama de bloco que ilustra um exemplo da configuração de um dispositivo de decodificação, ao qual a presente tecnologia é aplicada, de acordo com a primeira modalidade que decodifica uma corrente codificada transmitida a partir do dispositivo de codificação 10 ilustrado na Fig. 3.
[0212] O dispositivo de decodificação 110 ilustrado nas Figs. 15 é configurado através de uma unidade de recepção 111, uma unidade de extração 112, e uma unidade de decodificação 113.
[0213] A unidade de recepção 111 do dispositivo de decodificação 110 recebe uma corrente codificada que é transmitida a partir do dispositivo de codificação 10 ilustrado na Fig. 3 e fornece a corrente codificada recebida para a unidade de extração 112.
[0214] A unidade de extração 112 extrai um SPS, um PPS, dados codificados, e semelhantes a partir da corrente codificada que é fornecida a partir da unidade de recepção 111. A unidade de extração 112 fornece os dados codificados para a unidade de decodificação 113. Além disso, a unidade de extração 112, com base no SPS, adquire inter_ref_pic_set_prediction_flag de cada RPS e del- ta_idx_minus1 ou a informação de especificação de imagem de referência e fornece a informação adquirida para a unidade de decodificação 113. Além disso, a unidade de extração 112 fornece informação diferente do RPS incluída no SPS, o PPS, e semelhantes para a unidade de decodificação 113 como é necessário.
[0215] Com base em inter_ref_pic_set_prediction_flag de cada RPS e delta_idx_minus1 ou a informação de especificação de imagem de referência fornecida a partir da unidade de extração 112, a unidade de decodificação 113 decodifica os dados codificados fornecidos a partir da unidade de extração 112 de acordo com o sistema de HEVC. Neste momento, a unidade de decodificação 113 se refere a informação diferente do RPS incluída no SPS, o PPS, e semelhantes como é necessário. A unidade de decodificação 113 emite uma imagem adquirida como um resultado da decodificação como um sinal de saída. (Exemplo de Configuração de Unidade de decodificação)
[0216] A Fig. 16 é um diagrama de bloco que ilustra um exemplo da configuração da unidade de decodificação 113 ilustrada na Fig. 15.
[0217] A unidade de decodificação 113 ilustrada na Fig. 16 é configurada por: um buffer de acúmulo 131; uma unidade de decodificação sem perdas 132; uma unidade de quantização inversa 133; uma unidade de transformada ortogonal inversa 134; uma unidade de adição 135; um filtro de desblocagem 136; um filtro de deslocamento adaptativo 137; um filtro de ciclo adaptativo 138; um buffer de rearranjo de tela 139; a D/A converter 140; uma memória de quadro 141; um comutador 142; uma unidade de intrapredição 143; uma unidade de definição de imagem de referência 144; uma unidade de compensação de movimento 145; e um comutador 146.
[0218] O buffer de acúmulo 131 da unidade de decodificação 113 recebe dados codificados a partir da unidade de extração 112 ilustrada na Fig. 15 e armazena os dados codificados recebidos. O buffer de acúmulo 131 fornece os dados decodificados armazenados para a unidade de decodificação sem perdas 132.
[0219] A unidade de decodificação sem perdas 132 realiza decodificação sem perdas tal como decodificação de comprimento variável ou decodificação aritmética para os dados codificados fornecidos a partir do buffer de acúmulo 131, desta forma adquirindo coeficientes quantizados e informação de codificação. A unidade de decodificação sem perdas 132 fornece os coeficientes quantizados para a unidade de quantização inversa 133. Além disso, a unidade de decodifica- ção sem perdas 132 fornece a informação de modo de intrapredição e semelhan-tes como a informação de codificação para a unidade de intrapredição 143 e fornece o vetor movimento, a informação de modo de interpredição, e semelhantes para a unidade de compensação de movimento 145. A unidade de decodificação sem perdas 132 fornece o indicador de RPS e o índice do RPS ou o RPS para a unidade de definição de imagem de referência 144 como a informação de codificação.
[0220] Além disso, a unidade de decodificação sem perdas 132 fornece a informação de modo de intrapredição ou a informação de modo de interpredição como a informação de codificação para o comutador 146. A unidade de decodifi- cação sem perdas 132 fornece a informação de filtro de deslocamento como a informação de codificação para o filtro de deslocamento adaptativo 137 e fornece o coeficiente de filtro para o filtro de ciclo adaptativo 138.
[0221] A unidade de quantização inversa 133, a unidade de transformada ortogonal inversa 134, a unidade de adição 135, o filtro de desblocagem 136, o filtro de deslocamento adaptativo 137, o filtro de ciclo adaptativo 138, a memória de quadro 141, o comutador 142, a unidade de intrapredição 143, e a unidade de compensação de movimento 145 realizam processos que são similares a aqueles da unidade de quantização inversa 38, da unidade de transformada ortogonal inversa 39, da unidade de adição 40, do filtro de desblocagem 41, do filtro de deslocamento adaptativo 42, do filtro de ciclo adaptativo 43, da memória de quadro 44, do comutador 45, da unidade de intrapredição 46, e da unidade de compensa- ção/predição de movimento 47 ilustrados na Fig. 4, enquanto que a imagem é decodificada.
[0222] Mais especificamente, a unidade de quantização inversa 133 realiza quantização inversa dos coeficientes quantizados fornecidos a partir da unidade de decodificação sem perdas 132 e fornece coeficientes de transformada ortogonal adquirido como um resultado do mesmo para a unidade de transformada ortogonal inversa 134.
[0223] A unidade de transformada ortogonal inversa 134 realiza uma transformada ortogonal inversa para os coeficientes de transformada ortogonal fornecidos a partir da unidade de quantização inversa 133. A unidade de transformada ortogonal inversa 134 fornece informação residual adquirido como um resultado da transformada ortogonal inversa para a unidade de adição 135.
[0224] A unidade de adição 135 serve como uma unidade de decodifica- ção e realiza decodificação adicionando a informação residual que é fornecida a partir da unidade de transformada ortogonal inversa 134 como uma imagem de decodificação atual e a imagem predita fornecida a partir do comutador 146. A unidade de adição 135 fornece uma imagem adquirida como um resultado da de- codificação para o filtro de desblocagem 136 e a memória de quadro 141. Além disso, em um caso onde a imagem predita não é fornecida a partir do comutador 146, a unidade de adição 135 fornece a imagem que é a informação residual for- necida a partir da unidade de transformada ortogonal inversa 134 para o filtro de desblocagem 136 como uma imagem adquirida como um resultado da decodifica- ção e fornece a imagem para a memória de quadro 141 de forma a ser armazenada no mesmo.
[0225] O filtro de desblocagem 136 realiza um processo de filtro de des- blocagem adaptativo para a imagem fornecida a partir da unidade de adição 135 e fornece uma imagem adquirida como um resultado do mesmo para o filtro de deslocamento adaptativo 137.
[0226] O filtro de deslocamento adaptativo 137 possui um buffer que armazena sequencialmente deslocamentos fornecidos a partir da unidade de deco- dificação sem perdas 132. Além disso, o filtro de deslocamento adaptativo 137, para cada LCU, realiza um processo de filtro de deslocamento adaptativo para a imagem após o processo de filtro de desblocagem adaptativo realizado pelo filtro de desblocagem 136 com base na informação de filtro de deslocamento fornecida a partir da unidade de decodificação sem perdas 132.
[0227] Mais especificamente, em um caso onde o indicador de armazenamento incluído na informação de filtro de deslocamento é “0”, o filtro de deslocamento adaptativo 137 realiza um processo de filtro de deslocamento adaptativo de um tipo representado pela informação de tipo usando o deslocamento incluído na informação de filtro de deslocamento para a imagem após o processo de filtro de desblocagem que é realizado em unidades de LCUs.
[0228] Por outro lado, em um caso onde o indicador de armazenamento incluído na informação de filtro de deslocamento é “1”, o filtro de deslocamento adaptativo 137 lê um deslocamento que é armazenado em uma posição representado pelo índice incluído na informação de filtro de deslocamento para a imagem após o processo de filtro de desblocagem realizado em unidades de LCUs. Então, o filtro de deslocamento adaptativo 137 realiza um processo de filtro de deslocamento adaptativo de um tipo representado pela informação de tipo usando o deslocamento de leitura. O filtro de deslocamento adaptativo 137 fornece a imagem após o processo de filtro de deslocamento adaptativo para o filtro de ciclo adapta- tivo 138.
[0229] O filtro de ciclo adaptativo 138 realiza o processo de filtro de ciclo adaptativo para cada LCU para a imagem fornecida a partir do filtro de deslocamento adaptativo 137 usando os coeficientes de filtro fornecidos a partir da unidade de decodificação sem perdas 132. O filtro de ciclo adaptativo 138 fornece uma imagem adquirida como um resultado do mesmo para a memória de quadro 141 e o buffer de rearranjo de tela 139.
[0230] O buffer de rearranjo de tela 139 armazena imagens fornecidas a partir do filtro de ciclo adaptativo 138 em unidades de quadros. O buffer de rear- ranjo de tela 139 rearranja as imagens armazenadas, que estão em unidades de quadros, que são arranjadas em ordem para codificar na ordem original e fornece as imagens rearranjadas para o conversor D/A 140.
[0231] O conversor D/A 140 realiza a conversão D/A da imagem, que é configurada em unidades de quadros, fornecida a partir do buffer de rearranjo de tela 139 e emite a imagem convertida as um sinal de saída. A memória de quadro 141 armazena a imagem fornecida a partir do filtro de ciclo adaptativo 138 e a imagem fornecida a partir da unidade de adição 135. A imagem armazenada na memória de quadro 141 é lida como uma imagem de referência e é fornecida para a unidade de compensação de movimento 145 ou a unidade de intrapredição 143 através do comutador 142.
[0232] A unidade de intrapredição 143 realiza um processo de intrapredi- ção de um modo de intrapredição representado pela informação de modo de in- trapredição fornecida a partir da unidade de decodificação sem perdas 132 usando a imagem de referência lida a partir da memória de quadro 141 através do comutador 142. A unidade de intrapredição 143 fornece uma imagem predita gerada como um resultado do mesmo para o comutador 146.
[0233] A unidade de definição de imagem de referência 144 mantém in- ter_ref_pic_set_prediction_flag de cada RPS e delta_idx_minus1 ou a informação de especificação de imagem de referência fornecida a partir da unidade de extração 112 ilustrada na Fig. 15 como a informação do RPS. Além disso, a unidade de definição de imagem de referência 144 gera a informação de especificação de imagem de referência da imagem de decodificação atual com base no indicador de RPS e o índice do RPS ou o RPS e a informação do RPS de cada RPS que são fornecidos a partir da unidade de decodificação sem perdas 132. A unidade de definição de imagem de referência 144 fornece a imagem de referência gerada especificando a informação para a unidade de compensação de movimento 145 e mantém a informação de especificação de imagem de referência.
[0234] A unidade de compensação de movimento 145 lê uma imagem de referência especificada pela informação de especificação de imagem de referência a partir da memória de quadro 141 através do comutador 142 com base na informação de especificação de imagem de referência que é fornecida a partir da unidade de definição de imagem de referência 144. A unidade de compensação de movimento 145 serve como uma unidade de geração de imagem predita e realiza um processo de compensação de movimento de um modo de interpredição ideal que é representado pela informação de modo de interpredição usando o vetor movimento e a imagem de referência. A unidade de compensação de movimento 145 fornece uma imagem predita gerada como um resultado do mesmo para o comutador 146.
[0235] Em um caso onde a informação de modo de intrapredição é fornecida a partir da unidade de decodificação sem perdas 132, o comutador 146 fornece a imagem predita fornecida a partir da unidade de intrapredição 143 para a unidade de adição 135. Por outro lado, em um caso onde a informação de modo de interpredição é fornecida a partir da unidade de decodificação sem perdas 132, o comutador 146 fornece a imagem predita fornecida a partir da unidade de compensação de movimento 145 para a unidade de adição 135.
(Descrição do Processo do Dispositivo de decodificação)
[0236] A Fig. 17 é um fluxograma que ilustra um processo de recepção realizado pelo dispositivo de decodificação 110 ilustrado na Fig. 15.
[0237] Na Etapa S111 ilustrada na Fig. 17, a unidade de recepção 111 do dispositivo de decodificação 110 recebe uma corrente codificada transmitida a partir do dispositivo de codificação 10 ilustrado na Fig. 3 e fornece a corrente codificada recebida para a unidade de extração 112.
[0238] Na Etapa S112, a unidade de extração 112 extrai o SPS, o PPS, os dados codificados, e semelhantes a partir da corrente codificada que é fornecida a partir da unidade de recepção 111. A unidade de extração 112 fornece os dados codificados para a unidade de decodificação 113. Além disso, a unidade de extração 112 fornece informação diferente do RPS que está incluído no SPS, o PPS, e semelhantes para a unidade de decodificação 113 como é necessário.
[0239] Na Etapa S113, a unidade de extração 112 adquire in- ter_ref_pic_set_prediction_flag de cada RPS e delta_idx_minus1 ou a informação de especificação de imagem de referência como a informação do RPS com base no SPS e fornece a informação adquirida para a unidade de decodificação 113.
[0240] Na Etapa S114, a unidade de decodificação 113 realiza um processo de decodificação para decodificar os dados codificados fornecidos a partir da unidade de extração 112 de acordo com o sistema de HEVC com base na informação do RPS de cada RPS que é fornecido a partir da unidade de extração 112. Este processo de decodificação será descrito em detalhe com referência à Fig. 19 a ser descrito posteriormente. Então, o processo termina.
[0241] A Fig. 18 é um fluxograma que ilustra o processo de definição de RPS representado na Etapa S113 ilustrada na Fig. 17 em detalhe.
[0242] Na Etapa S120 ilustrado na Fig. 18, a unidade de extração 112 adquire num_short_term_ref_pic_sets que está incluído no SPS (Fig. 5). Na Etapa S121, a unidade de extração 112 define o índice i do RPS que corresponde à informação de RPS gerada para “0”. Na Etapa S122, é determinado se o índice i do RPS é “0” ou não.
[0243] Em um caso onde o índice i é determinado para ser “0” na Etapa S122, na Etapa S123, a unidade de extração 112 define in- ter_ref_pic_set_prediction_flag incluído na informação de RPS do RPS do índice i para “0”, e o processo prossegue para a Etapa S125.
[0244] Por outro lado, em um caso onde o índice i é determinado para não ser “0” na Etapa S122, na Etapa S124, a unidade de extração 112 adquire inter_ref_pic_set_prediction_flag incluído no RPS do índice i que está incluído no SPS. Então, a unidade de extração 112 define o inter_ref_pic_set_prediction_flag adquirido como inter_ref_pic_set_prediction_flag incluído na informação de RPS do RPS do índice i, e o processo prossegue para a Etapa S125.
[0245] Na Etapa S125, a unidade de extração 112 determina se in- ter_ref_pic_set_prediction_flag é “1” ou não. Em um caso onde in- ter_ref_pic_set_prediction_flag é determinado para ser “1” na Etapa S125, na Etapa S126, a unidade de extração 112 adquire delta_idx_minus1 incluído no RPS do índice i que está incluído no SPS. Então, a unidade de extração 112 define o delta_idx_minus1 adquirido como delta_idx_minus1 incluído na informação de RPS do RPS do índice i, e o processo prossegue para a Etapa S128.
[0246] Por outro lado, em um caso onde inter_ref_pic_set_prediction_flag é determinado para não ser “1” na Etapa S125, na Etapa S127, a unidade de extração 112 adquire a informação de especificação de imagem de referência incluída no RPS do índice i que está incluído no SPS. Então, a unidade de extração 112 define a imagem adquirida de referência especificando a informação como a informação de especificação de imagem de referência incluída na informação de RPS do RPS do índice i, e o processo prossegue para a Etapa S128.
[0247] Na Etapa S128, a unidade de extração 112 incrementa o índice i por um. Na Etapa S129, a unidade de extração 112 determina se o índice i é num_short_term_ref_pic_sets adquirido na Etapa S120 ou mais ou não.
[0248] Em um caso onde o índice i é determinado para não ser num_short_term_ref_pic_sets ou mais na Etapa S129, o processo é retornado para a Etapa S122, e o processo das Etapas S122 a S129 é repetido até o índice i ser num_short_term_ref_pic_sets ou mais.
[0249] Por outro lado, em um caso onde o índice i é determinado para ser num_short_term_ref_pic_sets ou mais na Etapa S129, na Etapa S130, a unidade de extração 112 fornece a informação do RPS dos RPS do qual o número é o num_short_term_ref_pic_sets definido. Então, o processo é retornado para a Etapa S113 ilustrada na Fig. 17, e o processo prossegue para a Etapa S114.
[0250] A Fig. 19 é um fluxograma que ilustra o processo de decodifica- ção representado na Etapa S114 ilustrado na Fig. 17 em detalhe.
[0251] Na Etapa S131 ilustrado na Fig. 19, o buffer de acúmulo 131 da unidade de decodificação 113 recebe dados codificados, que é configurada em unidades de quadros, a partir da unidade de extração 112 ilustrada na Fig. 15 e armazena os dados codificados recebidos. O buffer de acúmulo 131 fornece os dados codificados armazenados para a unidade de decodificação sem perdas 132.
[0252] Na Etapa S132, a unidade de decodificação sem perdas 132 realiza decodificação sem perdas dos dados codificados fornecidos a partir do buffer de acúmulo 131, desta forma adquire os coeficientes quantizados e a informação de codificação. A unidade de decodificação sem perdas 132 fornece os coeficientes quantizados para a unidade de quantização inversa 133. Além disso, a unidade de decodificação sem perdas 132 fornece a informação de modo de intrapredi- ção e semelhantes como a informação de codificação para a unidade de intrapre- dição 143 e fornece o vetor movimento, a informação de modo de interpredição, o indicador de RPS, o índice do RPS ou o RPS, e semelhantes para a unidade de compensação de movimento 145.
[0253] Além disso, a unidade de decodificação sem perdas 132 fornece a informação de modo de intrapredição ou a informação de modo de interpredição como a informação de codificação para o comutador 146. A unidade de decodifi- cação sem perdas 132 fornece a informação de filtro de deslocamento como a informação de codificação para o filtro de deslocamento adaptativo 137 e fornece os coeficientes de filtro para o filtro de ciclo adaptativo 138.
[0254] Na Etapa S133, a unidade de quantização inversa 133 realiza quantização inversa dos coeficientes quantizados fornecidos a partir da unidade de decodificação sem perdas 132 e fornece coeficientes de transformada ortogonal adquirido como um resultado do mesmo para a unidade de transformada ortogonal inversa 134.
[0255] Na Etapa S134, a unidade de compensação de movimento 145 determina se a informação de modo de interpredição é fornecida a partir da unidade de decodificação sem perdas 132 ou não. Na Etapa S134, em um caso onde a informação de modo de interpredição é determinada para ser fornecida, o processo prossegue para a Etapa S135.
[0256] Na Etapa S135, a unidade de definição de imagem de referência 144 gera a informação de especificação de imagem de referência da imagem de decodificação atual com base na informação do RPS de cada RPS fornecido a partir da unidade de extração 112 e o indicador de RPS e o índice do RPS ou o RPS fornecido a partir da unidade de decodificação sem perdas 132 e mantém a imagem de referência gerada especificando a informação.
[0257] Mais especificamente, a unidade de definição de imagem de referência 144 mantém a informação do RPS de cada RPS que é fornecido a partir da unidade de extração 112. Em um caso onde o indicador de RPS é “1”, a unidade de definição de imagem de referência 144 lê a informação do RPS do índice do RPS que está incluído na informação de RPS mantida. Então, em um caso onde inter_ref_pic_set_prediction_flag não inclui informação de RPS lido é “0”, a unidade de definição de imagem de referência 144 gera a informação de especificação de imagem de referência incluída na informação de RPS como a informação de especificação de imagem de referência da imagem de decodificação atual e mantém a imagem de referência gerada especificando a informação.
[0258] Por outro lado, em um caso onde inter_ref_pic_set_prediction_flag é “1”, a unidade de definição de imagem de referência 144 lê a informação de es- pecificação de imagem de referência da imagem anterior que é especificada por delta_idx_minus1 incluído na informação de RPS dentre a imagem de referência mantida especificando a informação. Então, a unidade de definição de imagem de referência 144 gera e mantém a imagem de referência lida especificando a informação da imagem anterior como a informação de especificação de imagem de referência da imagem de decodificação atual.
[0259] Além disso, em um caso onde o indicador de RPS é “0”, e in- ter_ref_pic_set_prediction_flag incluído no RPS, que é fornecida a partir da unidade de decodificação sem perdas 132 junto com o indicador de RPS, é “0”, a unidade de definição de imagem de referência 144 gera a informação de especificação de imagem de referência incluída no RPS como a informação de especificação de imagem de referência da imagem de decodificação atual e mantém a imagem de referência gerada especificando a informação. Por outro lado, em um caso onde inter_ref_pic_set_prediction_flag é “1”, a unidade de definição de imagem de referência 144 lê a informação de especificação de imagem de referência da imagem anterior especificada por delta_idx_minus1 incluído no RPS dentre a imagem de referência mantida especificando a informação. Então, a unidade de definição de imagem de referência 144 gera a imagem de referência lida especificando a informação da imagem anterior como a informação de especificação de imagem de referência da imagem de decodificação atual e mantém a imagem de referência gerada especificando a informação.
[0260] Na Etapa S136, a unidade de compensação de movimento 145 lê uma imagem de referência com base na informação de especificação de imagem de referência fornecida a partir da unidade de definição de imagem de referência 144 e realiza um processo de compensação de movimento de um modo de inter- predição ideal representado pela informação de modo de interpredição usando o vetor movimento e a imagem de referência. A unidade de compensação de movimento 145 fornece uma imagem predita gerada como um resultado do mesmo para a unidade de adição 135 através do comutador 146, e o processo prossegue para a Etapa S138.
[0261] Por outro lado, em um caso onde a informação de modo de inter- predição é determinada para não ser fornecida na Etapa S134, em outras palavras, em um caso onde a informação de modo de intrapredição é fornecida para a unidade de intrapredição 143, o processo prossegue para a Etapa S137.
[0262] Na Etapa S137, a unidade de intrapredição 143 realiza um processo de intrapredição de um modo de intrapredição representado pela informação de modo de intrapredição usando a imagem de referência lida a partir da memória de quadro 141 através do comutador 142. A unidade de intrapredição 143 fornece a imagem predita gerada como um resultado do processo de intra- predição para a unidade de adição 135 através do comutador 146, e o processo prossegue para a Etapa S138.
[0263] Na Etapa S138, a unidade de transformada ortogonal inversa 134 realiza uma transformada ortogonal inversa para os coeficientes de transformada ortogonal fornecidos a partir da unidade de quantização inversa 133 e fornece informação residual adquirido como um resultado do mesmo para a unidade de adição 135.
[0264] Na Etapa S139, a unidade de adição 135 adiciona a informação residual fornecida a partir da unidade de transformada ortogonal inversa 134 e a imagem predita fornecida a partir do comutador 146. A unidade de adição 135 fornece uma imagem adquirida como um resultado do mesmo para o filtro de desblocagem 136 e fornece a imagem adquirida para a memória de quadro 141.
[0265] Na Etapa S140, o filtro de desblocagem 136 realiza um processo de filtro de desblocagem para a imagem fornecida a partir da unidade de adição 135, desta forma removendo uma distorção de bloco. O filtro de desblocagem 136 fornece a imagem adquirida como um resultado do mesmo para o filtro de deslocamento adaptativo 137.
[0266] Na Etapa S141, o filtro de deslocamento adaptativo 137 realiza um processo de filtro de deslocamento adaptativo para cada LCU para a imagem após o processo de filtro de desblocagem realizado pelo filtro de desblocagem 136 com base na informação de filtro de deslocamento fornecida a partir da unidade de decodificação sem perdas 132. O filtro de deslocamento adaptativo 137 fornece a imagem após o processo de filtro de deslocamento adaptativo para o filtro de ciclo adaptativo 138.
[0267] Na Etapa S142, o filtro de ciclo adaptativo 138 realiza um processo de filtro de ciclo adaptativo para cada LCU para a imagem fornecida a partir do filtro de deslocamento adaptativo 137 usando os coeficientes de filtro fornecidos a partir da unidade de decodificação sem perdas 132. O filtro de ciclo adaptativo 138 fornece uma imagem adquirida como um resultado do mesmo para a memória de quadro 141 e o buffer de rearranjo de tela 139.
[0268] Na Etapa S143, a memória de quadro 141 armazena a imagem fornecida a partir da unidade de adição 135 e a imagem fornecida a partir do filtro de ciclo adaptativo 138. As imagens armazenadas na memória de quadro 141 são fornecidas para a unidade de compensação de movimento 145 ou a unidade de intrapredição 143 através do comutador 142 como as imagens de referência.
[0269] Na Etapa S144, o buffer de rearranjo de tela 139 armazena as imagens fornecidas a partir do filtro de ciclo adaptativo 138 em unidades de quadros e rearranja as imagens armazenadas, que são configuradas em unidades de quadros na ordem de codificação, na ordem de exibição original e fornece as imagens rearranjadas para o conversor D/A 140.
[0270] Na Etapa S145, o conversor D/A 140 realiza a conversão D/A para a imagem, que é configurada em unidades de quadros, fornecida a partir do buffer de rearranjo de tela 139, e emite a imagem convertida as um sinal de saída. Então, o processo é retornado para a Etapa S114 ilustrado na Fig. 17, e o processo termina.
[0271] Como dito acima, o dispositivo de decodificação 110 recebe in- ter_ref_pic_set_prediction_flag transmitido em um caso onde a imagem de codificação atual é uma imagem diferente da primeira imagem do GOP. Em um caso onde inter_ref_pic_set_prediction_flag é recebida, o dispositivo de decodificação 110 gera a informação de especificação de imagem de referência da imagem de decodificação atual com base em inter_ref_pic_set_prediction_flag. Por outro lado, em um caso onde inter_ref_pic_set_prediction_flag não é recebida, o dispositivo de decodificação 110 gera a informação de especificação de imagem de referência da imagem de decodificação atual com base em “0” como in- ter_ref_pic_set_prediction_flag.
[0272] Como um resultado, o dispositivo de decodificação 110 pode decodificar uma corrente codificada em que a quantidade de informação do RPS é diminuída por uma quantidade que corresponde a in- ter_ref_pic_set_prediction_flag da primeira imagem do GOP.
<Segunda modalidade> (Exemplo de Configuração de Dispositivo de codificação de acordo com Segunda modalidade)
[0273] A Fig. 20 é um diagrama de bloco que ilustra um exemplo da configuração de um dispositivo de codificação, ao qual a presente tecnologia é aplicada, de acordo com a segunda modalidade.
[0274] Aqui, o mesmo numeral de referência é designado para cada configuração ilustrada na Fig. 20 que é a mesma que a configuração ilustrada na Fig. 3, e a descrição da mesma a ser repetida será omitida.
[0275] A configuração do dispositivo de codificação 150 ilustrado na Fig. 20 é diferente da configuração do dispositivo de codificação 10 ilustrado na Fig. 3 pelo fato de que uma unidade de definição 151 é arranjada em vez de a unidade de definição 12. O dispositivo de codificação 150 define um SPS tal que in- ter_ref_pic_set_prediction_flag e delta_idx_minus1 podem ser divididos em unidades de GOPs.
[0276] Mais especificamente, a unidade de definição 151 define RPS's incluindo inter_ref_pic_set_prediction_flag, delta_idx_minus1, a informação de especificação de imagem de referência, e semelhantes como é necessário e de signa um índice para cada RPS. A unidade de definição 151 fornece os RPS’s aos quais os índices foram designados para a unidade de codificação 11. Além disso, a unidade de definição 151 inclui informação indisponível de referência representando se inter_ref_pic_set_prediction_flag é “0” no RPS's e todas as imagens dentro do GOP e define delta_idx_minus1 de SPS que é comum a todas as imagens dentro do GOP como é necessário. A unidade de definição 151 define o PPS e semelhantes.
[0277] Além disso, a unidade de definição 151, similar à unidade de definição 12 ilustrada na Fig. 3, gera uma corrente codificada com base nos SPS's e no PPS, que foi definido, e os dados codificados fornecidos a partir da unidade de codificação 11. A unidade de definição 151, similar à unidade de definição 12, fornece a corrente codificada para a unidade de transmissão 13.
(Exemplo de Sintaxe de SPS)
[0278] A Fig. 21 é um diagrama que ilustra um exemplo da sintaxe de o SPS que é definido pela unidade de definição 151 ilustrado na Fig. 20.
[0279] Como ilustrado na quarta linha na Fig. 21, a informação indisponível de referência (disable_rps_prediction_flag) está incluída no SPS. Além disso, como ilustrado na quinta e na sexta linhas, em um caso onde a informação indisponível de referência é “0” que não representa que in- ter_ref_pic_set_prediction_flag é “0” em todas as imagens dentro do GOP, informação de igualdade (unified_rps_prediction_control_present_flag) representando se delta_idx_minus1 é idêntico em todas as imagens dentro do GOP está incluído no SPS.
[0280] Adicionalmente, como ilustrado na sétima e na oitava linhas, em um caso onde a informação de igualdade é “1” representando que del- ta_idx_minus1 é idêntica em todas as imagens dentro do GOP, unifi- ed_delta_idx_minus1 que é delta_idx_minus1 comum a todas as imagens dentro do GOP está incluído no SPS. Além disso, como ilustrado na décima primeira linha, o RPS de cada índice (i) está incluído no SPS.
(Exemplo de Sintaxe de RPS)
[0281] A Fig. 22 é um diagrama que ilustra um exemplo da sintaxe do RPS.
[0282] As descrições da décima primeira linha e linhas subsequentes ilustradas na Fig. 22 são as mesmas que aquelas da quinta linha e de linhas subsequentes ilustradas na Fig. 1.
[0283] Como ilustrado na segunda e na terceira linhas na Fig. 22, em um caso onde disable_rps_prediction_flag é “1”, no RPS, in- ter_ref_pic_set_prediction_flag não está incluído mas a informação de especificação de imagem de referência incluída em um caso onde in- ter_ref_pic_set_prediction_flag é “0” está incluído.
[0284] Por outro lado, como ilustrado na quarta e na quinta linhas, em um caso onde disable_rps_prediction_flag é “0”, no RPS, in- ter_ref_pic_set_prediction_flag está incluído. Além disso, como ilustrado da sexta até a oitava linhas, em um caso onde inter_ref_pic_set_prediction_flag e unifi- ed_rps_prediction_control_present_flag são respectivamente “1”, no RPS, del- ta_idx_minus1 não está incluído, e delta_idx_minus1 é unified_delta_idx_minus1.
[0285] Adicionalmente, como ilustrado na nona e na décima linhas, em um caso onde inter_ref_pic_set_prediction_flag é “1” e unifi- ed_rps_prediction_control_present_flag é “0”, delta_idx_minus1 está incluído no RPS.
(Descrição das Vantagens da Presente tecnologia)
[0286] As Figs. 23 e 24 são diagramas que ilustram a quantidade de informação do RPS que é definido pela unidade de definição 151 ilustrada na Fig. 20, e a Fig. 25 é um diagrama que ilustra a quantidade de informação de um RPS convencional.
[0287] No exemplo ilustrado na Fig. 23, a informação de especificação de imagem de referência de cada da segunda imagem e a oitava imagem a partir do início dentro do GOP é idêntico à informação de especificação de imagem de referência de uma respectiva imagem anterior na ordem de codificação.
[0288] Neste caso, como ilustrado na Fig. 23, a unidade de definição 151 define “0” como disable_rps_prediction_flag e define “1” como unifi- ed_rps_prediction_control_present_flag. Além disso, a unidade de definição 151 define “0” como unified_delta_idx_minus1.
[0289] Adicionalmente, a unidade de definição 151, por exemplo, como um RPS do qual o índice é “0”, define “0” como inter_ref_pic_set_prediction_flag e define a informação de especificação de imagem de referência da primeira imagem do GOP. Além disso, a unidade de definição 151, como um RPS do qual o índice é “1”, define “1” como inter_ref_pic_set_prediction_flag. Assim, o índice do RPS da primeira imagem do GOP é definido como “0”, e os índices de RPS da segunda e oitava imagens são definidos como “1”.
[0290] Como dito acima, a unidade de definição 151 define del- ta_idx_minus1 que é comum a todas as imagens dentro do GOP como unifi- ed_delta_idx_minus1. De maneira apropriada, a unidade de definição 151 pode definir delta_idx_minus1 em unidades de GOPs.
[0291] Além disso, nos exemplos ilustrados nas Figs. 24 e 25, a informação de especificação de imagem de referência de todas as imagens dentro do GOP não é idêntica à informação de especificação de imagem de referência das respectivas imagens anteriores na ordem de codificação.
[0292] Neste caso, como ilustrado na Fig. 24, a unidade de definição 151 define “1” como disable_rps_prediction_flag e, como um RPS que corresponde a cada imagem dentro do GOP, define a informação de especificação de imagem de referência da imagem. Em contraste, em um caso convencional, como ilustrado na Fig. 25, como um RPS que corresponde a cada imagem dentro do GOP, “0” é definido como inter_ref_pic_set_prediction_flag, e a informação de especificação de imagem de referência da imagem é definido.
[0293] Como dito acima, a unidade de definição 151 define “0” como in- ter_ref_pic_set_prediction_flag comum a todas as imagens dentro do GOP como disable_rps_prediction_flag. De maneira apropriada, em um caso onde disa- ble_rps_prediction_flag é “1”, a quantidade de informação do RPS pode ser diminuída por uma quantidade que corresponde a inter_ref_pic_set_prediction_flag daquela do caso convencional.
(Descrição do Processo do Dispositivo de codificação)
[0294] Um processo de geração realizado pelo dispositivo de codificação 150 ilustrado na Fig. 20 é o mesmo que o processo de geração ilustrado na Fig. 10 exceto para o processo de definição de RPS, e assim, aqui a seguir, apenas o processo de definição de RPS será descrito.
[0295] A Fig. 26 é um fluxograma que ilustra o processo de definição de RPS realizado pela unidade de definição 151 do dispositivo de codificação 150 em detalhe.
[0296] Na Etapa S161 ilustrado na Fig. 26, a unidade de definição 151 define disable_rps_prediction_flag como o SPS. Na Etapa S162, a unidade de definição 151 determina se disable_rps_prediction_flag é “1” ou não. Em um caso onde disable_rps_prediction_flag é determinado para não ser “1” na Etapa S162, na Etapa S163, a unidade de definição 151 define unifi- ed_rps_prediction_control_present_flag como o SPS.
[0297] Na Etapa S164, a unidade de definição 151 determina se unifi- ed_rps_prediction_control_present_flag é “1” ou não. Na Etapa S164, em um caso onde unified_rps_prediction_control_present_flag é determinado para ser “1”, na Etapa S165, a unidade de definição 151 define unified_delta_idx_minus1 é as SPS, e o processo prossegue para a Etapa S166.
[0298] Em um caso onde disable_rps_prediction_flag é determinado para ser “1” na Etapa S162 ou em um caso onde unifi- ed_rps_prediction_control_present_flag é determinado para ser “0” na Etapa S164, o processo prossegue para a Etapa S166.
[0299] Na Etapa S166, a unidade de definição 151 define o índice i do RPS para “0”. Na Etapa S167, a unidade de definição 151 determina se disa ble_rps_prediction_flag é “1” ou não. Em um caso onde disa- ble_rps_prediction_flag é determinado para ser “1” na Etapa S167, na Etapa S168, a unidade de definição 151 define inter_ref_pic_set_prediction_flag para “0”, o processo prossegue para a Etapa S170.
[0300] Por outro lado, em um caso onde disable_rps_prediction_flag é determinado para não ser “1” na Etapa S167, na Etapa S169, a unidade de definição 151 define inter_ref_pic_set_prediction_flag como o RPS do índice i, o processo prossegue para a Etapa S170.
[0301] Na Etapa S170, a unidade de definição 151 determina se in- ter_ref_pic_set_prediction_flag é “1” ou não. Em um caso onde in- ter_ref_pic_set_prediction_flag é determinado para ser “1” na Etapa S170, na Etapa S171, a unidade de definição 151 determina se unifi- ed_rps_prediction_control_present_flag é “1” ou não.
[0302] Em um caso onde unified_rps_prediction_control_present_flag é determinado para ser “1” na Etapa S171, o processo prossegue para a Etapa S174. Por outro lado, em um caso onde unifi- ed_rps_prediction_control_present_flag é determinado para não ser “1” na Etapa S171, na Etapa S172, a unidade de definição 151 define delta_idx_minus1 como o RPS do índice i, e o processo prossegue para a Etapa S174.
[0303] Além disso, em um caso onde inter_ref_pic_set_prediction_flag é determinado para não ser “1” na Etapa S170, na Etapa S173, a unidade de definição 151 define a informação de especificação de imagem de referência como o RPS do índice i, e o processo prossegue para a Etapa S174.
[0304] Na Etapa S174, a unidade de definição 151 incrementa o índice i por um. Na Etapa S175, a unidade de definição 151 determina se o índice i é o número num_short_term_ref_pic_sets dos RPS incluídos no SPS ou mais ou não.
[0305] Em um caso onde o índice i é determinado para não ser num_short_term_ref_pic_sets ou mais na Etapa S175, o processo é retornado para a Etapa S167, e o processo das Etapas S167 a S175 é repetido até o índice i é o número num_short_term_ref_pic_sets ou mais.
[0306] Por outro lado, em um caso onde o índice i é determinado para ser num_short_term_ref_pic_sets ou mais na Etapa S175, o processo de definição de RPS termina.
[0307] Como dito acima, como o dispositivo de codificação 150 define di- sable_rps_prediction_flag, em um caso onde disable_rps_prediction_flag é “1”, a quantidade de informação do RPS que se refere à informação de especificação de imagem de referência pode ser diminuída por uma quantidade que corresponde a inter_ref_pic_set_prediction_flag daquela do caso convencional. Além disso, inter_ref_pic_set_prediction_flag pode ser definido em unidades de GOPs.
[0308] Adicionalmente, como o dispositivo de codificação 150 define del- ta_idx_minus1 comum a todas as imagens dentro do GOP como unifi- ed_delta_idx_minus1, delta_idx_minus1 pode ser definido em unidades de GOPs.
(Exemplo de Configuração de Dispositivo de decodificação de acordo com Segunda modalidade)
[0309] A Fig. 27 é um diagrama de bloco que ilustra um exemplo da configuração de um dispositivo de decodificação, ao qual a presente tecnologia é aplicada, de acordo com a segunda modalidade que decodifica uma corrente codificada transmitida a partir do dispositivo de codificação 150 ilustrado na Fig. 20.
[0310] Aqui, o mesmo numeral de referência é designado para cada configuração ilustrada na Fig. 27 que é a mesma que a configuração ilustrada na Fig. 15, e a descrição da mesma a ser repetida será omitida.
[0311] A configuração do dispositivo de decodificação 170 ilustrado na Fig. 27 é diferente da configuração do dispositivo de decodificação 110 ilustrado na Fig. 15 pelo fato de que uma unidade de extração 171 é arranjada em vez de a unidade de extração 112. O dispositivo de decodificação 170 define a informação do RPS de cada RPS com base no SPS ilustrado na Fig. 21.
[0312] Mais especificamente, a unidade de extração 171 do dispositivo de decodificação 170, similar à unidade de extração 112 ilustrada na Fig. 15, extrai um SPS, um PPS, dados codificados, e semelhantes a partir de uma corrente codificada que é fornecida a partir da unidade de recepção 111. A unidade de ex-tração 171, similar à unidade de extração 112, fornece os dados codificados para a unidade de decodificação 113. Além disso, a unidade de extração 171, com base no SPS ilustrado na Fig. 21, adquire a informação do RPS de cada RPS e fornece a informação de RPS adquirida para a unidade de decodificação 113. Adicionalmente, a unidade de extração 171, similar à unidade de extração 112, também fornece informação diferente do RPS incluída no SPS, o PPS, e semelhantes para a unidade de decodificação 113 como é necessário.
(Descrição do Processo do Dispositivo de decodificação)
[0313] O processo de recepção realizado pelo dispositivo de decodifica- ção 170 ilustrado na Fig. 27 é o mesmo que o processo de recepção ilustrado na Fig. 17 exceto para o processo de definição de RPS, e assim, aqui a seguir, apenas o processo de definição de RPS será descrito.
[0314] A Fig. 28 é um fluxograma que ilustra o processo de definição de RPS realizado pelo dispositivo de decodificação 170 ilustrado na Fig. 27 em detalhe.
[0315] Na Etapa S191 ilustrado na Fig. 28, a unidade de extração 171 adquire num_short_term_ref_pic_sets incluído no SPS (Fig. 21). Na Etapa S192, a unidade de extração 171 adquire disable_rps_prediction_flag que está incluído no SPS. Na Etapa S193, a unidade de extração 171 determina se o disa- ble_rps_prediction_flag adquirido é “1” ou não.
[0316] Em um caso onde disable_rps_prediction_flag é determinado para não ser “1” na Etapa S193, na Etapa S194, a unidade de extração 171 adquire unified_rps_prediction_control_present_flag que está incluído no SPS. Na Etapa S195, a unidade de extração 171 determina se o unifi- ed_rps_prediction_control_present_flag adquirido é “1” ou não.
[0317] Em um caso onde unified_rps_prediction_control_present_flag é determinado para ser “1” na Etapa S195, a unidade de extração 171 adquire unifi- ed_delta_idx_minus1 incluído no SPS, e o processo prossegue para a Etapa S197.
[0318] Por outro lado, em um caso onde unified_delta_idx_minus1 é determinado para não ser “1” na Etapa S195, o processo prossegue para a Etapa S197. Além disso, em um caso onde disable_rps_prediction_flag é determinado para ser “1” na Etapa S193, o processo prossegue para a Etapa S197.
[0319] Na Etapa S197, a unidade de extração 171 define o índice i do RPS que corresponde à informação de RPS gerada para “0”. Na Etapa S198, a unidade de extração 171 determina se o disable_rps_prediction_flag adquirido que é adquirido na Etapa S192 é “1” ou não.
[0320] Em um caso onde disable_rps_prediction_flag é determinado para ser “1” na Etapa S198, na Etapa S199, a unidade de extração 171 define in- ter_ref_pic_set_prediction_flag incluído na informação de RPS do RPS do índice i para “0”, e o processo prossegue para a Etapa S201.
[0321] Por outro lado, em um caso onde disable_rps_prediction_flag é determinado para não ser “1” na Etapa S198, na Etapa S200, a unidade de extração 171 adquire inter_ref_pic_set_prediction_flag incluído no RPS do índice i que está incluído no SPS. Então, a unidade de extração 171 define o in- ter_ref_pic_set_prediction_flag adquirido como inter_ref_pic_set_prediction_flag incluído na informação de RPS do RPS do índice i, e o processo prossegue para a Etapa S201.
[0322] Na Etapa S201, a unidade de extração 171 determina se in- ter_ref_pic_set_prediction_flag é “1” ou não. Em um caso onde in- ter_ref_pic_set_prediction_flag é determinado para ser “1” na Etapa S201, na Etapa S202, a unidade de extração 171 determina se unifi- ed_rps_prediction_control_present_flag adquirido na Etapa S194 é “1” ou não.
[0323] Em um caso onde unified_rps_prediction_control_present_flag é determinado para ser “1” na Etapa S202, o processo prossegue para a Etapa S203. Na Etapa S203, a unidade de extração 171 define unifi- ed_delta_idx_minus1 adquirido na Etapa S196 como unified_delta_idx_minus1 incluído na informação de RPS do RPS do índice i, e o processo prossegue para a Etapa S206.
[0324] Por outro lado, em um caso onde unifi- ed_rps_prediction_control_present_flag é determinado para não ser “1” na Etapa S202, na Etapa S204, a unidade de extração 171 adquire delta_idx_minus1 incluído no RPS do índice i que está incluído no SPS. Então, a unidade de extração 171 define o delta_idx_minus1 adquirido como delta_idx_minus1 incluído na informação de RPS do RPS do índice i, e o processo prossegue para a Etapa S206.
[0325] Por outro lado, em um caso onde inter_ref_pic_set_prediction_flag é determinado para não ser “1” na Etapa S201, na Etapa S205, a unidade de extração 171 adquire a informação de especificação de imagem de referência incluída no RPS do índice i que está incluído no SPS. Então, a unidade de extração 171 define a imagem adquirida de referência especificando a informação como a informação de especificação de imagem de referência incluída na informação de RPS do RPS do índice i, e o processo prossegue para a Etapa S206.
[0326] O processo das Etapas S206 a S208 é similar ao processo das Etapas S128 a S130 ilustrado na Fig. 18, e a descrição da mesma será omitida.
[0327] Como dito acima, o dispositivo de decodificação 170 recebe disa- ble_rps_prediction_flag e gera a informação de especificação de imagem de referência da imagem de decodificação atual com base em disa- ble_rps_prediction_flag. Como um resultado, em um caso onde disa- ble_rps_prediction_flag é “1”, o dispositivo de decodificação 170 pode decodificar uma corrente codificada em que a quantidade de informação do RPS é diminuída por uma quantidade que corresponde a inter_ref_pic_set_prediction_flag.
[0328] Além disso, o dispositivo de decodificação 170 recebe del- ta_idx_minus1 que é comum a todas as imagens dentro do GOP como unifi- ed_delta_idx_minus1 e gera a informação de especificação de imagem de refe- rência da imagem de decodificação atual com base em unified_delta_idx_minus1. Como um resultado, o dispositivo de decodificação 170 pode decodificar a corrente codificada em que delta_idx_minus1 é definido em unidades de GOPs.
<Terceira modalidade> (Exemplo de Configuração de Dispositivo de codificação de acordo com Terceira modalidade)
[0329] A Fig. 29 é um diagrama de bloco que ilustra um exemplo da configuração de um dispositivo de codificação, ao qual a presente tecnologia é aplicada, de acordo com a terceira modalidade.
[0330] Aqui, o mesmo numeral de referência é designado para cada configuração ilustrada na Fig. 29 que é a mesma que a configuração ilustrada na Fig. 3, e a descrição da mesma a ser repetida será omitida.
[0331] A configuração do dispositivo de codificação 190 ilustrado na Fig. 29 é diferente da configuração do dispositivo de codificação 10 ilustrado na Fig. 3 pelo fato de que uma unidade de definição 191 é arranjada em vez de a unidade de definição 12. O dispositivo de codificação 190 é adquirido combinando o dispositivo de codificação 10 ilustrado na Fig. 3 e o dispositivo de codificação 150 ilustrado na Fig. 20.
[0332] Mais especificamente, a unidade de definição 191 do dispositivo de codificação 190 define RPS's incluindo um RPS que não inclui in- ter_ref_pic_set_prediction_flag mas inclui a informação de especificação de imagem de referência e um RPS incluindo inter_ref_pic_set_prediction_flag, del- ta_idx_minus1, a informação de especificação de imagem de referência, e semelhantes como é necessário. Além disso, a unidade de definição 191 designa um índice para cada RPS. Aqui, como o índice do RPS que não inclui in- ter_ref_pic_set_prediction_flag mas inclui a informação de especificação de imagem de referência, “0” é designado.
[0333] A unidade de definição 191 fornece os RPS’s aos quais os índices são designados para a unidade de codificação 11. Além disso, a unidade de defi- nição 191 define o SPS que inclui um RPS e disable_rps_prediction_flag e inclui unified_rps_prediction_control_present_flag e unified_delta_idx_minus1 como é necessário. A unidade de definição 191 define o PPS e semelhantes.
[0334] Além disso, a unidade de definição 191, similar à unidade de definição 12 ilustrada na Fig. 3, gera uma corrente codificada com base no SPS e no PPS, que foram definidos e dados codificados fornecidos a partir da unidade de codificação 11. A unidade de definição 191, similar à unidade de definição 12, fornece a corrente codificada para a unidade de transmissão 13.
(Exemplo de Sintaxe de SPS)
[0335] A Fig. 30 é um diagrama que ilustra um exemplo da sintaxe de o SPS que é definido pela unidade de definição 191 ilustrado na Fig. 29.
[0336] A configuração ilustrada na Fig. 30 é a mesma que a configuração ilustrada na Fig. 21, e assim a descrição da mesma será omitida.
(Exemplo de Sintaxe de RPS)
[0337] A Fig. 31 é um diagrama que ilustra um exemplo da sintaxe de o RPS.
[0338] Enquanto não ilustrado na figura, descrições da décima primeira linha e linhas subsequentes ilustradas na Fig. 31 são as mesmas que aquelas da quinta linha e linhas subsequentes ilustradas na Fig. 1.
[0339] Como ilustrado na segunda linha e na terceira linha ilustradas na Fig. 31, em um caso onde o índice (idx) é “0” ou em um caso onde disa- ble_rps_prediction_flag é “1”, no RPS, inter_ref_pic_set_prediction_flag não está incluído mas a informação de especificação de imagem de referência incluída em um caso onde inter_ref_pic_set_prediction_flag é “0” está incluído.
[0340] As descrições da quarta linha até a décima linha são as mesmas que aquelas da quarta linha até a décima linha ilustradas na Fig. 22, e assim, as descrições será omitida.
(Descrição das Vantagens da Presente tecnologia)
[0341] A Fig. 32 é um diagrama que ilustra a quantidade de informação do RPS que é definido pela unidade de definição 191 ilustrado na Fig. 29.
[0342] No exemplo ilustrado na Fig. 32, a informação de especificação de imagem de referência da segunda e oitava imagens a partir do início dentro do GOP é a mesma que a informação de especificação de imagem de referência de uma imagem anterior na ordem de codificação.
[0343] Neste caso, como ilustrado na Fig. 32, a unidade de definição 191 define “0” como disable_rps_prediction_flag e define “1” como unifi- ed_rps_prediction_control_present_flag. Além disso, a unidade de definição 191 define “0” como unified_delta_idx_minus1.
[0344] Adicionalmente, a unidade de definição 191, por exemplo, define a informação de especificação de imagem de referência da primeira imagem do GOP como o RPS do qual o índice é “0”. Além disso, a unidade de definição 191 define “1” como inter_ref_pic_set_prediction_flag como o RPS do qual o índice é “1”. Assim, o índice do RPS da primeira imagem do GOP é definido como “0”, e os índices de RPS da segunda e oitava imagens são definidos como “1”.
[0345] Como dito acima, a unidade de definição 191 não define in- ter_ref_pic_set_prediction_flag como o RPS do qual o índice é “0” que é usada como o RPS da primeira imagem. De maneira apropriada, a quantidade de informação do RPS pode ser diminuída por uma quantidade que corresponde a in- ter_ref_pic_set_prediction_flag da primeira imagem daquela do caso convencional ilustrado na Fig. 8.
[0346] Além disso, a unidade de definição 191 define delta_idx_minus1 que é comum a todas as imagens dentro do GOP como unified_delta_idx_minus1. De maneira apropriada, delta_idx_minus1 pode ser definido em unidades de GOPs.
[0347] Enquanto não ilustrado na figura, a unidade de definição 191 define “0” como inter_ref_pic_set_prediction_flag comum a todas as imagens dentro do GOP como disable_rps_prediction_flag. De maneira apropriada, em um caso onde disable_rps_prediction_flag é “1”, a quantidade de informação do RPS tam- bém pode ser diminuída por uma quantidade que corresponde a in- ter_ref_pic_set_prediction_flag de uma imagem diferente da primeira imagem daquela do caso convencional.
(Descrição do Processo do Dispositivo de codificação)
[0348] Um processo de geração realizado pelo dispositivo de codificação 190 ilustrado na Fig. 29 é o mesmo que o processo de geração ilustrado na Fig. 10 exceto para o processo de definição de RPS, e assim, aqui a seguir, apenas o processo de definição de RPS será descrito.
[0349] A Fig. 33 é um fluxograma que ilustra o processo de definição de RPS realizado pela unidade de definição 191 do dispositivo de codificação 190.
[0350] O processo das Etapas S221 a S226 ilustrado na Fig. 33 é similar ao processo das Etapas S161 a S166 ilustrado na Fig. 26, e assim, a descrição da mesma será omitida.
[0351] Na Etapa S227, a unidade de definição 191 determina se disa- ble_rps_prediction_flag é “1” ou o índice i é “0”. Em um caso onde é determinado que disable_rps_prediction_flag é “1” na Etapa S227, ou o índice i é “0”, o processo prossegue para a Etapa S228. Por outro lado, em um caso onde é determinado que disable_rps_prediction_flag não é “1” na Etapa S227, e o índice i não é “0”, o processo prossegue para a Etapa S229.
[0352] O processo das Etapas S228 a S235 é similar ao processo das Etapas S168 a S175 ilustrado na Fig. 26, e assim, a descrição da mesma será omitida.
(Exemplo de Configuração de Dispositivo de decodificação de acordo com Terceira modalidade)
[0353] A Fig. 34 é um diagrama de bloco que ilustra um exemplo da configuração do dispositivo de decodificação, ao qual a presente tecnologia é aplicada, de acordo com a terceira modalidade que decodifica uma corrente codificada transmitida a partir do dispositivo de codificação 190 ilustrado na Fig. 29.
[0354] Aqui, o mesmo numeral de referência é designado para cada con- figuração ilustrada na Fig. 34 que é a mesma que a configuração ilustrada na Fig. 15, e a descrição da mesma a ser repetida será omitida.
[0355] A configuração do dispositivo de decodificação 210 ilustrado na Fig. 34 é diferente da configuração do dispositivo de decodificação 110 ilustrado na Fig. 15 pelo fato de que uma unidade de extração 211 é arranjada em vez de a unidade de extração 112. O dispositivo de decodificação 210 define a informação do RPS de cada RPS com base no SPS, que é ilustrado na Fig. 30, incluindo o RPS ilustrado na Fig. 31.
[0356] Mais especificamente, a unidade de extração 211 do dispositivo de decodificação 210, similar à unidade de extração 112 ilustrada na Fig. 15, extrai um SPS, um PPS, dados codificados, e semelhantes a partir de uma corrente codificada que é fornecida a partir da unidade de recepção 111. A unidade de extração 211, similar à unidade de extração 112, fornece os dados codificados para a unidade de decodificação 113. Além disso, a unidade de extração 211, com base no SPS, que é ilustrado na Fig. 30, incluindo o RPS ilustrado na Fig. 31 adquire a informação do RPS de cada RPS e fornece a informação de RPS adquirida para a unidade de decodificação 113. Adicionalmente, a unidade de extração 211, similar à unidade de extração 112, também fornece informação diferente do RPS incluída no SPS, o PPS, e semelhantes para a unidade de decodificação 113 como é necessário.
(Descrição do Processo do Dispositivo de decodificação)
[0357] O processo de recepção realizado pelo dispositivo de decodifica- ção 210 ilustrado na Fig. 34 é o mesmo que o processo de recepção ilustrado na Fig. 17 exceto para o processo de definição de RPS, e assim, aqui a seguir, apenas o processo de definição de RPS será descrito.
[0358] A Fig. 35 é um fluxograma que ilustra o processo de definição de RPS realizado pelo dispositivo de decodificação 210 ilustrado na Fig. 34 em detalhe.
[0359] O processo das Etapas S251 a S257 ilustrado na Fig. 35 é similar ao processo das Etapas S191 a S197 ilustrado na Fig. 28, e assim, a descrição da mesma será omitida.
[0360] Na Etapa S258, a unidade de extração 211 determina se disa- ble_rps_prediction_flag adquirido na Etapa S252 é “1” ou o índice i é “0”.
[0361] Em um caso onde é determinado que disable_rps_prediction_flag é “1” ou o índice i é “0” na Etapa S258, o processo prossegue para a Etapa S259. Por outro lado, em um caso onde é determinado que disable_rps_prediction_flag não é “1” e o índice i não é “0” na Etapa S258, o processo prossegue para a Etapa S260.
[0362] O processo das Etapas S259 a S268 é similar ao processo das Etapas S199 a S208 ilustrado na Fig. 28, e assim, a descrição da mesma será omitida.
<Quarta modalidade> (Exemplo de Configuração de Dispositivo de codificação de acordo com Quarta modalidade)
[0363] A Fig. 36 é um diagrama de bloco que ilustra um exemplo da configuração de um dispositivo de codificação, ao qual a presente tecnologia é aplicada, de acordo com a quarta modalidade.
[0364] Aqui, o mesmo numeral de referência é designado para cada configuração ilustrada na Fig. 36 que é a mesma que a configuração ilustrada na Fig. 3, e a descrição da mesma a ser repetida será omitida.
[0365] A configuração do dispositivo de codificação 230 ilustrado na Fig. 36 é diferente da configuração do dispositivo de codificação 10 ilustrado na Fig. 3 pelo fato de que uma unidade de codificação 231 é arranjada em vez de a unidade de codificação 11, e uma unidade de definição 232 é arranjada em vez de a unidade de definição 12. O dispositivo de codificação 230, de acordo com o tipo de pedaço dentro da imagem, não define informação se referindo a uma imagem de referência que não é necessária para o tipo de pedaço.
[0366] Mais especificamente, uma imagem que é configurada em unida des de quadros é entrada para a unidade de codificação 231 do dispositivo de codificação 230 como um sinal de entrada. A unidade de codificação 231 codifica o sinal de entrada de acordo com o sistema de HEVC em referência a um RPS, um PPS, e semelhantes fornecidos a partir da unidade de definição 232. Neste momento, como é necessário, a unidade de codificação 231 realiza uma predição ponderada (Predição ponderada) para a imagem de referência na interpredição.
[0367] Aqui, a predição ponderada é um processo para gerar uma imagem predita ponderando uma imagem de referência. Mais especificamente, por exemplo, em um caso onde imagens decodificadas de dois quadros Y1 e Y0 antes de uma armação de codificação corrente X na ordem de codificação são usadas como imagens de referência, na predição ponderada, uma imagem predita X' de um quadro X é adquirido usando a seguinte Equação (3). X' = w0 x Y0 + w0 X Y1 + d ... (3)
[0368] Aqui, na Equação (3), w0 e w1 são coeficientes de ponderação, e d é um valor de deslocamento. Estes coeficientes de ponderação e o valor de deslocamento são transmitidos sendo incluídos na corrente codificada.
[0369] Realizando a predição ponderada, mesmo em um caso onde uma alteração na luminância ocorre entre a imagem de referência e a imagem de codificação atual devido um aparecimento gradual, desaparecimento gradual, mixa- gem, ou semelhantes, uma diferença entre a imagem predita e a imagem de codificação atual pode ser reduzida. Como um resultado, a eficiência de codificação pode ser aprimorada.
[0370] Em contraste, em um caso onde a predição ponderada não é realizada, uma alteração na luminância que ocorre entre a imagem de referência e a imagem de codificação atual devido um aparecimento gradual, desaparecimento gradual, mixagem, e semelhantes diretamente se torna uma diferença entre a imagem predita e a imagem de codificação atual, enquanto que a eficiência de codificação é degradada.
[0371] A unidade de codificação 231 fornece dados codificados adquiri- dos como um resultado do processo de codificação para a unidade de definição 232.
[0372] A unidade de definição 232, similar à unidade de definição 12 ilustrada na Fig. 3, define o RPS que não inclui inter_ref_pic_set_prediction_flag mas incluem a informação de especificação de imagem de referência e o RPS que inclui inter_ref_pic_set_prediction_flag e a informação de especificação de imagem de referência ou delta_idx_minus1. A unidade de definição 232, similar à unidade de definição 12, designa um índice para cada RPS.
[0373] A unidade de definição 232 define o SPS incluindo o RPS, o PPS, e semelhantes. A unidade de definição 232 fornece os RPS’s aos quais os índices são projetados e o PPS para a unidade de codificação 231. A unidade de definição 232 gera uma corrente codificada com base no SPS e no PPS, que foi definido, e os dados codificados fornecidos a partir da unidade de codificação 231. A unidade de definição 232 fornece a corrente codificada para a unidade de transmissão 13.
(Exemplo de Configuração de Unidade de codificação)
[0374] A Fig. 37 é um diagrama de bloco que ilustra um exemplo da configuração da unidade de codificação 231 ilustrada na Fig. 36.
[0375] Aqui, o mesmo numeral de referência é designado para cada configuração ilustrada na Fig. 37 que é a mesma que a configuração ilustrada na Fig. 4, e a descrição da mesma a ser repetida será omitida.
[0376] A configuração da unidade de codificação 231 ilustrada na Fig. 37 é diferente da configuração da unidade de codificação 11 ilustrada na Fig. 4 pelo fato de que uma unidade de compensação/predição de movimento 251 é arranjada em vez de a unidade de compensação/predição de movimento 47, e uma unidade de codificação sem perdas 252 é arranjada em vez de a unidade de codificação sem perdas 36.
[0377] A unidade de compensação/predição de movimento 251, com base no PPS fornecido a partir da unidade de definição 232 ilustrado na Fig. 36, rea- liza um processo de predição/compensação de movimento usando uma predição ponderada de todos os modos de interpredição que são candidatos. Mais especificamente, a unidade de compensação/predição de movimento 251 detecta vetores movimento de todos os modos de interpredição que são candidatos com base na imagem fornecida a partir do buffer de rearranjo de tela 32 e a imagem de referência lida a partir da memória de quadro 44 através do comutador 45. Então, a unidade de compensação/predição de movimento 251 realiza um processo de compensação para a imagem de referência com base no vetor movimento detec-tado.
[0378] Então, a unidade de compensação/predição de movimento 251 calcula informação de ponderação que é configurada por um coeficiente de ponderação e um valor de deslocamento na predição ponderada. A unidade de com- pensação/predição de movimento 251 serve como uma unidade de geração e realiza a predição ponderada para a imagem de referência após o processo de compensação com base na informação de ponderação calculada, gerando desta forma uma imagem predita.
[0379] Neste momento, a unidade de compensação/predição de movimento 251, similar à unidade de compensação/predição de movimento 47 ilustrado na Fig. 4, calcula valores de função custo para todos os modos de interpredi- ção que são candidatos com base na imagem fornecida a partir do buffer de rear- ranjo de tela 32 e a imagens preditas. Então, a unidade de compensação/predição de movimento 251, similar à unidade de compensação/predição de movimento 47, determina um modo de interpredição do qual o modo de função custo é o mínimo como o modo de interpredição ideal.
[0380] Então, a unidade de compensação/predição de movimento 251, similar à unidade de compensação/predição de movimento 47, fornece uma imagem predita correspondendo ao valor de função custo do modo de interpredição ideal para a unidade de seleção de imagem predita 48. Além disso, em um caso onde a unidade de compensação/predição de movimento 251 é notificada da se- leção da imagem predita gerada no modo de interpredição ideal a partir da unidade de seleção de imagem predita 48, a unidade de compensação/predição de movimento 251 emite a informação de modo de interpredição, o correspondente vetor movimento, a informação de ponderação, e semelhantes para a unidade de codificação sem perdas 252. Além disso, a unidade de compensação/predição de movimento 251 emite a informação de especificação de imagem de referência para a unidade de definição de imagem de referência 49.
[0381] A unidade de codificação sem perdas 252 gera um tipo de pedaço que representa o tipo de pedaço da imagem de codificação atual com base no PPS fornecido a partir da unidade de definição 232 ilustrado na Fig. 36. Além disso, a unidade de codificação sem perdas 252, similar à unidade de codificação sem perdas 36 ilustrada na Fig. 4, adquire a informação de modo de intrapredição a partir da unidade de intrapredição 46. Adicionalmente, a unidade de codificação sem perdas 252 adquire a informação de modo de interpredição, o vetor movimento, a informação de ponderação, e semelhantes a partir da unidade de com- pensação/predição de movimento 251. Além disso, a unidade de codificação sem perdas 252, similar à unidade de codificação sem perdas 36, adquire o índice do RPS ou o RPS e semelhantes a partir da unidade de definição de imagem de referência 49 e adquire parâmetros de quantização a partir da unidade de controle de taxa 50.
[0382] Além disso, a unidade de codificação sem perdas 252, similar à unidade de codificação sem perdas 36, adquire um indicador de armazenamento, um índice ou um deslocamento, e informação de tipo a partir do filtro de deslocamento adaptativo 42 como informação de filtro de deslocamento e adquire um coeficiente de filtro a partir do filtro de ciclo adaptativo 43.
[0383] A unidade de codificação sem perdas 252, similar à unidade de codificação sem perdas 36, realiza codificação sem perdas do coeficiente quanti- zado que é fornecido a partir da unidade de quantização 35. Além disso, a unidade de codificação sem perdas 252 realiza codificação sem perdas dos parâmetros de quantização, a informação de filtro de deslocamento, e o coeficiente de filtro tal como o tipo de pedaço, a informação de modo de intrapredição ou a informação de modo de interpredição, o vetor movimento, a informação de ponderação, e o índice do RPS ou o RPS como informação de codificação.
[0384] A unidade de codificação sem perdas 252 adiciona a informação de codificação que foi codificada de uma maneira sem perdas para o coeficiente que foi codificado de uma maneira sem perdas como um cabeçalho de pedaço, gerando desta forma dados codificados. A unidade de codificação sem perdas 252 fornece os dados codificados para o buffer de acúmulo 37 de forma a ser armazenada no mesmo.
(Exemplo de Sintaxe de PPS)
[0385] As Figs. 38 e 39 são diagramas que ilustram exemplos da sintaxe do PPS que é definido pela unidade de definição 232 ilustrado na Fig. 36. As Figs. 40 e 41 são diagramas que ilustram exemplos da sintaxe de um PPS em um sistema de HEVC convencional.
[0386] Como ilustrado na sexta linha na Fig. 38, no PPS que é definido pela unidade de definição 232, um indicador de unificação unified_slice_type_flag representando se os tipos de todos os pedaços dentro de uma correspondente imagem são idênticos ou não está incluído. Além disso, como ilustrado na sétima e na oitava linhas, em um caso onde o indicador de unificação é “1”, no PPS, um indicador I (all_intra_slice_flag) representando se os tipos de todos os pedaços dentro de uma correspondente imagem são pedaços I ou não está incluído.
[0387] Além disso, como ilustrado na nona e na décima linhas, em um caso onde o indicador I não é “1”, em outras palavras, em um caso onde um pedaço P ou um pedaço B está incluída dentro da imagem, no PPS, um indicador de B não presente no_b_slice_flag representando se um pedaço B está presente dentro de uma correspondente imagem ou não está incluído.
[0388] Como ilustrado na décima primeira e na décima segunda linhas, em um caso onde o indicador I não é “1”, no PPS, um número de RPSL0 num_ref_idx_l0_default_active_minus1 que é um número máximo de RPS em uma predição para frente (predição de L0) usando uma imagem de referência do qual o tempo de exibição é antes daquele de uma imagem correspondente está incluído como informação se referindo a uma imagem de referência.
[0389] Como ilustrado na décima terceira e na décima quarta linhas, em um caso onde o indicador B não presente é “0”, em outras palavras, em um caso onde um pedaço B está incluída dentro da imagem, no PPS, um número de RPSL1 (num_ref_idx_l1_default_active_minus1) que é um número máximo de RPS em uma predição para trás (predição L1) usando uma imagem de referência do qual o tempo de exibição é posterior a aquele de uma imagem correspondente está incluído como a informação se referindo a uma imagem de referência.
[0390] Como ilustrado na vigésima quinta e vigésima sexta linhas, em um caso onde o indicador I não é “1”, no PPS, um indicador de predição P weighted_pred_flag representando se uma predição ponderada é realizada para o pedaço P ou não está incluída como a informação se referindo a uma imagem de referência. Além disso, em um caso onde o indicador B não presente não é “1”, no PPS, um indicador de predição B weighted_bipred_flag representando se uma predição ponderada é realizada para o pedaço B ou não está incluída como a informação se referindo a uma imagem de referência.
[0391] Como dito acima, no PPS ilustrado nas Figs. 38 e 39, em um caso onde uma imagem correspondente é configurada por apenas um pedaço I, o número de RPSL0, o número de RPSL1, o indicador de predição P, e o indicador de predição B não são definidos. Além disso, em um caso onde uma imagem correspondente inclui um pedaço diferente do pedaço I, o número de RPSL1 e o indicador de predição B não são definidos. De maneira apropriada, a eficiência de codificação pode ser aprimorada se comparada com um caso onde o número de RPSL0, o número de RPSL1, o indicador de predição P, e o indicador de predição B são definidos para todas as imagens independentemente dos tipos dos pedaços dentro das imagens.
[0392] Além disso, no dispositivo de decodificação, em um caso onde a imagem é configurada por apenas um pedaço I, o número de RPSL0 e o número de RPSL1 são reconhecidos para ser “0”, e, em um caso onde a imagem inclui um pedaço diferente do pedaço I, o número de RPSL1 é reconhecido para ser “0”.
[0393] Em contraste, no PPS do sistema de HEVC convencional ilustrado nas Figs. 40 e 41, como ilustrado na sexta, sétima, décima sétima, e décima oitava linhas na Fig. 40, o número de RPSL0, o número de RPSL1, o indicador de predição P, e o indicador de predição B são definidos independentemente do tipo do pedaço dentro da imagem.
[0394] Além disso, em um caso onde a imagem é configurada por apenas um pedaço B, o indicador de predição P pode ser configurado para não ser definido. (Exemplo de Sintaxe de Cabeçalho de pedaço)
[0395] As Figs. 42 a 44 são diagramas que ilustram exemplos da sintaxe do cabeçalho de pedaço que é adicionado pela unidade de codificação sem perdas 252 ilustrada na Fig. 37. Além disso, Figs. 45 a 47 são diagramas que ilustram exemplos da sintaxe do cabeçalho de pedaço no sistema de HEVC convencional.
[0396] Como ilustrado na segunda linha na Fig. 42, no cabeçalho de pedaço adicionado para a unidade de codificação sem perdas 252, um primeiro indicador first_slice_in_pic_flag representando se um correspondente pedaço é o primeiro indicador dentro da imagem está incluído. Além disso, como ilustrado na décima primeira e na décima segunda linhas, em um caso onde o indicador de unificação é “0” ou em um caso onde o indicador de unificação é “1” e o primeiro indicador é “0”, no cabeçalho de pedaço, o tipo de pedaço slice_type de um correspondente pedaço está incluído.
[0397] Em outras palavras, no cabeçalho de pedaço ilustrado nas Figs. 42 a 44, em um caso onde os tipos de pedaços dentro da imagem não são os mesmos ou em um caso onde os tipos de pedaços dentro da imagem são as mesmas e um correspondente pedaço é o primeiro pedaço dentro da imagem, o tipo de pedaço é definido.
[0398] No entanto, no cabeçalho de pedaço ilustrado nas Figs. 42 a 44, em um caso onde os tipos dos pedaços dentro da imagem são as mesmas, e um correspondente pedaço é um pedaço diferente do primeiro pedaço dentro da imagem, o tipo de pedaço não é definido. Em tal caso, o tipo de pedaço incluído no cabeçalho de pedaço é considerado como o tipo de pedaço de uma pedaço diferente da primeira pedaço.
[0399] De maneira apropriada, a eficiência de codificação pode ser aprimorada se comparada com um caso onde tipos de pedaço de todos os pedaços são definidos independentemente se o tipo de pedaços de todos os pedaços dentro da imagem são os mesmos ou não.
[0400] Em contraste, em um cabeçalho de pedaço do sistema de HEVC convencional ilustrado nas Figs. 45 a 47, como ilustrado na décima primeira linha na Fig. 45, o tipo de pedaços de todos os pedaços é definido independentemente se o tipo de pedaços de todos os pedaços dentro da imagem são os mesmos ou não.
(Descrição do Processo do Dispositivo de codificação)
[0401] A Fig. 48 é um fluxograma que ilustra um processo de geração realizado pelo dispositivo de codificação 230 ilustrado na Fig. 36.
[0402] Na Etapa S281 ilustrado na Fig. 48, a unidade de definição 232 do dispositivo de codificação 230 realiza o processo de definição de RPS ilustrado na Fig. 11. Na Etapa S282, a unidade de codificação 231 realiza um processo de codificação para codificar uma imagem, que é configurada em unidades de quadros, que entra a partir do exterior como um sinal de entrada de acordo com o sistema de HEVC. Este processo de codificação será descrito posteriormente em detalhe com referência às Figs. 49 e 50 a ser descrito posteriormente.
[0403] Na Etapa S283, a unidade de definição 232 define o SPS que inclui o RPS ao qual o índice é designado. Na Etapa S284, a unidade de definição 232 realiza um processo de definição de PPS para definir o PPS. Este processo de definição de PPS será descrito posteriormente em detalhe com referência à Fig. 51 a ser descrito posteriormente.
[0404] O processo das Etapas S285 e S286 é similar ao processo das Etapas S15 e S16 ilustrado na Fig. 10, e assim, a descrição da mesma será omitida.
[0405] As Figs. 49 e 50 representam um fluxograma que ilustra o processo de codificação da Etapa S282 ilustrado na Fig. 48 em detalhe.
[0406] O processo das Etapas S301 e S302 ilustrado na Fig. 49 é similar ao processo das Etapas S31 e S32 ilustrado na Fig. 12, e assim, a descrição da mesma será omitida.
[0407] Na Etapa S303, a unidade de compensação/predição de movimento 251 determina se deve realizar uma predição ponderada com base no indicador de predição P ou no indicador de predição B incluído no PPS que é fornecido a partir da unidade de definição 232 ilustrado na Fig. 36.
[0408] Mais especificamente, em um caso onde a imagem de codificação atual é o pedaço P, quando o indicador de predição P é “1”, a unidade de com- pensação/predição de movimento 251 determina a realização da predição ponderada. Além disso, em um caso onde a imagem de codificação atual é o pedaço B, quando o indicador de predição B é “1”, a unidade de compensação/predição de movimento 251 determina a realização da predição ponderada. Adicionalmente, em um caso onde a imagem de codificação atual é o pedaço I, o processo da Etapa S303 é pulado, e o processo prossegue para a Etapa S304.
[0409] Em um caso onde a predição ponderada é determinada a ser realizada na Etapa S303, na Etapa S304, a unidade de intrapredição 46 realiza um processo de intrapredição de todos os modos de intrapredição que são candidatos. Além disso, a unidade de intrapredição 46 calcula valores de função custo para todos os modos de intrapredição que são candidatos com base na imagem lida a partir do buffer de rearranjo de tela 32 e a imagem predita gerada como um resultado do processo de intrapredição. Então, a unidade de intrapredição 46 determina um modo de intrapredição do qual o valor de função custo é o mínimo como um modo de intrapredição ideal. A unidade de intrapredição 46 fornece a imagem predita gerada no modo de intrapredição ideal e um valor de função custo correspondente para a unidade de seleção de imagem predita 48.
[0410] Além disso, a unidade de compensação/predição de movimento 251 realiza um processo de predição/compensação de movimento usando predições ponderadas de todos os modos de interpredição que são candidatos. Além disso, a unidade de compensação/predição de movimento 251 calcula valores de função custo para todos os modos de interpredição que são os candidatos com base na imagem fornecida a partir do buffer de rearranjo de tela 32 e a imagens preditas e determina um modo de interpredição do qual o valor de função custo é o mínimo como um modo de interpredição ideal. Então, a unidade de compensa- ção/predição de movimento 251 fornece o valor de função custo do modo de in- terpredição ideal e uma correspondente imagem predita para a unidade de seleção de imagem predita 48.
[0411] No entanto, em um caso onde a imagem de codificação atual é o pedaço I, o processo de predição/compensação de movimento não é realizado. Após o processo da Etapa S304, o processo prossegue para a Etapa S306.
[0412] Por outro lado, em um caso onde uma predição ponderada é determinada para não ser realizada na Etapa S303, na Etapa S305, a unidade de intrapredição 46 realiza o mesmo processo que aquele da Etapa S304.
[0413] Além disso, a unidade de compensação/predição de movimento 251 realiza um processo de predição/compensação de movimento para todos os modos de interpredição que são os candidatos. Adicionalmente, a unidade de compensação/predição de movimento 251 calcula valores de função custo para todos os modos de interpredição que são os candidatos com base na imagem fornecida a partir do buffer de rearranjo de tela 32 e a imagens preditas e determina um modo de interpredição do qual o valor de função custo é o mínimo como um modo de interpredição ideal. Então, a unidade de compensação/predição de movimento 251 fornece o valor de função custo do modo de interpredição ideal e uma correspondente imagem predita para a unidade de seleção de imagem predita 48. Então, o processo prossegue para a Etapa S306.
[0414] O processo das Etapas S306 a S308 é similar ao processo das Etapas S34 a S36 ilustrada na Fig. 12, e assim, a descrição da mesma será omitida.
[0415] Após o processo da Etapa S308, na Etapa S309, a unidade de compensação/predição de movimento 251 determina se uma predição ponderada foi realizada ou não no processo de predição/compensação de movimento. Em um caso onde é determinado que a predição ponderada foi realizada no processo de predição/compensação de movimento na Etapa S309, na Etapa S310, a unidade de compensação/predição de movimento 251 fornece a informação de ponderação da predição ponderada para a unidade de codificação sem perdas 252. Então, o processo prossegue para a Etapa S311.
[0416] O processo das Etapas S311 a S322 é similar ao processo das Etapas S37 a S48 ilustrado nas Figs. 12 e 13, e assim, a descrição da mesma será omitida.
[0417] Na Etapa S323 ilustrado na Fig. 50, a unidade de codificação sem perdas 252 determina se o indicador de unificação incluído no PPS fornecido a partir da unidade de definição 232 ilustrado na Fig. 36 é “0” ou se o indicador de unificação e o primeiro indicador são “1” ou não.
[0418] Em um caso onde é determinado que o indicador de unificação é “0” ou o indicador de unificação e o primeiro indicador são “1” na Etapa S323, na Etapa S324, a unidade de codificação sem perdas 252 gera um tipo de pedaço da imagem de codificação atual. Então, o processo prossegue para a Etapa S325.
[0419] Por outro lado, em um caso onde é determinado que o indicador de unificação não é “0” e o indicador de unificação e o primeiro indicador não são “1” na Etapa S323, o processo prossegue para a Etapa S325.
[0420] Na Etapa S325, a unidade de codificação sem perdas 252 realiza codificação sem perdas dos parâmetros de quantização fornecidos a partir da unidade de controle de taxa 50, a informação de filtro de deslocamento, e o coeficiente de filtro tal como o tipo de pedaço, a informação de modo de intrapredição ou a informação de modo de interpredição, o vetor movimento, a informação de ponderação, e o índice do RPS ou o RPS como informação de codificação.
[0421] O processo das Etapas S326 a S329 é similar ao processo das Etapas S50 a S53 ilustrado na Fig. 13, e assim, a descrição da mesma será omitida.
[0422] A Fig. 51 é um fluxograma que ilustra o processo de definição de PPS da Etapa S284 ilustrada na Fig. 48 em detalhe. Este processo de definição de PPS é realizado em unidades de imagens.
[0423] Na Etapa S331 ilustrado na Fig. 51, a unidade de definição 232 determina se os tipos de todos os pedaços dentro da imagem são os mesmos ou não. Em um caso onde é determinado que os tipos de todos os pedaços dentro da imagem são as mesmas na Etapa S331, na Etapa S332, a unidade de definição 232 define o indicador de unificação para “1” e inclui o indicador de unificação definido no PPS.
[0424] Na Etapa S333, a unidade de definição 232 determina se os tipos de todos os pedaços dentro da imagem são os pedaços I ou não. Em um caso onde é determinado que os tipos de todos os pedaços dentro da imagem são os pedaços I na Etapa S333, na Etapa S334, a unidade de definição 232 define o indicador I para “1” e inclui o indicador I definido no PPS, e o processo prossegue para a Etapa S337.
[0425] Por outro lado, em um caso onde é determinado que os tipos de todos os pedaços dentro da imagem não são os pedaços I na Etapa S333, na Etapa S335, a unidade de definição 232 define o indicador I para “0” e inclui o indicador I definido no PPS, e o processo prossegue para a Etapa S337.
[0426] Por outro lado, em um caso onde é determinado que os tipos de todos os pedaços dentro da imagem não são os mesmos na Etapa S331, na Etapa S336, a unidade de definição 232 define o indicador I para “0” e inclui o indicador I definido no PPS, e o processo prossegue para a Etapa S337.
[0427] Na Etapa S337, a unidade de definição 232 determina se o indicador I é “1” ou não. Em um caso onde é determinado que o indicador I não é “1” na Etapa S337, na Etapa S338, a unidade de definição 232 define o número de RPSL0 e o indicador de predição P incluído no PPS e inclui o número de RPSL0 e o indicador de predição P que foi definido no PPS.
[0428] Na Etapa S339, a unidade de definição 232 determina se um pedaço B está incluído dentro da imagem ou não. Em um caso onde é determinado que o pedaço B está incluída dentro da imagem na Etapa S339, na Etapa S340, a unidade de definição 232 define o indicador B não presente incluído no PPS para “0” e inclui o indicador definido no PPS. Na Etapa S341, a unidade de definição 232 define o número de RPSL1 e o indicador de predição B incluído no PPS e inclui o número de RPSL1 e o indicador de predição B que foi definido no PPS. Então, o processo é retornado para a Etapa S284 ilustrada na Fig. 48 e prossegue para a Etapa S285.
[0429] Por outro lado, em um caso onde é determinado que o pedaço B não está incluída dentro da imagem na Etapa S339, na Etapa S342, a unidade de definição 232 define o indicador B não presente para “1” e inclui o indicador definido no PPS. Então, o processo é retornado para a Etapa S284 ilustrada na Fig. 48 e prossegue para a Etapa S285.
[0430] Além disso, em um caso onde é determinado que o indicador I é “1” na Etapa S337, o processo é retornado para a Etapa S284 ilustrada na Fig. 48 e prossegue para a Etapa S285.
[0431] Como dito acima, como o dispositivo de codificação 230 define a informação se referindo a uma imagem de referência de acordo com os tipos de pedaços dentro da imagem, a quantidade de informação se referindo a uma imagem de referência é reduzida, e de maneira apropriada, a eficiência de codifica- ção pode ser aprimorada. Além disso, como o dispositivo de codificação 230 define o tipo de pedaço dependendo de se os tipos de todos os pedaços dentro da imagem são as mesmas, a quantidade de informação do tipo de pedaço é reduzida, e de maneira apropriada, a eficiência de codificação pode ser aprimorada.
(Exemplo de Configuração de Dispositivo de decodificação de acordo com Quarta modalidade)
[0432] A Fig. 52 é um diagrama de bloco que ilustra um exemplo da configuração do dispositivo de decodificação, ao qual a presente tecnologia é aplicada, de acordo com a quarta modalidade que decodifica uma corrente codificada transmitida a partir do dispositivo de codificação 230 ilustrado na Fig. 36.
[0433] Aqui, o mesmo numeral de referência é designado para cada configuração ilustrada na Fig. 52 que é a mesma que a configuração ilustrada na Fig. 15, e a descrição da mesma a ser repetida será omitida.
[0434] A configuração do dispositivo de decodificação 270 ilustrado na Fig. 52 é diferente da configuração ilustrada na Fig. 15 pelo fato de que uma unidade de decodificação 271 é arranjada em vez de a unidade de decodificação 113. O dispositivo de decodificação 270 realiza uma predição ponderada quando um processo de compensação de movimento é realizado como é necessário.
[0435] Mais especificamente, a unidade de decodificação 271 do dispositivo de decodificação 270 decodifica os dados codificados fornecidos a partir da unidade de extração 112 de acordo com o sistema de HEVC com base em in- ter_ref_pic_set_prediction_flag de cada RPS e delta_idx_minus1 ou a informação de especificação de imagem de referência fornecida a partir da unidade de extração 112. Neste momento, a unidade de decodificação 271 se refere a informação diferente do RPS que está incluído no SPS, o PPS, e semelhantes como é necessário. Além disso, a unidade de decodificação 271, como é necessário, realiza uma predição ponderada quando o processo de compensação de movimento é realizado. A unidade de decodificação 271 emite uma imagem adquirida como um resultado da decodificação como um sinal de saída. (Exemplo de Configuração de Unidade de decodificação)
[0436] A Fig. 53 é um diagrama de bloco que ilustra um exemplo da configuração da unidade de decodificação 271 ilustrada na Fig. 52.
[0437] Aqui, o mesmo numeral de referência é designado para cada configuração ilustrada na Fig. 53 que é a mesma que a configuração ilustrada na Fig. 16, e a descrição da mesma a ser repetida será omitida.
[0438] A configuração da unidade de decodificação 271 ilustrada na Fig. 53 é diferente da configuração ilustrada na Fig. 16 pelo fato de que uma unidade de decodificação sem perdas 291 é arranjada em vez de a unidade de decodifica- ção sem perdas 132, e uma unidade de compensação de movimento 292 é arranjada em vez de a unidade de compensação de movimento 145.
[0439] A unidade de decodificação sem perdas 291 da unidade de deco- dificação 271, similar à unidade de decodificação sem perdas 132 ilustrado na Fig. 16, realiza decodificação sem perdas para os dados codificados fornecidos a partir do buffer de acúmulo 131, desta forma adquirindo os coeficientes quantiza- dos e a informação de codificação. A unidade de decodificação sem perdas 291, similar à unidade de decodificação sem perdas 132, fornece os coeficientes quan- tizados para a unidade de quantização inversa 133. Além disso, a unidade de de- codificação sem perdas 291 fornece a informação de modo de intrapredição e semelhantes como a informação de codificação para a unidade de intrapredição 143 e fornece o vetor movimento, a informação de modo de interpredição, a informação de ponderação, e semelhantes para a unidade de compensação de movimento 292. A unidade de decodificação sem perdas 291, similar à unidade de decodificação sem perdas 132, fornece o indicador de RPS e o índice do RPS ou o RPS como a informação de codificação para a unidade de definição de imagem de referência 144.
[0440] Além disso, a unidade de decodificação sem perdas 291, similar à unidade de decodificação sem perdas 132, fornece a informação de modo de in- trapredição ou a informação de modo de interpredição como a informação de co- dificação para o comutador 146. A unidade de decodificação sem perdas 291, similar à unidade de decodificação sem perdas 132, fornece a informação de filtro de deslocamento como a informação de codificação para o filtro de deslocamento adaptativo 137 e fornece o coeficiente de filtro para o filtro de ciclo adaptativo 138.
[0441] A unidade de compensação de movimento 292, similar à unidade de compensação de movimento 145 ilustrado na Fig. 16, lê uma imagem de referência especificada pela informação de especificação de imagem de referência a partir da memória de quadro 141 através do comutador 142 com base na informação de especificação de imagem de referência fornecida a partir da unidade de definição de imagem de referência 144.
[0442] Além disso, a unidade de compensação de movimento 292 similar à unidade de compensação/predição de movimento 251 ilustrado na Fig. 37, determina se deve realizar uma predição ponderada com base no indicador de predição P ou no indicador de predição B que está incluído no PPS que é fornecido a partir da unidade de extração 112.
[0443] A unidade de compensação de movimento 292 serve como uma unidade de geração e, em um caso onde é determinado para realizar a predição ponderada, realiza um processo de compensação de movimento usando a predição ponderada do modo de interpredição ideal representado pela informação de modo de interpredição usando o vetor movimento e a imagem de referência. Neste momento, a unidade de compensação de movimento 292, como é necessária, em um caso onde pedaço da imagem de codificação atual é o pedaço P, se refere a o número de RPSL0 e, em um caso onde pedaço da imagem de codificação atual é o pedaço B, se refere a o número de RPSL0 e o número de RPSL1.
[0444] Por outro lado, em um caso onde a predição ponderada é determinada para não ser realizada, a unidade de compensação de movimento 292, similar à unidade de compensação de movimento 145, realiza um processo de compensação de movimento do modo de interpredição ideal. A unidade de compensação de movimento 292 fornece uma imagem predita gerada como um resul- tado do mesmo para o comutador 146.
(Descrição do Processo do Dispositivo de decodificação)
[0445] A Fig. 54 é um fluxograma que ilustra um processo de recepção realizado pelo dispositivo de decodificação 270 ilustrado na Fig. 52.
[0446] O processo das Etapas S351 a S353 ilustrado na Fig. 54 é similar ao processo das Etapas S111 a S113 ilustrada na Fig. 17, e assim, a descrição da mesma será omitida.
[0447] Na Etapa S354, a unidade de decodificação 271 realiza um processo de decodificação com base na informação do RPS de cada RPS e o PPS que são fornecidos a partir da unidade de extração 112. Este processo de decodi- ficação será descrito em detalhe com referência à Fig. 55 a ser descrito posteriormente. Então, o processo termina.
[0448] A Fig. 55 é um fluxograma que ilustra o processo de decodifica- ção da Etapa S354 ilustrado na Fig. 54 em detalhe.
[0449] Na Etapa S361 ilustrado na Fig. 55, o buffer de acúmulo 131 da unidade de decodificação 271 recebe dados codificados, que é configurada em unidades de quadros” a partir da unidade de extração 112 ilustrada na Fig. 52 e armazena os dados codificados recebidos. O buffer de acúmulo 131 fornece os dados codificados armazenados para a unidade de decodificação sem perdas 291.
[0450] Na Etapa S362, a unidade de decodificação sem perdas 291 realiza decodificação sem perdas dos dados codificados fornecidos a partir do buffer de acúmulo 131, desta forma adquirindo o coeficiente quantizado e a informação de codificação. A unidade de decodificação sem perdas 291 fornece o coeficiente quantizado para a unidade de quantização inversa 133. Além disso, a unidade de decodificação sem perdas 291 fornece a informação de modo de intrapredição e semelhantes como a informação de codificação para a unidade de intrapredição 143 e fornece o vetor movimento, a informação de modo de interpredição, a in-formação de ponderação, o indicador de RPS, o índice do RPS ou o RPS, e se- melhantes para a unidade de compensação de movimento 292.
[0451] Além disso, a unidade de decodificação sem perdas 291 fornece a informação de modo de intrapredição como a informação de codificação ou a informação de modo de interpredição para o comutador 146. A unidade de decodifi- cação sem perdas 291 fornece a informação de filtro de deslocamento como a informação de codificação para o filtro de deslocamento adaptativo 137 e fornece o coeficiente de filtro para o filtro de ciclo adaptativo 138.
[0452] O processo das Etapas S363 a S365 é similar ao processo das Etapas S133 a S135 ilustrado na Fig. 19, e assim, a descrição da mesma será omitida. Na Etapa S366, a unidade de compensação de movimento 292, similar à unidade de compensação/predição de movimento 251 ilustrado na Fig. 37, determina se deve realizar uma predição ponderada com base no indicador de predição P ou no indicador de predição B incluído no PPS que é fornecido a partir da unidade de extração 112 ilustrada na Fig. 52.
[0453] Em um caso onde a predição ponderada é determinada para ser realizada na Etapa S366, na Etapa S367, a unidade de compensação de movimento 292 lê uma imagem de referência com base na informação de especificação de imagem de referência fornecida a partir da unidade de definição de imagem de referência 144 e realiza um processo de compensação de movimento usando a predição ponderada do modo de interpredição ideal representado pela informação de modo de interpredição usando o vetor movimento e a imagem de referência.
[0454] Neste momento, a unidade de compensação de movimento 292, como é necessário, em um caso onde pedaço da imagem de codificação atual é o pedaço P, se refere a o número de RPSL0 e, em um caso onde pedaço da imagem de codificação atual é o pedaço B, se refere a o número de RPSL0 e o número de RPSL1. A unidade de compensação de movimento 292 fornece uma imagem predita gerada como um resultado do mesmo para a unidade de adição 135 através do comutador 146, e o processo prossegue para a Etapa S370.
[0455] Por outro lado, em um caso onde a predição ponderada é determinada para não ser realizada na Etapa S366, na Etapa S368, a unidade de compensação de movimento 292 lê uma imagem de referência com base na informação de especificação de imagem de referência fornecida a partir da unidade de definição de imagem de referência 144 e realiza um processo de compensação de movimento do modo de interpredição ideal representado pela informação de modo de interpredição usando o vetor movimento e a imagem de referência. A unidade de compensação de movimento 292 fornece uma imagem predita gerada como um resultado do mesmo para a unidade de adição 135 através do comutador 146, e o processo prossegue para a Etapa S370.
[0456] O processo das Etapas S369 a S377 é similar ao processo das Etapas S137 a S145 ilustrado na Fig. 19, e assim, a descrição da mesma será omitida.
[0457] Como dito acima, definindo a informação se referindo a uma imagem de referência de acordo com os tipos de pedaços dentro da imagem, o dispositivo de decodificação 270 pode decodificar uma corrente codificada tendo eficiência de codificação aprimorada.
[0458] Além disso, na quarta modalidade, enquanto a informação se referindo a uma imagem de referência foi descrita como o número de RPSL0, o número de RPSL1, o indicador de predição P, e o indicador de predição B, a presente tecnologia não está limitada a isto.
<Aplicação para Codificação de Imagem de Múltiplos Pontos de Vis- ta/Decodificação de Imagem de Múltiplos Pontos de Vista>
[0459] A série de processos descritos acima pode ser aplicada à codificação de imagem de múltiplos pontos de vista e decodificação de imagem de múltiplos pontos de vista. A Fig. 56 é um diagrama que ilustra um exemplo de um sistema de codificação de imagem de múltiplos pontos de vista.
[0460] Como ilustrado na Fig. 56, uma imagem de múltiplos pontos de vista inclui imagens de uma pluralidade de pontos de vista, e uma imagem de um ponto de vista predeterminado fora da pluralidade de pontos de vista é projetada como uma imagem de uma vista de base. A imagem de cada ponto de vista diferente da imagem da vista de base é manipulada como uma imagem de uma vista não de base.
[0461] Em um caso onde codificação de imagem de múltiplos pontos de vista como ilustrado na Fig. 56 é realizada, para cada vista (a mesma vista), uma diferença entre os parâmetros de quantização pode ser tomada. (1) vista de base: (1-1) dQP (vista de base) = Current_CU_QP (vista de base) - LCU_QP (vista de base) (1-2) dQP (vista de base) = Current_CU_QP (vista de base) - Previ- sous_CU_QP (vista de base) (1-3) dQP (vista de base) = Current_CU_QP (vista de base) - Slice_QP (vista de base) (2) vista que não é de base: (2-1) dQP (vista que não é de base) = Current_CU_QP (vista que não é de base) - LCU_QP (vista que não é de base) (2-2) dQP (vista que não é de base) = CurrentQP (vista que não é de base) - PrevisousQP (vista que não é de base) (2-3) dQP (vista que não é de base) = Current_CU_QP (vista que não é de base) - Slice_QP (vista que não é de base)
[0462] Em um caso onde a codificação de imagem de múltiplos pontos de vista é realizada, para cada vista (diferentes vistas), uma diferença entre os parâmetros de quantização pode ser tomada. (3) vista de base/ vista que não é de base: (3-1) dQP (intervista) = Slice_QP (vista de base) - Slice_QP (vista que não é de base) (3-2) dQP (intervista) = LCU_QP (vista de base) - LCU_QP (vista que não é de base) (4) vista que não é de base/vista que não é de base: (4-1) dQP (intervista) = Slice_QP (vista que não é de base i) - Slice_QP (vista que não é de base j) (4-2) dQP (intervista) = LCU_QP (vista que não é de base i) - LCU_QP (vista que não é de base j)
[0463] Em tal caso, (1) a (4) descritos acima podem ser usados de uma maneira em combinação. Por exemplo, na vista que não é de base, uma técnica (combinando 3-1 e 2-3) para tomar uma diferença entre os parâmetros de quanti- zação da vista de base e a vista que não é de base em um nível de pedaço e uma técnica (combinando 3-2 e 2-1) para tomar uma diferença entre os parâmetros de quantização da vista de base e a vista que não é de base no nível de LCU pode ser considerado. Deste modo, aplicando repetidamente a diferença, também em um caso onde a codificação de múltiplos pontos de vista é realizada, a eficiência de codificação pode ser aprimorada.
[0464] Similar à técnica descrita acima, para cada dQP descrito acima, um indicador usado para identificar se um dQP tendo um valor diferente de “0” está presente pode ser definido ou não.
<Dispositivo de codificação de imagem de múltiplos pontos de vista>
[0465] A Fig. 57 é um diagrama que ilustra um dispositivo de codificação de imagem de múltiplos pontos de vista que realiza a codificação de imagem de múltiplos pontos de vista descrita acima. Como ilustrado na Fig. 57, o dispositivo de codificação de imagem de múltiplos pontos de vista 600 inclui uma unidade de codificação 601, uma unidade de codificação 602, e um multiplexador 603.
[0466] A unidade de codificação 601 codifica uma imagem de vista de base, gerando desta forma uma corrente codificada de imagem de vista de base. Além disso, a unidade de codificação 602 codifica a imagem de vista que não é de base, gerando desta forma a corrente codificada de imagem de vista que não é de base. O multiplexador 603 multiplexa a corrente codificada de imagem de vista de base gerado pela unidade de codificação 601 e a corrente codificada de ima- gem de vista que não é de base gerado pela unidade de codificação 602, gerando desta forma uma corrente codificada de imagem de múltiplos pontos de vista.
[0467] O dispositivo de codificação 10 (150 e 190) pode ser aplicado para a unidade de codificação 601 e a unidade de codificação 602 deste dispositivo de codificação de imagem de múltiplos pontos de vista 600. Em tal caso, o dispositivo de codificação de imagem de múltiplos pontos de vista 600 define uma diferença entre o parâmetro de quantização definido pela unidade de codificação 601 e o parâmetro de quantização definido pela unidade de codificação 602 e transmite a diferença definida.
<Dispositivo de decodificação de imagem de múltiplos pontos de vista>
[0468] A Fig. 58 é um diagrama que ilustra um dispositivo de decodifica- ção de imagem de múltiplos pontos de vista que realiza a decodificação de imagem de múltiplos pontos de vista descrita acima. Como ilustrado na Fig. 58, o dispositivo de decodificação de imagem de múltiplos pontos de vista 610 inclui um desmultiplexador 611, uma unidade de decodificação 612, e uma unidade de de- codificação 613.
[0469] O desmultiplexador 611 desmultiplexa uma corrente codificada de imagem de múltiplos pontos de vista adquirida multiplexando a corrente codificada de imagem de vista de base e a corrente codificada de imagem de vista que não é de base, desta forma extraindo uma corrente codificada de imagem de vista de base e a corrente codificada de imagem de vista que não é de base. A unidade de decodificação 612 decodifica a corrente codificada de imagem de vista de base extraída pelo desmultiplexador 611, desta forma adquirindo a imagem de vista de base. A unidade de decodificação 613 decodifica a corrente codificada de imagem de vista que não é de base extraída pelo desmultiplexador 611, desta forma adquirindo a imagem de vista que não é de base.
[0470] O dispositivo de decodificação 110 (170 e 210) pode ser aplicado para a unidade de decodificação 612 e a unidade de decodificação 613 deste dispositivo de decodificação de imagem de múltiplos pontos de vista 610. Em tal ca- 50, o dispositivo de decodificação de imagem de múltiplos pontos de vista 610 define um parâmetro de quantização com base em uma diferença entre o parâmetro de quantização definido pela unidade de codificação 601 e o parâmetro de quantização definido pela unidade de codificação 602 e realiza quantização inversa. <Aplicação para Codificação de imagem hierárquica/Decodificação de imagem hierárquica>
[0471] A série de processos descritos acima pode ser aplicada para a codificação de imagem hierárquica e a decodificação de imagem hierárquica. A Fig. 59 é um diagrama que ilustra um exemplo de um sistema de codificação de imagem hierárquica.
[0472] Como ilustrado na Fig. 59, uma imagem hierárquica inclui imagens de uma pluralidade de hierarquias (resoluções), e uma imagem de uma hierarquia predeterminada fora da pluralidade de resoluções é projetada como uma imagem de uma camada de base. Imagens de hierarquias diferentes da imagem da camada de base são manipuladas como imagens de camadas que não são de base.
[0473] Em um caso onde a codificação de imagem hierárquica (capacidade de escalonamento espacial) como ilustrada na Fig. 59 é realizada, em cada camada (a mesma camada), uma diferença entre parâmetros de quantização pode ser tomada. (1) camada de base: (1-1) dQP (camada de base) = Current_CU_QP (camada de base) - LCU_QP (camada de base) (1-2) dQP (camada de base) = Current_CU_QP (camada de base) - Pre- visous_CU_QP (camada de base) (1-3) dQP (camada de base) = Current_CU_QP (camada de base) - Sli- ce_QP (camada de base) (2) camada que não é de base: (2-1) dQP (camada que não é de base) = Current_CU_QP (camada que não é de base) - LCU_QP (camada que não é de base) (2-2) dQP (camada que não é de base) = CurrentQP (camada que não é de base) - PrevisousQP (camada que não é de base) (2-3) dQP (camada que não é de base) = Current_CU_QP (camada que não é de base) - Slice_QP (camada que não é de base)
[0474] Em um caso onde a codificação hierárquica é realizada, em cada camada (diferentes camadas), uma diferença entre parâmetros de quantização pode ser tomada. (3) camada de base/camada que não é de base: (3-1) dQP (intercamada) = Slice_QP (camada de base) - Slice_QP (camada que não é de base) (3-2) dQP (intercamada) = LCU_QP (camada de base) - LCU_QP (camada que não é de base) (4) camada que não é de base/camada que não é de base: (4-1) dQP (intercamada) = Slice_QP (camada que não é de base i) - Sli- ce_QP (camada que não é de base j) (4-2) dQP (intercamada) = LCU_QP (camada que não é de base i) - LCU_QP (camada que não é de base j)
[0475] Em tal caso, (1) a (4) descritos acima podem ser usados de uma maneira em combinação. Por exemplo, na camada que não é de base, uma técnica (combinando 3-1 e 2-3) para tomar uma diferença entre os parâmetros de quantização da camada de base e a camada que não é de base no nível do pedaço e uma técnica (combinando 3-2 e 2-1) para tomar uma diferença entre os parâmetros de quantização da camada de base e a camada que não é de base no nível de LCU pode ser considerado. Deste modo, aplicando repetidamente a diferença, também em um caso onde a codificação hierárquica é realizada, a eficiência de codificação pode ser aprimorada.
[0476] Similar à técnica descrita acima, para cada dQP descrito acima, um indicador usado para identificar se a dQP tendo um valor diferente de “0” está presente pode ser definido ou não. <Dispositivo de codificação de imagem hierárquica>
[0477] A Fig. 60 é um diagrama que ilustra um dispositivo de codificação de imagem hierárquica que realiza a codificação de imagem hierárquica descrita acima. Como ilustrado na Fig. 60, o dispositivo de codificação de imagem hierárquica 620 inclui uma unidade de codificação 621, uma unidade de codificação 622, e um multiplexador 623.
[0478] A unidade de codificação 621 codifica uma imagem de camada de base, gerando desta forma uma corrente codificada de imagem de camada de base. Além disso, a unidade de codificação 622 codifica a imagem de camada que não é de base, gerando desta forma a corrente codificada de imagem de camada que não é de base. O multiplexador 623 multiplexa a corrente codificada de imagem de camada de base gerado pela unidade de codificação 621 e a corrente codificada de imagem de camada que não é de base gerado pela unidade de codificação 622, gerando desta forma uma corrente codificada de imagem hierárquica.
[0479] O dispositivo de codificação 10 (150 e 190) pode ser aplicado para a unidade de codificação 621 e a unidade de codificação 622 deste dispositivo de codificação de imagem hierárquica 620. Em tal caso, o dispositivo de codificação de imagem hierárquica 620 define uma diferença entre o parâmetro de quan- tização definido pela unidade de codificação 621 e o parâmetro de quantização definido pela unidade de codificação 622 e transmite a diferença definida.
<Dispositivo de decodificação de imagem hierárquica>
[0480] A Fig. 61 é um diagrama que ilustra um dispositivo de decodifica- ção de imagem hierárquica que realiza a decodificação de imagem hierárquica descrita acima. Como ilustrado na Fig. 61, o dispositivo de decodificação de imagem hierárquica 630 inclui um desmultiplexador 631, uma unidade de decodifica- ção 632, e uma unidade de decodificação 633.
[0481] O desmultiplexador 631 desmultiplexa uma corrente codificada de imagem hierárquica adquirido multiplexando a corrente codificada de imagem de camada de base e a corrente codificada de imagem de camada que não é de base, desta forma extraindo uma corrente codificada de imagem de camada de base e a corrente codificada de imagem de camada que não é de base. A unidade de decodificação 632 decodifica a corrente codificada de imagem de camada de base extraída pelo desmultiplexador 631, desta forma adquirindo a imagem de camada de base. A unidade de decodificação 633 decodifica a corrente codificada de imagem de camada que não é de base extraída pelo desmultiplexador 631, desta forma adquirindo a imagem de camada que não é de base.
[0482] O dispositivo de decodificação 110 (170 e 210) pode ser aplicado para a unidade de decodificação 632 e a unidade de decodificação 633 deste dispositivo de decodificação de imagem hierárquica 630. Em tal caso, o dispositivo de decodificação de imagem hierárquica 630 define um parâmetro de quantização com base em uma diferença entre o parâmetro de quantização definido pela unidade de codificação 621 e o parâmetro de quantização definido pela unidade de codificação 622 e realiza quantização inversa. <Descrição do Computador ao qual a Presente tecnologia é Aplicada>
[0483] A série de processos descritos acima pode ser realizada por hardware ou software. Em um caso onde a série de processes é realizada por software, um programa que configura o software é instalado para um computador. Aqui, o computador inclui um computador que é construído em um hardware dedicado, um computador que pode executar várias funções tendo vários programas instalados no mesmo tal como um computador de propósito geral, e semelhantes.
[0484] A Fig. 62 é um diagrama de bloco que ilustra um exemplo da configuração de hardware do computador que executa a série de processos descritos acima de acordo com um programa.
[0485] No computador, uma CPU (Unidade de Processamento Central) 801, uma ROM (Memória apenas de Leitura) 802, e uma RAM (Memória de Aces- so Aleatório) 803 são interconectadas através de um barramento 804.
[0486] Além disso, uma interface de entrada/saída 805 está conectada com o barramento 804. À interface de entrada/saída 805, uma unidade de entrada 806, uma unidade de saída 807, uma unidade de armazenamento 808, uma unidade de comunicação 809, e um drive 810 são conectados.
[0487] A unidade de entrada 806 é configurado por um teclado, um mouse, um microfone, e semelhantes. A unidade de saída 807 é configurada por um exibidor, um alto-falante, e semelhantes. A unidade de armazenamento 808 é configurada por um disco rígido, uma memória não volátil, ou semelhantes. A unidade de comunicação 809 é configurada por uma interface de rede ou semelhantes. O drive 810 aciona um meio removível 811 tal como um disco magnético, um disco óptico, um disco mageto-óptico, ou um disco semicondutor.
[0488] No computador configurado como descrito acima, a CPU 801 realiza a série de processos descritos acima, por exemplo, carregando um programa armazenado na unidade de armazenamento 808 para a RAM 803 através da interface de entrada/saída 805 e o barramento 804 e executando o programa.
[0489] O programa executado pelo computador (CPU 801), por exemplo, pode ser provido sendo gravado no meio removível 811 como um meio de embalagem. Além disso, o programa pode ser provido através de um meio de transmissão com fios ou sem fios tal como uma rede de área local, a Internet, ou transmissão de satélite digital.
[0490] No computador, o programa pode ser instalado para a unidade de armazenamento 808 através da interface de entrada/saída 805 carregando o meio removível 811 no drive 810. Além disso, o programa pode ser recebido pela unidade de comunicação 809 através de um meio de transmissão com fios ou sem fios e ser instalado para a unidade de armazenamento 808. Adicionalmente, o programa pode ser instalado antecipadamente para o ROM 802 ou a unidade de armazenamento 808.
[0491] Além disso, o programa executado pelo computador pode ser um programa que realiza o processo em uma série de tempo na sequência descrita aqui ou pode ser um programa que realiza o processo de uma maneira paralela ou na temporização necessária tal como a temporização quando o programa é chamado.
<Exemplo de Configuração do Aparelho de Televisão >
[0492] A Fig. 63 ilustra a configuração esquemática de um aparelho de televisão ao qual a presente tecnologia é aplicada. O aparelho de televisão 900 inclui: uma antena 901; um sintonizador 902; um desmultiplexador 903; um deco- dificador 904; uma unidade de processamento de sinal de vídeo 905; uma unidade de exibição 906; uma unidade de processamento de sinal de áudio 907; um alto-falante 908; e uma unidade de interface externa 909. Além disso, o aparelho de televisão 900 inclui uma unidade de controle 910, uma unidade de interface de usuário 911, e semelhantes.
[0493] O sintonizador 902 seleciona um canal desejado a partir de sinais de onda transmitidos recebidos pela antena 901, realiza a desmodulação, e emite uma corrente de bit codificada adquirida para o desmultiplexador 903.
[0494] O desmultiplexador 903 extrai um pacote de um vídeo ou um áudio de um programa que é um alvo de observação a partir da corrente de bit codificada e emite dados do pacote extraído para o decodificador 904. Além disso, o desmultiplexador 903 fornece um pacote de dados tal como um EPG (Guia de Programa Eletrônico) ou semelhantes para a unidade de controle 910. Adicionalmente, em um caso onde embaralhamento é realizado, o embaralhamento é liberado usando um desmultiplexador ou semelhantes.
[0495] O decodificador 904 realiza um processo de decodificação de um pacote e emite dados de vídeo gerados pelo processo de decodificação para a unidade de processamento de sinal de vídeo 905 e emite dados de áudio para a unidade de processamento de sinal de áudio 907.
[0496] A unidade de processamento de sinal de vídeo 905 realiza remo ção de ruído, processamento de vídeo de acordo com um definição de usuário, e semelhantes para os dados de vídeo. A unidade de processamento de sinal de vídeo 905 gera dados de vídeo de um programa que deve ser exibido na unidade de exibição 906, dados de imagem de acordo com um processo que é com base em uma aplicação fornecida através de uma rede, e semelhantes. Além disso, a unidade de processamento de sinal de vídeo 905 gera dados de vídeo para exibir uma tela de menu tal como uma tela de seleção de item e semelhantes e sobrepõe os dados de vídeo gerados nos dados de vídeo do programa. A unidade de processamento de sinal de vídeo 905 gera um sinal de acionamento com base em os dados de vídeo gerados como dito acima e aciona a unidade de exibição 906.
[0497] A unidade de exibição 906 aciona um dispositivo de exibição (por exemplo, um dispositivo de exibição de cristal líquido ou semelhantes) com base no sinal de acionamento fornecido a partir da unidade de processamento de sinal de vídeo 905, exibindo desta forma um vídeo de um programa e semelhantes.
[0498] A unidade de processamento de sinal de áudio 907 realiza um processo predeterminado tal como remoção de ruído para os dados de áudio, realiza um processo de conversão D/A de dados de áudio após o processo ou um processo de amplificação do mesmo, e fornece dados resultantes para o alto- falante 908, realizando desta forma a saída de áudio.
[0499] A unidade de interface externa 909 é uma interface usada para uma conexão com um dispositivo externo ou uma rede e transmite/recebe dados tais como dados de vídeo ou dados de áudio.
[0500] A unidade de interface de usuário 911 está conectada com a unidade de controle 910. A unidade de interface de usuário 911 é configurada por um comutador de operação, uma unidade de recepção de sinal de controle remoto, e semelhantes e fornece um sinal de operação de acordo com uma operação do usuário para a unidade de controle 910.
[0501] A unidade de controle 910 é configurada por uma CPU (Unidade de Processamento Central), uma memória, e semelhantes. A memória armazena um programa executado pela CPU, vários tipos de dados que são necessários para o processo realizado pela CPU, dados de EPG, dados adquiridos através de uma rede, e semelhantes. O programa que é armazenado na memória é lido e executado pela CPU no momento predeterminado tal como a partida do aparelho de televisão 900. Executando o programa, a CPU realiza o controle de cada unidade tal que o aparelho de televisão 900 opera de acordo com uma operação do usuário.
[0502] Além disso, no aparelho de televisão 900, de maneira a conectar o sintonizador 902, o desmultiplexador 903, a unidade de processamento de sinal de vídeo 905, a unidade de processamento de sinal de áudio 907, a unidade de interface externa 909, e semelhantes para a unidade de controle 910, um barra- mento 912 é disposto.
[0503] No aparelho de televisão configurado deste modo, a função do dispositivo de decodificação (método de decodificação) de acordo com o presente pedido é implementada no decodificador 904. De maneira apropriada, uma corrente codificada em que a quantidade de informação se referindo à informação especificando uma imagem de referência é reduzida pode ser decodificada.
<Exemplo de Configuração de Telefone móvel>
[0504] A Fig. 64 ilustra a configuração esquemática de um telefone móvel ao qual a presente tecnologia é aplicada. O telefone móvel 920 inclui: uma unidade de comunicação 922; um codec de áudio 923; uma unidade de câmera 926; uma unidade de processamento de imagem 927; uma unidade de multiple- xação/separação 928; uma unidade de gravação/reprodução 929; uma unidade de exibição 930; e uma unidade de controle 931. Estas são interconectadas através do barramento 933.
[0505] Além disso, a antena 921 está conectada com a unidade de comunicação 922, e o alto-falante 924 e o microfone 925 são conectados com o codec de áudio 923. Adicionalmente, a unidade de operação 932 está conectada com a unidade de controle 931.
[0506] O telefone móvel 920 realiza várias operações tais como trans- missão e recepção de um sinal de áudio, transmissão e recepção de um correio eletrônico e dados de imagem, captura de imagem, e gravação de dados nos vários modos tal como um modo de chamada de voz e um modo de comunicação de dados.
[0507] No modo de chamada de voz, um sinal de áudio gerado pelo microfone 925 é convertido para dados de áudio ou comprimido pelo codec de áudio 923, e um sinal resultante é fornecido para a unidade de comunicação 922. A unidade de comunicação 922 realiza um processo de modulação, um processo de conversão de frequência, e semelhantes para os dados de áudio, gerando desta forma um sinal de transmissão. Além disso, a unidade de comunicação 922 fornece um sinal de transmissão para a antena 921 de forma a ser transmitido para uma estação de base não ilustrada na figura. Adicionalmente, a unidade de comunicação 922 realiza um processo de amplificação, um processo de conversão de frequência, um processo de desmodulação, e semelhantes para um sinal de recepção recebido pela antena 921 e fornece dados de áudio adquiridos para o codec de áudio 923. O codec de áudio 923 realiza descompressão de dados dos dados de áudio e converte os dados de áudio para um sinal de áudio análogo e emite um sinal resultante para o alto-falante 924.
[0508] Além disso, no modo de comunicação de dados, em um caso onde um correio é transmitido, a unidade de controle 931 recebe entrada de dados de caractere por uma operação para a unidade de operação 932 e exibe os caracteres de entrada na unidade de exibição 930. Adicionalmente, a unidade de controle 931 gera dados de correio com base na instrução de usuário a partir da unidade de operação 932 e fornece os dados de correio gerados para a unidade de comunicação 922. A unidade de comunicação 922 realiza um processo de modulação, um processo de conversão de frequência, e semelhantes para os dados de correio e transmite um sinal de transmissão adquirido a partir da antena 921. Além disso, a unidade de comunicação 922 realiza um processo de amplificação, um processo de conversão de frequência, um processo de desmodulação, e se- melhantes para o sinal de recepção recebido pela antena 921, restaurando desta forma os dados de correio. Estes dados de correio são fornecidos para a unidade de exibição 930, enquanto que o conteúdo do correio é exibido.
[0509] Além disso, o telefone móvel 920 pode armazenar os dados de correio recebidos em um meio de armazenamento usando a unidade de grava- ção/reprodução 929. O meio de armazenamento pode ser um meio de armazenamento regravável arbitrário. Por exemplo, o meio de armazenamento é uma memória de semicondutor tal como uma RAM ou uma memória de flash do tipo embutido, um disco rígido, um disco magnético, um disco mageto-óptico, um disco óptico, ou um meio removível tal como uma memória de USB ou um cartão de memória.
[0510] No modo de comunicação de dados, em um caso onde dados de imagem são transmitidos, os dados de imagem gerados pela unidade de câmera 926 são fornecidos para a unidade de processamento de imagem 927. A unidade de processamento de imagem 927 realiza um processo de codificação dos dados de imagem, gerando desta forma dados codificados.
[0511] A unidade de multiplexação/separação 928 multiplexa dados codificados gerado pela unidade de processamento de imagem 927 e dados de áudio fornecidos a partir do codec de áudio 923 de acordo com um sistema predeterminado e fornece dados multiplexados para a unidade de comunicação 922. A unidade de comunicação 922 realiza um processo de modulação, um processo de conversão de frequência, e semelhantes dos dados multiplexados e transmite um sinal de transmissão adquirido a partir da antena 921. Além disso, a unidade de comunicação 922 realiza um processo de amplificação, um processo de conversão de frequência, um processo de desmodulação, e semelhantes para o sinal de recepção recebido pela antena 921, desta forma restaurando os dados multiple- xados. Estes dados multiplexados são fornecidos para a unidade de multiplexa- ção/separação 928. A unidade de multiplexação/separação 928 separa os dados multiplexados e fornece dados codificados para a unidade de processamento de imagem 927 e fornece dados de áudio para o codec de áudio 923. A unidade de processamento de imagem 927 realiza um processo de decodificação dos dados codificados, gerando desta forma dados de imagem. Estes dados de imagem são fornecidos para a unidade de exibição 930, enquanto que a imagem recebida é exibida. O codec de áudio 923 converte dados de áudio para um sinal de áudio análogo e fornece o sinal de áudio análogo convertido para o alto-falante 924, desta forma emitindo o áudio recebido.
[0512] No dispositivo de telefone móvel configurado deste modo, as funções do dispositivo de codificação e o dispositivo de decodificação (um método de codificação e um método de decodificação) de acordo com o presente pedido são implementados na unidade de processamento de imagem 927. De maneira apropriada, uma corrente codificada em que a quantidade de informação que se refere à informação que especifica uma imagem de referência é reduzida pode ser decodificada.
<Exemplo de Configuração de Dispositivo de gravação e reprodução>
[0513] A Fig. 65 ilustra a configuração esquemática de um dispositivo de gravação e reprodução ao qual a presente tecnologia é aplicada. O dispositivo de gravação e reprodução 940, por exemplo, grava dados de áudio e dados de vídeo de um programa de transmissão recebido em um meio de gravação e provê os dados gravados para um usuário no momento de acordo com uma instrução do usuário. Além disso, o dispositivo de gravação e reprodução 940, por exemplo, pode adquirir dados de áudio e dados de vídeo a partir de outro dispositivo e gra-var os dados de áudio e os dados de vídeo em um meio de gravação. Adicionalmente, o dispositivo de gravação e reprodução 940 decodifica e emite os dados de áudio e os dados de vídeo, que são gravados no meio de gravação, enquanto que a exibição de uma imagem ou a saída de um áudio podem ser realizadas em um dispositivo de monitor ou semelhantes.
[0514] O dispositivo de gravação e reprodução 940 inclui: um sintonizador 941; uma unidade de interface externa 942; um codificador 943; uma unidade de HDD (Drive de Disco Rígido) 944; um driver de disco 945; um seletor 946; um decodificador 947; uma unidade de OSD (Exibição na tela) 948; uma unidade de controle 949; e uma unidade de interface de usuário 950.
[0515] O sintonizador 941 seleciona um canal desejado dentre sinais de transmissão recebidos por uma antena não ilustrada na figura. O sintonizador 941 emite uma corrente de bit codificada adquirida desmodulando um sinal de recepção do canal desejado para o seletor 946.
[0516] A unidade de interface externa 942 é configurado por pelo menos um de uma interface de IEEE1394, a unidade de interface de rede, uma interface de USB, uma interface de memória de flash, e semelhantes. A unidade de interface externa 942 é uma interface para uma conexão com um dispositivo externo, uma rede, um cartão de memória, ou semelhantes e realiza recepção de dados dos dados de vídeo, dados de áudio, e semelhantes a ser gravados.
[0517] Quando os dados de vídeo e os dados de áudio fornecidos a partir da unidade de interface externa 942 não são codificados, o codificador 943 codifica os dados de vídeo e os dados de áudio de acordo com um sistema predeterminado e emite uma corrente de bit codificada para o seletor 946.
[0518] A unidade de HDD 944 grava dados de conteúdo tais como vídeos e áudios, vários programas, outros dados, e semelhantes em um disco rígido embutido e lê os dados gravados a partir do disco rígido no momento da reprodução ou semelhantes.
[0519] O driver de disco 945 realiza gravação de sinal e reprodução de sinal para um disco óptico carregado. O disco óptico, por exemplo, é um disco de DVD (um DVD-Vídeo, um DVD-RAM, um DVD-R, um DVD-RW, um DVD+R, um DVD+RW, ou semelhantes), um disco de Blu-ray (marca registrada), ou semelhantes.
[0520] Quando um vídeo ou um áudio é gravado, o seletor 946 seleciona uma corrente de bit codificada fornecida a partir do sintonizador 941 ou o codificador 943 e fornece a corrente de bit de código selecionado para um da unidade de HDD 944 e do driver de disco 945. Além disso, quando um vídeo ou um áudio é reproduzido, o seletor 946 fornece uma corrente de bit codificada emitida a partir da unidade de HDD 944 ou o driver de disco 945 para o decodificador 947.
[0521] O decodificador 947 realiza um processo de decodificação da corrente de bit codificada. O decodificador 947 fornece dados de vídeo que é gerado realizando o processo de decodificação para a unidade de OSD 948. Além disso, o decodificador 947 emite dados de áudio que é gerado realizando o processo de decodificação.
[0522] A unidade de OSD 948 gera dados de vídeo usados para exibir uma tela de menu tal como um menu de seleção de item ou semelhantes e emite os dados de vídeo gerados de forma a sobrepor os dados de vídeo emitidos a partir do decodificador 947.
[0523] A unidade de interface de usuário 950 está conectada com a unidade de controle 949. A unidade de interface de usuário 950 é configurado por um comutador de operação, uma unidade de recepção de sinal de controle remoto, e semelhantes e fornece um sinal de operação de acordo com uma operação do usuário para a unidade de controle 949.
[0524] A unidade de controle 949 é configurada usando a CPU, uma memória, e semelhantes. A memória armazena os programas que são executados pela CPU e vários tipos de dados que são necessários para o processo realizado pela CPU. Um programa armazenado na memória é lido e executado pela CPU no momento predeterminado tal como a partida do dispositivo de gravação e reprodução 940. Uma CPU executa programas, desta forma realizando o controle de cada unidade tal que o dispositivo de gravação e reprodução 940 opera de acordo com uma operação do usuário.
[0525] No dispositivo de gravação e reprodução configurado deste modo, a função do dispositivo de decodificação (método de decodificação) de acordo com o presente pedido é implementada no decodificador 947. De maneira apropriada, uma corrente codificada em que a quantidade de informação se referindo à informação especificando uma imagem de referência é reduzida pode ser decodificada.
<Exemplo de Configuração de Dispositivo de formação de imagem>
[0526] A Fig. 66 é um diagrama que ilustra um exemplo da configuração esquemática de um dispositivo de formação de imagem ao qual a presente tecnologia é aplicada. O dispositivo de formação de imagem 960 forma imagem para sujeitar e exibir a imagem do indivíduo em uma unidade de exibição ou grava a imagem do indivíduo em um meio de gravação os dados de imagem.
[0527] O dispositivo de formação de imagem 960 inclui: um bloco óptico 961; uma unidade de formação de imagem 962; uma unidade de processamento de sinal de câmera 963; uma unidade de processamento de dados de imagem 964; uma unidade de exibição 965; uma unidade de interface externa 966; uma unidade de memória 967; um drive de mídia 968; uma unidade de OSD 969; e uma unidade de controle 970. Além disso, uma unidade de interface de usuário 971 está conectada com a unidade de controle 970. Adicionalmente, uma unidade de processamento de dados de imagem 964, a unidade de interface externa 966, a unidade de memória 967, o drive de mídia 968, a unidade de OSD 969, a unidade de controle 970, e semelhantes são interconectados através de um barra- mento 972.
[0528] O bloco óptico 961 é configurado usando uma lente de focaliza- ção, um mecanismo de diafragma, e semelhantes. O bloco óptico 961 forma a imagem óptica de um indivíduo na superfície de formação de imagem da unidade de formação de imagem 962. A unidade de formação de imagem 962 é configurada usando um sensor de imagem de CCD ou CMOS e gera um sinal elétrico de acordo com a imagem óptica através de uma conversão fotoelétrica e fornece o sinal elétrico gerado para a unidade de processamento de sinal de câmera 963.
[0529] A unidade de processamento de sinal de câmera 963 realiza vários tipos de processamento de sinal de câmera tais como uma correção de joelho, uma correção gama, e uma correção de cor para o sinal elétrico fornecido a partir da unidade de formação de imagem 962. A unidade de processamento de sinal de câmera 963 fornece dados de imagem após o processamento de sinal de câmera para uma unidade de processamento de dados de imagem 964.
[0530] Uma unidade de processamento de dados de imagem 964 realiza um processo de codificação dos dados de imagem fornecidos a partir da unidade de processamento de sinal de câmera 963. Uma unidade de processamento de dados de imagem 964 fornece dados codificados que é gerado realizando o processo de codificação para a unidade de interface externa 966 ou o drive de mídia 968. Além disso, uma unidade de processamento de dados de imagem 964 realiza um processo de decodificação dos dados codificados fornecidos a partir da unidade de interface externa 966 ou o drive de mídia 968. Uma unidade de processamento de dados de imagem 964 fornece os dados de imagem gerados realizando o processo de decodificação para a unidade de exibição 965. Além disso, uma unidade de processamento de dados de imagem 964 realiza o processo de fornecer os dados de imagem fornecidos a partir da unidade de processamento de sinal de câmera 963 para a unidade de exibição 965 e fornece dados de exibição adquiridos a partir da unidade de OSD 969 para a unidade de exibição 965 que é sobreposta com os dados de imagem.
[0531] A unidade de OSD 969 gera os dados de exibição tais como uma tela de menu ou um ícone que é configurado por símbolos, caracteres, ou gráficos e emite os dados de exibição gerados para uma unidade de processamento de dados de imagem 964.
[0532] A unidade de interface externa 966, por exemplo, é configurada por um terminal de entrada/saída de USB e semelhantes e está conectada com a impressora em um caso onde uma imagem é impressa. Além disso, para a unidade de interface externa 966, um drive é conectado como é necessário, um meio removível tal como um disco magnético ou um disco óptico é apropriadamente instalado, e um programa de computador lido a partir do mesmo é instalado como é necessário. Adicionalmente, a unidade de interface externa 966 inclui a interface de rede que é conectada com uma rede predeterminada tal como uma LAN ou a Internet. Por exemplo, de acordo com uma instrução a partir da unidade de interface de usuário 971, a unidade de controle 970 pode ler dados codificados a partir do drive de mídia 968 e fornecer os dados codificados lidos a partir da unidade de interface externa 966 para outros dispositivos conectados através de uma rede. Além disso, a unidade de controle 970 pode adquirir dados codificados ou dados de imagem, que é fornecida a partir de outro dispositivo através de uma rede, através da unidade de interface externa 966 e fornecer os dados adquiridos para uma unidade de processamento de dados de imagem 964.
[0533] Como o meio de gravação acionado pelo drive de mídia 968, por exemplo, um meio removível legível/gravável arbitrário tal como um disco magnético, um disco magneto-óptico, um disco óptico, ou uma memória de semicondutor é usado. Além disso, o tipo de meio de gravação como um meio removível é um arbitrário e assim, pode ser um dispositivo de fita, um disco, ou um cartão de memória. Adicionalmente, um cartão de IC sem contato (Circuito Integrado) ou semelhantes podem ser usados como o meio de gravação.
[0534] Além disso, integrando o drive de mídia 968 e o meio de gravação juntos, por exemplo, o meio de gravação pode ser configurado por um meio de gravação não portátil tal como um drive de disco rígido do tipo embutido ou um SSD (Drive de Estado Sólido).
[0535] A unidade de controle 970 é configurada usando uma CPU. A unidade de memória 967 armazena programas que são executados pela unidade de controle 970, vários tipos de dados que são necessários para o processo realizado pela unidade de controle 970, e semelhantes. Um programa armazenado na unidade de memória 967 é lido e executado pela unidade de controle 970 no momento predeterminado tal como a partida do dispositivo de formação de imagem 960. A unidade de controle 970 executa programas, desta forma realizando o controle de cada unidade tal que o dispositivo de formação de imagem 960 opera de acordo com uma operação do usuário.
[0536] No dispositivo de formação de imagem configurado deste modo, as funções do dispositivo de codificação e o dispositivo de decodificação (um método de codificação e um método de decodificação) de acordo com o presente pedido é implementado em uma unidade de processamento de dados de imagem 964. De maneira apropriada, a quantidade de informação se referindo à informação especificando uma imagem de referência pode ser reduzida. Além disso, uma corrente codificada em que a quantidade de informação se referindo à informação especificando uma imagem de referência é reduzida pode ser decodificada.
<Exemplo de Aplicação de Codificação Hierárquica> (Primeiro Sistema)
[0537] A seguir, um exemplo específico do uso de dados codificados escalonáveis que são codificados de maneira hierárquica (codificados de uma maneira escalonável) será descrito. A codificação escalonável, por exemplo, como em um exemplo ilustrado na Fig. 67, é usado para selecionar dados a ser transmitidos.
[0538] Em um sistema de transmissão de dados 1000 ilustrado na Fig. 67, um servidor de distribuição 1002 lê dados codificados escalonáveis armazenados na unidade de armazenamento de dados codificados escalonáveis 1001 e distribui os dados codificados escalonáveis lidos para um dispositivo de terminal tal como um computador pessoal 1004, um dispositivo de AV 1005, um dispositivo de tablet 1006, ou um telefone móvel 1007 através de uma rede 1003.
[0539] Neste momento, o servidor de distribuição 1002 seleciona e transmite dados codificados tendo uma qualidade adequada de acordo com a capacidade do dispositivo de terminal, ambientes de comunicação, e semelhantes. Mesmo quando o servidor de distribuição 1002 transmite dados tendo alta qualidade desnecessária, uma imagem de alta qualidade não pode ser adquirida no dispositivo de terminal, e existe uma preocupação de que pode causar a ocorrência de um atraso ou um excesso de fluxo. Além disso, existe uma preocupação de que uma banda de comunicação seja desnecessariamente ocupada, ou a carga do dispositivo de terminal aumenta desnecessariamente. Em contraste, quando o servidor de distribuição 1002 transmite dados tendo qualidade desnecessariamente baixa, que é preocupação de que uma imagem tendo qualidade de imagem suficiente não pode ser adquirida no dispositivo de terminal. De maneira apropriada, o servidor de distribuição 1002 apropriadamente lê e transmite dados codificados escalonáveis armazenados na unidade de armazenamento de dados codificados escalonáveis 1001 como dados codificados tendo qualidade que é apropriada à capacidade do dispositivo de terminal, os ambientes de comunicação, e semelhantes.
[0540] Por exemplo, a unidade de armazenamento de dados codificados escalonáveis 1001 é assumida para armazenar dados codificados escalonáveis (BL+EL) 1011 que são codificados de uma maneira escalonável. Estes dados codificados escalonáveis (BL+EL) 1011 são dados codificados incluindo tanto de uma camada de base quanto de uma camada de aprimoramento e são dados a partir dos quais uma imagem da camada de base e uma imagem da camada de aprimoramento pode ser adquirida ou decodificação dos dados codificados esca-lonáveis.
[0541] O servidor de distribuição 1002 seleciona uma camada apropriada de acordo com a capacidade de um terminal de transmissão de dados, os ambientes de comunicação, e semelhantes e leem dados da camada. Por exemplo, para um computador pessoal 1004 ou um dispositivo de tablet 1006 que possui alta capacidade de processamento, o servidor de distribuição 1002 lê os dados codificados escalonáveis (BL+EL) 1011 tendo alta qualidade a partir da unidade de armazenamento de dados codificados escalonáveis 1001 e transmite os dados codificados escalonáveis como eles são. Em contraste, por exemplo, para um dispositivo de AV 1005 ou um telefone móvel 1007 tendo uma baixa capacidade de processamento, o servidor de distribuição 1002 extrai os dados da camada de base a partir dos dados codificados escalonáveis (BL+EL) 1011 e transmite dados codificados escalonáveis (BL) 1012 que possuem o mesmo conteúdo que os da dos codificados escalonáveis (BL+EL) 1011 e possuem qualidade menor do que dos dados codificados escalonáveis (BL+EL) 1011.
[0542] Como dito acima, usando os dados codificados escalonáveis, a quantidade de dados pode ser facilmente definida. De maneira apropriada, a ocorrência de um atraso ou um excesso de fluxo pode ser suprimida, e um aumento desnecessário na carga do dispositivo de terminal ou no meio de comunicação pode ser suprimido. Além disso, nos dados codificados escalonáveis (BL+EL) 1011, como a redundância entre as camadas é reduzida, a quantidade de dados pode ser reduzida para ser menor do que aquela de um caso onde os dados codificados de cada camada são configurados como dados individuais. De maneira apropriada, a área de armazenamento da unidade de armazenamento de dados codificados escalonáveis 1001 podem ser usadas de maneira mais eficiente.
[0543] Além disso, como o computador pessoal 1004 e o telefone móvel 1007, vários dispositivos podem ser aplicados como os dispositivos de terminal, e de maneira apropriada, as capacidades do hardware dos dispositivos de terminal diferem dependendo dos dispositivos. Adicionalmente, como existem várias aplicações que são executadas pelos dispositivos de terminal, existem várias capacidades de software. Além disso, como a rede 1003 que serve como o meio de comunicação, qualquer uma das redes de comunicação incluindo uma rede ligada, uma rede sem fios, ou tanto redes com fios quanto sem fios tais como a Internet ou a LAN (Rede de Área Local) podem ser aplicadas, e de maneira apropriada, a capacidade de transmissão de dados varia. Adicionalmente, que é preocupação de que a capacidade de transmissão de dados pode variar de acordo com as outras comunicações ou semelhantes.
[0544] Assim, o servidor de distribuição 1002, antes do início da transmissão dos dados, pode comunicar com um dispositivo de terminal que é o destino de transmissão dos dados de forma a adquirir a informação se referindo à capacidade do dispositivo de terminal tal como a capacidade de hardware do dispositivo de terminal e a capacidade da aplicação (software) executada pelo disposi- tivo de terminal, e informação se referindo aos ambientes de comunicação tais como a largura de banda útil da rede 1003 e semelhantes. Além disso, o servidor de distribuição 1002 pode ser configurado para selecionar uma camada apropriada com base na informação adquirida aqui.
[0545] Além disso, a extração de uma camada pode ser realizada pelo dispositivo de terminal. Por exemplo, o computador pessoal 1004 pode decodificar os dados codificados escalonáveis transmitidos (BL+EL) 1011 e exibem uma imagem da camada de base ou uma imagem da camada de aprimoramento. Adicionalmente, por exemplo, o computador pessoal 1004 pode extrair os dados codificados escalonáveis (BL) 1012 da camada de base a partir dos dados codificados escalonáveis transmitidos (BL+EL) 1011 e pode armazenar os dados codificados escalonáveis extraídos, transmitir os dados codificados escalonáveis extraídos para outro dispositivo, ou decodificar os dados codificados escalonáveis extraídos e exibir a imagem da camada de base.
[0546] Aqui, é aparente que todos da unidade de armazenamento de dados codificados escalonáveis 1001, do servidor de distribuição 1002, da rede 1003, e do número dos dispositivos de terminal são arbitrários. Na descrição apresentada acima, enquanto o exemplo foi descrito em que o servidor de distribuição 1002 transmite dados para o dispositivo de terminal, o exemplo do uso não está limitado a isto. O sistema de transmissão de dados 1000 pode ser aplicado a um sistema arbitrário desde que o sistema selecione uma camada apropriada de acordo com a capacidade do dispositivo de terminal, os ambientes de comunicação, e semelhantes e transmita a camada selecionada quando os dados codificados de uma maneira escalonável são transmitidos para o dispositivo de terminal.
(Segundo Sistema)
[0547] Além disso, a codificação escalonável, por exemplo, como em um exemplo ilustrado na Fig. 68, é usada para a transmissão através de uma pluralidade de meios de comunicação.
[0548] Em um sistema de transmissão de dados 1100 ilustrado na Fig. 68, uma estação de transmissão 1101 transmite dados codificados escalonáveis (BL) 1121 da camada de base através da transmissão terrestre 1111. Além disso, a estação de transmissão 1101 transmite dados codificados escalonáveis (EL) 1122 da camada de aprimoramento através de uma rede arbitrária 1112 que é configurada por uma rede de comunicação com fios, uma rede de comunicação sem fios, ou ambas as redes de comunicação com fios e sem fios (por exemplo, os dados são empacotados e transmitidos).
[0549] Um dispositivo de terminal 1102 possui uma função para receber a transmissão terrestre 1111 que é transmitida pela estação de transmissão 1101 e recebe os dados codificados escalonáveis (BL) 1121 da camada de base que é transmitida através da transmissão terrestre 1111. Além disso, o dispositivo de terminal 1102 adicionalmente possui uma função de comunicação para realizar comunicação através de uma rede 1112 e recebe os dados codificados escalonáveis (EL) 1122 da camada de aprimoramento que é transmitida através da rede 1112.
[0550] O dispositivo de terminal 1102, por exemplo, de acordo com uma instrução do usuário ou semelhantes, adquire uma imagem da camada de base decodificando os dados codificados escalonáveis (BL) 1121 da camada de base que são adquiridos através da transmissão terrestre 1111, armazena os dados codificados escalonáveis adquiridos, ou transmite os dados codificados escalonáveis adquiridos para outro dispositivo.
[0551] Além disso, o dispositivo de terminal 1102, por exemplo, de acordo com uma instrução do usuário, compõe os dados codificados escalonáveis (BL) 1121 da camada de base que é adquirido através da transmissão terrestre 1111 e os dados codificados escalonáveis (EL) 1122 da camada de aprimoramento que é adquirido através da rede 1112 de forma a adquirir os dados codificados escalonáveis (BL+EL), decodifica os dados codificados escalonáveis de forma a adquirir uma imagem da camada de aprimoramento, ou transmite os dados codificados escalonáveis para outro dispositivo.
[0552] Como dito acima, os dados codificados escalonáveis, por exemplo, pode ser transmitido através de um meio comunicação que é diferente para cada camada. De maneira apropriada, a carga pode ser distribuída, e a ocorrência de um atraso ou um excesso de fluxo pode ser suprimida.
[0553] Além disso, dependendo da situação, o meio de comunicação que é usado para a transmissão pode ser configurado para ser selecionado para cada camada. Por exemplo, pode ser configurado tal que os dados codificados escalonáveis (BL) 1121 da camada de base da qual a quantidade de dados é relativamente grande são transmitidos através de um meio comunicação tendo uma grande largura de banda, e os dados codificados escalonáveis (EL) 1122 da camada de aprimoramento do qual a quantidade de dados é relativamente pequena são transmitidos através de um meio comunicação tendo uma largura de banda estreita. Além disso, por exemplo, o meio de comunicação através do qual os dados codificados escalonáveis (EL) 1122 da camada de aprimoramento são transmitidos pode ser configurado para ser comutado entre a rede 1112 e a transmissão terrestre 1111 de acordo com a largura de banda útil da rede 1112. Isto se aplica similarmente aos dados de uma camada arbitrária.
[0554] Controlando desta forma, um aumento na carga para a transmissão de dados poder ser adicionalmente suprimida.
[0555] Aqui, o número de camadas é arbitrário, e o número de meios de comunicação usado para a transmissão também é arbitrário. Além disso, o número dos dispositivos de terminal 1102 que são o destino de distribuição dos dados também é arbitrário. Adicionalmente, na descrição apresentada acima, enquanto o exemplo foi descrito em que a transmissão é realizada a partir da estação de transmissão 1101, o exemplo do uso não está limitado a isto. O sistema de transmissão de dados 1100 pode ser aplicado a um sistema arbitrário desde que o sistema divide dados codificados, que são codificados de uma maneira escalo- nável, em uma pluralidade de partes em unidades de camadas e transmite dados divididos através de uma pluralidade de linhas.
(Terceiro Sistema)
[0556] Além disso, os dados codificados escalonáveis, por exemplo, como em um exemplo ilustrado na Fig. 69, são usados para armazenar dados codificados.
[0557] Em um sistema de formação de imagem 1200 ilustrado na Fig. 69, um dispositivo de formação de imagem 1201 realiza codificação escalonável de dados de imagem que são adquiridos através da formação de imagem de um indivíduo 1211 e fornece dados de imagem resultantes para um dispositivo de armazenamento de dados codificados escalonáveis 1202 como dados codificados escalonáveis (BL+EL) 1221.
[0558] O dispositivo de armazenamento de dados codificados escalonáveis 1202 armazena os dados codificados escalonáveis (BL+EL) 1221 fornecidos a partir do dispositivo de formação de imagem 1201 com qualidade de acordo com a situação. Por exemplo, no caso de um momento normal, o dispositivo de armazenamento de dados codificados escalonáveis 1202 extrai dados da camada de base a partir dos dados codificados escalonáveis (BL+EL) 1221 e armazena os dados extraídos como os dados codificados escalonáveis (BL) 1222 da camada de base que possui baixa qualidade e uma pequena quantidade de dados. Em contraste, por exemplo, no caso de um tempo de atenção, o dispositivo de armazenamento de dados codificados escalonáveis 1202 armazena os dados codificados escalonáveis (BL+EL) 1221 que possuem alta qualidade e uma grande quantidade de dados como é.
[0559] Deste modo, o dispositivo de armazenamento de dados codificados escalonáveis 1202 pode armazenar uma imagem com alta qualidade de imagem apenas em um caso necessário. De maneira apropriada, enquanto uma diminuição no valor da imagem devido à deterioração da qualidade de imagem ser suprimida, um aumento na quantidade de dados pode ser suprimido, enquanto que a eficiência de uso da área de armazenamento pode ser aprimorada.
[0560] Por exemplo, é assumido que o dispositivo de formação de ima- gem 1201 é uma câmera de monitoramento. Em um caso onde um alvo de moni-toramento (por exemplo, um intruso) não é mostrado em uma imagem capturada (no caso de momento normal), a possibilidade em que o conteúdo da imagem capturada não é de importância é alta, e uma diminuição na quantidade de dados tem prioridade, e os dados de imagem (dados codificados escalonáveis) são armazenados com baixa qualidade. Em contraste, em um caso onde um alvo de monitoramento é mostrado em uma imagem capturada como um indivíduo 1211 (no caso do momento de atenção), a possibilidade em que o conteúdo da imagem capturada é de importância é alta, e a qualidade da imagem tem prioridade, e os dados de imagem (dados codificados escalonáveis) são armazenados com alta qualidade.
[0561] Aqui, se é o momento normal ou o momento de atenção, por exemplo, pode ser determinado através da análise da imagem usando o dispositivo de armazenamento de dados codificados escalonáveis 1202. Além disso, pode ser configurado tal que o processo de determinação é realizado pelo dispositivo de formação de imagem 1201, e um resultado da determinação é transmitido para o dispositivo de armazenamento de dados codificados escalonáveis 1202.
[0562] Aqui, o critério de determinação para determinar o momento normal ou o momento de atenção é arbitrário, e o conteúdo da imagem que é o critério de determinação é arbitrário. Além disso, uma condição diferente do conteúdo da imagem pode ser definida como o critério de determinação. Por exemplo, a determinação pode ser alterada de acordo com o tamanho, a forma de onda, ou semelhantes de discurso gravado, pode ser alterado para cada momento predeterminado, ou pode ser alterado de acordo com uma instrução, que é fornecida a partir do exterior, tal como uma instrução do usuário.
[0563] Além disso, na descrição apresentada acima, enquanto o exemplo foi descrito em que a comutação entre dois estados do momento normal e do momento de atenção é realizada, o número dos estados é arbitrário. Assim, por exemplo, pode ser configurado tal que a comutação é realizada dentre três ou mais estados incluindo um momento normal, um momento de atenção baixa, um momento de atenção, e um momento de atenção alta. No entanto, o limite superior do número de estados dentre os quais a comutação é realizada depende do número de camadas dos dados codificados escalonáveis.
[0564] Adicionalmente, o dispositivo de formação de imagem 1201 pode ser configurado para determinar o número de camadas da codificação escaloná- vel de acordo com os estados. Por exemplo, no caso de o momento normal, o dispositivo de formação de imagem 1201 pode ser configurado para gerar dados codificados escalonáveis (BL) 1222 da camada de base que possuem baixa qualidade e uma pequena quantidade de dados e fornecer os dados codificados escalonáveis gerados para o dispositivo de armazenamento de dados codificados escalonáveis 1202. Além disso, por exemplo, no caso do momento de atenção, o dispositivo de formação de imagem 1201 pode ser configurado para gerar dados codificados escalonáveis (BL+EL) 1221 da camada de base que possuem alta qualidade e uma grande quantidade de dados e fornecer os dados codificados escalonáveis gerados para o dispositivo de armazenamento de dados codificados escalonáveis 1202.
[0565] Na descrição apresentada acima, enquanto a câmera de monitoramento foi descrita como um exemplo, o uso deste sistema de formação de imagem 1200 é arbitrário mas não está limitado à câmera de monitoramento.
[0566] Aqui, a LCU é a CU (Unidade de Codificação) tendo um tamanho máximo, e a CTU (Unidade de Árvore de Codificação) é uma unidade que inclui um CTB (Bloco de Árvore de Codificação) da LCU e parâmetros no momento de realizar o processo na base de LCU (nível). Além disso, a configuração de CU a CTU é uma unidade que inclui um CB (Bloco de Codificação) e parâmetros no momento de realizar o processo na base de CU (nível).
<Outros Exemplos>
[0567] Enquanto os exemplos dos dispositivos, os sistemas, e semelhantes ao qual a presente tecnologia é aplicada foram descritos acima, a presente tecnologia não está limitada a isto. Assim, a presente tecnologia pode ser aplicada como um todo às configurações montadas em tal dispositivo ou dispositivos que configuram tal sistema, por exemplo, um processador como um sistema de LSI (Integração de Escala Grande) ou semelhantes, um módulo que usa uma pluralidade de processadores ou semelhantes, uma unidade que utiliza uma pluralidade de módulos ou semelhantes, ou um conjunto ou semelhantes (em outras palavras, uma parte da configuração do dispositivo) adquirido adicionando outras funções à unidade.
(Exemplo de Configuração de Conjunto de Vídeo)
[0568] Um exemplo de um caso onde a presente tecnologia é aplicada como um definição será descrito com referência à Fig. 70. A Fig. 70 ilustra um exemplo da configuração esquemática de um conjunto de vídeo ao qual a presente tecnologia é aplicada.
[0569] Recentemente, a implementação de múltiplas funções de um dispositivo eletrônico está em progresso, e, no desenvolvimento ou na fabricação das mesmas, em um caso onde uma parte da configuração é provida para a venda, provisão, ou semelhantes, não são apenas um caso onde a configuração tendo uma função é aplicada mas também um caso onde um conjunto tendo uma pluralidade de funções, que são adquiridas combinando uma pluralidade de configurações tendo função relacionada, é aplicado, que é bastante usado.
[0570] O conjunto de vídeo 1300 ilustrado na Fig. 70 possui tal configuração com múltiplas funções e é adquirido combinando um dispositivo tendo uma função se referindo a codificação de imagem ou decodificação de imagem (qualquer um do mesmo ou ambos dos mesmos) com dispositivos tendo outras funções se referindo à função.
[0571] Como ilustrado na Fig. 70, o conjunto de vídeo 1300 inclui um grupo de módulo que inclui um módulo de vídeo 1311, uma memória externa 1312, um módulo de gerenciamento de energia 1313, um módulo de extremidade frontal 1314, e semelhantes e dispositivos tendo funções relacionadas de uma conectividade 1321, uma câmera 1322, um sensor 1323, e semelhantes.
[0572] Um módulo é formado como um componente tendo uma função tendo unidade arranjando várias funções de componente que se referem a cada outra junto. Enquanto uma configuração física específica é arbitrária, por exemplo, um módulo adquirido arranjando uma pluralidade de processadores cada um tendo uma função, um componente de circuito eletrônico tal como um resistor ou um capacitor, e outros dispositivos ou semelhantes em uma placa de ligação ou semelhantes de forma a ser integrados podem ser considerados. Além disso, pode ser considerado para formar um novo módulo combinando um módulo com outros módulos, processadores, e semelhantes.
[0573] No exemplo ilustrado na Fig. 70, o módulo de vídeo 1311 é adquirido combinando configurações tendo funções se referindo a processamento de imagem e inclui: um processador de aplicação; um processador de vídeo; um modem de banda larga 1333; e um módulo de RF 1334.
[0574] O processador é adquirido integrando uma configuração tendo uma função predeterminada em um chip semicondutor como SoC (Sistema em um Chip) e, por exemplo, também é o processador que é chamado de um sistema de LSI (Integração em Grande Escala) ou semelhantes. A configuração tendo a função predeterminada pode ser um circuito lógico (configuração de hardware), uma configuração incluindo uma CPU, uma ROM, uma RAM, e semelhantes e um programa (configuração de software) executado usando os mesmos, ou uma configuração que combina ambas as configurações descritas acima. Por exemplo, pode ser configurado tal que o processador inclui circuitos lógicos, uma CPU, uma ROM, uma RAM, e semelhantes, algumas funções são realizadas pelos circuitos lógicos (configuração de hardware), e as outras funções são realizadas por um programa (configuração de software) executado pela CPU.
[0575] O processador de aplicação 1331 ilustrado na Fig. 70 é um processador que executa uma aplicação se referindo a processamento de imagem. De maneira a realizar funções predeterminadas, a aplicação executada pelo pro- cessador de aplicação 1331 pode não apenas realizar um processo de cálculo mas também controlar as configurações do interior e o exterior do módulo de vídeo 1311 tal como o processador de vídeo 1332 como é necessário.
[0576] O processador de vídeo 1332 é um processador que possui uma função se referindo a codificação de imagem e decodificação de imagem (uma das mesmas ou ambas as mesmas).
[0577] O modem de banda larga 1333 é um processador (ou um módulo) se referindo comunicação de banda larga com fios ou sem fios (ou com fios e sem fios) realizada através da linha de banda larga tal como a Internet ou uma rede de telefone público. Por exemplo, o modem de banda larga 1333 converte dados (sinal digital) a ser transmitidos para um sinal análogo através de modulação digital ou semelhantes ou desmodula um sinal análogo recebido de forma a ser convertido para dados (sinal digital). Por exemplo, o modem de banda larga 1333 pode realizar modulação/desmodulação digital da informação arbitrária tal como dados de imagem processados pelo processador de vídeo 1332, uma corrente em que os dados de imagem são codificados, um programa de aplicação, e dados de definição.
[0578] O Módulo de RF 1334 é um módulo que realiza conversão de frequência, modulação/desmodulação, amplificação, um processo de filtro, e semelhantes para um sinal de RF (Frequência de Rádio) que é transmitido/recebido através de uma antena. Por exemplo, o Módulo de RF 1334 gera um sinal de RF realizando conversão de frequência e semelhantes para um sinal de sistema de conexão de linha dedicada gerado pelo modem de banda larga 1333. Além disso, por exemplo, o módulo de RF 1334 gera um sinal de sistema de conexão de linha dedicada realizando conversão de frequência e semelhantes para um sinal de RF recebido através do módulo de extremidade frontal 1314.
[0579] Além disso, como denotado por uma linha pontilhada 1341 na Fig. 70, o processador de aplicação 1331 e o processador de vídeo 1332 podem ser integrados de forma a ser configurados como um processador.
[0580] A memória externa 1312 é um módulo que é disposto fora do módulo de vídeo 1311 e inclui um dispositivo de armazenamento usado pelo módulo de vídeo 1311. O dispositivo de armazenamento da memória externa 1312 pode ser realizado através de uma certa configuração física. No entanto, em geral, como o dispositivo de armazenamento frequentemente é usado para armazenar dados tendo uma grande capacidade tais como dados de imagem configurada em unidades de quadros, o dispositivo de armazenamento é preferivelmente realizado por uma memória de semicondutor que possui uma grande capacidade em custo relativamente baixo tal como uma DRAM (Memória de Acesso Aleatório Dinâmico).
[0581] O módulo de gerenciamento de energia 1313 gerencia e controla o fornecimento de energia para o módulo de vídeo 1311 (cada configuração dentro do módulo de vídeo 1311).
[0582] O módulo de extremidade frontal 1314 é um módulo que provê uma função de extremidade frontal (um circuito de extremidade de recep- ção/transmissão em um lado de antena) para o módulo de RF 1334. Como ilustrado na Fig. 70, o módulo de extremidade frontal 1314, por exemplo, inclui uma unidade de antena 1351, um filtro 1352, e uma unidade de amplificação 1353.
[0583] A unidade de antena 1351 inclui uma antena que transmite/recebe um sinal sem fios e uma configuração periférica do mesmo. A unidade de antena 1351 transmite um sinal fornecido a partir da unidade de amplificação 1353 como um sinal sem fios e fornece um sinal sem fios recebido para o filtro 1352 como um sinal elétrico (sinal de RF). O filtro 1352 realiza um processo de filtro e semelhantes para o sinal de RF recebido através da unidade de antena 1351 e fornece o sinal de RF após o processo para o módulo de RF 1334. A unidade de amplificação 1353 amplifica o sinal de RF fornecido a partir do módulo de RF 1334 e fornece o sinal de RF amplificado para a unidade de antena 1351.
[0584] A conectividade 1321 é um módulo que possui uma função se referindo à conexão com o exterior. A configuração física da conectividade 1321 é arbitrária. Por exemplo, a conectividade 1321 inclui uma configuração tendo uma função de comunicação diferente da especificação de comunicação a qual o modem de banda larga 1333 corresponde, terminais de entrada/saída externos, e semelhantes.
[0585] Por exemplo, a conectividade 1321 pode ser configurada para incluir um módulo tendo funções de comunicação que estão em conformidade com especificações de comunicação de rádio tais como Bluetooth (marca registrada), IEEE 802.11 (por exemplo, Wi-Fi (Wireless Fidelity; marca registrada)), NFC (Comunicação de Campo Próximo), e IrDA (Associação de Dados de Infravermelho) e uma antena que transmite/recebe sinais que estão em conformidade com as especificações. Além disso, por exemplo, a conectividade 1321 pode ser configurada para incluir um módulo tendo funções de comunicação que estão em conformidade com especificações de comunicação ligadas tais como USB (Barra- mento Serial Universal) e HDMI (marca registrada) (High-Definition Multimedia Interface) e terminais que estão em conformidade com as especificações. Adicionalmente, por exemplo, a conectividade 1321 pode ser configurada para ter uma função de transmissão de dados adicional (sinal) e semelhantes de terminais de entrada/saída análogos ou semelhantes.
[0586] Além disso, a conectividade 1321 pode ser configurada para incluir um dispositivo que é o destino de transmissão de dados (sinal). Por exemplo, a conectividade 1321 pode ser configurada para incluir um drive (incluindo não apenas um drive de um meio removível mas também um disco rígido, um SSD (Drive de Estado Sólido), um NAS (Armazenamento Anexo de Rede), e semelhantes) que realiza a leitura de dados ou cópia de dados para um meio de gravação tal como um disco magnético, um disco óptico, um disco mageto-óptico, ou uma memória de semicondutor. Adicionalmente, a conectividade 1321 pode ser configurada para incluir um dispositivo de saída (um monitor, um alto-falante, ou seme-lhantes) de uma imagem ou um áudio.
[0587] A câmera 1322 é um módulo que possui uma função para adquirir dados de imagem de um indivíduo através da formação de imagem do indivíduo. Os dados de imagem adquiridos através de um processo de formação de imagem realizado pela câmera 1322, por exemplo, são fornecidos para o processador de vídeo 1332 e são codificados.
[0588] O sensor 1323 é um módulo que possui a função de um sensor arbitrário tal como um sensor de áudio, um sensor ultrassônico, um sensor óptico, um sensor de iluminação, um sensor de infravermelho, um sensor de imagem, um sensor de rotação, um sensor de ângulo, um sensor de velocidade angular, um sensor de velocidade, um sensor de aceleração, um sensor de inclinação, um sensor de identificação magnética, um sensor de impacto, ou um sensor de temperatura. Dados que são detectados pelo sensor 1323, por exemplo, são fornecidos para o processador de aplicação 1331 e são usados pela aplicação e semelhantes.
[0589] Na descrição apresentada acima, cada configuração descrita acima como um módulo pode ser realizada por um processador, e cada configuração descrita como um processador pode ser realizada por um módulo.
[0590] Como será descrito posteriormente, a presente tecnologia pode ser aplicada ao processador de vídeo 1332 do conjunto de vídeo 1300 tendo a configuração como descrita acima. De maneira apropriada, o conjunto de vídeo 1300 pode ser configurado como o conjunto ao qual a presente tecnologia é aplicada.
(Exemplo de Configuração de Processador de Vídeo)
[0591] A Fig. 71 ilustra um exemplo da configuração esquemática do processador de vídeo 1332 (Fig. 70) ao qual a presente tecnologia é aplicada.
[0592] No exemplo ilustrado na Fig. 71, o processador de vídeo 1332 possui uma função para receber uma entrada de um sinal de vídeo e um sinal de áudio e codificando os sinais recebidos de acordo com um sistema predeterminado e uma função para decodificar dados de vídeo codificados e dados de áudio codificados e reproduzir e emitir um sinal de vídeo e um sinal de áudio.
[0593] Como ilustrado na Fig. 71, o processador de vídeo 1332 inclui: uma unidade de processamento de entrada de vídeo 1401; uma primeira unidade de alargamento/redução de imagem 1402; uma segunda unidade de alargamen- to/redução de imagem 1403; uma unidade de processamento de saída de vídeo 1404; uma memória de quadro 1405; e uma unidade de controle de memória 1406. Além disso, o processador de vídeo 1332 inclui: um mecanismo de codifi- cação/decodificação 1407; buffers de ES (Corrente Elementar) de vídeo 1408A e 1408B, e buffers de ES de áudio 1409A e 1409B. Além disso, o processador de vídeo 1332 inclui: um codificador de áudio 1410; um decodificador de áudio 1411; um multiplexador (MUX) 1412; um desmultiplexador (DMUX) 1413; e um buffer de corrente 1414.
[0594] A unidade de processamento de entrada de vídeo 1401, por exemplo, adquire uma entrada de sinal de vídeo a partir da conectividade 1321 (Fig. 70) ou semelhantes e converte o sinal de vídeo adquirido para dados de imagem digital. A primeira unidade de alargamento/redução de imagem 1402 realiza conversão de formato e um processo de alargamento/redução de imagem para os dados de imagem. A segunda unidade de alargamento/redução de imagem 1403, para os dados de imagem, realiza um processo de alargamen- to/redução de imagem de acordo com um formato do destino de saída através da unidade de processamento de saída de vídeo 1404 ou realiza conversão de formato e um processo de alargamento/redução de imagem, que são similares a aqueles da primeira unidade de alargamento/redução de imagem 1402, e semelhantes. A unidade de processamento de saída de vídeo 1404 realiza conversão de formato, conversão para um sinal análogo, e semelhantes para os dados de imagem e emite um sinal resultante, por exemplo, para a conectividade 1321 (Fig. 70) ou semelhantes como um sinal de vídeo reproduzido.
[0595] A memória de quadro 1405 é uma memória para dados de imagem que são divididos pela unidade de processamento de entrada de vídeo 1401, a primeira unidade de alargamento/redução de imagem 1402, a segunda unidade de alargamento/redução de imagem 1403, a unidade de processamento de saída de vídeo 1404, e o mecanismo de codificação/decodificação 1407. A memória de quadro 1405 é realizada como uma memória de semicondutor tal como uma DRAM.
[0596] A unidade de controle de memória 1406 recebe um sinal de sincronização fornecido a partir do mecanismo de codificação/decodificação 1407 e controla um acesso para a memória de quadro 1405 para escrever/ler de acordo com uma programação de acesso para a memória de quadro 1405 que é escrita para uma tabela de gerenciamento de acesso 1406A. A tabela de gerenciamento de acesso 1406A é atualizada pela unidade de controle de memória 1406 de acordo com o processo que é realizado pelo mecanismo de codifica- ção/decodificação 1407, a primeira unidade de alargamento/redução de imagem 1402, a segunda unidade de alargamento/redução de imagem 1403, e semelhantes.
[0597] O mecanismo de codificação/decodificação 1407 realiza um processo de codificação de dados de imagem e realiza um processo de decodifica- ção de uma corrente de vídeo que é adquirida codificando os dados de imagem. Por exemplo, o mecanismo de codificação/decodificação 1407 codifica os dados de imagem lida a partir da memória de quadro 1405 e sequencialmente escreve os dados de imagem lidos para o buffer de ES de vídeo 1408A como uma corrente de vídeo. Além disso, por exemplo, o mecanismo de codificação/decodificação 1407 sequencialmente lê a corrente de vídeo a partir do buffer de ES de vídeo 1408B, decodifica a corrente de vídeo lida, e sequencialmente escreve a corrente de vídeo decodificada para a memória de quadro 1405 os dados de imagem. O mecanismo de codificação/decodificação 1407 usa a memória de quadro 1405 como uma área de trabalho em tal processo de codificação ou de decodificação. Além disso, o mecanismo de codificação/decodificação 1407, por exemplo, no momento da partida do processo de cada macrobloco, emite um sinal de sincronização para a unidade de controle de memória 1406.
[0598] O buffer de ES de vídeo 1408A isola a corrente de vídeo gerada pelo mecanismo de codificação/decodificação 1407 e fornece a corrente de vídeo para o multiplexador (MUX) 1412. O buffer de ES de vídeo 1408B isola a corrente de vídeo fornecida a partir do desmultiplexador (DMUX) 1413 e fornece a corrente de vídeo para o mecanismo de codificação/decodificação 1407.
[0599] O buffer de ES de áudio 1409A isola a corrente de áudio gerada pelo codificador de áudio 1410 e fornece a corrente de áudio para o multiplexador (MUX) 1412. O buffer de ES de áudio 1409B isola a corrente de áudio fornecida a partir do desmultiplexador (DMUX) 1413 e fornece a corrente de áudio para o de- codificador de áudio 1411.
[0600] O codificador de áudio 1410 converte um sinal de áudio, por exemplo, que entra a partir da conectividade 1321 (Fig. 70) ou semelhantes, por exemplo, para um sinal digital e codifica o sinal de áudio convertido de acordo com um sistema predeterminado tal como um sistema de áudio de MPEG ou um sistema de AC3 (Código de Áudio número 3). O codificador de áudio 1410 sequencialmente escreve correntes de áudio que são dados adquiridos codificando os sinais de áudio para o buffer de ES de áudio 1409A. O decodificador de áudio 1411 decodifica a corrente de áudio fornecida a partir do buffer de ES de áudio 1409B, realiza a conversão da corrente de áudio decodificada, por exemplo, em um sinal análogo e semelhantes, e fornece o sinal convertido, por exemplo, para a conectividade 1321 (Fig. 70) e semelhantes como um sinal de áudio reproduzido.
[0601] O multiplexador (MUX) 1412 multiplexa a corrente de vídeo e a corrente de áudio. O método de multiplexação (em outras palavras, o formato de uma corrente de bit gerada pela multiplexação) é arbitrário. Além disso, no momento da multiplexação, o multiplexador (MUX) 1412 pode adicionar informação de cabeçalho predeterminada ou semelhantes para a corrente de bit. Em outras palavras, o multiplexador (MUX) 1412 pode converter o formato da corrente através do processo de multiplexação. Por exemplo, multiplexando a corrente de vídeo e a corrente de áudio, o multiplexador (MUX) 1412 converte a corrente de vídeo e a corrente de áudio para uma corrente de transporte que é uma corrente de bit tendo um formato para a transmissão. Além disso, por exemplo, multiple- xando a corrente de vídeo e a corrente de áudio, o multiplexador (MUX) 1412 converte a corrente de vídeo e a corrente de áudio em dados (dados de arquivo) tendo um formato para a gravação.
[0602] O desmultiplexador (DMUX) 1413 desmultiplexa a corrente de bit em que a corrente de vídeo e a corrente de áudio são multiplexadas usando um método que corresponde ao processo de multiplexação realizado pelo multiplexa- dor (MUX) 1412. Em outras palavras, o desmultiplexador (DMUX) 1413 extrai uma corrente de vídeo e uma corrente de áudio a partir da corrente de bit lida a partir do buffer de corrente 1414 (a corrente de vídeo e a corrente de áudio são separadas). Em outras palavras, o desmultiplexador (DMUX) 1413 pode converter (conversão inversa da conversão realizada pelo multiplexador (MUX) 1412) o formato da corrente através do processo de desmultiplexação. Por exemplo, o desmulti- plexador (DMUX) 1413 adquire a corrente de transporte, por exemplo, fornecida a partir da conectividade 1321 (Fig. 70), o modem de banda larga 1333 (Fig. 70), ou semelhantes através do buffer de corrente 1414 e desmultiplexa a corrente de transporte adquirida, desta forma convertendo a corrente de transporte para uma corrente de vídeo e uma corrente de áudio. Além disso, por exemplo, o desmulti- plexador (DMUX) 1413 adquire dados de arquivo lidos a partir de vários meios de gravação, por exemplo, pela conectividade 1321 (Fig. 70) através do buffer de corrente 1414 e desmultiplexa os dados de arquivo adquiridos, desta forma con-vertendo os dados de arquivo em uma corrente de vídeo e uma corrente de áudio.
[0603] O buffer de corrente 1414 isola a corrente de bit. Por exemplo, o buffer de corrente 1414 isola a corrente de transporte fornecida a partir do multi- plexador (MUX) 1412 e fornece a corrente de transporte, por exemplo, para a conectividade 1321 (Fig. 70), o modem de banda larga 1333 (Fig. 70), e semelhantes no momento predeterminado ou com base em um pedido transmitido a partir do exterior.
[0604] Além disso, por exemplo, o buffer de corrente 1414 isola os dados de arquivo fornecidos a partir do multiplexador (MUX) 1412 e fornece os dados de arquivo, por exemplo, para a conectividade 1321 (Fig. 70) e semelhantes em um momento predeterminado ou com base em um pedido transmitido a partir do exterior.
[0605] Adicionalmente, o buffer de corrente 1414 isola a corrente de transporte adquirido, por exemplo, através da conectividade 1321 (Fig. 70), o modem de banda larga 1333 (Fig. 70), ou semelhantes e fornece a corrente de transporte para o desmultiplexador (DMUX) 1413 no momento predeterminado ou com base em um pedido a partir do exterior, e semelhantes.
[0606] Além disso, o buffer de corrente 1414 isola os dados de arquivo lidos a partir de vários meios de gravação, por exemplo, pela conectividade 1321 (Fig. 70) ou semelhantes e fornece os dados de arquivo para o desmultiplexador (DMUX) 1413 no momento predeterminado ou com base em um pedido a partir do exterior ou semelhantes.
[0607] A seguir, um exemplo da operação do processador de vídeo 1332 tendo tal configuração será descrito. Por exemplo, uma entrada de sinal de vídeo para o processador de vídeo 1332 a partir da conectividade 1321 (Fig. 70) ou semelhantes é convertido para dados de imagem digital de acordo com um sistema predeterminado tal como o sistema de Y/Cb/Cr 4:2:2 pela unidade de processamento de entrada de vídeo 1401 e sequencialmente é escrito para a memória de quadro 1405. Estes dados de imagem digital são lidos pela primeira unidade de alargamento/redução de imagem 1402 ou a segunda unidade de alargamen- to/redução de imagem 1403, e a conversão de formato para um sistema predeterminado tal como o sistema de Y/Cb/Cr 4:2:0 ou semelhantes e o processo de alargamento/redução é realizado para os dados de imagem digital, e os dados de imagem digital processada são copiados novamente para a memória de quadro 1405. Estes dados de imagem são codificados pelo mecanismo de codifica- ção/decodificação 1407 e são copiados para o buffer de ES de vídeo 1408A como uma corrente de vídeo.
[0608] Além disso, a entrada de sinal de áudio a partir da conectividade 1321 (Fig. 70) ou semelhantes para o processador de vídeo 1332 é codificada pelo codificador de áudio 1410 e é copiada para o buffer de ES de áudio 1409A como uma corrente de áudio.
[0609] A corrente de vídeo armazenada no buffer de ES de vídeo 1408A e a corrente de áudio armazenada no buffer de ES de áudio 1409A são lidas pelo multiplexador (MUX) 1412, são multiplexadas, e são convertidas para uma corrente de transporte, dados de arquivo, ou semelhantes. A corrente de transporte gerada pelo multiplexador (MUX) 1412 é isolada para o buffer de corrente 1414 e então é emitida para a rede externa, por exemplo, através da conectividade 1321 (Fig. 70), o modem de banda larga 1333 (Fig. 70), ou semelhantes. Além disso, os dados de arquivo gerado pelo multiplexador (MUX) 1412 são isolados para o buffer de corrente 1414, então são emitidos, por exemplo, para a conectividade 1321 (Fig. 70) ou semelhantes, e são gravados em qualquer um de vários meios de gravação.
[0610] Além disso, a corrente de transporte que é entrada a partir da rede externa para o processador de vídeo 1332, por exemplo, através da conectividade 1321 (Fig. 70), o modem de banda larga 1333 (Fig. 70), ou semelhantes é isolada para o buffer de corrente 1414 e então é desmultiplexada pelo desmulti- plexador (DMUX) 1413. Além disso, os dados de arquivo que são lidos a partir de qualquer um de vários meios de gravação, por exemplo, pela conectividade 1321 (Fig. 70) ou semelhantes e são entrados para o processador de vídeo 1332 são isolados no buffer de corrente 1414 e então são desmultiplexados pelo desmulti- plexador (DMUX) 1413. Em outras palavras, a corrente de transporte ou os dados de arquivo que entram para o processador de vídeo 1332 são separados em uma corrente de vídeo e uma corrente de áudio pelo desmultiplexador (DMUX) 1413.
[0611] A corrente de áudio é fornecida para o decodificador de áudio 1411 através do buffer de ES de áudio 1409B e é decodificada, e o sinal de áudio é reproduzido. Além disso, a corrente de vídeo é copiada para o buffer de ES de vídeo 1408B, então sequencialmente é lida pelo mecanismo de codifica- ção/decodificação 1407, é decodificada, e é copiada para a memória de quadro 1405. Os dados de imagem decodificada são alargados ou reduzidos pela segunda unidade de alargamento/redução de imagem 1403 e são escritos para a memória de quadro 1405. Então, os dados de imagem decodificada são lidos pela unidade de processamento de saída de vídeo 1404, possui o formato convertido em um sistema predeterminado tal como o sistema de Y/Cb/Cr 4:2:2, e adicionalmente é convertido para um sinal análogo, e o sinal de vídeo é reproduzido e emitido.
[0612] Em um caso onde a presente tecnologia é aplicada ao processador de vídeo 1332 configurada desta forma, a presente tecnologia de acordo com cada modalidade descrita acima pode ser aplicada ao mecanismo de codifica- ção/decodificação 1407. Em outras palavras, o mecanismo de codifica- ção/decodificação 1407 pode ser configurado para ter a função do dispositivo de codificação 10 ou o dispositivo de decodificação 110. Além disso, por exemplo, o mecanismo de codificação/decodificação 1407 pode ser configurado para ter as funções do dispositivo de codificação 150 e o dispositivo de decodificação 170, o dispositivo de codificação 190 e o dispositivo de decodificação 210, ou o dispositivo de codificação 230 e o dispositivo de decodificação 270. Adicionalmente, por exemplo, o mecanismo de codificação/decodificação 1407 pode ser configurado para ter as funções do dispositivo de codificação de imagem de múltiplos pontos de vista 600 e o dispositivo de decodificação de imagem de múltiplos pontos de vista 610. Através da configuração desta forma, o processador de vídeo 1332 pode adquirir as mesmas vantagens que as vantagens descritas acima com referência às Figs. 1 a 61.
[0613] Além disso, no mecanismo de codificação/decodificação 1407, a presente tecnologia (em outras palavras, as funções do dispositivo de codificação da imagem e do dispositivo de decodificação da imagem de acordo com cada modalidade descrita acima) pode ser realizada por hardware tal como circuitos lógicos, pode ser realizada por software tal como um programa embutido, ou pode ser realizada tanto por hardware quanto por software. (Outro Exemplo de Configuração de Processador de Vídeo)
[0614] A Fig. 72 é um diagrama que ilustra outro exemplo da configuração esquemática do processador de vídeo 1332 (Fig. 70) ao qual a presente tecnologia é aplicada. No caso de o exemplo ilustrado na Fig. 72, o processador de vídeo 1332 possui uma função para codificar/decodificar os dados de vídeo de acordo com um sistema predeterminado.
[0615] Mais especificamente, como ilustrado na Fig. 72, o processador de vídeo 1332 inclui: uma unidade de controle 1511; uma interface de exibição 1512; um mecanismo de exibição 1513; um mecanismo de processamento de imagem 1514; e uma memória interna 1515. Além disso, o processador de vídeo 1332 inclui: um mecanismo de codec 1516; uma memória interface 1517; um mul- tiplexador/desmultiplexador (MUX DMUX) 1518; uma interface de rede 1519; e uma interface de vídeo 1520.
[0616] A unidade de controle 1511 controla as operações das unidades de processamento arranjadas dentro do processador de vídeo 1332 tais como a interface de exibição 1512, o mecanismo de exibição 1513, o mecanismo de processamento de imagem 1514, e o mecanismo de codec 1516.
[0617] Como ilustrado na Fig. 72, a unidade de controle 1511, por exemplo, inclui uma CPU principal 1531, uma sub CPU 1532, e um controlador de sistema 1533. A CPU principal 1531 executa um programa que é usado para controlar a operação de cada unidade de processamento disposta dentro do processador de vídeo 1332. A CPU principal 1531 gera um sinal de controle de acordo com o programa ou semelhantes e fornece o sinal de controle para cada unidade de processamento (em outras palavras, controla a operação de cada unidade de processamento). A sub CPU 1532 alcança uma função auxiliar para a CPU principal 1531. Por exemplo, a sub CPU 1532 executa um processo filho, uma subroti- na, e semelhantes do programa executado pela CPU principal 1531. O controlador de sistema 1533 controla as operações da CPU principal 1531 e da sub CPU 1532 tal como a designação de programas a ser executados pela CPU principal 1531 e pela sub CPU 1532.
[0618] A interface de exibição 1512 emite os dados de imagem, por exemplo, para a conectividade 1321 (Fig. 70) ou semelhantes sob o controle da unidade de controle 1511. Por exemplo, a interface de exibição 1512 converte os dados de imagem que são dados digitais para um sinal análogo e emite os dados de imagem para o dispositivo de monitoramento ou semelhantes da conectividade 1321 (Fig. 70) como um sinal de vídeo reproduzido ou os dados de imagem que são os dados digitais.
[0619] O mecanismo de exibição 1513, sob o controle da unidade de controle 1511, realiza vários processos de conversão tal como a conversão de formato, uma conversão de tamanho, e uma conversão gama de cores para os dados de imagem de forma a ser definidos para as especificações de hardware do dispositivo de monitoramento que exibe a imagem ou semelhantes.
[0620] O mecanismo de processamento de imagem 1514, sob o controle da unidade de controle 1511, realiza processamento de imagem predeterminado tal como um processo de filtro para aprimorar a qualidade da imagem ou semelhantes para os dados de imagem.
[0621] A memória interna 1515 é uma memória disposta dentro do processador de vídeo 1332 que é dividido pelo mecanismo de exibição 1513, o mecanismo de processamento de imagem 1514, e o mecanismo de codec 1516. A memória interna 1515, por exemplo, é usado para a troca de dados realizada entre o mecanismo de exibição 1513, o mecanismo de processamento de imagem 1514, e o mecanismo de codec 1516. Por exemplo, a memória interna 1515 armazena dados fornecidos a partir do mecanismo de exibição 1513, o mecanismo de processamento de imagem 1514, ou o mecanismo de codec 1516 e fornece os dados para o mecanismo de exibição 1513, o mecanismo de processamento de imagem 1514, ou o mecanismo de codec 1516 como é necessário (por exemplo, de acordo com um pedido). Enquanto esta memória interna 1515 pode ser realizada através de qualquer dispositivo de armazenamento, em geral, a memória interna 1515 é frequentemente usada para armazenar dados tendo uma pequena capacidade tais como dados de imagem configurados em unidades de blocos ou parâmetros, e de maneira apropriada, é preferivelmente realizada por uma memória de semicondutor tendo uma capacidade relativamente pequena (por exemplo, comparada com a memória externa 1312) e uma alta velocidade de resposta tal como uma SRAM (Memória de Acesso Aleatório Estático).
[0622] O mecanismo de codec 1516 realiza o processo que se refere à codificação ou decodificação de dados de imagem. O sistema de codifica- ção/decodificação ao qual o mecanismo de codec 1516 corresponde é arbitrário, e o número do mesmo pode ser um ou dois ou mais. Por exemplo, o mecanismo de codec 1516 pode incluir uma função de codec de uma pluralidade de sistemas de codificação/decodificação e realizar a codificação dos dados de imagem ou a decodificação dos dados de imagem codificados usando dados selecionados da pluralidade de sistemas de codificação/decodificação.
[0623] No exemplo ilustrado na Fig. 72, o mecanismo de codec 1516, por exemplo, inclui Vídeo de MPEG-2 1541, AVC/H.264 1542, HEVC/H.265 1543, HEVC/H.265 (Escalonável) 1544, HEVC/H.265 (Múltiplas Vistas) 1545, e MPEG- DASH 1551 como blocos funcionais do processo se referindo ao codec.
[0624] O Vídeo MPEG-2 1541 é um bloco funcional usado para codificar ou decodificar dados de imagem de acordo com o sistema de MPEG-2. O AVC/H.264 1542 é um bloco funcional usado para codificar ou decodificar dados de imagem de acordo com o sistema de AVC. Além disso, o HEVC/H.265 1543 é um bloco funcional usado para codificar ou decodificar dados de imagem de acordo com o sistema de HEVC. O HEVC/H.265 (Escalonável) 1544 é um bloco funcional usado para a codificação escalonável ou decodificação escalonável de dados de imagem de acordo com o sistema de HEVC. O HEVC/H.265 (Múltiplas Vistas) 1545 é um bloco funcional usado para codificação de múltiplos pontos de vista ou decodificação de múltiplos pontos de vista de dados de imagem de acordo com o sistema de HEVC.
[0625] O MPEG-DASH 1551 é um bloco funcional usado para transmi- tir/receber dados de imagem de acordo com um sistema de MPEG-DASH (MPEG-Transmissão Adaptativa Dinâmica por HTTP). O MPEG-DASH é uma tecnologia para transmitir um vídeo usando um HTTP (Protocolo de Transferência de HiperTexto) e possui uma funcionalidade que uma é selecionada dentre uma pluralidade de peças de dados codificados tendo resoluções mutuamente diferentes e semelhantes, que são preparadas antecipadamente, em unidades de segmentos e é transmitido. O MPEG-DASH 1551 realiza a geração de uma corrente, controle de transmissão da corrente, e semelhantes que estão em conformidade com a especificação, e, para codificar/decodificar dados de imagem, usa Vídeo MPEG-2 1541 ou HEVC/H.265 (Múltiplas Vistas) 1545 descritos acima.
[0626] A memória interface 1517 é uma interface usada para a memória externa 1312. Dados fornecidos a partir do mecanismo de processamento de imagem 1514 ou do mecanismo de codec 1516 são fornecidos para a memória externa 1312 através da memória interface 1517. Além disso, os dados lidos a partir da memória externa 1312 são fornecidos para o processador de vídeo 1332 (o mecanismo de processamento de imagem 1514 ou o mecanismo de codec 1516) através da memória interface 1517.
[0627] O multiplexador/desmultiplexador (MUX DMUX) 1518 multiplexa ou desmultiplexa vários tipos de dados se referindo a uma imagem tal como uma corrente de bit de dados codificados, dados de imagem, ou um sinal de vídeo. O método de multiplexação/desmultiplexação é arbitrário. Por exemplo, no momento do processo de multiplexação, o multiplexador/desmultiplexador (MUX DMUX) 1518 pode não apenas arranjar uma pluralidade de peças de dados em um mas também adicionar informação de cabeçalho adicional ou semelhantes para os dados. Além disso, no momento do processo de desmultiplexação, o multiplexa- dor/desmultiplexador (MUX DMUX) 1518 pode não apenas dividir uma peça de dados em uma pluralidade de partes mas adicionar informação de cabeçalho predeterminada ou semelhantes para os dados divididos. Em outras palavras, o mul- tiplexador/desmultiplexador (MUX DMUX) 1518 pode converter o formato de dados através do processo de multiplexação/desmultiplexação. Por exemplo, o mul- tiplexador/desmultiplexador (MUX DMUX) 1518 pode converter a corrente de bit em uma corrente de transporte que está no formato para a transmissão ou dados (dados de arquivo) que estão no formato de arquivo para a gravação multiplexan- do a corrente de bit. É aparente que a conversão inversa pode ser realizada através do processo de desmultiplexação.
[0628] A interface de rede 1519 é uma interface dedicada tal como o modem de banda larga 1333 (Fig. 70) ou a conectividade 1321 (Fig. 70). A interface de vídeo 1520 é uma interface dedicada tal como a conectividade 1321 (Fig. 70) ou a câmera 1322 (Fig. 70).
[0629] A seguir, um exemplo da operação de tal processador de vídeo 1332 será descrito. Por exemplo, quando uma corrente de transporte é recebida a partir da rede externa, por exemplo, através da conectividade 1321 (Fig. 70), o modem de banda larga 1333 (Fig. 70), ou semelhantes, a corrente de transporte é fornecida para o multiplexador/desmultiplexador (MUX DMUX) 1518 através da interface de rede 1519, é desmultiplexada, e é decodificada pelo mecanismo de codec 1516. Para os dados de imagem adquiridos pelo processo de decodificação realizado pelo mecanismo de codec 1516, por exemplo, processamento de ima-gem predeterminado é realizado pelo mecanismo de processamento de imagem 1514, e a conversão predeterminada é realizada pelo mecanismo de exibição 1513, os dados de imagem resultantes são fornecidos, por exemplo, para a conectividade 1321 (Fig. 70) ou semelhantes através da interface de exibição 1512, e a imagem é exibida no monitor. Além disso, por exemplo, os dados de imagem adquiridos pelo processo de decodificação realizado pelo mecanismo de codec 1516 são codificados novamente pelo mecanismo de codec 1516, são multiplexa- dos pelo multiplexador/desmultiplexador (MUX DMUX) 1518, são convertidos para dados de arquivo, são emitidos, por exemplo, para a conectividade 1321 (Fig. 70) ou semelhantes através da interface de vídeo 1520, e é gravado em qualquer um dos vários meios de gravação.
[0630] Além disso, por exemplo, dados codificados que são adquiridos através da codificação dos dados de imagem lidos a partir de um meio de gravação não ilustrado na figura pela conectividade 1321 (Fig. 70) ou semelhantes são fornecidos para o multiplexador/desmultiplexador (MUX DMUX) 1518 através da interface de vídeo 1520, são desmultiplexados, e são decodificados pelo mecanismo de codec 1516. Para os dados de imagem adquiridos pelo processo de de- codificação realizado pelo mecanismo de codec 1516, processamento de imagem predeterminado é realizado pelo mecanismo de processamento de imagem 1514, e uma conversão predeterminada é realizada pelo mecanismo de exibição 1513, e os dados de imagem resultantes são fornecidos, por exemplo, para a conectividade 1321 (Fig. 70) ou semelhantes através da interface de exibição 1512, e a imagem é exibida no monitor. Adicionalmente, por exemplo, os dados de imagem adquiridos pelo processo de decodificação realizado pelo mecanismo de codec 1516 são codificados novamente pelo mecanismo de codec 1516, são multiplexa- dos pelo multiplexador/desmultiplexador (MUX DMUX) 1518, são convertidos para uma corrente de transporte, são fornecidos, por exemplo, para a conectividade 1321 (Fig. 70), o modem de banda larga 1333 (Fig. 70), ou semelhantes através da interface de rede 1519, e são transmitidos para outro dispositivo não ilustrado na figura.
[0631] Além disso, a troca de dados de imagem ou outros dados entre unidades de processamento dispostas dentro do processador de vídeo 1332, por exemplo, é realizada usando a memória interna 1515 ou a memória externa 1312. Além disso, o módulo de gerenciamento de energia 1313, por exemplo, controla o fornecimento de energia para a unidade de controle 1511.
[0632] Em um caso onde a presente tecnologia é aplicada ao processa- dor de vídeo 1332 configurado desta forma, a presente tecnologia de acordo com cada modalidade descrita acima pode ser aplicada ao mecanismo de codec 1516. Em outras palavras, por exemplo, o mecanismo de codec 1516 pode incluir um bloco funcional que realiza o dispositivo de codificação 10 ou o dispositivo de de- codificação 110. Além disso, por exemplo, o mecanismo de codec 1516 pode ser configurado para incluir blocos funcionais que realizam o dispositivo de codificação 150 e o dispositivo de decodificação 170, o dispositivo de codificação 190 e o dispositivo de decodificação 210, ou o dispositivo de codificação 230 e o dispositivo de decodificação 270. Adicionalmente, por exemplo, o mecanismo de codec 1516 pode ser configurado para incluir as funções do dispositivo de codificação de imagem de múltiplos pontos de vista 600 e o dispositivo de decodificação de imagem de múltiplos pontos de vista 610. Através da configuração desta forma, o processador de vídeo 1332 pode adquirir as mesmas vantagens que as descritas acima com referência às Figs. 1 a 61.
[0633] Além disso, no mecanismo de codec 1516, a presente tecnologia (em outras palavras, as funções do dispositivo de codificação de imagem e do dispositivo de decodificação de imagem de acordo com cada modalidade descrita acima) pode ser realizada por hardware tal como circuitos lógicos, pode ser realizada por software tal como um programa embutido, ou pode ser realizada tanto por hardware quanto por software.
[0634] Como dito acima, enquanto duas configurações do processador de vídeo 1332 foram descritas como exemplos, a configuração do processador de vídeo 1332 é arbitrária e pode ser uma configuração diferente das duas configurações descritas acima. Além disso, o processador de vídeo 1332 pode ser configurado tanto por um chip de semicondutor quanto por uma pluralidade de chips de semicondutor. Por exemplo, o processador de vídeo 1332 pode ser configurado através de um LSI laminado tridimensional em que uma pluralidade de semi-condutores são laminados. Além disso, o processador de vídeo 1332 pode ser realizado através de uma pluralidade de LSI's.
(Exemplo de Aplicação para o Dispositivo)
[0635] O conjunto de vídeo 1300 pode ser embutido em vários dispositivos que processam dados de imagem. Por exemplo, o conjunto de vídeo 1300 pode ser embutido no aparelho de televisão 900 (Fig. 63), o telefone móvel 920 (Fig. 64), o dispositivo de gravação e reprodução 940 (Fig. 65), o dispositivo de formação de imagem 960 (Fig. 66), e semelhantes. Através da construção do conjunto de vídeo 1300 no mesmo, os dispositivos podem adquirir vantagens que são as mesmas que as vantagens descritas acima com referência às Figs. 1 a 61.
[0636] Além disso, o conjunto de vídeo 1300, por exemplo, pode ser embutido nos dispositivos de terminal do sistema de transmissão de dados 1000 ilustrado na Fig. 67 tal como o computador pessoal 1004, o dispositivo de AV 1005, o dispositivo de tablet 1006, e o telefone móvel 1007, a estação de transmissão 1101 e o dispositivo de terminal 1102 do sistema de transmissão de dados 1100 ilustrado na Fig. 68, e o dispositivo de formação de imagem 1201 e o dispositivo de armazenamento de dados codificados escalonáveis 1202 do sistema de formação de imagem 1200 ilustrado na Fig. 69, e semelhantes. Através da construção do conjunto de vídeo 1300 no mesmo, os dispositivos podem adquirir vantagens que são as mesmas que as vantagens descritas acima com referência às Figs. 1 a 61.
[0637] Adicionalmente, algumas das configurações do conjunto de vídeo 1300 descritas acima podem ser configurações ao qual a presente tecnologia é aplicada em um caso onde o processador de vídeo 1332 está incluído nas mesmas. Por exemplo, apenas o processador de vídeo 1332 pode ser configurado como um processador de vídeo ao qual a presente tecnologia é aplicada. Além disso, como descrito acima, o processador, o módulo de vídeo 1311, e semelhantes denotado pela linha pontilhada 1341 pode ser configurado como um processador, um módulo, e semelhantes ao qual a presente tecnologia é aplicada. Adici-onalmente, por exemplo, o módulo de vídeo 1311, a memória externa 1312, o módulo de gerenciamento de energia 1313, e o módulo de extremidade frontal 1314 pode ser combinado de forma a ser configurado como uma unidade de vídeo 1361 ao qual a presente tecnologia é aplicada. Em qualquer uma das configurações, as mesmas vantagens que aquelas descritas acima com referência às Figs. 1 a 61 podem ser adquiridas.
[0638] Em outras palavras, qualquer configuração que inclui o processador de vídeo 1332, similar ao caso do conjunto de vídeo 1300, pode ser embutida em vários dispositivos que processam dados de imagem. Por exemplo, o processador de vídeo 1332, o processador e o módulo de vídeo 1311 denotados pela linha pontilhada 1341, ou a unidade de vídeo 1361 pode ser construída no aparelho de televisão 900 (Fig. 63), o telefone móvel 920 (Fig. 64), o dispositivo de gravação e reprodução 940 (Fig. 65), o dispositivo de formação de imagem 960 (Fig. 66), os dispositivos de terminal do sistema de transmissão de dados 1000 ilustrado na Fig. 67 tal como o computador pessoal 1004, o dispositivo de AV 1005, o dispositivo de tablet 1006 e o telefone móvel 1007, a estação de transmissão 1101 e o dispositivo de terminal 1102 do sistema de transmissão de dados 1100 ilustrado na Fig. 68, e o dispositivo de formação de imagem 1201 e o dispositivo de armazenamento de dados codificados escalonáveis 1202 do sistema de formação de imagem 1200 ilustrado na Fig. 69, e semelhantes. Através da constru-ção de qualquer configuração a qual a presente tecnologia é aplicada na mesma, similar ao caso do conjunto de vídeo 1300, os dispositivos podem adquirir as mesmas vantagens que aquelas descritas acima com referência às Figs. 1 a 61.
[0639] Na presente especificação, os exemplos foram descritos em que vários tipos de informação são multiplexados em uma corrente codificada, e a corrente codificada é transmitida a partir do lado de codificação para o lado de deco- dificação. No entanto, a técnica para transmitir a informação não está limitada a isto. Por exemplo, a informação pode ser transmitida ou gravada como dados separados associados com uma corrente de bit codificada sem ser multiplexada na corrente de bit codificada. Aqui, o termo “que está associada” representa que uma imagem (um pedaço, um bloco, ou semelhantes; pode ser uma parte da imagem) incluído em uma corrente de bit e informação que corresponde à imagem são ligadas entre si no momento do processo de decodificação. Em outras palavras, a informação pode ser transmitida em uma linha de transmissão que é diferente daquela da imagem (ou a corrente de bit). Adicionalmente, a informação pode ser gravada em um meio de gravação (ou uma área de armazenamento diferente do mesmo meio de gravação) diferente do meio de gravação da imagem (ou a corrente de bit). Além disso, a informação e a imagem (ou a corrente de bit) podem ser associadas entre si em uma unidade arbitrária tal como uma pluralidade de quadros, um quadro, ou uma parte do quadro.
[0640] A presente tecnologia pode ser aplicada aos dispositivos usados quando informação de imagem (corrente de bit) comprimida através de uma transformada ortogonal tal como uma transformada de cosseno discreta e compensação de movimento é transmitida e recebida através de um meio de rede tal como transmissão de satélite, uma TV a cabo, a internet, ou o telefone móvel ou quando a informação de imagem comprimida é processada em um meio de armazenamento tal como um disco óptico, um disco magnético, ou uma memória de flash como em MPEG, H.26x, ou semelhantes.
[0641] Além disso, a presente tecnologia, por exemplo, pode ser aplicada a transmissão de HTTP tal como MPEG DASH em que, dentre uma pluralidade de peças de dados codificados tendo resoluções mutuamente diferentes ou semelhantes, dados codificados apropriados são selecionados e usados em unidades de segmentos.
[0642] Adicionalmente, o sistema de codificação de acordo com a presente tecnologia pode ser um sistema de codificação diferente do sistema de HEVC.
[0643] Modalidades da presente tecnologia não são limitadas às modalidades descritas acima, e várias alterações que podem ser feitas na faixa que não foge do conceito da presente tecnologia aqui.
[0644] Além disso, a presente tecnologia pode ter as seguintes configu- rações. (1) Um dispositivo de decodificação incluindo: uma unidade de recepção que recebe informação de referência representando se a informação de especificação de imagem de referência especificando uma imagem de referência, que é usada para gerar uma imagem predita, de uma imagem anterior que é uma imagem antes de uma imagem de codificação atual na ordem de codificação que é transmitida em um caso onde a imagem de codificação atual é uma imagem diferente de uma primeira imagem de um GOP (Grupo de Imagem) é usada como a informação de especificação de imagem de referência da imagem de codificação atual; uma unidade de definição de imagem de referência que gera a informação de especificação de imagem de referência de uma imagem de decodifi- cação atual com base na informação de referência em um caso onde a informação de referência é recebida pela unidade de recepção e gera a informação de especificação de imagem de referência da imagem de decodificação atual com base na informação de referência representando que a informação de especificação de imagem de referência da imagem anterior não é usada como a informação de especificação de imagem de referência da imagem de codificação atual em um caso onde a informação de referência não é recebida pela unidade de recepção; e uma unidade de geração de imagem predita que gera uma imagem predita usando a imagem de referência que é especificada pela informação de especificação de imagem de referência gerada pela unidade de definição de imagem de referência. (2) O dispositivo de decodificação de acordo com (1), em que a unidade de recepção recebe a imagem anterior especificando imagem anterior especificando a informação em um caso onde a informação de referência representa que a informação de especificação de imagem de referência da imagem anterior é usada como a informação de especificação de imagem de referência da imagem de codificação atual, e a unidade de definição de imagem de referência gera a informação de especificação de imagem de referência da imagem anterior que é especificada pela imagem anterior especificando a informação recebida pela unidade de recepção como a informação de especificação de imagem de referência da imagem de decodificação atual. (3) O dispositivo de decodificação de acordo com (2), em que a unidade de recepção recebe a informação de especificação de imagem de referência da imagem de codificação atual em um caso onde a informação de referência representa que a informação de especificação de imagem de referência da imagem anterior não é usada como a informação de especificação de imagem de referência da imagem de codificação atual, e a unidade de definição de imagem de referência gera a informação de especificação de imagem de referência recebida pela unidade de recepção como a informação de especificação de imagem de referência da imagem de de- codificação atual. (4) O dispositivo de decodificação de acordo com (3), em que a unidade de recepção recebe uma pluralidade de peças de informação de imagem de referência incluindo a informação de referência e a imagem anterior especificando a informação ou a informação de especificação de imagem de referência e recebe informação de imagem de referência especificando informação que especifica a informação de imagem de referência da imagem de codificação atual, dentre a pluralidade de peças de informação de imagem de referência, que é transmitida em um caso onde a imagem de codificação atual é uma imagem diferente da primeira imagem do GOP (Grupo de Imagem), e a unidade de definição de imagem de referência gera a informação de especificação de imagem de referência da imagem de decodificação atual com base na informação de referência incluída na informação de imagem de referência que é especificada pela informação de especificação de imagem de referência recebida pela unidade de recepção. (5) O dispositivo de decodificação de acordo com (4), em que a unidade de recepção recebe informação de imagem de referência para a primeira imagem que inclui a informação de especificação de imagem de referência como a informação de imagem de referência e recebe a informação de imagem de referência especificando informação especificando a informação de imagem de referência para a primeira imagem que é transmitida em um caso onde a imagem de codificação atual é a primeira imagem do GOP (Grupo de Imagem), e a unidade de definição de imagem de referência gera a informação de especificação de imagem de referência da imagem de decodificação atual com base na informação de especificação de imagem de referência incluída na informação de imagem de referência para a primeira imagem que é especificada pela informação de imagem de referência especificando informação recebida pela unidade de recepção. (6) Um método de decodificação, o método de decodificação incluindo, através de um dispositivo de decodificação: uma etapa de recepção para receber informação de referência representando se a informação de especificação de imagem de referência especificando uma imagem de referência, que é usada para gerar uma imagem predita, de uma imagem anterior que é uma imagem antes de uma imagem de codificação atual na ordem de codificação que é transmitida em um caso onde a imagem de codificação atual é uma imagem diferente de uma primeira imagem de um GOP (Grupo de Imagem) é usada como a informação de especificação de imagem de referência da imagem de codificação atual; uma etapa de definição de imagem de referência para gerar a informação de especificação de imagem de referência de uma imagem de decodifi- cação atual com base na informação de referência em um caso onde a informação de referência é recebida no processo da etapa de recepção e geração da informação de especificação de imagem de referência da imagem de decodificação atual com base na informação de referência representando que a informação de especificação de imagem de referência da imagem anterior não é usada como a informação de especificação de imagem de referência da imagem de codificação atual em um caso onde a informação de referência não é recebida no processo da etapa de recepção; e uma etapa de geração de imagem predita para gerar uma imagem predita usando a imagem de referência que é especificada pela informação de especificação de imagem de referência gerada no processo da etapa de definição de imagem de referência. LISTA DE SINAIS DE REFERÊNCIA 10 Dispositivo de codificação 12 Unidade de definição 13 Unidade de transmissão 33 Unidade de cálculo 47 Unidade de compensação/predição de movimento 110 Dispositivo de decodificação 111 Unidade de recepção 135 Unidade de adição 144 Unidade de definição de imagem de referência 145 Unidade de compensação de movimento 150 Dispositivo de codificação 170 Dispositivo de decodificação 190 Dispositivo de codificação 210 Dispositivo de decodificação 230 Dispositivo de codificação 232 Unidade de definição 251 Unidade de compensação/predição de movimento 270 Dispositivo de decodificação 292 Unidade de compensação de movimento

Claims (10)

1. Dispositivo de decodificação, CARACTERIZADO pelo fato de que compreende: pelo menos um processador; pelo menos uma memória incluindo instruções, a memória e as instruções configurados para, trabalhando com o pelo menos um processador, fazer o dispositivo de decodificação executar pelo menos o seguinte: decodificar um elemento de sintaxe recebido em um conjunto de parâmetro de sequência (SPS) de uma pluralidade de imagens de um grupo de imagens a serem decodificadas, o elemento de sintaxe indicando um número de conjuntos de imagem de referência (RPS) de curto prazo incluídos no SPS; para uma primeira imagem da pluralidade de imagens a serem decodificadas usando interpredição: em um cabeçalho de fatia da primeira imagem, definir um valor de um índice de um RPS de curto prazo da primeira imagem igual ao número de RPS de curto prazo incluídos no SPS; se o valor do índice do RPS de curto prazo da primeira imagem for igual a zero indicando um valor de um sinalizador de predição não é recebido no cabeçalho de fatia da primeira imagem, definir o valor do sinalizador de predição para um primeiro valor indicando que o RPS de curto prazo da primeira imagem não é predito a partir do RPS de curto prazo incluído no SPS; gerar uma imagem predita da primeira imagem usando interpredição; e decodificar a primeira imagem usando a imagem predita.
2. Dispositivo de decodificação, de acordo com a reivindicação 1, CA-RACTERIZADO pelo fato de que gerar a imagem predita da primeira imagem executa ainda pelo menos o seguinte: se o valor do índice do RPS de curto prazo da primeira imagem não for igual a zero indicando que o valor do sinalizador de predição é recebido no cabeçalho de fatia da primeira imagem, decodificar o valor do sinalizador de predição, em que o valor do sinalizador de predição é o primeiro valor indicando que o RPS de curto prazo da primeira imagem não é predito a partir do RPS de curto prazo incluído no SPS, ou um segundo valor indicando que o RPS de curto prazo da primeira imagem é predito a partir do RPS de curto prazo incluído no SPS; e gerar o RPS de curto prazo da primeira imagem com base no valor do sinalizador de predição; e gerar a imagem predita da primeira imagem usando o RPS de curto prazo da primeira imagem.
3. Dispositivo de decodificação, de acordo com a reivindicação 2, CA-RACTERIZADO pelo fato de que gerar a imagem predita da primeira imagem executa ainda pelo menos o seguinte: se o valor do sinalizador de predição for igual ao segundo valor indicando que o RPS de curto prazo da primeira imagem é predito a partir do RPS de curto prazo incluído no SPS, decodificar um índice de delta de RPS recebido no cabeçalho de fatia da primeira imagem; gerar o RPS de curto prazo da primeira imagem com base no índice de delta de RPS; e gerar a imagem predita da primeira imagem usando o RPS de curto prazo da primeira imagem.
4. Dispositivo de decodificação, de acordo com a reivindicação 1, CA-RACTERIZADO pelo fato de que gerar a imagem predita da primeira imagem executa ainda pelo menos o seguinte: se o valor do sinalizador de predição for igual ao primeiro valor indicando que o RPS de curto prazo da primeira imagem não é predito a partir do RPS de curto prazo incluído no SPS, decodificar informação de especificação de RPS de curto prazo da primeira imagem, recebida no cabeçalho de fatia da primeira imagem, em que o cabeçalho de fatia da primeira imagem não inclui o índice de delta de RPS, e gerar o RPS de curto prazo da primeira imagem com base na informação de especificação de RPS de curto prazo; e gerar a imagem predita da primeira imagem usando o RPS de curto prazo da primeira imagem.
5. Dispositivo de decodificação de acordo com a reivindicação 2, CA-RACTERIZADO pelo fato de que gerar a imagem predita da primeira imagem executa ainda pelo menos o seguinte: se o valor do sinalizador de predição for igual ao primeiro valor indicando que o RPS de curto prazo da primeira imagem não é predito a partir do RPS de curto prazo incluído no SPS, decodificar a informação de especificação de RPS de curto prazo da primeira imagem, recebida no cabeçalho de fatia da primeira imagem, em que o cabeçalho de fatia da primeira imagem não inclui o índice de delta de RPS, e gerar o RPS de curto prazo da primeira imagem com base na informação de especificação de RPS de curto prazo; e gerar a imagem predita da primeira imagem usando o RPS de curto prazo da primeira imagem.
6. Método de decodificação, CARACTERIZADO pelo fato de que compreende: decodificar um elemento de sintaxe recebido em um conjunto de parâmetro de sequência (SPS) de uma pluralidade de imagens de um grupo de imagens a serem decodificadas, o elemento de sintaxe indicando um número de conjunto de imagem de referência (RPS) de curto prazo incluído no SPS; para uma primeira imagem da pluralidade de imagens a serem decodificadas usando interpredição: em um cabeçalho de fatia de uma primeira imagem da pluralidade de imagens, definir um valor de um índice de um RPS de curto prazo da primeira imagem igual ao número de RPS de curto prazo incluído no SPS; se o valor do índice do RPS de curto prazo da primeira imagem for igual a zero indicando que um valor de um sinalizador de predição não é recebido no cabeçalho de fatia da primeira imagem, definir o valor do sinalizador de predição para um primeiro valor indicando que o RPS de curto prazo da primeira imagem não é predito a partir do RPS de curto prazo incluído no SPS; gerar uma imagem predita da primeira imagem; e decodificar a primeira imagem usando a imagem predita.
7. Método, de acordo com a reivindicação 6, CARACTERIZADO pelo fato de que gerar a imagem predita da primeira imagem compreende ainda pelo menos o seguinte: se o valor do índice do RPS de curto prazo da primeira imagem for diferente de zero indicando que o valor do sinalizador de predição é recebido no cabeçalho de fatia da primeira imagem, decodificar o valor do sinalizador de predição, em que o valor do sinalizador de predição é o primeiro valor indicando que o RPS de curto prazo da primeira imagem não é predito a partir do RPS de curto prazo incluído no SPS, ou um segundo valor indicando que o RPS de curto prazo da primeira imagem é predito a partir do RPS de curto prazo incluído no SPS; e gerar o RPS de curto prazo da primeira imagem com base no valor do sinalizador de predição; e gerar a imagem predita da primeira imagem usando o RPS de curto prazo da primeira imagem.
8. Método, de acordo com a reivindicação 7, CARACTERIZADO pelo fato de que gerar a imagem predita da primeira imagem compreende ainda pelo menos o seguinte: se o valor do sinalizador de predição for igual ao segundo valor indicando que o RPS de curto prazo da primeira imagem é predito a partir do RPS de curto prazo incluído no SPS, decodificar um índice de delta de RPS recebido no cabeçalho de fatia da primeira imagem; gerar o RPS de curto prazo da primeira imagem com base no índice de delta de RPS; e gerar a imagem predita da primeira imagem usando o RPS de curto prazo da primeira imagem.
9. Método, de acordo com a reivindicação 6, CARACTERIZADO pelo fato de que gerar a imagem predita da primeira imagem compreende ainda pelo menos o seguinte: se o valor do sinalizador de predição for igual ao primeiro valor indicando que o RPS de curto prazo da primeira imagem não é predito a partir do RPS de curto prazo incluído no SPS, decodificar informação de especificação de RPS de curto prazo da primeira imagem, recebida no cabeçalho de fatia da primeira imagem, em que o cabeçalho de fatia da primeira imagem não inclui o índice de delta de RPS, e gerar o RPS de curto prazo da primeira imagem com base na informação de especificação de RPS de curto prazo; e gerar a imagem predita da primeira imagem usando o RPS de curto prazo da primeira imagem.
10. Método, de acordo com a reivindicação 7, CARACTERIZADO pelo fato de que gerar a imagem predita da primeira imagem compreende ainda pelo menos o seguinte: se o valor do sinalizador de predição for igual ao primeiro valor indicando que o RPS de curto prazo da primeira imagem não é predito a partir do RPS de curto prazo incluído no SPS, decodificar a informação de especificação de RPS de curto prazo da primeira imagem, recebida no cabeçalho de fatia da primeira imagem, em que o cabeçalho de fatia da primeira imagem não inclui o índice de delta de RPS, e gerar o RPS de curto prazo da primeira imagem com base na informação de especificação de RPS de curto prazo; e gerar a imagem predita da primeira imagem usando o RPS de curto prazo da primeira imagem.
BR112014032227-9A 2012-06-29 2013-06-21 Dispositivo e método de decodificação BR112014032227B1 (pt)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2012-147883 2012-06-29
JP2012147883 2012-06-29
JP2012-218097 2012-09-28
JP2012218097 2012-09-28
PCT/JP2013/067111 WO2014002898A1 (ja) 2012-06-29 2013-06-21 復号装置および復号方法

Publications (2)

Publication Number Publication Date
BR112014032227A2 BR112014032227A2 (pt) 2017-06-27
BR112014032227B1 true BR112014032227B1 (pt) 2023-01-24

Family

ID=49778143

Family Applications (2)

Application Number Title Priority Date Filing Date
BR112014032227-9A BR112014032227B1 (pt) 2012-06-29 2013-06-21 Dispositivo e método de decodificação
BR112014032228-7A BR112014032228B1 (pt) 2012-06-29 2013-06-21 Dispositivo e método de codificação

Family Applications After (1)

Application Number Title Priority Date Filing Date
BR112014032228-7A BR112014032228B1 (pt) 2012-06-29 2013-06-21 Dispositivo e método de codificação

Country Status (16)

Country Link
US (5) US10595036B2 (pt)
EP (2) EP2869560A4 (pt)
JP (6) JP6182718B2 (pt)
KR (2) KR102179087B1 (pt)
CN (4) CN104380752B (pt)
AR (1) AR091570A1 (pt)
AU (3) AU2013281946B2 (pt)
BR (2) BR112014032227B1 (pt)
CA (2) CA2875213C (pt)
MX (3) MX342499B (pt)
MY (3) MY190544A (pt)
RU (3) RU2752695C2 (pt)
SG (4) SG10201610882XA (pt)
TW (5) TWI513199B (pt)
WO (2) WO2014002899A1 (pt)
ZA (1) ZA201409038B (pt)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7295609B2 (en) 2001-11-30 2007-11-13 Sony Corporation Method and apparatus for coding image information, method and apparatus for decoding image information, method and apparatus for coding and decoding image information, and system of coding and transmitting image information
JP5359657B2 (ja) * 2009-07-31 2013-12-04 ソニー株式会社 画像符号化装置および方法、記録媒体、並びにプログラム
JP5914962B2 (ja) 2010-04-09 2016-05-11 ソニー株式会社 画像処理装置および方法、プログラム、並びに、記録媒体
TWI600318B (zh) 2010-05-18 2017-09-21 Sony Corp Image processing apparatus and image processing method
US8849052B2 (en) 2010-06-04 2014-09-30 Sony Corporation Image processing apparatus and method
EP3748963B1 (en) 2010-12-07 2022-03-02 Sony Group Corporation Image processing device and image processing method
PH12015501384A1 (en) 2010-12-07 2015-09-28 Sony Corp Image processing device and image processing method
JP5741076B2 (ja) 2010-12-09 2015-07-01 ソニー株式会社 画像処理装置及び画像処理方法
RU2609094C2 (ru) 2011-02-10 2017-01-30 Сони Корпорейшн Устройство и способ обработки изображений
CN106534872B (zh) 2011-03-11 2019-05-17 索尼公司 图像处理装置和方法
TWI530161B (zh) 2011-06-07 2016-04-11 Sony Corp Image processing apparatus and method
JP5907367B2 (ja) 2011-06-28 2016-04-26 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
RU2607243C2 (ru) 2011-06-28 2017-01-10 Сони Корпорейшн Устройство обработки изображений и способ обработки изображений
US9153037B2 (en) * 2012-01-18 2015-10-06 Panasonic Intellectual Property Management Co., Ltd. Image decoding device, image encoding device, image decoding method, and image encoding method
AU2013281946B2 (en) 2012-06-29 2017-03-02 Sony Group Corporation Decoding device, and decoding method
AU2013281243C1 (en) * 2012-06-29 2016-01-21 Telefonaktiebolaget Lm Ericsson (Publ) Encoding and decoding video sequences comprising reference picture sets
WO2016200100A1 (ko) * 2015-06-10 2016-12-15 삼성전자 주식회사 적응적 가중치 예측을 위한 신택스 시그널링을 이용하여 영상을 부호화 또는 복호화하는 방법 및 장치
CN105681563B (zh) * 2016-01-26 2019-04-09 深圳市美贝壳科技有限公司 智能硬件设备图片分享权限的实现方法
CN106254869A (zh) * 2016-08-25 2016-12-21 腾讯科技(深圳)有限公司 一种视频数据的编解码方法、装置和***
CN108347602B (zh) * 2017-01-22 2021-07-30 上海澜至半导体有限公司 用于无损压缩视频数据的方法和装置
CN109410558B (zh) * 2018-06-20 2023-12-12 深圳市宏芯达科技有限公司 一种红外码智能压缩芯片
US11152992B2 (en) * 2018-12-21 2021-10-19 Qualcomm Incorporated Beam switch related information feedback in wireless communications
CN110365983B (zh) * 2019-09-02 2019-12-13 珠海亿智电子科技有限公司 一种基于人眼视觉***的宏块级码率控制方法及装置
WO2021091253A1 (ko) * 2019-11-05 2021-05-14 엘지전자 주식회사 슬라이스 타입 기반 영상/비디오 코딩 방법 및 장치
US11902584B2 (en) 2019-12-19 2024-02-13 Tencent America LLC Signaling of picture header parameters
CN115136606A (zh) * 2020-02-19 2022-09-30 字节跳动有限公司 参考图片列表的权重的信令通知

Family Cites Families (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2660139B1 (fr) * 1990-03-23 1995-08-25 France Etat Procede de codage et de transmission a au moins deux niveaux de qualite d'images numeriques appartenant a une sequence d'images, et dispositifs correspondants.
CA2240118C (en) * 1997-06-09 2005-11-22 Hitachi Ltd. Image sequence coding method and decoding method
US6697426B1 (en) * 2000-03-17 2004-02-24 Koninklijke Philips Electronics N.V. Reduction of layer-decoding complexity by reordering the transmission of enhancement layer frames
ATE464748T1 (de) * 2002-01-22 2010-04-15 Microsoft Corp Verfahren und system zur verhinderung von startkode-emulation und stopfdaten
CN101483772B (zh) * 2002-04-12 2011-05-25 松下电器产业株式会社 图像编码方法及图像编码装置
DK1406451T3 (da) 2002-07-11 2007-02-05 Matsushita Electric Ind Co Ltd Billedkodnings- og dekodningsfremgangsmåde til H.264 ved anvendelse af en virtuel visningsbuffer
EP2903272B1 (en) * 2002-08-08 2018-03-28 Godo Kaisha IP Bridge 1 Moving picture encoding method and decoding method
JP5068947B2 (ja) * 2003-02-18 2012-11-07 ノキア コーポレイション ピクチャの符号化方法
PL214807B1 (pl) 2003-04-14 2013-09-30 Adb Polska Sp Sposób laczenia w ukladzie przetwarzajacym strumienie MPEG pakietów kilku wejsciowych strumieni MPEG w jeden transportowy strumien wyjsciowy z jednoczesna korekcja oznaczen czasowych
US7929605B2 (en) 2003-07-24 2011-04-19 Nippon Telegraph And Telephone Corporation Image decoding device, image decoding method, image decoding program, recording medium recording image decoding program
JP3675464B2 (ja) * 2003-10-29 2005-07-27 ソニー株式会社 動画像符号化装置および動画像符号化制御方法
CN1898965B (zh) * 2003-12-25 2012-04-18 日本电气株式会社 运动图象编码方法和装置
US20050201471A1 (en) 2004-02-13 2005-09-15 Nokia Corporation Picture decoding method
KR100997270B1 (ko) * 2004-04-28 2010-11-29 파나소닉 주식회사 스트림 생성 장치, 스트림 생성 방법, 및 기록 매체
TWI252695B (en) * 2004-07-21 2006-04-01 Realtek Semiconductor Corp Block-based motion estimation method
US20060083298A1 (en) * 2004-10-14 2006-04-20 Nokia Corporation Reference picture management in video coding
JP4656912B2 (ja) * 2004-10-29 2011-03-23 三洋電機株式会社 画像符号化装置
WO2006075635A1 (ja) * 2005-01-17 2006-07-20 Matsushita Electric Industrial Co., Ltd. 画像復号化方法
WO2006106039A1 (en) 2005-04-06 2006-10-12 Thomson Licensing Method and apparatus for encoding enhancement layer video data
JP2007110348A (ja) * 2005-10-12 2007-04-26 Ntt Docomo Inc 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム、および動画像復号化プログラム
KR101366918B1 (ko) 2005-10-12 2014-02-24 톰슨 라이센싱 스케일러블 비디오 인코딩 및 디코딩에서의 가중 예측을위한 방법 및 장치
EP1806930A1 (en) * 2006-01-10 2007-07-11 Thomson Licensing Method and apparatus for constructing reference picture lists for scalable video
JP4763549B2 (ja) * 2006-08-18 2011-08-31 富士通セミコンダクター株式会社 フレーム間予測処理装置、画像符号化装置、及び画像復号化装置
US20080095228A1 (en) * 2006-10-20 2008-04-24 Nokia Corporation System and method for providing picture output indications in video coding
CA2665781C (en) * 2006-10-30 2014-02-18 Nippon Telegraph And Telephone Corporation Predicted reference information generating method, video encoding and decoding methods, apparatuses therefor, programs therefor, and storage media which store the programs
BRPI0720806B1 (pt) 2007-01-18 2023-03-28 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Corrente de dados de vídeo de qualidade escalonável
RU2472305C2 (ru) * 2007-02-23 2013-01-10 Ниппон Телеграф Энд Телефон Корпорейшн Способ кодирования видео и способ декодирования видео, устройства для этого, программы для этого и носители хранения, на которых хранятся программы
JP2009055519A (ja) * 2007-08-29 2009-03-12 Sony Corp 符号化処理装置、符号化処理方法、復号処理装置、及び、復号処理方法
US8782379B2 (en) * 2007-09-27 2014-07-15 Qualcomm Incorporated H.264 video decoder CABAC core optimization techniques
US8416858B2 (en) * 2008-02-29 2013-04-09 Cisco Technology, Inc. Signalling picture encoding schemes and associated picture properties
JP2010258738A (ja) * 2009-04-24 2010-11-11 Sony Corp 画像処理装置および方法、並びにプログラム
CN101969544A (zh) 2009-07-27 2011-02-09 谢正旭 预收视数据调查方法
JP5282692B2 (ja) * 2009-07-27 2013-09-04 ソニー株式会社 画像符号化装置と画像符号化方法
TW201121331A (en) * 2009-12-10 2011-06-16 Novatek Microelectronics Corp Picture decoder
US20120276348A1 (en) * 2010-01-07 2012-11-01 Clausi Robert N Resilient flooring compositions
JP2011199396A (ja) * 2010-03-17 2011-10-06 Ntt Docomo Inc 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法、及び動画像予測復号プログラム
JP5241771B2 (ja) 2010-06-08 2013-07-17 サントリーホールディングス株式会社 グルコース誘導性不活化/分解耐性トランスポーター遺伝子及びその用途
US8483055B2 (en) * 2010-07-02 2013-07-09 Librestream Technologies Inc. Adaptive frame rate control for video in a resource limited system
US9300970B2 (en) * 2010-07-09 2016-03-29 Samsung Electronics Co., Ltd. Methods and apparatuses for encoding and decoding motion vector
WO2012023281A1 (ja) * 2010-08-17 2012-02-23 パナソニック株式会社 動画像復号方法、動画像符号化方法、動画像復号装置、及び、動画像符号化装置
US8873627B2 (en) 2010-12-07 2014-10-28 Mediatek Inc Method and apparatus of video coding using picture structure with low-delay hierarchical B group
JP2012147127A (ja) * 2011-01-07 2012-08-02 Sony Corp 画像処理装置および方法
EP3902258A1 (en) * 2011-06-30 2021-10-27 Telefonaktiebolaget LM Ericsson (publ) Reference picture signaling
US20130094774A1 (en) * 2011-10-13 2013-04-18 Sharp Laboratories Of America, Inc. Tracking a reference picture based on a designated picture on an electronic device
US8805098B2 (en) * 2012-01-19 2014-08-12 Sharp Laboratories Of America, Inc. Inter reference picture set signaling and prediction on an electronic device
US8867852B2 (en) * 2012-01-19 2014-10-21 Sharp Kabushiki Kaisha Decoding a picture based on a reference picture set on an electronic device
US8693793B2 (en) * 2012-01-19 2014-04-08 Sharp Laboratories Of America, Inc. Reducing reference picture set signal overhead on an electronic device
US9210430B2 (en) * 2012-01-19 2015-12-08 Sharp Kabushiki Kaisha Reference picture set signaling and restriction on an electronic device
US9973749B2 (en) * 2012-01-20 2018-05-15 Nokia Technologies Oy Method for video coding and an apparatus, a computer-program product, a system, and a module for the same
CN108322744B (zh) * 2012-01-31 2022-08-30 Vid拓展公司 用于可缩放的高效视频译码(hevc)的参考图片集(rps)信令
US9369710B2 (en) * 2012-02-06 2016-06-14 Qualcomm Incorporated Reference picture list modification for video coding
US9554149B2 (en) 2012-02-29 2017-01-24 Lg Electronics, Inc. Inter-layer prediction method and apparatus using same
MX345247B (es) * 2012-04-16 2017-01-23 Samsung Electronics Co Ltd Metodo y aparato para determinar conjunto de representación de referencia de imagen.
US9516308B2 (en) * 2012-04-27 2016-12-06 Qualcomm Incorporated Parameter set updates in video coding
JP5950726B2 (ja) * 2012-06-28 2016-07-13 株式会社Nttドコモ 動画像予測符号化方法、動画像予測符号化装置、動画像予測符号化プログラム、動画像予測復号方法、動画像予測復号装置及び動画像予測復号プログラム
AU2013281946B2 (en) 2012-06-29 2017-03-02 Sony Group Corporation Decoding device, and decoding method
AU2013281243C1 (en) * 2012-06-29 2016-01-21 Telefonaktiebolaget Lm Ericsson (Publ) Encoding and decoding video sequences comprising reference picture sets
US20150139310A1 (en) 2012-06-29 2015-05-21 Sony Corporation Image processing apparatus and image processing method
US9602827B2 (en) * 2012-07-02 2017-03-21 Qualcomm Incorporated Video parameter set including an offset syntax element
EP2868092A4 (en) 2012-07-02 2016-05-04 Nokia Technologies Oy METHOD AND DEVICE FOR VIDEO CODING
US20140092988A1 (en) * 2012-09-28 2014-04-03 Sharp Laboratories Of America, Inc. Systems and methods for reference picture set extension
US9648326B2 (en) 2013-07-02 2017-05-09 Qualcomm Incorporated Optimizations on inter-layer prediction signalling for multi-layer video coding

Also Published As

Publication number Publication date
JP2019024273A (ja) 2019-02-14
JP2017195619A (ja) 2017-10-26
CN104380752B (zh) 2018-10-23
JP2017195620A (ja) 2017-10-26
EP2869559A1 (en) 2015-05-06
US11399197B2 (en) 2022-07-26
AU2018201321B2 (en) 2020-02-27
US20190149839A1 (en) 2019-05-16
CN109040762B (zh) 2022-04-15
JP6636122B2 (ja) 2020-01-29
US10595036B2 (en) 2020-03-17
JP2020039187A (ja) 2020-03-12
CA2875243C (en) 2022-11-22
US10958930B2 (en) 2021-03-23
CN109068141A (zh) 2018-12-21
CN104396256A (zh) 2015-03-04
MX352958B (es) 2017-12-15
TWI694715B (zh) 2020-05-21
TWI574554B (zh) 2017-03-11
BR112014032227A2 (pt) 2017-06-27
TW202032990A (zh) 2020-09-01
US20210160534A1 (en) 2021-05-27
MX342499B (es) 2016-10-03
CA2875243A1 (en) 2014-01-03
TW201414313A (zh) 2014-04-01
CA2875213A1 (en) 2014-01-03
US10623765B2 (en) 2020-04-14
TW201907726A (zh) 2019-02-16
JP6823151B2 (ja) 2021-01-27
BR112014032228B1 (pt) 2023-01-17
RU2752695C2 (ru) 2021-07-30
RU2014152104A (ru) 2016-07-20
US20150092846A1 (en) 2015-04-02
KR102165220B1 (ko) 2020-10-14
EP2869560A1 (en) 2015-05-06
EP2869560A4 (en) 2016-09-07
RU2018101252A (ru) 2019-02-21
RU2018101252A3 (pt) 2021-06-17
AU2013281946A1 (en) 2014-12-04
ZA201409038B (en) 2015-08-26
JP6182718B2 (ja) 2017-08-23
CA2875213C (en) 2020-12-15
KR20150032258A (ko) 2015-03-25
BR112014032228A2 (pt) 2017-06-27
JPWO2014002898A1 (ja) 2016-05-30
WO2014002899A1 (ja) 2014-01-03
SG10201909372YA (en) 2019-11-28
SG11201408571RA (en) 2015-01-29
AU2013281947B2 (en) 2017-12-14
TW201717642A (zh) 2017-05-16
MY170355A (en) 2019-07-23
MX2014015993A (es) 2015-03-20
MX2014016002A (es) 2015-04-13
JP6182719B2 (ja) 2017-08-23
TWI644564B (zh) 2018-12-11
AU2018201321A1 (en) 2018-03-15
JP6442566B2 (ja) 2018-12-19
SG11201408589RA (en) 2015-01-29
EP2869559A4 (en) 2016-09-07
KR102179087B1 (ko) 2020-11-18
CN109040762A (zh) 2018-12-18
KR20150032257A (ko) 2015-03-25
WO2014002898A1 (ja) 2014-01-03
US20140003510A1 (en) 2014-01-02
TW201601520A (zh) 2016-01-01
RU2643490C2 (ru) 2018-02-01
SG10201610882XA (en) 2017-02-27
CN104396256B (zh) 2018-11-06
TWI513199B (zh) 2015-12-11
MX342497B (es) 2016-10-03
AU2013281947A1 (en) 2014-12-04
TWI749530B (zh) 2021-12-11
CN104380752A (zh) 2015-02-25
JP6442565B2 (ja) 2018-12-19
AU2013281946B2 (en) 2017-03-02
AR091570A1 (es) 2015-02-11
JPWO2014002899A1 (ja) 2016-05-30
MY171975A (en) 2019-11-09
US20150139324A1 (en) 2015-05-21
RU2642364C2 (ru) 2018-01-24
US8811480B2 (en) 2014-08-19
RU2014152105A (ru) 2016-07-20
MY190544A (en) 2022-04-27

Similar Documents

Publication Publication Date Title
JP6823151B2 (ja) 符号化装置および符号化方法
US11095879B2 (en) Image encoding device and method, and image decoding device and method
US10148959B2 (en) Image coding device and method, and image decoding device and method
RU2649758C2 (ru) Устройство и способ обработки изображения
WO2015098559A1 (ja) 復号装置および復号方法、並びに、符号化装置および符号化方法
JP6150134B2 (ja) 画像符号化装置および方法、画像復号装置および方法、プログラム、並びに記録媒体
JP2017158206A (ja) 画像処理装置および方法、並びにプログラム
BR112016028745B1 (pt) Dispositivos e métodos de codificação e decodificação de imagem

Legal Events

Date Code Title Description
B25A Requested transfer of rights approved

Owner name: VELOS MEDIA INTERNATIONAL LIMITED (IE)

B15K Others concerning applications: alteration of classification

Ipc: H04N 7/00 (2011.01)

B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B15K Others concerning applications: alteration of classification

Free format text: A CLASSIFICACAO ANTERIOR ERA: H04N 7/00

Ipc: H04N 19/177 (2014.01), H04N 19/50 (2014.01), H04N

B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 21/06/2013, OBSERVADAS AS CONDICOES LEGAIS

B25A Requested transfer of rights approved

Owner name: SONY GROUP CORPORATION (JP)