BR112020008999A2 - processamento de uma imagem - Google Patents

processamento de uma imagem Download PDF

Info

Publication number
BR112020008999A2
BR112020008999A2 BR112020008999-0A BR112020008999A BR112020008999A2 BR 112020008999 A2 BR112020008999 A2 BR 112020008999A2 BR 112020008999 A BR112020008999 A BR 112020008999A BR 112020008999 A2 BR112020008999 A2 BR 112020008999A2
Authority
BR
Brazil
Prior art keywords
bits
metadata
components
image data
image
Prior art date
Application number
BR112020008999-0A
Other languages
English (en)
Inventor
Pierre Andrivon
Marie-Jean Colaitis
David Touze
Original Assignee
Interdigital Vc Holdings, Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Interdigital Vc Holdings, Inc. filed Critical Interdigital Vc Holdings, Inc.
Publication of BR112020008999A2 publication Critical patent/BR112020008999A2/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/98Adaptive-dynamic-range coding [ADRC]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

De acordo com pelo menos uma modalidade, é fornecido um dispositivo configurado para comparar um primeiro conjunto bits de metadados formatados, sendo que os metadados formatados associados aos primeiros dados de imagem são ambos recebidos a partir de uma interface não compactada, com pelo menos um segundo conjunto de bits que identifica uma formatação particular dos ditos metadados formatados; e para reconstruir os segundos dados de imagem a partir dos ditos primeiros dados de imagem e parâmetros obtidos analisando-se os ditos metadados formatados de acordo com uma formatação particular identificada a partir do resultado da dita comparação

Description

“PROCESSAMENTO DE UMA IMAGEM”
1. CAMPO
[001] Pelo menos uma modalidade se refere, de modo geral, a um processamento de um vídeo ou imagem.
2. ANTECEDENTES
[002] A presente seção se destina a introduzir o leitor a vários aspectos da técnica, que podem estar relacionados a vários aspectos de pelo menos uma modalidade que é descrita e/ou reivindicada abaixo. Acredita-se que essa discussão seja útil para dotar o leitor de informações básicas para facilitar um melhor entendimento dos vários aspectos de pelo menos uma modalidade.
[003] O advento do padrão de Codificação de Vídeo de Alta Eficiência (HEVC) (setor de padronização de Telecomunicação ITU-T H.265 de ITU (02/2018), série H: sistemas audiovisuais e multimídia, infraestrutura de serviços audiovisuais - codificação de vídeo em movimento, codificação de vídeo de alta eficiência, Recomendação ITU-T H.265) permite a implantação de novos serviços de vídeo com experiência de visualização avançada, tais como serviços Ultra HD. Além de uma resolução espacial aumentada, o formato Ultra HD pode oferecer uma gama de cores mais ampla (WCG) e uma faixa dinâmica mais alta (HDR), respectivamente, do que a Gama de Cores Padrão (SCG) e Faixa Dinâmica Padrão (SDR) de formato de Alta Definição atualmente implantado. Diferentes soluções para a representação e codificação de vídeo HDR/WCG foram propostas, tal como a função de transferência perceptual Quantizador Perceptual (PC)) (SMPTE ST 2084, “High Dynamic Range Electro-Optical Transfer Function of Mastering Reference Displays, ou Diaz, R., Blinstein, S. e Qu, S. “Integratíng HEVC Video Compression with a High Dynamic Range Video Pipeline”, SMPTE Motion Imaging Journal, Volume 125. Edição 1.
fevereiro de 2016, páginas 14 a 21). Tipicamente, SMPTE ST 2084 permite a representação de sinal de vídeo HDR de até 10.000 cd/m2 de luminância de pico com apenas 10 ou 12 bits.
[004] A compatibilidade com versões anteriores de SDR com um aparelho de decodificação e renderização é um recurso importante em alguns sistemas de distribuição de vídeo, tais como sistemas de difusão (broadcasting) ou difusão seletiva (multicasting). Uma solução baseada em um processo de codificação/decodificação de camada única pode ser compatível com versões anteriores, por exemplo, compatível com SDR, e pode alavancar redes e serviços de distribuição herdados já existentes.
[005] Tal solução de distribuição baseada em camada única permite tanto renderização HDR de alta qualidade em dispositivos Eletrônicos de Consumo (CE) habilitados para HDR, como também oferece renderização SDR de alta qualidade em dispositivos CE habilitados para SDR. Tal solução se baseia em um sinal codificado, por exemplo sinal SDR, e metadados associados (tipicamente apenas com o uso de alguns bytes por quadro ou cena de vídeo) que podem ser usados para reconstruir outro sinal; por exemplo, sinal SDR ou HDR, a partir de um sinal decodificado.
[006] Um exemplo de uma solução de distribuição baseada em camada única pode ser encontrado na especificação técnica ETSI TS 103 433-1 V1.2.1 (agosto de 2017). Tal solução de distribuição baseada em camada única é indicada como SL- HDR1 a seguir.
[007] Adicionalmente, sistemas de distribuição HDR (fluxos de trabalho, mas também aparelho de decodificação e renderização) já podem ser implantados. De fato, existem vários provedores de serviços de vídeo globais que incluem conteúdo HDR. Entretanto, o material HDR distribuído pode ser representado em um formato ou com características que não correspondem ás características de dispositivo final de consumo. Geralmente, o dispositivo final de consumo adapta o material decodificado às suas próprias características. Entretanto, a versatilidade das tecnologias empregadas na TV HDR gera diferenças importantes em termos de representação, devido ao fato de que as diferenças entre as características de dispositivo final de consumo em comparação com a exibição de masterização usada no ambiente de produção para classificar o conteúdo original. Para um produtor de conteúdo, uma fidelidade de intenção artística e sua representação para o consumidor são de extrema importância. Desse modo, metadados de “adaptação de exibição” podem ser gerados no estágio de produção durante o processo de classificação, ou sob o controle de um operador de verificação de qualidade antes da emissão. Os metadados permitem a transmissão da intenção artística para o consumidor quando o sinal decodificado deve ser adaptado às características de dispositivo final.
[008] Um exemplo de uma solução de distribuição baseada em camada única que implementa uma adaptação de exibição pode ser encontrado na especificação técnica TS 103 433-2 V1.1.1 (janeiro de 2018). Tal solução de distribuição baseada em camada única é indicada como SL-HDR2 a seguir.
[009] Tal solução de distribuição baseada em camada única, SL-HDR1 SL- HDR2, gera metadados como parâmetros usados para a reconstrução ou adaptação do sinal. Os metadados podem ser estáticos ou dinâmicos.
[010] Metadados estáticos significam os parâmetros representativos do conteúdo de vídeo ou seu formato que permanece igual, por exemplo, para um vídeo (conjunto de imagens) e/ou um programa.
[011] Metadados estáticos são válidos para todo o conteúdo de vídeo (cena, filme, clipe...) e podem depender do conteúdo de imagem por si só ou do formato de representação do conteúdo de imagem. Os metadados estáticos podem definir, por exemplo, formato de imagem, espaço de cor ou gama de cores. Por exemplo, SMPTE ST 2086:2014, “Mastering Display Color Volume Metadata 5 Supporting High Luminance and Wide Color Gamut Images” define metadados estáticos que descrevem a exibição de masterização usada para classificar o material em um ambiente de produção. A mensagem SEI (Informações Avançadas Suplementares) de Volume de Cor de Exibição de Masterização (MDCV) corresponde a ST 2086 tanto para H.264/AVC (“Advanced vídeo coding for generic audiovisual Services”, SERIES H: AUDIOVISUAL AND MULTIMEDIA 10 SYSTEMS, Recommendation ITU-T H.264,
Telecommunication Standardization Sector of ITU, abril de 2017) como codecs de vídeo HEVC.
[012] Metadados dinâmicos são informações dependentes de conteúdo, de modo que os metadados possam alterar com o conteúdo de imagem/vídeo, por exemplo, para cada imagem ou para cada grupo de imagens. Como um exemplo, SMPTE ST 2094:2016, “Dynamic Metadata for Color Volume Transform” define metadados dinâmicos tipicamente gerados em um ambiente de produção. SMPTE ST 2094-30 pode ser distribuído em fluxos de vídeo coded HEVC e AVC com o uso, por exemplo, da mensagem de Informações SEI de Remapeamento de Cor (CRI).
3. SUMÁRIO
[013] A seguir, apresenta-se um sumário simplificado de pelo menos uma modalidade, a fim de fornecer um entendimento básico de alguns aspectos de pelo menos uma modalidade. Este sumário não é uma visão geral extensiva de uma modalidade. E não se destina a identificar elementos principais ou críticos de uma modalidade. O seguinte sumário apresenta meramente alguns aspectos de pelo menos uma modalidade de uma forma simplificada como um prelúdio para a descrição mais detalhada fornecida em outras partes deste pedido.
[014] De acordo com um aspecto geral de pelo menos uma modalidade, é fornecido um método e dispositivo que compara um primeiro conjunto de bits de metadados formatados com pelo menos um dado segundo conjunto de bits que identifica uma formatação particular dos ditos metadados formatados. Os metadados formatados associados aos primeiros dados de imagem são ambos recebidos a partir de uma interface não compactada. O método e o dispositivo reconstroem adicionalmente os segundos dados de imagem a partir dos ditos primeiros dados de imagem e parâmetros obtidos analisando-se os ditos metadados formatados de acordo com uma formatação particular identificada a partir do resultado da dita comparação.
[015] Uma ou mais das presentes modalidades também fornecem um programa de computador que compreende instruções, que quando executadas por um ou mais processadores, fazem com que o um ou mais processadores realizem o método acima, Uma ou mais das presentes modalidades também fornecem um meio de armazenamento legível por computador que compreende instruções, que quando executadas por um computador, fazem com que o computador realize o método acima. Uma ou mais das presentes modalidades também fornecem um meio legível por computador que contém conteúdo de dados gerado de acordo com o método acima.
[016] A natureza específica de pelo menos uma modalidade, assim como outros objetivos, vantagens, recursos e usos de pelo menos uma modalidade irão se tornar evidentes a partir da seguinte descrição dos exemplos tomados em conjunto com os desenhos anexos.
4. BREVE DESCRIÇÃO DOS DESENHOS
[017] Nos desenhos, exemplos de pelo menos uma modalidade são ilustrados. Isso mostra.
[018] A Figura 1 mostra uma representação de alto nível de um fluxo de trabalho de extremidade a extremidade que suporta entrega de conteúdo para exibir imagem/vídeo de acordo com pelo menos uma modalidade;
[019] A Figura mostra um exemplo do fluxo de trabalho de extremidade a extremidade da Figura 1 que suporta entrega para telas CE HDR e SDR de acordo com uma solução de distribuição baseada em camada única;
[020] A Figura 3 mostra uma implementação particular do fluxo de trabalho da Figura 2;
[021] A Figura 4a mostra uma ilustração de um exemplo da função de transferência perceptual;
[022] A Figura 4b mostra um exemplo de uma curva particionada usada para mapeamento;
[023] A Figura 4c mostra um exemplo de uma curva usada para converter um sinal uniforme perceptual em um domínio de luz linear;
[024] A Figura 5 ilustra um diagrama de blocos de um exemplo de um sistema em que vários aspectos e modalidades são implementados;
[025] A Figura 6 mostra um diagrama das etapas de um método, de acordo com pelo menos uma modalidade;
[026] A Figura 7 ilustra um exemplo de uma estrutura de InfoFrame Estendido de Metadados dinâmicos HDR; e
[027] Elementos similares ou iguais são referenciados com os mesmos números de referência.
5. DESCRIÇÃO DE PELO MENOS UMA MODALIDADE
[028] Pelo menos uma modalidade é mais completamente descrita doravante com referência às Figuras anexas, em que os exemplos de pelo menos uma modalidade são mostrados. Uma modalidade pode ser, entretanto, incorporada em muitas formas alternativas e não deve ser interpretada como limitada aos exemplos apresentados no presente documento. Consequentemente, deve-se compreender que não há intenção de limitar as modalidades às formas particulares reveladas. Pelo contrário, a revelação se destina a cobrir todas as modificações, equivalentes e alternativas que são abrangidos pelo escopo deste pedido conforme definido pelas reivindicações.
[029] A terminologia usada no presente documento serve para o propósito de descrever apenas exemplos particulares e não se destina a ser limitante. Conforme usado no presente documento, as formas no singular “um”, “uma”, “o” “a” se destinam a incluir também as formas no plural, a menos que o contexto indique claramente o contrário. Será adicionalmente entendido que os termos “inclui” e/ou “que inclui” quando usados neste relatório descritivo, especificam a presença, por exemplo, de recursos, números inteiros, etapas, operações, elementos e/ou componentes declarados, porém não impede a presença ou adição de um ou mais outros recursos, números inteiros, etapas, operações, elementos, componentes e/ou grupos dos mesmos. Além disso, quando um elemento é denominado como sendo “responsivo” ou “conectado” a outro elemento, o mesmo pode ser diretamente responsivo ou conectado ao outro elemento, ou elementos intervenientes podem estar presentes.
Em contraste, quando um elemento é denominado como sendo “diretamente responsivo” ou “diretamente conectado” a outro elemento, não há elementos intervenientes presentes. Conforme usado no presente documento, o termo “e/ou” inclui qualquer uma e todas as combinações de um ou mais itens listados associados e pode ser abreviado como ”/”. Será entendido que, embora os termos primeiro e segundo, etc. possam ser usados no presente documento para descrever vários elementos, esses elementos não são limitados por esses termos. O termos são usados apenas para distinguir um elemento de outro. Por exemplo, um primeiro elemento poderia ser chamado de um segundo elemento, e, de modo similar, um segundo elemento poderia ser chamado de um primeiro elemento sem se afastar dos ensinamentos deste pedido. Embora alguns dos diagramas incluam setas nos caminhos de comunicação para mostrar uma direção de comunicação primária, deve- se entender que a comunicação pode ocorrer na direção oposta às setas mostradas.
Alguns exemplos são descritos em relação a diagrama de blocos e fluxogramas operacionais, em que cada bloco representa um elemento de circuito, módulo ou porção de código que inclui uma ou mais instruções executáveis para implementar a função (ou funções) lógica especificada. Deve-se notar também que, em outras implementações, a função (ou funções) indicada nos blocos pode ocorrer fora da ordem indicada. Por exemplo, dois blocos mostrados em sucessão podem, de fato, ser executados de maneira substancialmente simultânea ou os blocos, algumas vezes, podem ser executados na ordem inversa, dependendo da funcionalidade envolvida. A referência, no presente documento, a “de acordo com um exemplo” ou “em um exemplo” significa que um recurso, estrutura ou característica particular descrito em conjunto com o exemplo pode ser incluído em pelo menos uma implementação. O aparecimento da expressão “de acordo com um exemplo” ou “em um exemplo” em várias partes do relatório descritivo não necessariamente se referem ao mesmo exemplo, nem são exemplos separados ou alternativos necessariamente exclusivos de maneira mútua de outros exemplos. Os números de referência que aparecem nas reivindicações são apenas a título de ilustração e não devem ter efeito limitante sobre o escopo das reivindicações. Embora não explicitamente descritos, os presentes exemplos e variantes podem ser empregados em qualquer combinação ou subcombinação.
[030] A seguir, dados de imagem se referem a dados, por exemplo, um ou várias matrizes de amostras (por exemplo, valores de pixel) em um formato de imagem/vídeo específico, que especifica informações que se referem aos valores de uma imagem (ou um vídeo) e/ou informações que podem ser usadas por um visor e/ou qualquer outro aparelho para visualizar e/ou decodificar uma imagem (ou vídeo), por exemplo. Uma imagem inclui tipicamente um primeiro componente, no formato de uma primeira matriz de amostras, geralmente representativo de luminância (ou luma) da imagem, e um segundo componente e um terceiro componente, no formato de outras matrizes de amostras, geralmente representativos da crominância (ou croma) da imagem. Algumas modalidades representam as mesmas informações com o uso de um conjunto de matrizes de amostras de cor, tal como a representação RGB tricromática tradicional.
[031] Um valor de pixel é representado em uma ou mais modalidades por um vector de valores C, em que C é o número de componentes. Cada valor de um vetor é tipicamente representado por um número de bits que pode definir uma faixa dinâmica dos valores de pixel.
[032] As imagens de Faixa Dinâmica Padrão (imagens SDR) são imagens cujos valores de luminância são tipicamente representados com um menor número de bits (tipicamente 8) do que em imagens de Faixa Dinâmica Alta (imagens HDR). A diferença entre as faixas dinâmicas de imagens SDR e HDR é, portanto, relativa, e as imagens SDR podem ter, por exemplo, mais de 8 bits. Devido ao menor número de bits, as imagens SDR, muitas vezes, não permitem a renderização correta de pequenas variações de sinal ou não cobrem alta faixa de valores de luminância, em particular, em faixas de luminância escuras e claras. Em imagens HDR, a representação de sinal é tipicamente estendida para manter uma precisão mais alta do sinal ao longo de toda ou parte de sua faixa. Por exemplo, pelo menos uma modalidade representa uma imagem HDR com o uso de 10 bits para luminância, e fornece 4 vezes mais valores que uma representação de 8 bits. Os valores adicionais permitem que uma maior faixa de luminância seja representada, e também podem permitir que diferenças mais finas na luminância sejam representadas. Em imagens HDR, os valores de pixel são geralmente representados em formato de ponto flutuante (tipicamente, pelo menos 10 bits por componente, ou seja, precisão simples ou meia- precisão), sendo que o formato mais popular é o formato de meia-precisão openEXR (por exemplo, 48 bits por pixel) ou em números inteiros com uma representação longa, tipicamente, pelo menos 16 bits quando o sinal é codificado por luz linear (10 bits pelo menos quando é codificado de maneira não uniforme com o uso da recomendação ST 2084, por exemplo).
[033] Tipicamente, duas imagens diferentes têm uma faixa dinâmica diferente da luminância. A faixa dinâmica da luminância de uma imagem é a razão entre o máximo e o mínimo dos valores de luminância da imagem.
[034] Tipicamente, quando a faixa dinâmica da luminância de uma imagem está abaixo de 1.000 (por exemplo 500: por exemplo, 100 cd/m2 acima de 0,2 cd/m2), a imagem é indicada como uma imagem de Faixa Dinâmica Padrão (SDR) e quando a faixa dinâmica da luminância de uma imagem é maior ou igual 1.000 (por exemplo,
10.000: por exemplo, 1.000 cd/m2 acima 0,1 Cd/m2) a imagem é indicada como uma imagem HDR. A luminância é expressa pela unidade candeia por metro quadrado (cd/m2). Essa unidade substitui o termo “nit” que também pode ser usado.
[035] Pelo menos uma modalidade é descrita para pré-processar, codificar, decodificar e pós-processar uma imagem, porém, se estende a pré-processar,
codificar, decodificar e pós-processar uma sequência de imagens (vídeos), devido ao fato de que cada imagem da sequência é sequencialmente pré-processada, codificada, decodificada e pós-processada, conforme descrito abaixo.
[036] A seguir, um componente 𝐶 designa um componente m de uma imagem n. Esses componentes 𝐶 com m=1,2,3, representam uma imagem In em um formato de imagem específico. Tipicamente, um formato de imagem é caracterizado por um volume de cor (por exemplo cromaticidade e faixa dinâmica), e um sistema de codificação de cor (por exemplo RGB, YCbCr).
[037] A Figura 1 mostra uma representação de alto nível de um fluxo de trabalho de extremidade a extremidade que suporta entrega de conteúdo para exibir imagem/vídeo de acordo com pelo menos uma modalidade.
[038] A Figura 1 inclui os aparelhos A1 , A2 e A3.
[039] Os aparelhos remotos A1 e A2 estão se comunicando através de uma rede de distribuição NET que é configurada pelo menos para fornecer um fluxo de bits do aparelho A1 para o aparelho A2.
[040] De acordo com um exemplo, a rede de distribuição NET é uma rede de difusão, adaptada para difundir imagens fixas ou imagens de vídeo do aparelho A1 para uma pluralidade de aparelhos A2. As redes baseadas em DVB e baseadas em ATSC são exemplos de tais redes de difusão.
[041] De acordo com outro exemplo, a rede de distribuição NET é uma rede de banda larga adaptada para entregar imagens fixas ou imagens de vídeo do aparelho A1 para uma pluralidade de aparelhos A2. As redes baseadas em Internet, redes GSM, redes TV sobre IP são exemplos de tais redes de banda larga.
[042] Em uma modalidade alternativa, a rede de distribuição NET é substituída por um meio embalado físico, no qual a imagem codificada ou fluxo de vídeo é armazenado.
[043] Os meios embalados físicos incluem, por exemplo, meios embalados ópticos, tais como disco Blu-ray e disco Blu-ray Ultra-HD, e meios embalados baseados em memória, tais como usados nos serviços OTT e VoD.
[044] O aparelho A1 inclui pelo menos um dispositivo configurado para pré- processar uma imagem/vídeo de entrada e para codificar, no fluxo de bits transmitido, uma imagem/vídeo e metadados formatados associados que resultam do dito pré- processamento.
[045] O aparelho A2 inclui pelo menos um dispositivo configurado para decodificar uma imagem/vídeo a partir de um fluxo de bits recebidos e para transmitir para o aparelho A3 a dita imagem/vídeo decodificado e os metadados formatados associados através de uma interface digital não compactada, tal como HDMI ou Displayport, por exemplo.
[046] O aparelho A3 inclui pelo menos um dispositivo configurado para receber a imagem/vídeo decodificado e metadados formatados associados obtidos a partir do fluxo de bits. O pelo menos um dispositivo incluído no aparelho A3 também é configurado para obter parâmetros analisando-se os ditos metadados formatados associados, para reconstruir outra imagem/vídeo por pós-processamento da imagem/vídeo decodificado (recebido do aparelho A2) com o uso dos ditos parâmetros.
[047] O pelo menos um dispositivo dos aparelhos A1 , A2 e A3 pertence a um conjunto de dispositivos que inclui, por exemplo, um dispositivo móvel, um dispositivo de comunicação, um dispositivo de jogos, um tablet (ou computador do tipo tablet), um dispositivo de computador, tal como um computador do tipo laptop, uma câmera fotográfica, uma câmera de vídeo, um chip de codificação, um servidor de imagem fixa, e um servidor de vídeo (por exemplo, um servidor de difusão, um servidor de vídeo sob demanda ou um servidor da web), um dispositivo de computador, um decodificador de sinais, um aparelho de TV (ou televisão), um computador do tipo tablet (ou computador do tipo tablet), um visor, um visor montado na cabeça e um chip de renderização/exibição.
[048] O formato dos metadados é diferente de acordo com o formato do fluxo de bits transmitido que depende da decodificação de dados. Tipicamente, os metadados obtidos a partir do fluxo de bits transmitido são extraídos e transportados em uma interface não compactada, tal como especificado em CTA-861-G (por exemplo, como um infoFrame estendido). Tipicamente, quando a imagem/figuração codificada são transmitidas dentro de um fluxo de bits HEVC, os metadados são incorporados em uma mensagem SEI HEVC. Por exemplo, tal mensagem SEI é definida no Anexo A da ETSI TS 103 433-1. Quando transportados dentro de um fluxo de bits, os metadados são incorporados em uma mensagem SEI AVC, conforme definido no Anexo B da ETSI TS 103 433-1.
[049] O escopo da pelo menos uma modalidade não se limita à mensagem SEI formatada HEVC ou AVC, porém se estende a qualquer mensagem que cobre a mesma intenção que uma mensagem SEI, tais como “dados de extensão” definidos em AVS2 (segunda geração de Padrão de Áudio Vídeo, GY/T 299.1-2016 ou IEEE P1857.4 parte 1), por exemplo.
[050] Tipicamente, não há sinalização nos dados transmitidos na interface digital não compactada que indica se os metadados formatados associados à imagem/vídeo decodificado estão em conformidade com um formato de uma mensagem SEI específica, ou seja, que está em conformidade com o formato AVC/H.264 ou HEVC/H.265, por exemplo.
[051] Consequentemente, quando os metadados, transportados com uma formatação específica, são portados através da interface não compactada com um fluxo de imagem/vídeo associado e decodificado, o aparelho A3 não pode identificar a formatação desses metadados. Por exemplo, o aparelho A3 não pode determinar se o formato dos metadados é portado em uma mensagem SEI AVC ou mensagem SEI HEVC. Isso pode criar problemas de interoperabilidade à medida que o aparelho A3 pode assumir um formato particular a ser analisado enquanto os metadados não são formatados de acordo com o dito formato particular. Então, os metadados analisados podem ser totalmente corrompidos e não utilizáveis ou, se usados, podem gerar uma imagem/vídeo muito alterado reconstruído a partir da imagem/vídeo decodificado recebido daqueles metadados alterados.
[052] Uma abordagem direta pode ser fixar o formato de metadados a um formato exclusivamente predeterminado. Isso pode ser definido como uma recomendação ou um documento de orientação seguido pelas partes interessadas.
Porém, isso significa que se a formatação dos metadados não for fixa, então um mecanismo de tradução/conversão deve ocorrer no aparelho A2 para adaptar a formatação dos metadados a uma formatação esperada portada na interface não compactada. Isso exige processamento extra no aparelho A2 que é contra a intenção inicial de transmitir diretamente metadados formatados através da interface não compactada. Se a conversão de formatação não for operada, o transporte de metadados é interrompido.
[053] Outra abordagem pode ser sinalizar a formatação dos metadados, de modo que o aparelho A3 possa operar a análise em resposta às informações de sinalização. Isso pode ser implementado em uma revisão de especificação ou emenda de especificação CTA-861-G, por exemplo. Porém, essa abordagem exige possivelmente a atualização de cada especificação ou documento ou produto que especifica o transporte entre o aparelho A3 (também indicado como dispositivo Sink) e o aparelho A2 (também indicado como dispositivo de fonte).
[054] De acordo com pelo menos uma modalidade, é fornecido um dispositivo incluído no aparelho A3 que é configurado para comparar um primeiro conjunto de bits de uma carga útil de metadados formatados recebidos com pelo menos um dado segundo conjunto de bits que identifica uma formatação particular dos ditos metadados formatados recebidos, e para reconstruir uma imagem/vídeo a partir de dados de imagem associados aos ditos metadados formatados e parâmetros obtidos analisando-se os ditos metadados formatados recebidos de acordo com uma formatação particular identificada a partir do resultado da dita comparação.
[055] tal dispositivo então determina/identifica a formatação dos metadados portados na interface não compactada a ser analisada comparando-se os conjuntos de bits.
[056] Essa solução é uma implementação eficiente devido ao fato de que a mesma envolve algumas lógicas, algumas comparações e é incluída bem no início do processo de análise. Esse solução exige uma atualização de firmware menor (amigável ao CE) e é compatível com as especificações de interface existentes evitando, desse modo, qualquer atualização/emenda da dita especificação (ou especificações).
[057] A Figura 2 mostra um exemplo do fluxo de trabalho de extremidade a extremidade da Figura 1 que suporta entrega para telas CE HDR e SDR de acordo com uma solução de distribuição baseada em camada única; A parte de distribuição e análise do fluxo de trabalho de extremidade a extremidade da Figura 1 não é explicitamente mostrada na Figura 2.
[058] Tal solução de distribuição baseada em camada única pode abordar a compatibilidade direta com versões anteriores SDR. Ou seja, a solução alavanca as redes e serviços de distribuição SDR já existentes e permite a renderização HDR de alta qualidade em dispositivos CE habilitados para HDR, incluindo renderização SDR de alta qualidade em dispositivos CE SDR.
[059] SL-HDR1 é um exemplo de tal solução de distribuição baseada em camada única.
[060] Tal solução de distribuição baseada em camada única também pode se referir a uma solução usada nas redes de distribuição para as quais os metadados dinâmicos de adaptação de exibição são entregues. Isso permite, por exemplo, que o conteúdo seja adaptado ás características de exibição de um usuário. Por exemplo, metadados dinâmicos podem ser entregues juntamente com um sinal de vídeo HDR PQ. PQ significa “Quantização Perceptual”, conforme especificado em Rec. ITU-R BT.2100 “Recommendation ITU-R BT.2100-1, Image parameter values for high dynamic range television for use in production and intemational programme exchange”.
[061] O fluxo de trabalho mostrado na Figura 2 envolve uma solução de distribuição baseada em camada única com metadados SL-HDR associados. Tal método ilustra um exemplo do uso de um método para reconstruir três componentes 𝐶 representativos de três componentes 𝐶 de uma imagem de entrada. Tal reconstrução se baseia em três componentes decodificados 𝐶 representativos de uma imagem decodificada e nos metadados conforme especificado, por exemplo, em SL-HDR1 ou SL-HDR2.
[062] Um ID de dados de informações determina qual das soluções de distribuição baseada em camada única (por exemplo, SL-HDR1 ou SL-HDR2) é usada. Geralmente, na prática apenas uma solução de distribuição baseada em camada única é usada e o ID de dados de informações é um valor dado (predeterminado). Se mais de uma solução de distribuição baseada em camada única puder ser usada, então o ID de dados de informações indica qual dessas soluções de distribuição baseada em camada única é usada.
[063] Tipicamente, SL-HDR1 e SL-HDR2 podem ser usadas e o ID de dados de informações indica se SL-HDR1 ou SL-HDR2 precisa ser usada.
[064] Conforme mostrado, a solução de distribuição baseada em camada única mostrada na Figura 2 inclui uma etapa de pré-processamento 20, uma etapa de codificação 23, etapas de decodificação 25 e 26, e uma etapa de pós-processamento
28.
[065] A entrada e a saída da etapa de pré-processamento 20 são tripletos de componentes 𝐶 e 𝐶 respectivamente, e a entrada e a saída da etapa de pós- processamento 28 são tripletos de componentes 𝐶 e 𝐶 respectivamente.
[066] A solução de distribuição baseada em camada única mostrada na Figura 2 pode incluir etapas de adaptação de formato opcionais 21, 22, 27, 29 para adaptar o formato de três componentes 𝐶 à entrada de um processamento adicional a ser aplicado nesses componentes.
[067] Por exemplo, na etapa 21 (opcional), o formato dos três componentes 𝐶 pode ser adaptado a um formato que se adapta a um formato de entrada da etapa de pré-processamento 20 ou um formato de entrada de uma etapa de codificação 23. Na etapa 22 (opcional), o formato dos três componentes 𝐶 pode ser adaptado a um formato que se adapta ao formato de entrada da etapa de codificação 23.
[068] Na etapa 27 (opcional), o formato dos três componentes 𝐶 pode ser adaptado a um formato que se adapta à entrada da etapa de pós-processamento 28, e na etapa 29, o formato dos três componentes 𝐶 pode ser adaptado a um formato que pode ser definido a partir de pelo menos uma característica de um aparelho alvo 30 (por exemplo, um decodificador de sinais, uma TV conectada, dispositivo CE habilitado para HDR/SDR, um reprodutor de disco Blu-ray Ultra HD).
[069] As etapas de adaptação de formato (21, 22, 27, 29) podem incluir a conversão de espaço de cores e/ou mapeamento de gama de cores (e/ou mapeamento de gama de cores inverso). O mapeamento de gama de cores inverso pode ser usado, por exemplo, quando os três componentes decodificados 𝐶 e os três componentes 𝐶 de uma imagem de saída ou os três componentes 𝐶 de uma imagem de entrada são representados em espaços e/ou gamas de cores diferentes.
[070] Os processos de adaptação de formato gerais podem ser usados, tais como conversões R'G’B’ em Y’CbCr ou Y'CbCr em R’G’B’, BT.709 em BT.2020 ou BT.2020 em BT.709, componentes croma de amostragem descente ou amostragem ascendente, etc.
[071] Por exemplo, SL-HDR1 pode usar processos de adaptação de formato e mapeamento de gama de cores inverso, conforme especificado no Anexo D da especificação técnica ETSI TS 103 433-1 V1.2.1 (agosto de 2017).
[072] A etapa de adaptação de formato de entrada 21 também pode incluir a adaptação da profundidade de bit dos três componentes 𝐶 à profundidade de bit,
tal como 10 bits por exemplo, aplicando-se uma função de transferência nos três componentes 𝐶 tal como uma função de transferência PQ ou HLG ou sua inversa.
A recomendação Rec. ITU-R BT.2100 fornece exemplos de tais funções de transferência.
[073] Na etapa de pré-processamento 20, os três componentes 𝐶 são iguais aos três componentes 𝐶 quando o formato não foi adaptado na etapa 21 ou igual a versões adaptadas desses três componentes 𝐶 quando o formato desses componentes foi adaptado na etapa 21. Esses três componentes de entrada são decompostos em três componentes 𝐶 e um conjunto de parâmetros SP formado por parâmetros provenientes da etapa 21, 200, 201 e/ou 203. O formato dos três componentes 𝐶 pode ser opcionalmente adaptado durante a etapa 22 para obter os três componentes 𝐶 . Uma etapa de comutação 24 determina se os três componentes 𝐶 são iguais aos três componentes 𝐶 ou aos três componentes 𝐶 .
[074] Na etapa 23, os três componentes 𝐶 podem ser codificados com qualquer codec de vídeo e a saída é um sinal que inclui o fluxo de bits B. O sinal de saída é portado ao longo de uma rede de distribuição.
[075] De acordo com uma variante da etapa 23, o conjunto de parâmetros SP e/ou o ID de dados de informações são transportados como metadados estáticos e/ou dinâmicos associados no fluxo de bits B, ou fora de banda (ou seja, não no fluxo de bits B, mas como valores predeterminados conhecidos pelo receptor ou como uma parte de outro fluxo em outro canal de comunicação, por exemplo, com o uso de protocolos SIP ou H.323).
[076] De acordo com uma variante, o conjunto de parâmetros SP e/ou o ID de dados de informações são transportados como metadados estáticos e/ou dinâmicos associados em um canal específico.
[077] Pelo menos um sinal, destinado a ser decodificado pelo aparelho A2 da Figura 1, porta o fluxo de bits B que pode incluir os metadados anexos.
[078] Em uma variante, o fluxo de bits B é armazenado em um meio de armazenamento, tal como um disco Blu-ray (UltraHD) ou um disco rígido ou uma memória de um decodificador de sinais, por exemplo.
[079] Em uma variante, pelo menos alguns dos metadados associados anexos são armazenados em um meio de armazenamento, tal como um disco Blu-ray (UltraHD) ou um disco rígido ou uma memória de um decodificador de sinais, por exemplo.
[080] Em pelo menos uma implementação, na etapa 23, uma sequência de pelo menos um tripleto de componentes 𝐶 , cada um, representando uma imagem e, possivelmente metadados associados, são codificados com um codec vídeo, tal como um codec H.265/HEVC ou um codec H.264/AVC.
[081] Na etapa 25, o conjunto de parâmetros SP é obtido, pelo menos parcialmente, a partir do fluxo de bits B ou de outro canal específico. Pelo menos um dos parâmetros do conjunto de parâmetros SP também pode ser obtido a partir de um meio de armazenamento separado.
[082] Na etapa 26, os três componentes decodificados 𝐶 são obtidos a partir do fluxo de bits B.
[083] A etapa de pós-processamento 28 é uma inversa funcional, ou substancialmente uma inversa funcional da etapa de pré-processamento 20. Na etapa de pós-processamento 28, os três componentes 𝐶 são reconstruídos a partir dos três componentes decodificados 𝐶 e do conjunto de parâmetros obtido SP.
[084] Em mais detalhes, a etapa de pré-processamento 20 inclui as etapas 200 a 203.
[085] Na etapa 200, um componente 𝐶 , é obtido aplicando-se uma função de mapeamento no componente 𝐶 dos três componentes 𝐶 . O componente 𝐶 representa a luminância da imagem de entrada.
[086] Matematicamente falando, 𝐶 , 𝑀𝐹 𝐶 (1)
[087] com MF sendo uma função de mapeamento que pode reduzir ou aumentar a faixa dinâmica da luminância de uma imagem. Note que sua inversa, indicado como IMF, pode aumentar ou reduzir, respectivamente, a faixa dinâmica da luminância de uma imagem.
[088] Na etapa 202, um componente reconstruído é obtido aplicando-se uma função de mapeamento inversa no componente 𝐶 , : 𝐶 𝐼𝑀𝐹 𝐶 , (2)
[089] em que MF é a inversa funcional da função de mapeamento MF. Os valores do componente reconstruído 𝐶 pertencem, desse modo, à faixa dinâmica dos valores do componente 𝐶 .
[090] Na etapa 201, os componentes 𝐶 e𝐶 são derivados corrigindo-se os componentes 𝐶 e 𝐶 representando o croma da imagem de entrada de acordo com o componente 𝐶 , e o componente reconstruído 𝐶 .
[091] Essa etapa 201 permite o controle das corres obtidas a partir dos três componentes 𝐶 e permite a correspondência perceptual para as cores da imagem de entrada. A correção dos componentes 𝐶 e 𝐶 (geralmente indicados como componentes croma) pode ser mantida sob controle ajustando-se os parâmetros das etapas de correção croma e mapeamento inverso. A saturação e matiz de cor obtidas a partir dos três componentes 𝐶 estão, desse modo, sob controle. Tal controle não é possível, geralmente, quando uma função de mapeamento não paramétrica (etapa 200) é usada.
[092] Opcionalmente, na etapa 203, o componente 𝐶 , pode ser ajustado para controle adicional da saturação percebida, da seguinte forma: 𝐶 𝐶 , max 0, 𝑎. 𝐶 𝑏. 𝐶 (3)
[093] em que a e b são dois parâmetros.
[094] Essa etapa 203 permite o controle da luminância (representado pelo componente 𝐶 para permitir a correspondência de cores percebida entre as cores (saturação e matiz) obtidas a partir dos três componentes 𝐶 e as cores da imagem de entrada.
[095] O conjunto de parâmetros SP pode incluir dados de informações relacionados à função de mapeamento ou sua inversa (etapas 200, 202 e 282), dados de informações relacionados à correção croma (etapas 201 e 281), dados de informações relacionados à função de ajuste de saturação, em particular seus parâmetros a e b (etapa 203), e/ou informações relacionada à conversão opcional usada nos estágios de adaptação de formato 21, 22, 27, 29 (por exemplo, parâmetros de mapeamento de gama de cores e/ou mapeamento de gama de cores inverso).
[096] O conjunto de parâmetros SP também pode incluir o ID de dados de informações e as características de informações da imagem de saída, por exemplo, o formato dos três componentes 𝐶 representativos da imagem de saída (etapas 29 das Figuras 2 e 3, 284 da Figura 3).
[097] Em mais detalhes, a etapa de pós-processamento 28 inclui as etapas 280 a 282 que adotam como entrada pelo menos um parâmetro do conjunto de parâmetros SP.
[098] Na etapa opcional 280, o componente 𝐶 dos três componentes 𝐶 , saída da etapa 27, pode ser ajustado da seguinte forma: 𝐶 , 𝐶 max 0, 𝑎. 𝐶 𝑏. 𝐶 (4)
[099] em que a e b são dois parâmetros do conjunto de parâmetros SP.
[0100] Por exemplo, a etapa 280 é executada quando o ID de dados de informações indica que SL-HDR1 precisa ser considerada e não executada quando isso indica que SL-HDR2 precisa ser considerada.
[0101] Na etapa 282, o componente 𝐶 dos três componentes 𝐶 é obtido aplicando-se uma função de mapeamento no componente 𝐶 ; ou, opcionalmente, 𝐶 , : 𝐶 𝑀𝐹1 𝐶 , (5)
[0102] em que MF1 é uma função de mapeamento derivada de pelo menos um parâmetro do conjunto de parâmetros SP.
[0103] Na etapa 281, os componentes 𝐶 , 𝐶 dos três componentes 𝐶 são derivados pela correção inversa dos componentes 𝐶 , 𝐶 dos três componentes 𝐶 de acordo com o componente 𝐶 ; ou, opcionalmente, 𝐶 , .
[0104] De acordo com uma modalidade, os componentes 𝐶 e 𝐶 são multiplicados por uma função de correção croma β(.) conforme definido pelos parâmetros do conjunto de parâmetros SP e cujo valor depende do componente 𝐶 , ou, opcionalmente, 𝐶 , .
[0105] Matematicamente falando, os componentes 𝐶 , 𝐶 são fornecidos por:
𝐶 𝐶 β 𝐶 (6)
𝐶 𝐶
[0106] ou opcionalmente,
𝐶 𝐶 β 𝐶 , (6bis)
𝐶 𝐶
[0107] A Figura 3 representa uma versão amigável ao hardware de uma solução baseada em camada única da Figura 2. A versão inclui duas etapas adicionais 283 e 284 e permite uma redução na complexidade para implementações de hardware reduzindo-se o uso de largura de banda de barramentos.
[0108] Na etapa 283, três componentes indicados (R1, G1, B1) são obtidos a partir dos componentes 𝐶 , e 𝐶 , , saídas da etapa 281, levando-se em consideração parâmetros do conjunto de parâmetros SP: 𝑅 1 0 𝑚 𝑆 𝐺 1 𝑚 𝑚 𝐶, 𝐵 1 𝑚 0 𝐶,
[0109] em que m0, m1, m2, m3 são parâmetros do conjunto de parâmetros SP e S0 é derivado dos componentes 𝐶 , e𝐶 , e outros parâmetros do conjunto de parâmetros SP.
[0110] Na etapa 284, os três componentes 𝐶 são, então obtidos escalonando-se os três componentes (R1, G1, B1) de acordo com um componente 𝐶 , , saída da etapa 282.
𝐶 𝐶 , 𝑅 𝐶 𝐶 , 𝐺 (7) 𝐶 𝐶 , 𝐵
[0111] em que 𝐶 , 𝑀𝐹1 𝐶 , (etapa 282).
[0112] De acordo com uma primeira modalidade do fluxo de trabalho de extremidade a extremidade da Figura 2 ou Figura 3, o ID de dados de informações indica que a SL-HDR1 precisa ser considerada.
[0113] A função de mapeamento MF(.) na eq. (1) reduz a faixa dinâmica da luminância da imagem de entrada, sua inversa IMF(.) na eq. (2) aumenta a faixa dinâmica do componente 𝐶 , , e a função de mapeamento MF1(.) na eq.(5) aumenta a faixa dinâmica do componente 𝐶 , .
[0114] De acordo com uma primeira variante da primeira modalidade, o componente 𝐶 é um sinal não linear, indicado como luma na literatura, que é obtido (etapa 21) a partir dos componentes RGB compactados por gama da imagem de entrada por:
𝑅 𝐶 𝐴 𝐺 (8)
𝐵
[0115] em que  pode ser um fator gama, igual a 2,4 em algumas implementações.
[0116] De acordo com a primeira variante, os componentes 𝐶 , 𝐶 são obtidos (etapa 21), aplicando-se uma compactação gama aos componentes RGB da imagem de entrada:
𝐶 𝑅
𝐴 𝐺 (9)
𝐶 𝐴 𝐵
[0117] em que A = [A1 A2 A3]T é a matriz de conversão R’G’B’ em Y'CbCr 3x3 canônica (por exemplo, Recomendação ITU-R BT.2020-2 ou Recomendação ITU-R BT.709-6 dependendo do espaço de cores), A1, A2, A3 sendo matrizes 1x3, em que
𝐴 𝐴 𝐴 𝐴 𝐴 𝐴 𝐴 𝐴 𝐴 𝐴 𝐴 𝐴
[0118] em que Amn (m=1,..3, n=1, ..3) são coeficientes de matriz.
[0119] Na etapa 201, de acordo com a primeira variante, os componentes 𝐶 e 𝐶 são corrigidos a partir da razão entre o componente 𝐶 , , através do produto do componente reconstruído compactado por gama 𝐶 por Ω 𝐶 , : 𝐶 , 𝐶 . (10) 𝐶 , . 𝐶
[0120] em que Ω 𝐶 , é um valor que depende do componente 𝐶 , mas, também pode ser um valor constante que depende das cores primárias dos três componentes 𝐶 .Ω 𝐶 , pode ser igual a 1,2 para Rec. BT.2020 por exemplo.
Possivelmente, Ω 𝐶 , também pode depender dos parâmetros conforme especificado na ETSI TS 103 433-1 V.1.2.1 cláusula C.2.3. Ω 𝐶 , também pode ser um parâmetro do conjunto de parâmetros SP.
[0121] Ademais, de acordo com a primeira variante, os três componentes 𝐶 podem representar um sinal de vídeo de características de transferência gama Y’CbCr 4:2:0.
[0122] Por exemplo, os parâmetros de controle relativos à função de mapeamento MF e/ou sua IMF inversa e/ou a função de mapeamento MF1(.) podem ser determinados conforme especificado na Cláusula C.3.2 (especificação técnica ETSI TS 103 433-1 V1.2.1). A função de correção croma β(.) e seus parâmetros podem ser determinados conforme especificado na Cláusula C.2.3 e C.3.4 (especificação técnica ETSI TS 103 433-1 V1.2.1). Dados de informações relacionados aos parâmetros de controle, dados de informações relacionados às funções de mapeamento ou suas inversas, e os dados de informações relacionados à função de correção croma β(.) e seus parâmetros, são parâmetros do conjunto de parâmetros SP. Exemplos de valores numéricos dos parâmetros do conjunto de parâmetros SP podem ser encontrados, por exemplo, no Anexo F (Tabela F.1 da especificação técnica ETSI TS 103 433-1 V1.2.1).
[0123] Os parâmetros m0, m1, m2, m3 e S0 podem ser determinados conforme especificado na Cláusula 6.3.2.6 (matrixCoefficient[i] definindo m0, m1, m2, m3) e na Cláusula 6.3.2.8 (kCoefficient[i] são usados para construir S0) da especificação técnica ETSI TS 103 433-1 V1.2.1 e seu uso para a reconstrução pode ser determinado conforme especificado na Cláusula 7.2.4 (especificação técnica ETSI TS 103 433-1 V1.2.1).
[0124] De acordo com uma segunda variante da primeira modalidade, o componente 𝐶 . é um componente de luminância de luz linear L obtido a partir do componente RGB da imagem de entrada l1 por:
𝑅 𝐶 𝐿 𝐴 𝐺 (11)
𝐵
[0125] De acordo com a segunda variante, os componentes 𝐶 , 𝐶 são derivados (etapa 21) aplicando-se uma compactação gama aos componentes RGB da imagem de entrada l1:
𝐶 𝑅
𝐴 𝐺 (12)
𝐶 𝐴 𝐵
[0126] De acordo com a segunda variante, os componentes 𝐶 , 𝐶 são derivados (etapa 201) corrigindo-se os componentes 𝐶 , 𝐶 a partir da razão entre o primeiro componente 𝐶 , através do produto do componente reconstruído compactado por gama 𝐶 por Ω 𝐶 , . 𝐶 , 𝐶 (13) 𝐶 , . 𝐶
[0127] em que Ω 𝐶 , é um valor que depende do componente 𝐶 , e, é possivelmente, obtido a partir dos parâmetros, conforme especificado na ETSI TS 103 433-1 V.1.2.1, cláusula C.3.4.2 em que Ω 𝐶 , = na equação : ; .
(22).
[0128] Ω 𝐶 , também pode ser um parâmetro do conjunto de parâmetros
SP.
[0129] Ademais, de acordo com a segunda variante, os três componentes 𝐶 podem representar um sinal de vídeo de características de transferência gama Y'CbCr 4:2:0.
[0130] Por exemplo, os parâmetros de controle relacionados à função de mapeamento MF e/ou sua IMF inversa e/ou a função de mapeamento MF1(.) podem ser determinados conforme especificado na Cláusula C.3.2 (especificação técnica ETSI TS 103 433-1 V1.2.1). A função de correção croma β(.) e seus parâmetros podem ser determinados, conforme especificado na Cláusula 7.2.3.2 (especificação técnica ETSI TS 103 433-2 V1.1.1) eq. (25) em que 𝑓 𝑌 1. Dados de informações relacionados aos parâmetros de controle, dados de informações relacionados às funções de mapeamento ou suas inversas, e dados de informações relacionados à função de correção croma β(.) e seus parâmetros, são parâmetros do conjunto de parâmetros SP.
[0131] Os parâmetros m0, m1, m2, m3 e S0 podem ser determinados, conforme especificado na Cláusula 6.3.2.6 (matrixCoefficient[i] definindo m0, m1, m2, m3) e Cláusula 6.3.2.8 (kCoefficient[i] são usados para construir S0) da especificação técnica ETSI TS 103 433-1 V1.2.1. O uso dos parâmetros para reconstrução pode ser determinado, conforme especificado na Cláusula 7.2.4 (especificação técnica ETSI TS 103 433-1 V1.2.1).
[0132] De acordo com uma segunda modalidade do fluxo de trabalho de extremidade a extremidade da Figura 2 ou Figura 3, o ID de dados de informações indica que a SL-HDR2 precisa ser considerada.
[0133] Na segunda modalidade, os três componentes 𝐶 podem ser representados como um sinal de vídeo de faixa total Y’CbCr 4:4:4 PQ10 (PQ 10 bits) (especificado na Rec. ITU-R BT.2100). Os três componentes 𝐶 que representam dados de imagem PQ 10 bits e parâmetros associados computados a partir dos três componentes 𝐶 (tipicamente 10, 12 ou 16 bits), são fornecidos. Os componentes fornecidos são codificados (etapa 23) com o uso, por exemplo, de um esquema de codificação de perfil HEVC Main 10. Esses parâmetros são definidos como o conjunto de parâmetros SP.
[0134] A função de mapeamento MF1(.) na eq(5) pode aumentar ou reduzir a faixa dinâmica do componente 𝐶 , , de acordo com as variantes.
[0135] Por exemplo, a função de mapeamento MF1(.) aumenta a faixa dinâmica quando a luminância de pico das telas CE HDR CE conectadas está acima da luminância de pico do conteúdo. A função de mapeamento MF1(.) diminui a faixa dinâmica quando a luminância de pico das telas CE HDR ou SDR conectadas está abaixo da luminância de pico do conteúdo. Por exemplo, as luminâncias de pico podem ser parâmetros do conjunto de parâmetros SP.
[0136] Por exemplo, os parâmetros de controle relacionados à função de mapeamento MF1 podem ser determinados, conforme especificado na Cláusula C.3.2 (especificação técnica ETSI TS 103 433-1 V1.2.1). A função de correção croma β(.) e seus parâmetros podem ser determinados, conforme especificado na Cláusula 7.2.3.2 (especificação técnica ETSI TS 103 433-2 V1.1.1) eq. (25) em que 𝑓 𝑌 1..
Dados de informações relacionados aos parâmetros de controle, dados de informações relacionados à função de mapeamento, e dados de informações relacionados à função de correção croma β(.) e seus parâmetros, são parâmetros do conjunto de parâmetros SP. Exemplos de valores numéricos dos parâmetros do conjunto de parâmetros SP podem ser encontrados, por exemplo, no Anexo F (Tabela F.1) (especificação técnica ETSI TS 103 433-2 V1.1.1).
[0137] Os parâmetros m0, m1, m2, m3 (definidos por matrixCoefficient[i] na especificação técnica ETSI TS 103 433-2 V1.1.1) e S0 (construído com kCoefficient[i] na especificação técnica ETSI TS 103 433-2 V1.1.1) podem ser determinados, conforme especificado na Cláusula 7.2.4 (especificação técnica ETSI TS 103 433-2 V1.1.1).
[0138] De acordo com uma primeira variante da segunda modalidade, os três componentes 𝐶 representativos da imagem de saída são os três componentes 𝐶 .
[0139] De acordo com uma segunda variante da segunda modalidade, na etapa de pós-processamento 28, os três componentes 𝐶 são reconstruídos a partir dos três componentes 𝐶 e parâmetros do conjunto de parâmetros SP após a decodificação (etapa 25).
[0140] Os três componentes 𝐶 estão disponíveis para uma tela CE habilitada para SDR ou HDR. O formato dos três componentes 𝐶 são possivelmente adaptados (etapa 29), conforme explicado acima.
[0141] A função de mapeamento MF(.) ou MF1(.) se baseia em uma função de transferência perceptual. O objetivo da função de transferência perceptual é converter um componente de uma imagem de entrada em um componente de uma imagem de saída reduzindo (ou aumentando), desse modo, a faixa dinâmica dos valores de sua luminância. Os valores de um componente da imagem de saída pertencem, desse modo, a uma faixa dinâmica menor (ou maior) que os valores do componente de uma imagem de entrada. A função de transferência perceptual usa um conjunto de parâmetros de controle limitado.
[0142] A Figura 4a mostra uma ilustração de um exemplo de uma função de transferência perceptual que pode ser usada para mapeamento de componentes de luminância, porém uma função de transferência perceptual similar para mapeamento do componente de luminância pode ser usada. O mapeamento é controlado por um parâmetro de luminância de pico de exibição de masterização (igual a 5.000 cd/m2 na Figura 4a). Para controlar melhor os níveis de preto e branco, um alongamento de sinal entre níveis de preto e branco dependentes de conteúdo é aplicado. Então, o sinal convertido é mapeado com o uso de uma curva particionada construída de três partes, conforme ilustrado na Figura 4b. As seções inferior e superior são lineares, a inclinação é determinada pelos parâmetros de controle shadowGain e highlightGain, respectivamente. A seção intermediária é uma parábola que fornece uma ponte contínua e suave entre as duas seções lineares. A largura do cruzamento é determinada pelo parâmetro midToneWidthAdjFactor. Todos os parâmetros que controlam o mapeamento podem ser transportados como metadados, por exemplo, com o uso de uma mensagem SEI, conforme especificado em metadados da ETSI TS 103 433-1, Anexo A.2.
[0143] A Figura 4c mostra um exemplo da inversa da função de transferência perceptual TM (Figura 4a) para ilustrar como um sinal de luminância perceptualmente otimizado pode ser convertido de volta para o domínio de luz linear com base em uma luminância máxima de exibição herdada alvo, por exemplo, 100 cd/m2.
[0144] Na etapa 25 (Figura 2 ou 3), o conjunto de parâmetros SP é obtido para reconstruir os três componentes 𝐶 a partir dos três componentes 𝐶 .. Esses parâmetros podem ser obtidos a partir dos metadados obtidos a partir de um fluxo de bits, por exemplo, o fluxo de bits B.
[0145] A ETSI TS 103 433-1 V1.2.1 cláusula 6 e Anexo A.2 fornece um exemplo de sintaxe dos metadados. A sintaxe dessa recomendação ETSI é descrita para reconstruir um vídeo HDR a partir de um vídeo SDR, porém essa sintaxe pode se estender até a reconstrução de qualquer imagem a partir de quaisquer componentes decodificados. Como um exemplo, a TS 103 433-2 V1.1.1 usa a mesma sintaxe para reconstruir um vídeo HDR adaptado para exibição a partir de um sinal de vídeo HDR (com uma faixa dinâmica diferente).
[0146] De acordo com a ETSI TS 103 433-1 V1.2.1, os metadados dinâmicos podem ser transportados de acordo com um denominado modo baseado em parâmetro ou um modo baseado em tabela. O modo baseado em parâmetro pode ser de interesse para trabalhos de fluxo de distribuição que têm um objetivo, por exemplo, de fornecer serviços compatíveis com versões de SDR direta com uso de carga útil ou largura de banda adicional muito baixo para portar os metadados dinâmicos. O modo baseado em tabela pode ser de interesse para trabalhos de fluxo equipados com terminais de extremidade baixa ou quando um nível mais alto de adaptação é necessário para representar adequadamente tanto os fluxos HDR como SDR. No modo baseado em parâmetro, metadados dinâmicos a serem transportados incluem parâmetros de mapeamento de luminância representativos da função de mapeamento inversa a ser aplicada na etapa de pós-processamento, ou seja, parâmetros tmlnputSignalBiackLevelOffset; tminputSignalWhiteLevelOffser shadowGain; highlightGain; midToneWidthAdfFactor; tmOutputFineTuning.
[0147] Além disso, outros metadados dinâmicos a serem transportados incluem parâmetros de correção de cor (saturationGainNumVal, saturationGainX(i) e saturationGainni)) usados para ajustar a função de correção croma padrão β(.), conforme especificado na ETSI TS 103 433-1 V1.2.1 cláusulas 6.3.5 e 6.3.6. Os parâmetros a e b podem ser respectivamente transportados nos parâmetros de função saturationGain, conforme explicado acima. Esses metadados dinâmicos podem ser transportados com o uso, por exemplo, a mensagem SEI registrada por dados de usuário HEVC SL-HDR Information (SL-HDRI) (consulte ETSI TS 103 433-1 V1.2.1 Anexo A.2) ou outro mecanismo de dados de extensão, tal como especificado na especificação AVS2/IEEE1857.4. O tamanho de carga útil de metadados dinâmicos típico é menor que 100 bytes por imagem ou cena.
[0148] De volta à Figura 3, na etapa 25, a mensagem SEI SL-HDRI é analisada para obter pelo menos um parâmetro do conjunto de parâmetros SP.
[0149] Nas etapas 282 e 202, a função de mapeamento inversa (denominada lutMapY) é reconstruída (ou derivada) a partir dos parâmetros de mapeamento obtidos (consulte a ETSI TS 103 4331 V1.2.1 cláusula 7.2.3.1 para mais detalhes; mesma cláusula para TS 103 433-2 V1.1.1).
[0150] Nas etapas 282 e 202, a função de correção croma f3(,) (denominada lutCC) também é reconstruída (ou derivada) a partir dos parâmetros de correção de cor obtidos (consulte a ETSI TS 103 433-1 V1.2.1 cláusula 7.2.3.2 para mais detalhes; mesma cláusula para TS 103 433-2 V1.1.1).
[0151] No modo baseado em tabela; dados dinâmicos a serem transportados incluem pontos de pivô de uma curva linear particionada representativa da função de mapeamento. Por exemplo, os metadados dinâmicos são LuminanceMappingNumVal que indica o número dos pontos de pivô, LuminanceMappingX que indica os valores de abscissa (x) dos pontos de pivô, e LuminanceMappingY que indica os valores de ordenada (y) dos pontos de pivô (consulte a ETSI TS 103 433-1 V1.2,1 cláusulas 6.2.7 e 6.3.7 para mais detalhes). Além disso, outros metadados dinâmicos a serem transportados podem incluir pontos de pivô de uma curva linear particionada representativa da função de correção croma β(.). Por exemplo, os metadados dinâmicos são colorCerrectionNumVal que indica o número de pontos de pivô, colorCorrectionX que indica os valores x de pontos de pivô, e colorCorrectionY que indica os valores y dos pontos de pivô (consulte a ETSI TS 103 433-1 V1.2.1 cláusulas
6.2.8 e 6.3.8 para mais detalhes). Esses metadados dinâmicos podem ser transportados com o uso, por exemplo, da mensagem SEI HEVC SL-HDRI (o mapeamento entre os parâmetros de cláusula 6 e os metadados de distribuição do anexo A é fornecido no Anexo A.2.3 da ETSI TS 103 433-1 V1.2.1).
[0152] Na etapa 25, a mensagem SEI SL-HDRI é analisada para obter os pontos de pivô de uma curva linear particionada representativa da função de mapeamento inversa e os pontos de pivô de uma curva linear particionada representativa da função de correção croma β(.), e os parâmetros de injeção croma a luma a e b.
[0153] Nas etapas 282 e 202, a função de mapeamento inversa é derivada daqueles pontos de pivô relativos a uma curva linear particionada representativa da função de mapeamento inversa ITM (consulte ETSI TS 103 433-1 V1.2.1 cláusula
7.2.3.3 para mais detalhes; mesma cláusula para ETSI TS 103 433-2 V1.1.1).
[0154] Nas etapas 281 e 201; a função de correção croma β(.), também é derivada daquela dos pontos de pivô relativos a uma curva linear particionada representativa da função de correção croma β(.) (consulte a ETSI TS 103 433-1 V1.2.1 cláusula 7.2.3.4 para mais detalhes; mesma cláusula para TS 103 433-2 V1.1.1).
[0155] Note que os metadados estáticos também usados pela etapa de pós- processamento podem ser transportados pela mensagem SEI. Por exemplo, a seleção do modo baseado em parâmetro ou do modo baseado em tabela pode ser portada pelas informações payloadMode, conforme especificado pela ETSI TS 103 433-1 V1.2.1 (cláusula A.2.2). Os metadados estáticos, tais como, por exemplo, as cores primárias ou a luminância de exibição de masterização máxima são transportados por uma mensagem SEI de Volume de Cor de Exibição de Masterização (MDCV), conforme especificado na AVC, HEVC ou incorporados na mensagem SEI SL-HDRI, conforme especificado na ETSI TS 103 433-1 V1.2,1 Anexo A.2.
[0156] De acordo com uma modalidade da etapa 25, o ID de dados de informações é explicitamente sinalizado por um elemento de sintaxe em um fluxo de bits e, desse modo, obtido analisando-se o fluxo de bits. Por exemplo, o elemento de sintaxe é uma parte de uma mensagem SEI, tal como o elemento de sintaxe as sl_hdr_mode_value_minus1 contido em uma mensagem SEI SL-HDRI.
[0157] De acordo com uma modalidade, o ID de dados de informações identifica o processamento que deve ser aplicado à imagem de entrada para processar o conjunto de parâmetros SP. De acordo com essa modalidade, o ID de dados de informações pode, então, ser usado para deduzir como usar os parâmetros para reconstruir os três componentes 𝐶 (etapa 25).
[0158] Por exemplo, quando igual a 1, o ID de dados de informações indica que o conjunto de parâmetros SP foi obtido aplicando-se a etapa de pré- processamento SL-HDR1 (etapa 20) a uma imagem de entrada HDR, e que os três componentes 𝐶 são representativos de uma imagem SDR. Quando igual a 2, o ID de dados de informações indica que os parâmetros foram obtidos aplicando-se a etapa de pré-processamento SL-HDR2 (etapa 20) a uma imagem HDR de 10 bits (entrada da etapa 20), e que os três componentes 𝐶 são representativos de uma imagem HDR10.
[0159] A Figura 6 mostra um diagrama das etapas de um método, de acordo com pelo menos uma modalidade.
[0160] Na etapa 610, um módulo M1 compara um primeiro conjunto de bits de metadados formatados com pelo menos um segundo conjunto de bits que identifica (ou que permite a identificação de) uma formatação particular dos ditos metadados formatados.
[0161] Os metadados formatados são associados aos primeiros dados de imagem recebidos a partir de uma interface não compactada e o dito pelo menos um segundo conjunto de bits pode ser recebido a partir de outro canal, por exemplo, ou obtido a partir de um meio de armazenamento local.
[0162] De acordo com uma modalidade da etapa 610, a comparação de um primeiro conjunto de bits de metadados formatados com pelo menos um segundo conjunto de bits compreende as etapas 611 a 613.
[0163] Na etapa 611, o primeiro conjunto de bits é obtido a partir dos metadados formatados.
[0164] De acordo com uma modalidade, a posição de pelo menos um bit do primeiro conjunto de bits obtido a partir dos metadados formatados é um primeiro valor dado.
[0165] Em uma variante, o dito primeiro valor dado depende das informações associadas a um segundo conjunto de bits de um segundo conjunto de biblioteca de bits dado (predeterminado) .
[0166] Por exemplo, a posição do primeiro bit de um segundo conjunto de bits que identifica um metadado específico determina a posição do primeiro bit para verificação nos metadados formatados.
[0167] De acordo com uma modalidade, o número de bits do primeiro conjunto de bits obtido a partir dos metadados formatados é um segundo valor dado.
[0168] Em uma variante, o dito segundo valor dado depende das informações associadas a um segundo conjunto de bits de um segundo conjunto de biblioteca de bits dado (predeterminado) .
[0169] Por exemplo, o número de bits de um segundo conjunto de bits que identifica um metadado específico determina o número de bits do primeiro conjunto de bits a ser obtido a partir dos metadados formatados.
[0170] Na etapa 612, um segundo conjunto de bits é obtido a partir do segundo conjunto de biblioteca de bits dado (predeterminado). Cada segundo conjunto de bits identifica (ou permite a identificação de) uma formatação particular dos ditos metadados formatados. Cada dado segundo conjunto de bits pode ser representativo de uma formatação particular dos metadados. Pode haver vários segundos conjuntos de bits associados a uma mesma formatação dos metadados (por exemplo, a formatação HEVC dos metadados pode ter o padrão de bit 0x35 0x00 ou 0xB5 0x00 0x3A 0x00).
[0171] Na etapa 613, o primeiro conjunto de bits de metadados formatados é comparado a cada dado segundo conjunto de bits dos ditos dados segundos conjuntos (predeterminados) de biblioteca de bits (loop através dos dados segundos conjuntos de bits a partir dos dados conjuntos de biblioteca de bits).
[0172] O método para quando uma correspondência for encontrada (a identificação é positiva) ou quando cada dado segundo conjunto de bits foi tentado, mas nenhuma correspondência ocorreu.
[0173] No primeiro caso, o analisador, para analisar os metadados formatados, é configurado de acordo com a formatação identificada pelo dado segundo conjunto de bits que corresponde ao primeiro conjunto de bits de metadados formatados.
[0174] No último caso (sem correspondência), de acordo com uma variante, os metadados podem ser recuperados, por exemplo, graças a um procedimento/modo de recuperação e valores especificados, por exemplo, no anexo F da ETSI TS 103 433-1.
[0175] Uma alternativa pode ser assumir uma formatação padrão (por exemplo, formatação de mensagem SEI HEVC).
[0176] Uma alternativa pode ser considerar as informações contextuais relativas às capacidades do aparelho A3 (por exemplo, uma TV pode ser configurada em chinês, então usar a formatação AVS2).
[0177] Uma alternativa pode ser que o aparelho A2 fornece informações em que ele pode decodificar apenas um tipo de formato/codec de distribuição (por exemplo, o aparelho A2 pode decodificar apenas fluxo HEVC e não fluxo AVC nem AVS2, de modo que a TV possa assumir que os metadados podem ser apenas com a formatação de mensagem SEI HEVC).
[0178] Possivelmente, o primeiro conjunto de bits de metadados formatados e um dado segundo conjunto de bits que identifica uma formatação particular não têm o mesmo número de bits.
[0179] Então, de acordo com uma modalidade, apenas o número de bits do conjunto de bits é usado na comparação.
[0180] De acordo com uma modalidade, a comparação é uma comparação bit a bit na qual uma formatação particular é identificada quando cada bit do primeiro conjunto de bits de metadados formatados é igual a cada bit de um dado segundo conjunto de bits que identifica a dita formatação particular.
[0181] Em uma variante, apenas uma porcentagem de bits do primeiro conjunto de bits é igual aos bits do segundo conjunto de bits e os dois conjuntos de bits se correspondem quando essa porcentagem excede um dado limiar.
[0182] De acordo com uma modalidade, a comparação é bem-sucedida quando a posição de pelo menos um bit nos metadados formatados é comparada com a posição de pelo menos um bit de um segundo conjunto de bits em metadados que podem ser formatados de acordo com a formatação identificada pelo dito segundo conjunto de bits.
[0183] De acordo com uma modalidade, a comparação é bem-sucedida quando o número de bits do primeiro conjunto de bits é igual ao número de bits de um segundo conjunto de bits.
[0184] Na etapa 620, um módulo M2 obtém parâmetros analisando-se os ditos metadados formatados de acordo com uma formatação particular identificada a partir do resultado da dita comparação.
[0185] Na etapa 630, um módulo M3 reconstrói (pós-processo) segundos dados de imagem a partir dos ditos primeiros dados de imagem e dos ditos parâmetros obtidos.
[0186] De acordo com uma modalidade do método, uma solução de distribuição baseada em camada única da Figura 2 ou 3 é usada, tal como SL-HDR1 ou SL-HDR2.
[0187] Os parâmetros (SP) são gerados e portados como metadados, conforme descrito em relação à Figura 2 ou 3. Na etapa 630, o módulo M3 reconstrói uma imagem HDR a partir de uma imagem SDR (caso SL-HDR1) ou uma imagem HDR (caso SL-HDR2) recebida a partir da interface não compactada e parâmetros, conforme descrito em relação à etapa de pós-processamento 28 da Figura 2 ou 3.
[0188] De acordo com uma modalidade, o documento CTA-861-G especifica o transporte dos metadados na interface digital não compactada, conforme ilustrado na Figura 7. O elemento sintaxe indicado como Extended infoFrame Type é definido como HDR Dinâmica 0x0002 para sinalizar que os metadados gerados pela SL-HDR1 ou SL-HDR2 são portados em um InfoFrame Estendido (do aparelho A2 para o aparelho A3) como mensagens de Informações de Aprimoramento Suplementar (SEI).
Então, o conjunto de bits da carga útil dos metadados formatados usados na etapa 610 é uma porção de padrão de bit fixa/predeterminada da carga útil do InfoFrame Estendido indicado como “Byte de Dados 1”,..., “Byte de Dados n” dos InfoFrames Estendidos de Metadados Dinâmicos HDR na Figura 7, tipicamente, os 7 primeiros Bytes de Dados, ou os Byte de Dados 3 e Byte de Dados 6, ou apenas o Byte de Dados 6.
[0189] De acordo com uma modalidade, um dado segundo conjunto de bits que identifica uma formatação particular de metadados formatados pode ser os valores de elementos de sintaxe terminal_provider_oriented_code_message_idc e/ou itu_t35_country_code e/ou payloadType e/ou payloadSize, conforme especificado, respectivamente, nas especificações AVC e HEVC.
[0190] De acordo com uma modalidade, um dado segundo conjunto de bits que identifica uma formatação particular de metadados formatados pode ser os n- primeiros bytes ou os n-primeiros bytes do m-ésimo byte a partir do início ou uma concatenação de bytes discriminantes da carga útil de mensagem SEI sl_hdr_info() (mais discriminante), conforme especificado no anexo B e no anexo A da ETSI TS 103 433-1 ou TS 103 433-2.
[0191] Tipicamente, os dois bytes da seção sei_message() (7.3.5 da especificação HEVC) e quatro primeiros bytes de sl_hdr_info() permitem a discriminação/identificação de se o fluxo de bits está relacionado à formatação de AVC. HEVC ou qualquer outra.
[0192] Como um exemplo, os seguintes padrões de byte/bits ordenados marcados com HEVC para Código do Tipo InfoFrame Estendido 0x0002:
[0193] Byte de dados 1: 0x04 (payloadType)
[0194] Byte de dados 2: 0x?? (payloadSize, variável não discriminante)
[0195] Byte de dados 3: 0xB5 (itu_t_t35_country_code)
[0196] Byte de dados 4: 0x00 (terminal_provider_code byte 1)
[0197] Byte de dados 5: 0x3A (terminal_provider_code byte 2)
[0198] Byte de dados 6: 0x00 (terminal_provider_oriented_code_message_idc)
[0199] O dado conjunto de bits que identifica uma formatação HEVC de metadados formatados pode ser 0x04, 0x??, 0xB5, 0x00, 0x3A, 0x00, ou 0xB5 0x00 (ou seja, uma concatenação do 3º byte e do 6º byte).
[0200] Como um exemplo, os seguintes padrões de byte/bits ordenados marcados com AVC para Código do Tipo InfoFrame Estendido 0x0002:
[0201] Byte de dados 1: 0x04 (payloadType)
[0202] Byte de dados 2: 0x?? (payloadSize, variável não discriminante) Byte de dados 3: 0xB5 (itu_t_t35countrycode)
[0203] Byte de dados 4: 0x00 (terminal_provider_code byte 1)
[0204] Byte de dados 5: 0x3A (terminal_provider_code byte 2)
[0205] Byte de dados 6: 0x01 (terminal_provider_oriented_code_message_idc)
[0206] O dado conjunto de bits que identifica uma formatação AVC de metadados formatados pode ser 0x04, 0x??, 0xB5, 0x00, 0x3A, 0x01 ou 0xB5 0x01 (ou seja, a concatenação do 3º byte e do 6º byte).
[0207] O fluxo de bits AVS2 é diferente dos fluxos de bits HEVC e AVC. Pode- se determinar de modo similar ao método HEVC/AVC descrito acima: a partir de valores de elementos de sintaxe típicos da extensão de dados (a extensão de dados é equivalente em AVS2 às mensagens SEI em HEVC/AVC), ou seja, a partir dos n- primeiros bytes, a partir de n-bytes a partir do m-ésimo byte a partir do início ou da concatenação de bytes discriminantes.
[0208] Desse modo, considerando os exemplos acima, a formatação de metadados portada em um Código do Tipo InfoFrame Estendido definido como 0x0002 pode ser identificada comparando-se, como um exemplo, os quatro MSB do terceiro byte dos metadados '1011' (“0xB”) com o conjunto de bits AVS2 '1110' (“0xE”) e comparando-se o terceiro e o sexto bytes dos metadados (por exemplo. 0xB5 0x00) com dois conjuntos de bits (ou seja, HEVC: 0xB5 0x00, AVC: 0xB5 0x01). Nesse caso, pode-se determinar que os metadados são formatados por HEVC.
[0209] Nas Figuras 1 a 4c e 6 a 7, os módulos são unidades funcionais. Em várias modalidades, todas, algumas ou nenhuma dessas unidades funcionais correspondem às unidades físicas distinguíveis. Por exemplo, esses módulos ou alguns deles podem ser reunidos em um único componente ou circuito ou contribuem com a funcionalidades de um software. Como outro exemplo, alguns módulos podem ser compostos de entidades físicas separadas. Várias modalidades são implementadas com o uso de hardware puro, por exemplo, com o uso de hardware dedicado, tal como um ASIC ou um FPGA ou VLSI, respectivamente, « Circuito Integrado de Aplicação Específica », « Arranjo de Portas Programáveis em Campo », « Integração em Muito Larga Escala », ou a partir de vários componentes eletrônicos integrados incorporados em um aparelho, ou a partir de uma mistura de componentes de hardware e software.
[0210] A Figura 5 ilustra um diagrama de blocos de um exemplo de um sistema no qual vários aspectos e modalidades são implementados. O sistema 5000 pode ser incorporado como um dispositivo que inclui os vários componentes descritos abaixo e é configurado para realizar um ou mais aspectos descritos neste pedido. Exemplos de tais dispositivos, incluem, porém sem limitação, vários dispositivos eletrônicos, tais como computadores pessoais, computadores do tipo laptop, smartphones, computadores do tipo tablet, decodificadores de sinais multimídia digital, receptores de televisão digital, sistemas de gravação de vídeo pessoal, aparelhos domésticos conectados e servidores. Os elementos do sistema 5000, unicamente ou em combinação, podem ser incorporados em um único circuito integrado, múltiplos ICs e/ou componentes distintos. Por exemplo, em pelo menos uma modalidade, os elementos de processamento e de codificador/decodificador do sistema 5000 são distribuídos ao longo de múltiplos ICs e/ou componentes distintos. Em várias modalidades, o sistema 5000 é comunicativamente acoplado a outros sistemas similares, ou a outros dispositivos eletrônicos, por exemplo, por meio de um barramento de comunicações ou através de portas de entrada e/ou saída dedicadas.
Em várias modalidades, o sistema 5000 é configurado para implementar um ou mais dos aspectos descritos neste documento.
[0211] O sistema 5000 inclui pelo menos um processador 5010 configurado para executar instruções carregadas no mesmo para implementar, por exemplo, os vários aspectos descritos neste documento. O processador 5010 pode incluir memória incorporada, interface de entrada/saída, e vários outros conjuntos de circuitos,
conforme conhecido na técnica. O sistema 5000 inclui pelo menos uma memória 5020 (por exemplo, um dispositivo de memória volátil e/ou um dispositivo de memória não volátil). O sistema 5000 inclui um dispositivo de armazenamento 5040, que pode incluir memória não volátil e/ou memória volátil, incluindo, porém sem limitação, EEPROM, ROM, PROM, RAM, ORAM, SRAM, flash, unidade de disco magnético e/ou unidade de disco óptico. O dispositivo de armazenamento 5040 pode incluir um dispositivo de armazenamento interno, um dispositivo de armazenamento conectado e/ou um dispositivo de armazenamento acessível à rede, como exemplos não limitativos.
[0212] O sistema 5000 inclui um módulo de codificador/decodificador 5030 configurado, por exemplo, para processar dados para fornecer um vídeo codificado ou vídeo decodificado, e o módulo de codificador/decodificador 5030 pode incluir seu próprio processador e memória. O módulo de codificador/decodificador 5030 representa módulo(s) que pode ser incluído em um dispositivo para realizar as funções de codificação e/ou decodificação. Conforme é conhecido, um dispositivo pode incluir um ou ambos os módulos de codificação e decodificação. De maneira adicional, o módulo de codificador/decodificador 5030 pode ser implementado como um elemento separado do sistema 5000 ou pode ser incorporado no processador 5010 como uma combinação de hardware e software, conforme conhecido pelos versados na técnica.
[0213] O código do programa a ser carregado no processador 5010 ou codificador/decodificador 5030 para realizar os vários aspectos descritos neste documento pode ser armazenado no dispositivo de armazenamento 5040 e, subsequentemente carregado na memória 5020 para execução pelo processador
5010. De acordo com várias modalidades, um ou mais dentre o processador 5010, memória 5020, dispositivo de armazenamento 5040 e módulo de codificador/decodificador 5030 podem armazenar um ou mais dentre vários itens durante o desempenho dos processos descritos neste documento. Tais itens armazenados podem incluir, porém sem limitação, o vídeo de entrada, o vídeo decodificado ou porções do vídeo decodificado, um fluxo de bits, matrizes, variáveis, e resultados intermediários ou finais a partir do processamento de equações, fórmulas, operações e lógica operacional.
[0214] Em várias modalidades, a memória dentro do processador 5010 e/ou o módulo de codificador/decodificador 5030 é usado para armazenar instruções e para fornecer memória de trabalho para o processamento que é necessário durante a codificação ou decodificação.
[0215] Em outras modalidades, entretanto, uma memória externa ao dispositivo de processamento (por exemplo, o dispositivo de processamento pode ser o processador 5010 ou o módulo de codificador/decodificador 5030) é usada para uma ou mais dessas funções. A memória externa pode ser a memória 5020 e/ou o dispositivo de armazenamento 5040, por exemplo, uma memória volátil dinâmica e/ou memória flash não volátil. Em várias modalidades, uma memória flash não volátil externa é usada para armazenar o sistema operacional de uma televisão. Em pelo menos uma modalidade, uma memória volátil dinâmica externa rápida, tal como uma RAM é usada como uma memória de trabalho para operações de codificação e decodificação de vídeo, tal como MPEG-2, HEVC ou VVC (Codificação de Vídeo Versátil).
[0216] A entrada para os elementos do sistema 5000 pode ser fornecida através de vários dispositivos de entrada, conforme indicado no bloco 5030. Tais dispositivos de entrada incluem, porém sem limitação, (i) uma porção RF que recebe um sinal RF transmitido, por exemplo, através do ar por um transmissor, (ii) um terminal de entrada composto , (iii) um terminal de entrada USB e/ou (iv) um terminal de entrada HDMI.
[0217] Em várias modalidades, os dispositivos de entrada do bloco 5030 têm os respectivos elementos de processamento de entrada associados, conforme conhecido na técnica. Por exemplo, a porção RF pode ser associada a elementos necessários para (i) selecionar uma frequência desejada (também chamada de seleção de um sinal, ou limitação de banda de um sina] para uma banda de frequências), (ii) conversão descendente do sinal selecionado], (iii) limitação de banda novamente a uma banda de frequências mais estreita para selecionar (por exemplo) uma banda de frequência de sinal que pode ser chamada de um canal em determinadas modalidades, (iv) demodulação do sinal descendentemente convertido e limitado por banda, (v) realização de correção de erro, e (vi) demultiplexação para selecionar o fluxo desejado dos pacotes de dados. A porção RF de várias modalidades inclui um ou mais elements para realizar essas funções, por exemplo, seletores de frequência, seletores de sinal, limitadores de banda, seletores de canal, filtros, conversores descendentes, demoduladores, corretores de erro e demultiplexadores.
A porção RF pode incluir um sintonizador que realiza várias dessas funções, incluindo, por exemplo, a conversão descendente do sinal recebido em uma frequência mais baixa (por exemplo, uma frequência intermediária ou uma frequência de banda base próxima) ou em banda base.
[0218] Em uma modalidade do decodificador de sinais, a porção RF e seu elemento de processamento de entrada associado recebe um sobre RF transmitido através de um meio com fio (por exemplo, cabo), e realiza seleção de frequência ao filtrar, converter descendentemente e filtrar novamente a uma banda de frequências desejada.
[0219] Várias modalidades reorganizam a ordem dos elementos descritos acima (e outros), removem alguns desses elementos e/ou adicionam outros elementos que realizam funções similares ou diferentes.
[0220] A adição de elementos pode incluir a inserção de elementos entre os elementos existentes, tal como, por exemplo, a inserção de amplificadores e um conversor analógico-digital. Em várias modalidades, a porção RF inclui uma antena.
[0221] Adicionalmente, os terminais USB e/ou HDMI podem incluir os respectivos processadores de interface para conectar o sistema 5000 a outros dispositivos eletrônicos ao longo de conexões USB e/ou HDMI. Deve-se compreender que vários aspectos do processamento de entrada, por exemplo, correção de erro Reed-Solomon, podem ser implementados, por exemplo, em um IC de processamento de entrada separado ou no processador 5010, conforme necessário. De modo similar, os aspectos de processamento de interface USB ou HDMI podem ser implementados em ICs de interface separados ou no processador 5010, conforme necessário. O fluxo demodulado, corrigido para erro e demultiplexado é fornecido para vários elementos de processamento, incluindo, por exemplo, o processador 5010, e codificador/decodificador 5030 que opera em combinação com a memória e elementos para armazenamento para processar o fluxo de dados, conforme necessário, para apresentação em um dispositivo de saída.
[0222] Vários elementos do sistema 5000 podem ser fornecidos em um compartimento integrado. Dentro do compartimento integrado, os vários elementos podem ser interconectados e transmitir dados entre si com o uso de disposição de conexão adequada, por exemplo, um barramento interno, conforme conhecido na técnica, incluindo o barramento I2C, fiação e placas de circuito impresso.
[0223] O sistema 5000 inclui interface de comunicação 5050 que permite a comunicação com outros dispositivos através do canal de comunicação 5060. A interface de comunicação 5050 pode incluir, porém sem limitação, um transceptor configurado para transmitir e para receber dados através do canal de comunicação
5060. A interface de comunicação 5050 pode incluir, porém sem limitação, um modem ou placa de rede e o canal de comunicação 5060 pode ser implementado, por exemplo, em um meio com fio e/ou sem fio.
[0224] Os dados são transmitidos por streaming para o sistema 5000, em várias modalidades, com o uso de uma rede Wi-Fi, tal como IEEE 802.11. O sinal Wi- Fi dessas modalidades é recebido através do canal de comunicação 5060 e da interface de comunicação 5050 que são adaptados para comunicações Wi-Fi. O canal de comunicação 5060 dessas modalidades é tipicamente conectado a um ponto de acesso ou roteador que fornece acesso às redes externas, incluindo a Internet para permitir aplicações de transmissão contínua (streaming) e outras comunicações over- the-top.
[0225] Outras modalidades fornecem dados transmitidos por streaming para o sistema 5000 com o uso de um decodificador de sinais que entrega os dados através da conexão HDMI do bloco de entrada 5030.
[0226] Ainda outras modalidades fornecem dados transmitidos por streaming para o sistema 5000 com o uso da conexão RF do bloco de entrada 5030.
[0227] Deve-se observar que a sinalização pode ser realizada em uma variedade de maneiras. Por exemplo, um ou mais elementos de sintaxe, sinalizadores, e assim por diante, são usados para sinalizar informações para um decodificador correspondente em várias modalidades.
[0228] O sistema 5000 pode fornecer um sinal de saída para vários dispositivos de saída, incluindo uma tela 5100, alto-falantes 5110 e outros dispositivos periféricos 5120 Os outros dispositivos periféricos 5120 incluem, em vários exemplos de modalidades, um ou mais dentre um DVR autônomo, um reprodutor de disco, um sistema estéreo, um sistema de iluminação, e outros dispositivos que fornecem uma função com base na saída do sistema 5000.
[0229] Em várias modalidades, os sinais de controle são comunicados entre o sistema 5000 e a tela 5100, alto-falantes 5110, ou outros dispositivos periféricos 5120 com o uso de sinalização, tais como AV.Link, CEC, ou outros protocolos de comunicações que permitem o controle dispositivo a dispositivo com ou sem intervenção do usuário.
[0230] Os dispositivos de saída podem ser comunicativamente acoplados ao sistema 5000 por meio de conexões dedicadas através das respectivas interfaces 5070, 5080 e 5090.
[0231] Alternativamente, os dispositivos de saída podem ser conectados ao sistema 5000 com o uso do canal de comunicação 5060 por meio da interface de comunicações 5050. A tela 5100 e os alto-falantes 5110 podem ser integrados em uma única unidade com os outros componentes do sistema 5000 em um dispositivo eletrônico, tal como, por exemplo, uma televisão.
[0232] Em várias modalidades, a interface de exibição 5070 inclui uma unidade de exibição, tal como, por exemplo, um chip controlador de temporização (T Con).
[0233] A tela 5100 e o alto-falante 5110 podem ser alternativamente separados de um ou mais dos outros componentes, por exemplo, se a porção RF da entrada 5130 for parte de um decodificador de sinais separado. Em várias modalidades nas quais a tela 5100 e os alto-falantes 5110 são componentes externos, o sinal de saída pode ser fornecido por meio de conexões de saída dedicadas, incluindo, por exemplo, portas HDMI, portas USB ou saídas COMP.
[0234] As implementações dos vários processos e recursos descritos no presente documento podem ser incorporadas em uma variedade de equipamentos ou aplicativos diferentes. Os exemplos de tais equipamentos incluem um codificador, um decodificador, um pós-processador que processa saída a partir de um decodificador, uma pré-processador que fornece entrada para um codificador, um codificador de vídeo, decodificador de vídeo, um codec de vídeo, um servidor da web, um decodificador de sinais, um computador do tipo laptop, um computador pessoal, um telefone celular, um PDA, qualquer outro dispositivo para processar uma imagem ou um vídeo e outro aparelho de comunicação. Como deve ser claro, o equipamento pode ser móvel e ainda instalado em um veículo móvel.
[0235] Adicionalmente, os métodos podem ser implementados por instruções que são realizadas por um processador, e tais instruções (e/ou valores de dados produzidos por uma implementação) podem ser armazenadas em um meio de armazenamento legível por computador. Um meio de armazenamento legível por computador pode assumir a forma de um produto de programa legível por computador incorporado em um ou mais meios legíveis por computador e que tem o código de programa legível por computador incorporado no mesmo, que é executável por um computador. Um meio de armazenamento legível por computador, conforme usado no presente documento, é considerado um meio de armazenamento não transitório dada a capacidade inerente de armazenar as informações no mesmo, assim como a capacidade inerente de fornecer recuperação das informações a partir do mesmo. Um meio de armazenamento legível por computador pode ser, por exemplo, porém sem limitação, um sistema, aparelho ou dispositivo eletrônico, magnético, óptico, eletromagnético, infravermelho ou semicondutor, ou qualquer combinação adequada do anteriormente mencionado. Deve-se observar o seguinte, embora forneça exemplos mais específicos de mídia de armazenamento legível por computador, essa é uma listagem meramente ilustrativa e não exaustiva, conforme prontamente observado por uma pessoa de habilidade comum na técnica: um computador portátil; um disquete; um disco rígido; uma memória somente de leitura (ROM); um memória somente de leitura programável apagável (EPROM ou memória Flash): uma memória somente de leitura de disco compacto portátil (CD-ROM); um dispositivo de armazenamento óptico: um dispositivo de armazenamento magnético; ou qualquer combinação do anteriormente mencionado.
[0236] As instruções podem formar um programa de aplicativo tangivelmente incorporado em um meio legível por processador (também chamado de um meio legível por computador ou um meio de armazenamento legível por computador). As instruções podem se encontrar, por exemplo, em hardware, firmware, software ou uma combinação dos mesmos. As instruções podem ser encontradas, por exemplo, em um sistema operacional, um aplicativo separado ou em uma combinação dos dois. Um processador pode ser caracterizado, portanto, como, por exemplo, tanto um aparelho configurado para realizar um processo, como um aparelho que inclui um meio legível por processador (tal como um aparelho de armazenamento) que tem instruções para realizar um processo. Ademais, um meio legível por processador pode armazenar, além de ou em vez de instruções, valores de dados produzidos por uma implementação.
[0237] Conforme será evidente para uma pessoa versada na técnica, as implementações podem produzir uma variedade de sinais formatados para portar informações que podem ser, por exemplo, armazenadas ou transmitidas. As informações podem incluir, por exemplo, instruções para realizar um método, ou dados produzidos por uma das implementações descritas. Por exemplo, um sinal pode ser formatado para portar como dados as regras para escrever ou ler a sintaxe de um exemplo descrito, ou para portar como dados os valores de sintaxe reais escritos por um exemplo descrito. Tal sinal pode ser formatado, por exemplo, como uma onda eletromagnética (por exemplo, com o uso de uma porção de espectro de radiofrequência) ou como um sinal de banda base. A formatação pode incluir, por exemplo, codificar um fluxo de dados e modular uma portadora com o fluxo de dados codificado. As informações que o sinal porta podem ser, por exemplo, informações analógicas ou digitais. O sinal pode ser transmitido através de uma variedade de enlaces com fio ou sem fio diferentes, conforme é conhecido. O sinal pode ser armazenado em um meio legível por processador.
[0238] Várias implementações foram descritas. Todavia, deve-se compreender que várias modificações podem ser efetuadas. Por exemplo, elementos de diferentes implementações podem ser combinados, suplementados, modificados ou removidos para produzir outras implementações. Adicionalmente, uma pessoa de conhecimento comum na técnica irá compreender que outras estruturas e processos podem ser substituídos por aqueles revelados e as implementações resultantes irão realizar pelo menos substancialmente a mesma função (ou funções), pelo menos substancialmente do mesmo modo (ou modos), para alcançar pelo menos substancialmente o mesmo resultado (ou resultados) que as implementações reveladas. Consequentemente, essas e outras implementações são contempladas por este pedido.

Claims (12)

REIVINDICAÇÕES
1. Método CARACTERIZADO pelo fato de que compreende: - comparar um primeiro conjunto de bits de metadados formatados, sendo que os metadados formatados associados aos primeiros dados de imagem são ambos recebidos a partir de uma interface não compactada, com pelo menos um segundo conjunto de bits que identifica uma formatação particular dos ditos metadados formatados; e - reconstruir segundos dados de imagem a partir dos ditos primeiros dados de imagem e parâmetros obtidos analisando-se os ditos metadados formatados, de acordo com uma formatação particular identificada a partir do resultado da dita comparação..
2. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que quando o tamanho do primeiro e do segundo conjuntos de bits comparados não é igual, apenas o número de bits do conjunto de bits mais curto é usado na comparação.
3. Método, de acordo com a reivindicação 1, sendo que o método é CARACTERIZADO pelo fato de que compreende adicionalmente recuperar os ditos parâmetros quando a comparação falha.
4. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que a dita formatação particular é uma formatação padrão quando a comparação falha.
5. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que quando a comparação falha, a dita formatação particular é identificada de acordo com informações contextuais relativas às capacidades de um dispositivo.
6. Dispositivo CARACTERIZADO pelo fato de que compreende um processador configurado para:
- comparar um primeiro conjunto de bits de metadados formatados, sendo que os metadados formatados associados aos primeiros dados de imagem são ambos recebidos a partir de uma interface não compactada, com pelo menos um segundo conjunto de bits que identifica uma formatação particular dos ditos metadados formatados; e - reconstruir segundos dados de imagem a partir dos ditos primeiros dados de imagem e parâmetros obtidos analisando-se os ditos metadados formatados, de acordo com uma formatação particular identificada a partir do resultado da dita comparação.
7. Dispositivo, de acordo com a reivindicação 6, CARACTERIZADO pelo fato de que quando o tamanho do primeiro e do segundo conjuntos de bits comparados não é igual, apenas o número de bits do conjunto de bits mais curto é usado na comparação.
8. Dispositivo, de acordo com a reivindicação 6, CARACTERIZADO pelo fato de que o processador é adicionalmente configurado para recuperar os ditos parâmetros quando a comparação falha.
9. Dispositivo, de acordo com a reivindicação 6, CARACTERIZADO pelo fato de que a dita formatação particular é uma formatação padrão quando a comparação falha.
10. Dispositivo, de acordo com a reivindicação 6, CARACTERIZADO pelo fato de que quando a comparação falha, a dita formatação particular é identificada de acordo com informações contextuais relativas às capacidades de um dispositivo.
11. Programa de computador CARACTERIZADO pelo fato de que compreende instruções, que quando executadas por um ou mais processadores, fazem com que o um ou mais processadores realizem um método que compreende: - comparar um primeiro conjunto de bits de metadados formatados, sendo que os metadados formatados associados aos primeiros dados de imagem são ambos recebidos a partir de uma interface não compactada, com pelo menos um segundo conjunto de bits que identifica uma formatação particular dos ditos metadados formatados; e - reconstruir segundos dados de imagem a partir dos ditos primeiros dados de imagem e parâmetros obtidos analisando-se os ditos metadados formatados, de acordo com uma formatação particular identificada a partir do resultado da dita comparação.
12. Meio de armazenamento legível por computador CARACTERIZADO pelo fato de que compreende instruções, que quando executadas por um computador, fazem com que o computador realize um método que compreende: - comparar um primeiro conjunto de bits de metadados formatados, sendo que os metadados formatados associados aos primeiros dados de imagem são ambos recebidos a partir de uma interface não compactada, com pelo menos um segundo conjunto de bits que identifica uma formatação particular dos ditos metadados formatados; e - reconstruir segundos dados de imagem a partir dos ditos primeiros dados de imagem e parâmetros obtidos analisando-se os ditos metadados formatados, de acordo com uma formatação particular identificada a partir do resultado da dita comparação.
BR112020008999-0A 2017-11-08 2018-11-06 processamento de uma imagem BR112020008999A2 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP17306549 2017-11-08
EP17306549.1 2017-11-08
PCT/US2018/059307 WO2019094346A1 (en) 2017-11-08 2018-11-06 Processing an image

Publications (1)

Publication Number Publication Date
BR112020008999A2 true BR112020008999A2 (pt) 2020-11-17

Family

ID=64427227

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112020008999-0A BR112020008999A2 (pt) 2017-11-08 2018-11-06 processamento de uma imagem

Country Status (5)

Country Link
US (1) US20210176471A1 (pt)
EP (1) EP3707902A1 (pt)
CN (1) CN111567048A (pt)
BR (1) BR112020008999A2 (pt)
WO (1) WO2019094346A1 (pt)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7254182B2 (en) * 2002-07-09 2007-08-07 Tsui Philip Y W Transmitter for operating multiple devices
JP2009098973A (ja) * 2007-10-17 2009-05-07 Toshiba Corp 乱数生成回路搭載集積回路の検査方法および乱数生成回路搭載集積回路
US8666001B2 (en) * 2011-07-15 2014-03-04 Motorola Solutions, Inc. Method and apparatus for updating symbol recovery parameters and correcting symbol timing misalignment
RU2654049C2 (ru) * 2013-07-19 2018-05-16 Конинклейке Филипс Н.В. Транспортировка hdr метаданных
CN105594204B (zh) * 2013-10-02 2017-08-15 杜比实验室特许公司 通过hdmi传输显示管理元数据
US20160286226A1 (en) * 2015-03-24 2016-09-29 Nokia Technologies Oy Apparatus, a method and a computer program for video coding and decoding
US10587852B2 (en) * 2015-10-06 2020-03-10 Lg Electronics Inc. Broadcast signal transmission device, broadcast signal reception device, broadcast signal transmission method, and broadcast signal reception method
RU2728766C2 (ru) * 2015-11-09 2020-07-31 Томсон Лайсенсинг Способ и устройство для адаптации видеоконтента, декодированного из элементарных потоков, под характеристики устройства отображения
US10395231B2 (en) * 2016-06-27 2019-08-27 Altria Client Services Llc Methods, systems, apparatuses, and non-transitory computer readable media for validating encoded information

Also Published As

Publication number Publication date
WO2019094346A1 (en) 2019-05-16
CN111567048A (zh) 2020-08-21
EP3707902A1 (en) 2020-09-16
US20210176471A1 (en) 2021-06-10

Similar Documents

Publication Publication Date Title
CN111316625B (zh) 用于从第一图像生成第二图像的方法和设备
CN110574376B (zh) 用于解码高动态范围图像的方法和设备
US11902595B2 (en) Method and apparatus for processing a medium dynamic range video signal in SL-HDR2 format
US11928796B2 (en) Method and device for chroma correction of a high-dynamic-range image
EP3714603A1 (en) Method and apparatus for colour correction during hdr to sdr conversion
US11785193B2 (en) Processing an image
BR112020008999A2 (pt) processamento de uma imagem
CA2986520A1 (en) Method and device for reconstructing a display adapted hdr image
RU2802304C2 (ru) Способ и оборудование для кодирования изображения
US11575944B2 (en) Method and apparatus for encoding an image
US11722704B2 (en) Decoding an image

Legal Events

Date Code Title Description
B350 Update of information on the portal [chapter 15.35 patent gazette]
B08F Application dismissed because of non-payment of annual fees [chapter 8.6 patent gazette]

Free format text: REFERENTE A 5A ANUIDADE.

B08K Patent lapsed as no evidence of payment of the annual fee has been furnished to inpi [chapter 8.11 patent gazette]

Free format text: EM VIRTUDE DO ARQUIVAMENTO PUBLICADO NA RPI 2747 DE 29-08-2023 E CONSIDERANDO AUSENCIA DE MANIFESTACAO DENTRO DOS PRAZOS LEGAIS, INFORMO QUE CABE SER MANTIDO O ARQUIVAMENTO DO PEDIDO DE PATENTE, CONFORME O DISPOSTO NO ARTIGO 12, DA RESOLUCAO 113/2013.