BR112020009563A2 - método e aparelho para correção de cor durante conversão hdr para sdr - Google Patents

método e aparelho para correção de cor durante conversão hdr para sdr Download PDF

Info

Publication number
BR112020009563A2
BR112020009563A2 BR112020009563-0A BR112020009563A BR112020009563A2 BR 112020009563 A2 BR112020009563 A2 BR 112020009563A2 BR 112020009563 A BR112020009563 A BR 112020009563A BR 112020009563 A2 BR112020009563 A2 BR 112020009563A2
Authority
BR
Brazil
Prior art keywords
image
chroma
components
conversion matrix
correction
Prior art date
Application number
BR112020009563-0A
Other languages
English (en)
Inventor
Pierre Andrivon
Marie-Jean Colaitis
David Touze
Original Assignee
Interdigital Vc Holdings, Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Interdigital Vc Holdings, Inc. filed Critical Interdigital Vc Holdings, Inc.
Publication of BR112020009563A2 publication Critical patent/BR112020009563A2/pt

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/06Colour space transformation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Algebra (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Of Color Television Signals (AREA)
  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

As presentes modalidades se referem a um método e aparelho que compreende: - derivar componentes de croma (I) de uma terceira imagem corrigindo componentes de croma (II) de uma segunda imagem de acordo com um componente de luma da referida segunda imagem e um componente reconstruído obtido pela aplicação de uma função de mapeamento ao referido componente de luma (III) da referida segunda imagem, sendo os referidos componentes de croma (II) da segunda imagem obtidos aplicando uma matriz de conversão aos componentes (IV) de uma primeira imagem; e - adaptar coeficientes da matriz de conversão que são relativos a um componente de croma da referida terceira imagem, independentemente dos coeficientes da matriz de conversão que são relativos a outro componente de croma da referida terceira imagem para garantir que não haja recorte nos componentes de croma da terceira imagem.

Description

“MÉTODO E APARELHO PARA CORREÇÃO DE COR DURANTE CONVERSÃO HDR PARA SDR”
1. Campo
[001] As presentes modalidades referem-se à distribuição de vídeo HDR, enquanto preserva a alta fidelidade de vídeos resultantes.
2. Fundamentos
[002] A presente seção pretende apresentar ao leitor vários aspectos da técnica, que podem estar relacionados a vários aspectos das modalidades descritas e/ou reivindicadas abaixo. Acredita-se que esta discussão seja útil para prover o leitor com informações básicas para facilitar uma melhor compreensão dos vários aspectos das modalidades. Por conseguinte, deve ser entendido que essas declarações devem ser lidas sob essa luz, e não como admissões, da técnica anterior.
[003] A seguir, os dados de imagem referem-se a uma ou várias arranjos de amostras (valores de pixel) em um formato específico de imagem/vídeo que especifica todas as informações relativas aos valores de pixel de uma imagem (ou vídeo) e todas as informações que podem ser usadas por uma tela e/ou qualquer outro aparelho para visualizar e/ou decodificar uma imagem (ou vídeo), por exemplo.
Uma imagem compreende um primeiro componente, no formato de um primeiro arranjo de amostras, geralmente representativo de luminância (ou luma) da imagem, e um segundo e terceiro componente, no formato de outros arranjos de amostras, geralmente representativos de crominância (ou croma) da imagem. Ou, de modo equivalente, a mesma informação também pode ser representada por um conjunto de arranjos de amostras de cores, tal como a representação RGB tricromática tradicional.
[004] Um valor de pixel é representado por um vetor de valores C, onde C é o número de componentes. Cada valor de um vetor é representado com um número de bits que define um faixa dinâmica dos valores de pixel.
[005] Imagens de Faixa Dinâmica Padrão (imagens SDR) são imagens cujos valores de luminância são representados com um número limitado de bits (normalmente 8). Essa representação limitada não permite a renderização correta de pequenas variações de sinal, principalmente em faixas de luminância escuras e brilhantes. Nas imagens de Alta Faixa Dinâmica (imagens HDR), a representação de sinal é estendida para manter uma alta precisão do sinal em toda a sua faixa. Nas imagens HDR, os valores de pixel são geralmente representados no formato de ponto flutuante (geralmente pelo menos 10 bits por componente, ou seja, flutuante ou meio flutuante), sendo o formato mais popular, o formato openEXR meio flutuante (16 bits por componente RGB, ou seja, 48 bits por pixel) ou em números inteiros com uma representação longa, geralmente com pelo menos 16 bits.
[006] O advento do padrão de Codificação de Vídeo de Alta Eficiência (HEVC) (ITU-T H.265 Telecommunication standardization sector of ITU (02/2018), series H: audiovisual and multimedia systems, infrastructure of audiovisual services - coding of moving video, High efficiency video coding, Recommendation ITU-T H.265) permite a implantação de novos serviços de vídeo com experiência de visualização aprimorada, como serviços Ultra HD. Além de uma maior resolução espacial, o formato Ultra HD pode oferecer uma gama de cores mais ampla (WCG) e uma faixa dinâmica mais alta (HDR) do que, respectivamente, a gama de cores padrão (SCG) e a faixa dinâmica padrão (SDR) de formato de Alta Definição atualmente implantado. Diferentes soluções para a representação e codificação de vídeo HDR/WCG foram propostas, como a função de transferência perceptiva Quantizador Perceptivo (Perceptual Quantizer) (PQ) (SMPTE ST 2084, “High Dynamic Range Electro-Optical Transfer Function of Mastering Reference Displays, ou Diaz, R., Blinstein, S. e Qu, S. “Integrating HEVC Video Compression with a High Dynamic Range Video Pipeline”, SMPTE Motion Imaging Journal, Vol. 125, Emitido 1. Fev,
2016, por exemplo, 14-21). Normalmente, o SMPTE ST 2084 permite representar o sinal de vídeo HDR de até 10.000 cd/m² de luminância de pico com apenas 10 ou 12 bits.
[007] A compatibilidade de versões anteriores de SDR com aparelhos de decodificação e renderização é um recurso importante em alguns sistemas de distribuição de vídeo, como sistemas de radiodifusão ou multidifusão. Uma solução baseada em um processo de codificação/decodificação de camada única pode ser compatível com versões anteriores, por exemplo, compatível com SDR e pode aproveitar as redes e serviços de distribuição herdados já existentes.
[008] Essa solução de distribuição baseada em camada única permite a renderização HDR de alta qualidade em dispositivos Eletrônicos de Consumidor (Consumer Electronic) (CE) habilitados para HDR, além de oferecer renderização SDR de alta qualidade em dispositivos CE habilitados para SDR. Essa solução é baseada em um sinal codificado, por exemplo, sinal SDR e metadados associados (poucos bytes por quadro ou cena de vídeo) que podem ser usados para reconstruir outro sinal, por exemplo sinal SDR ou HDR, a partir de um sinal decodificado.
[009] Um exemplo de solução de distribuição baseada em camada única pode ser encontrado na especificação técnica ETSI TS 103 433-1 V1.2.1 (agosto de 2017). Essa solução de distribuição baseada em camada única é designada SL- HDR1 a seguir.
[010] Essa solução de distribuição baseada em camada única SL-HDR1 gera metadados como parâmetros usados para a reconstrução do sinal. Os metadados podem ser estáticos ou dinâmicos.
[011] Metadados estáticos significa parâmetros representativos do conteúdo do vídeo ou seu formato que permanecem os mesmos para um vídeo (conjunto de imagens) e/ou um programa.
[012] Os metadados estáticos são válidos para todo o conteúdo do vídeo
(cena, filme, clipe...) e podem depender do conteúdo da imagem em si ou do formato de representação do conteúdo da imagem. Eles podem definir, por exemplo, formato de imagem ou espaço de cores, gama de cores. Por exemplo, SMPTE ST 2086:2014, "Mastering Display Color Volume Metadata Supporting High Luminance and Wide Color Gamut Images" é um tipo de metadados estáticos que descreve a exibição de masterização usada para classificar o material em um ambiente de produção. A mensagem SEI (Informação Aprimorada Suplementar) de Volume de Cor de Exibição de Masterização (MDCV) é o sabor da distribuição de ST 2086 para ambos (“Advanced video coding for generic audiovisual Services”, SERIES H: AUDIOVISUAL AND MULTIMEDIA SYSTEMS, Recommendation ITU-T H.264, Telecommunication Standardization Sector of ITU, Abril 2017) e codecs de vídeo HEVC.
[013] Os metadados dinâmicos são informações dependentes de conteúdo, de modo que metadados podem mudar com o conteúdo de imagem/vídeo, por exemplo, para cada imagem ou para cada grupo de imagens. Como exemplo, as famílias de padrões SMPTE ST 2094: 2016, "Dynamic Metadata for Color Volume Transform" são metadados dinâmicos normalmente gerados em um ambiente de produção. SMPTE ST 2094-30 pode ser distribuído ao longo do fluxo de vídeo codificado em HEVC e AVC, graças à mensagem SEI de Informações de Remapeamento de Cores (CRI).
[014] Basicamente, uma solução de distribuição baseada em camada única compreende uma etapa de adaptação de formato para adaptar o formato de uma imagem de entrada (vídeo) à entrada de uma etapa de pré-processamento destinada a gerar uma imagem de saída (vídeo) associada aos metadados, uma etapa de codificação de referida imagem de saída (vídeo) e metadados, etapas de decodificação da referida imagem de saída (vídeo) e metadados e uma etapa de pós-processamento destinada a reconstruir uma imagem (vídeo) a partir da referida imagem de saída decodificada (vídeo) e, opcionalmente, a partir dos referidos metadados decodificados.
[015] Pode ocorrer, para alguns valores específicos da imagem de entrada (vídeo), que componentes de croma da imagem de saída (vídeo), calculados na etapa de pré-processamento como a divisão dos componentes de croma da imagem de entrada (vídeo) por uma função de correção de croma, estejam fora de uma determinada faixa de valores e, portanto, são cortados, produzindo em seguida erros de reconstrução na etapa de pós-processamento quando a imagem (vídeo) é reconstruída.
[016] Para se livrar desse recorte de componentes de croma, uma solução direta é adaptar a função de correção de croma para evitar esse recorte de componente de croma e, portanto, esses erros de reconstrução. No entanto, a função de correção de croma é aplicada globalmente nos dois componentes do croma, mesmo que isso não seja necessário para ambos, produzindo, então, cores dessaturadas inesperadas no vídeo reconstruído.
[017] A presente invenção foi concebida com o precedente em mente.
3. Sumário
[018] A seguir, é apresentado um resumo simplificado das modalidades, a fim de prover um entendimento básico de alguns aspectos das modalidades. Este resumo não é uma visão geral abrangente das modalidades. Não se destina a identificar elementos-chave ou críticos das modalidades. O resumo a seguir apresenta apenas alguns aspectos das modalidades de uma forma simplificada como um prelúdio para a descrição mais detalhada provida abaixo.
[019] As modalidades foram estabelecidas para remediar pelo menos uma das desvantagens da técnica anterior com um método que compreende: - derivar componentes de croma de uma terceira imagem corrigindo componentes de croma de uma segunda imagem de acordo com um componente de luma da referida segunda imagem e um componente reconstruído obtido pela aplicação de uma função de mapeamento ao referido componente de luma da referida segunda imagem, os referidos componentes de croma da segunda imagem sendo obtidos aplicando uma matriz de conversão aos componentes de uma primeira imagem; e - adaptar coeficientes da matriz de conversão que são relativos a um componente de croma da referida terceira imagem, independentemente dos coeficientes da matriz de conversão que são relativos a outro componente de croma da referida terceira imagem para garantir que não haja recorte nos componentes de croma da terceira imagem.
[020] De acordo com uma modalidade, o método adicionalmente compreende uma etapa de: - derivar uma sexta imagem aplicando um inverso da matriz de conversão nos componentes de uma quinta imagem cujos componentes de croma são derivados pela correção inversa de componentes de croma de uma quarta imagem de acordo com um componente de luma da referida quarta imagem, sendo a referida quarta imagem obtida a partir dos componentes da referida terceira imagem; e - compensar a adaptação dos coeficientes da matriz de conversão, adaptando os coeficientes do inverso da matriz de conversão.
[021] De acordo com uma modalidade, a adaptação de coeficientes da matriz de conversão compreende dividir os referidos coeficientes por pelo menos um fator de correção e adaptar os coeficientes do inverso da matriz de conversão compreende multiplicar os referidos coeficientes pelo referido pelo menos um fator de correção.
[022] De acordo com uma modalidade, a correção da matriz de conversão se aplica a todos os pixels de uma imagem.
[023] De acordo com uma modalidade, a correção da matriz de conversão se aplica apenas a pixels cujo nível de luminância pertence a uma faixa de luminância específica.
[024] De acordo com uma modalidade, o método adicionalmente compreende uma etapa de, e o dispositivo adicionalmente compreende meios para transmitir dados de informação representativos da matriz de conversão corrigida, do inverso corrigido da matriz de conversão ou pelo menos um fator de correção.
[025] De acordo com uma modalidade, o método adicionalmente compreende uma etapa de: - derivar uma sexta imagem aplicando um inverso da matriz de conversão nos componentes de uma quinta imagem cujos componentes de croma são derivados pela correção inversa de componentes de croma de uma quarta imagem de acordo com um componente de luma da referida quarta imagem e uma função de correção de croma, a referido quarta imagem é obtida a partir dos componentes da referida terceira imagem; - compensar a adaptação de coeficientes da matriz de conversão adaptando a função de correção de croma para pelo menos uma faixa de luminância que não precise ser corrigida.
[026] De acordo com uma modalidade, uma função de correção de croma corrigida é derivada dividindo uma função de correção de croma por um fator de correção.
[027] De acordo com uma modalidade, o método adicionalmente compreende uma etapa de, e o dispositivo adicionalmente compreende meios para transmitir dados de informação representativos da função de correção de croma corrigida ou do referido fator de correção.
[028] De acordo com uma modalidade, um fator de correção e dois limites de uma faixa de luminância são obtidos para um componente de croma de uma imagem, e em que dois fatores de correção, os valores do referido fator de correção e os referidos dois limites de uma faixa de luminância são coletados ao longo de um dado período que precede um instante de tempo atual e, no instante de tempo atual, uma versão filtrada de cada um desses valores é entregue.
[029] De acordo com um outro de seus aspectos, as presentes modalidades se referem a um sinal que transporta dados de informação representativos de uma correção destinada a ser usada para adaptar coeficientes de uma matriz de conversão que são relativos a um componente de croma de uma imagem independentemente dos coeficientes da matriz de conversão que são relativos a outro componente de croma da referida imagem.
[030] De acordo com outros aspectos, os presentes princípios se referem a um produto de programa de computador e um meio legível por computador não transitório.
[031] A natureza específica das modalidades, bem como outros objetos, vantagens, características e usos das modalidades, tornar-se-ão evidentes a partir da descrição a seguir de exemplos tomados em conjunto com os desenhos anexos.
4. Breve Descrição dos Desenhos.
[032] Nos desenhos, exemplos das presentes modalidades são ilustrados.
Isto mostra:
[033] - A Fig. 1 mostra uma representação de alto nível de um fluxo de trabalho de ponta a ponta que suporta a entrega de conteúdo para exibir com recurso de adaptação de exibição melhorado, de acordo com um exemplo das presentes modalidades;
[034] – A Fig. 2 mostra um exemplo de um fluxo de trabalho de processamento de ponta a ponta que suporta a entrega para telas CE HDR e SDR de acordo com uma solução de distribuição baseada em camada única;
[035] – A Fig. 3 mostra uma implementação particular do fluxo de trabalho da Fig. 2;
[036] – A Fig. 4a mostra uma ilustração de uma função de transferência perceptiva;
[037] - A Fig. 4b mostra um exemplo de uma curva em partes usada para mapeamento;
[038] - A Fig. 4c mostra um exemplo de uma curva usada para converter de volta um sinal uniforme perceptivo em um domínio de luz linear;
[039] - A figura 5 representa uma modalidade exemplar de uma arquitetura de um aparelho que pode ser configurado para implementar um método descrito em relação às figuras 1 a 4;
[040] - A Fig. 6 mostra um diagrama das etapas de um método para obter fatores de correção de acordo com um exemplo das presentes modalidades;
[041] - A Fig. 7 mostra um método para coletar os valores de cada um dos 6 parâmetros corr1, coor2, Yu_min, Yu_max, Yv_min e Yv_max durante um período de tempo predeterminado, de acordo com um exemplo das presentes modalidades; e
[042] - A Fig. 8 mostra um método para coletar os valores de cada um dos 6 parâmetros corr1, coor2, Yu_min, Yu_max, Yv_min e Yv_max durante um período de tempo predeterminado, de acordo com outro exemplo das presentes modalidades.
[043] Elementos semelhantes ou iguais são referenciados com os mesmos números de referência.
5. Descrição do Exemplo dos presentes princípios.
[044] As presentes modalidades serão descritas mais detalhadamente daqui em diante com referência às figuras anexas, nas quais são mostrados exemplos das presentes modalidades. As presentes modalidades podem, no entanto, ser realizadas de várias formas alternativas e não devem ser interpretadas como limitadas aos exemplos aqui apresentados. Por conseguinte, embora as presentes modalidades sejam suscetíveis a várias modificações e formas alternativas, exemplos específicos das mesmas são mostrados a título de exemplos nos desenhos e serão aqui descritos em detalhes. Deve ser entendido, no entanto, que não há intenção de limitar as presentes modalidades às formas particulares divulgadas, mas, pelo contrário, as presentes modalidades devem abranger todas as modificações, equivalentes e alternativas que se enquadram no espírito e escopo das presentes modalidades, conforme definido pelas reivindicações.
[045] A terminologia usada neste documento tem o objetivo de descrever apenas exemplos particulares e não se destina a limitar as presentes modalidades.
Conforme usado aqui, as formas singulares "a", "o", "uma" e "um" também pretendem incluir as formas plurais, a menos que o contexto indique claramente o contrário. Será entendido ainda que os termos "compreende", "compreendendo", "inclui" e/ou "incluindo", quando utilizados nesta especificação, especificam a presença de recursos declarados, números inteiros, etapas, operações, elementos e/ou componentes, mas não impede a presença ou adição de um ou mais recursos, números inteiros, etapas, operações, elementos, componentes e/ou grupos dos mesmos. Além disso, quando um elemento é referido como "responsivo" ou "conectado" a outro elemento, ele pode ser diretamente responsivo ou conectado ao outro elemento, ou elementos intervenientes podem estar presentes. Por outro lado, quando um elemento é referido como "diretamente responsivo" ou "diretamente conectado" a outro elemento, não há elementos intervenientes presentes. Como aqui utilizado, o termo "e/ou" inclui toda e qualquer combinação de um ou mais dos itens listados associados e pode ser abreviado como "/". Será entendido que, embora os termos primeiro, segundo, etc. possam ser usados aqui para descrever vários elementos, esses elementos não devem ser limitados por esses termos.
Esses termos são usados apenas para distinguir um elemento do outro. Por exemplo, um primeiro elemento pode ser denominado segundo elemento e, da mesma forma, um segundo elemento pode ser denominado primeiro elemento sem se afastar dos ensinamentos da presente especificação. Embora alguns dos diagramas incluam setas nos percursos de comunicação para mostrar uma direção primária de comunicação, deve-se entender que a comunicação pode ocorrer na direção oposta às setas representadas. Alguns exemplos são descritos com relação aos diagramas de blocos e fluxogramas operacionais nos quais cada bloco representa um elemento de circuito, módulo ou porção de código que compreende uma ou mais instruções executáveis para implementar as funções lógicas especificadas. Também deve ser observado que em outras implementações, as funções observadas nos blocos podem ocorrer fora da ordem mencionada. Por exemplo, dois blocos mostrados em sucessão podem, de fato, ser executados substancial e simultaneamente ou os blocos às vezes podem ser executados na ordem inversa, dependendo da funcionalidade envolvida. Referência aqui mencionada a "de acordo com um exemplo" ou "em um exemplo" significa que um recurso, estrutura ou característica particular descritos em conexão com o exemplo podem ser incluídos em pelo menos uma implementação das presentes modalidades. As aparências da expressão "de acordo com um exemplo" ou "em um exemplo" em vários locais da especificação não são necessariamente todas referentes ao mesmo exemplo, nem exemplos separados ou alternativos necessariamente são mutuamente exclusivos de outros exemplos. Os números de referência que aparecem nas reivindicações são para ilustração apenas e não terão efeito limitador no escopo das reivindicações. Embora não seja explicitamente descrito, os presentes exemplos e variantes podem ser empregues em qualquer combinação ou subcombinação.
[046] Normalmente, duas imagens diferentes têm diferentes faixas dinâmicas da luminância. A faixa dinâmica da luminância de uma imagem é a razão entre o máximo e o mínimo dos valores de luminância da referida imagem.
[047] Normalmente, quando a faixa dinâmica da luminância de uma imagem é inferior a 1000 (por exemplo, 500: 100 cd/m2 acima de 0,2 cd/m2), a referida imagem é indicada como uma imagem de Faixa Dinâmica Padrão (SDR) e quando a faixa dinâmica da luminância de uma imagem é igual ou superior a 1000 (por exemplo, 10000: 1000 cd/m2 acima de 0,1 cd/m2), a referida imagem é indicada como uma imagem HDR. A luminância é expressa pela unidade candela por metro quadrado (cd/m²). Esta unidade substitui o termo "nit", que também pode ser usado (embora esteja obsoleto no Sistema Internacional de Unidades).
[048] As presentes modalidades são descritas para pré-processamento, codificação, decodificação e pós-processamento de uma imagem, mas se estendem ao pré-processamento, codificação, decodificação e pós-processamento e uma sequência de imagens (vídeo), porque cada imagem da sequência é sequencialmente pré-processada, codificada, decodificada e pós-processada, conforme descrito abaixo.
[049] A seguir, um componente 𝐶 designa um componente m de uma imagem n. Esses componentes {𝐶 } com m = 1,2,3 representam uma imagem In em um formato de imagem específico. Normalmente, um formato de imagem é caracterizado por um volume de cores (por exemplo, cromaticidade e faixa dinâmica), um sistema de codificação por cores (por exemplo, RGB, YCbCr ...)...
[050] A Fig. 1 mostra uma representação de alto nível de um fluxo de trabalho de ponta a ponta que suporta a entrega de conteúdo para exibir com o recurso de adaptação de exibição melhorado, de acordo com um exemplo das presentes modalidades. O aparelho A1 está configurado para implementar um método para pré-processamento e codificação de uma imagem ou fluxo de vídeo, o aparelho A2 é configurado para implementar um método para decodificar e pós- processar um fluxo de imagem ou vídeo, conforme descrito abaixo, e o aparelho A3 é configurado para exibir o fluxo de imagem ou vídeo decodificado e pós-
processado. Os dois aparelhos remotos A1 e A2 estão se comunicando através de uma rede de distribuição NET que está configurada pelo menos para prover a imagem codificada ou fluxo de vídeo do aparelho A1 para o aparelho A2.
[051] O aparelho A1 compreende pelo menos um dispositivo configurado para implementar um método de pré-processamento e/ou codificação, conforme descrito abaixo. O referido pelo menos um dispositivo pertence a um conjunto de dispositivos compreendendo um dispositivo móvel, um dispositivo de comunicação, um dispositivo de jogo, um tablet (ou computador tablet), um dispositivo de computador tal como um laptop, uma câmera de imagem estática, uma câmera de vídeo, chip de codificação, um servidor de imagem estática e um servidor de vídeo (por exemplo, um servidor de transmissão, um servidor de vídeo sob demanda ou um servidor de web).
[052] O aparelho A2 compreende pelo menos um dispositivo configurado para implementar um método de decodificação e/ou pós-processamento, conforme descrito abaixo. O referido pelo menos um dispositivo pertence a um conjunto de dispositivos compreendendo um dispositivo móvel, um dispositivo de comunicação, um dispositivo de jogo, um dispositivo de computador e uma caixa decodificadora.
[053] O aparelho A3 compreende pelo menos um dispositivo configurado para implementar um método de exibição. O referido pelo menos um dispositivo pertence a um conjunto de dispositivos compreendendo um aparelho de TV (ou televisão), um tablet (ou computador tablet), um dispositivo de computador tal como um laptop, uma tela, uma tela montada na cabeça e um chip de renderização/exibição.
[054] De acordo com um exemplo, a rede é uma rede de radiodifusão, adaptada para radiodifundir imagens estáticas ou imagens de vídeo do aparelho A1 para uma pluralidade de aparelhos A2. As redes baseadas em DVB e ATSC são exemplos dessas redes de radiodifusão.
[055] De acordo com outro exemplo, a rede é uma rede de banda larga adaptada para prover imagens estáticas ou imagens de vídeo do aparelho A1 a uma pluralidade de aparelhos A2. Redes baseadas na Internet, redes GSM ou redes de TV sobre IP são exemplos dessas redes de banda larga.
[056] Em uma modalidade exemplar, o fluxo de trabalho de ponta a ponta usa um servidor de transmissão para o aparelho A1, uma caixa decodificadora para o aparelho A2, um aparelho de televisão para o aparelho A3 e uma rede de transmissão terrestre DVB.
[057] Em uma modalidade alternativa, os aparelhos A2 e A3 são combinados em um único dispositivo, por exemplo, uma televisão que integra funcionalidades de caixa decodificadora, decodificação e pós-processamento.
[058] Em uma modalidade alternativa, a rede de distribuição NET é substituída por uma mídia física empacotada na qual a imagem ou fluxo de vídeo codificado é armazenado.
[059] A mídia física empacotada compreende mídia empacotada óptica, tal como um disco Blu-ray e Blu-ray Ultra HD, mas também mídia em pacote baseada em memória, usada nos serviços OTT e VoD.
[060] A Fig. 2 mostra um exemplo de um fluxo de trabalho de processamento de ponta a ponta que suporta a entrega para displays HDR e SDR CE de acordo com uma solução de distribuição baseada em camada única.
[061] Basicamente, a referida solução de distribuição baseada em camada única pode abordar a compatibilidade de versões anteriores direta com SDR, ou seja, utiliza redes e serviços de distribuição SDR já existentes e permite renderização HDR de alta qualidade em dispositivos CE habilitados para HDR, incluindo renderização SDR de alta qualidade em dispositivos CE SDR.
[062] SL-HDR1 é um exemplo dessa solução de distribuição baseada em camada única.
[063] O fluxo de trabalho mostrado na Fig. 2 envolve uma solução de distribuição baseada em camada única com metadados associados e ilustra um exemplo do uso de um método para reconstruir três componentes {𝐶30 } representativos de três componentes {𝐶10 } de uma imagem de entrada de três componentes decodificados {𝐶20 } representativos de uma imagem decodificada e dos referidos metadados conforme especificado, por exemplo, em SL-HDR1.
[064] Basicamente, a solução de distribuição baseada em camada única mostrada na Fig. 2 compreende uma etapa de pré-processamento 20, uma etapa de codificação 23, as etapas de decodificação 25 e 26 e uma etapa de pós- processamento 28.
[065] A entrada e a saída da etapa de pré-processamento 20 são tripletos dos componentes {𝐶1 } e {𝐶12 }, respectivamente, e a entrada e a saída da etapa de pós-processamento 28 são tripletos dos componentes {𝐶2 } e {𝐶3 }, respectivamente.
[066] A solução de distribuição baseada em camada única mostrada na Fig.
2 pode compreender as etapas de adaptação de formato 21, 22, 27, 29 para adaptar o formato de três componentes {𝐶 } à entrada de um processamento adicional a ser aplicado nesses componentes.
[067] Na etapa 21, o formato dos três componentes {𝐶10 } é adaptado a um formato que se ajusta a um formato de entrada da etapa de pré-processamento 20.
[068] Por exemplo, o componente 𝐶11 é um sinal não linear, denotado luma na literatura, que é obtido a partir dos componentes compactados por gama {𝐶10 } por: 1 1 ⎡𝐶10 ⎤ ⎢ 1 ⎥ 𝐶11 𝐴1 ⎢𝐶 2 ⎥ 10 ⎢ 1 ⎥ 3 ⎣𝐶10 ⎦ e o componente 𝐶12 , 𝐶13 são obtidos aplicando uma compressão gama aos componentes da imagem de entrada:
⎡𝐶10 ⎤ 𝐶12 𝐴2 ⎢ 1 ⎥ 𝐶13 2 𝐴3 ⎢𝐶10 ⎥ (1) ⎢ 1 ⎥ 3 ⎣𝐶10 ⎦ onde γ é um fator gama, preferivelmente igual a 2,4, A=[A1 A2 A3]T é uma matriz de conversão que compreende três 1x3 submatrizes A1 A2 A3 em que 𝐴1 𝐴11 𝐴12 𝐴13 𝐴2 𝐴21 𝐴22 𝐴23 (2) 𝐴3 𝐴31 𝐴32 𝐴33 com Amn (m = 1, .., 3, n = 1, .. 3) são coeficientes de submatriz.
[069] Por exemplo, a matriz de conversão A pode ser a matriz de conversão canônica 3x3 R'G'B'-para-Y'CbCr, conforme especificado na Recomendação ITU-R BT.2020-2 ou Recomendação ITU-R BT.709-6 quando o três componentes {𝐶10 } são componentes RGB.
Quando a gama de cores BT.2020 é considerada, 𝐴1 0.2627 0.678 0.0593 𝐴 𝐴2 0.13963 0.36037 0.5 𝐴3 0.5 0.459786 0.040214 Quando a gama de cores BT.709 é considerada, 𝐴1 0.2126 0.7152 0.0722 𝐴2 0.114572 0.385428 0.5 𝐴3 0.5 0.454153 0.045847
[070] A matriz de conversão A é invertível. Por exemplo, o inverso da matriz A, denotado A-1, é dado por 1 0 𝐴′13 1 1 𝐴′22 𝐴′23 (3)
𝐴 1 𝐴′32 0 com A'mn (m = 1, .., 3, n = 1, .. 3) são coeficientes de submatriz. Quando a gama de cores BT.2020 é considerada, 1 0 1.4746 1 𝐴 1 0.16455 0.57135 1 1.8814 0 e quando a gama de cores BT.709 é considerada, 1 0 1.5748 1 𝐴 1 0.18733 0.46813 1 1.85563 0
[071] Na etapa 22 (opcional), o formato dos três componentes {𝐶12 } também pode ser adaptado para um formato adequado ao formato de entrada da etapa de codificação 23. Na etapa 27, (opcional), o formato dos três componentes {𝐶20 } pode ser adaptado para um formato adequado à entrada da etapa de pós-processamento 28 e na etapa 29, o formato dos três componentes {𝐶3 } pode ser adaptado para um formato que pode ser definido a partir de pelo menos uma característica de um aparelho direcionado (por exemplo, uma caixa decodificadora, uma TV conectada, um dispositivo CE habilitado para HDR/SDR, um reprodutor de discos Blu-ray Ultra HD). Na etapa 21, o inverso da matriz A é usado.
[072] As referidas etapas de adaptação de formato (21, 22, 27, 29) podem incluir outras conversões de espaço de cores e/ou mapeamento de gama de cores (e/ou mapeamento inverso de gama de cores). O mapeamento de gama inversa pode ser usado, por exemplo, quando os três componentes decodificados {𝐶20 } e os três componentes {𝐶30 } de uma imagem de saída ou os três componentes {𝐶10 } de uma imagem de entrada são representados em diferentes espaços e/ou gama de cores.
[073] Processos de adaptação de formatos usuais podem ser usados, como conversões R'G'B'-para-Y'CbCr ou Y'CbCr-para-R'G'B', BT.709-para-BT.2020 ou BT.2020-para-BT.709, componentes de croma para amostragem para baixo ou para amostragem para cima, etc.
[074] Por exemplo, SL-HDR1 pode usar processos de adaptação de formato e mapeamento de gama inversa, conforme especificado no anexo D da especificação técnica ETSI TS 103 433-1 V1.2.1 (agosto de 2017).
[075] Na etapa 20 do pré-processamento, os três componentes {𝐶1 } são decompostos em três componentes {𝐶12 } (cujo formato pode ter sido possivelmente adaptado durante a etapa 22 para obter os três componentes {𝐶20 }) e um conjunto de parâmetros SP.
[076] Na etapa 23, os três componentes {𝐶20 } podem ser codificados com qualquer codec de vídeo e um sinal compreendendo o fluxo de bits B é transmitido por uma rede de distribuição.
[077] De acordo com a variante da etapa 23, o conjunto de parâmetros SP é transportado como metadados estáticos e/ou dinâmicos associados no fluxo de bits B.
[078] De acordo com uma variante, o conjunto de parâmetros SP é transportado como metadados estáticos e/ou dinâmicos associados em um canal específico.
[079] Então, pelo menos um sinal, destinado a ser decodificado pelo aparelho A2 da Fig. 1, porta o fluxo de bits B e os metadados que os acompanham.
[080] Em uma variante, o fluxo de bits B é armazenado em um meio de armazenamento, tais como um disco Blu-ray ou um disco rígido ou a memória de uma caixa decodificadora, por exemplo.
[081] Em uma variante, pelo menos alguns metadados associados são armazenados em um meio de armazenamento, tais como um disco Blu-ray UltraHD ou um disco rígido ou uma memória de uma caixa decodificadora, por exemplo.
[082] De preferência, na etapa 23, uma sequência de pelo menos um tripleto de componentes {𝐶20 }, cada um representando uma imagem e possivelmente metadados associados, é codificada com um codec de vídeo, tais como o codec H.265/HEVC ou H.264/AVC.
[083] Na etapa 25, o conjunto de parâmetros SP é obtido pelo menos parcialmente pelo fluxo de bits B ou por outro canal específico. Pelo menos um dos parâmetros do conjunto de parâmetros SP também pode ser obtido de um meio de armazenamento separado.
[084] Na etapa 26, os três componentes decodificados {𝐶20 } são obtidos no fluxo de bits B.
[085] Na etapa de pós-processamento 28, que é um inverso funcional próximo da etapa de pré-processamento 20, os três componentes {𝐶30 } são reconstruídos a partir dos três componentes decodificados {𝐶20 } e o conjunto obtido de parâmetros SP.
[086] Em mais detalhes, a etapa 20 de pré-processamento compreende as etapas 200-203.
[087] Na etapa 200, um componente 𝐶1,1 é obtido aplicando uma função de mapeamento no componente {𝐶11 } que representa a luminância da imagem de entrada.
[088] Matematicamente falando, 𝐶1,1 𝑀𝐹 𝐶11 (4) com MF sendo uma função de mapeamento que pode reduzir a faixa dinâmica da luminância de uma imagem. Observe que seu inverso, denominado IMF, pode aumentar inversamente a faixa dinâmica da luminância de uma imagem.
[089] Na etapa 202, um componente reconstruído {𝐶11 } é obtido aplicando uma função de mapeamento inverso no componente 𝐶1,1 é: 𝐶11 𝐼𝑀𝐹 𝐶1,1 é (5) onde IMF é o inverso funcional da função de mapeamento MF. Os valores do componente reconstruído 𝐶11 pertencem, portanto, à faixa dinâmica dos valores do componente 𝐶11 . 1 3
[090] Na etapa 201, os componentes 𝐶12 e 𝐶12 são derivados corrigindo os componentes 𝐶12 e 𝐶13 representando a croma da imagem de entrada como uma ação do (de acordo com) componente 𝐶1,1 é e o componente reconstruído 𝐶11 .
[091] De acordo com uma modalidade, os componentes 𝐶12 e 𝐶13 são corrigidos a partir da razão entre o componente 𝐶1,1 é sobre o produto do componente reconstruído comprimido por gama 𝐶11 por Ω(𝐶1,1 é) 2 𝐶12 1 1, 𝐶12 3 1 . (6) 𝐶12 Ω 1 . 11 𝐶13 1, onde Ω(𝐶1,1 é) é um valor que depende do componente 𝐶1,1 , mas também pode ser um valor constante, dependendo das cores primárias dos três componentes {𝐶1 }. Ω(𝐶1,1 é) pode ser igual a 1,2 para Rec. BT.2020 por exemplo.
Possivelmente, Ω(𝐶1,1 é) também pode depender dos parâmetros especificados em ETSI TS 103 433-1 V.1.2.1, seção C.2.3.
[092] Ω(𝐶1,1 é )também pode ser um parâmetro do conjunto de parâmetros SP.
[093] Esta etapa 201 permite controlar as cores obtidas a partir dos três componentes {𝐶12 } e garante sua correspondência perceptiva com as cores da imagem de entrada. A correção dos componentes 𝐶12 e 𝐶13 (geralmente denominados componentes de croma) pode ser mantida sob controle sintonizando os parâmetros das etapas de correção e mapeamento inverso de croma. A saturação e a matiz da cor obtidas a partir dos três componentes {𝐶12 } estão, portanto, sob controle. Tal controle não é possível, geralmente, quando uma função de mapeamento não paramétrica (etapa 200) é usada.
[094] Opcionalmente, na etapa 203, o componente 𝐶1,1 é pode ser ajustado para adicionalmente controlar a saturação percebida, da seguinte maneira: 1 3 𝐶12 𝐶1,1 é 2 max 0, 𝑎. 𝐶12 𝑏. 𝐶12 (7) onde a e b são dois parâmetros.
[095] Esta etapa 203 permite controlar a luminância (representada pelo 1 componente 𝐶12 ) para garantir a correspondência de cores percebida entre as cores (saturação e matiz) obtidas a partir dos três componentes {𝐶12 } e as cores da imagem de entrada.
[096] O conjunto de parâmetros SP pode compreender dados de informação relativos à função de mapeamento ou a seu inverso (etapas 200, 202 e 282), dados de informação relativos à correção de croma (etapas 201 e 281), informações relativas à função de ajuste de saturação, em particular seus parâmetros a e b (etapas 203 e 280), e informações relativas à conversão usada nos estágios de adaptação de formato 21, 22, 27, 29 (por exemplo, parâmetros de mapeamento de gama e/ou mapeamento de gama inverso).
[097] O conjunto de parâmetros SP também pode compreender características de informação da imagem de saída, por exemplo, o formato dos três componentes {𝐶30 } representativos da referida imagem de saída (etapas 29 da Fig.2 e 3, 284 da Fig.3).
[098] Em mais detalhes, a etapa 28 de pós-processamento compreende as etapas 280-282 que tomam como entrada pelo menos um parâmetro do conjunto de parâmetros SP.
[099] Na etapa opcional 280, o componente 𝐶21 dos três componentes {𝐶2 }, saída da etapa 27, pode ser ajustado da seguinte maneira: 𝐶2,1 ó 𝐶21 max 0, 𝑎. 𝐶22 𝑏. 𝐶23 (8) onde a e b são dois parâmetros do conjunto de parâmetros SP.
[0100] Na etapa 282, o componente 𝐶31 dos três componentes {𝐶3 } é obtido aplicando uma função de mapeamento no componente 𝐶21 ou, opcionalmente, 𝐶2,1 ó : 𝐶31 𝐼𝐹𝑀 𝐶2,1 ó (9)
[0101] Na etapa 281, os componentes 𝐶32 , 𝐶33 dos três componentes {𝐶3 } são derivados pela correção inversa dos componentes 𝐶22 , 𝐶23 dos três componentes {𝐶2 } de acordo com o componente 𝐶21 ou, opcionalmente, 𝐶2,1 ó .
[0102] De acordo com uma modalidade, os componentes 𝐶22 e 𝐶23 são multiplicados por uma função de correção de croma β(.) conforme definido pelos parâmetros do conjunto de parâmetros SP e cujo valor depende do componente 𝐶21 ou, opcionalmente, 𝐶2,1 ó .
[0103] Matematicamente falando, os componentes 𝐶32 , 𝐶33 são dados por: 𝐶32 1 𝐶2 2 β 𝐶2 (10) 𝐶33 𝐶23 ou opcionalmente, 𝐶32 1 𝐶22 β 𝐶2, ó (10bis) 𝐶33 𝐶23
[0104] A Fig. 3 representa uma otimização amiga de hardware da solução baseada em camada única da Fig. 2. A referida otimização inclui duas etapas adicionais 283 e 284 e permite reduzir a complexidade da implementação de hardware, reduzindo o uso da largura de bit dos barramentos.
[0105] Na etapa 283, três componentes indicados (R1, G1, B1) são obtidos dos componentes 𝐶3,2 ó e 𝐶3,3 ó , saídas da etapa 281, levando em consideração os parâmetros do conjunto dos parâmetros SP: 𝑅1 1 0 𝑚0 𝑆0 𝐺1 1 𝑚1 𝑚2 𝐶3,2ó 𝐵1 1 𝑚3 0 3 𝐶3, ó onde m0, m1, m2, m3 são parâmetros do conjunto de parâmetros SP e S0 é derivado dos componentes 𝐶3,2 ó e 𝐶3,3 ó e outros parâmetros do conjunto de parâmetros SP.
[0106] Na etapa 284, os três componentes {𝐶3 } são então obtidos escalonando os três componentes (R1, G1, B1) de acordo com um componente 𝐶3,1 ó , saída da etapa 282. 𝐶31 𝐶3,1 ó 𝑅1 𝐶32 𝐶3,1 ó 𝐺1 (11 𝐶33 𝐶3,1 ó 𝐵1 onde 𝐶3,1 ó = IMF (𝐶2,1 ó ), (etapa 282).
[0107] Por exemplo, os parâmetros de controle relativos à função de mapeamento MF e/ou seu IMF inverso podem ser determinados conforme especificado na Cláusula C.3.2 (especificação técnica ETSI TS 103 433-1 V1.2.1). A função de correção de croma β(.) e seus parâmetros podem ser determinados conforme especificado nas seções C.2.3 e C.3.4 (especificação técnica ETSI TS 103 433-1 V1.2.1). Dados de informação relativos aos parâmetros de controle relativos às funções de mapeamento ou seu inverso e dados de informação relativos à função de correção de croma β(.) e seus parâmetros são elementos do conjunto de parâmetros SP. Exemplos de valores numéricos dos parâmetros do conjunto de parâmetros SP podem ser encontrados, por exemplo, no anexo F (tabela F.1) (especificação técnica ETSI TS 103 433-1 V1.2.1.
[0108] Os parâmetros m0, m1, m2, m3 e S0 podem ser determinados conforme especificado na Cláusula 6.3.2.6 (matrixCoefficient[i] está definindo m0, m1, m2, m3) e Cláusula 6.3.2.8 (kCoefficient[i] são usados para construir S0) da especificação técnica ETSI TS 103 433-1 V1.2.1 e seu uso para reconstrução pode ser determinado conforme especificado na Cláusula 7.2.4 (especificação técnica ETSI TS 103 433-1 V1.2.1).
[0109] A função de mapeamento MF(.) é baseada em uma função de transferência perceptiva, cujo objetivo é converter um componente de uma imagem de entrada em um componente de uma imagem de saída, reduzindo (ou aumentando) a faixa dinâmica dos valores de sua luminância. Os valores de um componente da imagem de saída pertencem, portanto, a uma faixa dinâmica menor (ou maior) que os valores do componente de uma imagem de entrada. A referida função de transferência perceptiva utiliza um conjunto limitado de parâmetros de controle.
[0110] A Fig. 4a mostra uma ilustração de uma função de transferência perceptiva TM que pode ser usada para mapear componentes de luminância, mas pode ser usada uma função de transferência perceptiva semelhante para mapear o componente de luminância. O mapeamento é controlado por um parâmetro de luminância de pico de exibição de masterização (igual a 5000 cd/m2 na Fig. 4a).
Para controlar melhor os níveis de preto e branco, um sinal que se estende entre os níveis de preto e branco dependentes de conteúdo é aplicado. Em seguida, o sinal convertido é mapeado usando uma curva em peças composta por três partes, como ilustrado na Fig. 4b. As seções inferior e superior são lineares, a inclinação é determinada pelos parâmetros de controle shadowGain e de controle highlightGain, respectivamente. A seção intermediária é uma parábola que fornece uma ponte contínua e suave entre as duas seções lineares. A largura do cruzamento é determinada pelo parâmetro midToneWidthAdjFactor. Todos os parâmetros que controlam o mapeamento podem ser transmitidos como metadados, por exemplo, usando uma mensagem SEI conforme especificado nos metadados ETSI TS 103 433-1, Anexo A.2.
[0111] A Fig. 4c mostra um exemplo do inverso da função de transferência perceptiva TM (Fig. 4a) para ilustrar como um sinal de luminância perceptivamente otimizado pode ser convertido de volta para o domínio de luz linear com base em uma luminância máxima de exibição herdada direcionada, por exemplo 100 cd/m2.
[0112] Na etapa 25 (Fig. 2 ou 3), o conjunto de parâmetros SP é obtido para reconstruir os três componentes {𝐶3 } dos componentes da árvore {𝐶20 }. Esses parâmetros podem ser obtidos a partir de metadados obtidos de um fluxo de bits, por exemplo, o fluxo de bits B.
[0113] ETSI TS 103 433-1 V1.2.1, cláusula 6, e o Anexo A.2 fornecem um exemplo de sintaxe dos referidos metadados. A sintaxe desta recomendação ETSI é descrita para reconstruir um vídeo HDR a partir de um vídeo SDR, mas essa sintaxe pode se estender à reconstrução de qualquer imagem de qualquer componente decodificado; como exemplo, TS 103 433-2 V1.1.1 usa a mesma sintaxe para reconstruir um vídeo HDR adaptado à exibição a partir de um sinal de vídeo HDR (com um faixa dinâmica diferente).
[0114] De acordo com ETSI TS 103 433-1 V1.2.1, os referidos metadados dinâmicos podem ser transportados de acordo com quer o assim chamado modo baseado em parâmetro ou modo baseado em tabela. O modo baseado em parâmetro pode ser interessante para fluxos de trabalho de distribuição cujo objetivo principal é prover serviços compatíveis com versões anteriores de SDR direto com carga útil adicional muito baixa ou uso de largura de banda para transportar os metadados dinâmicos. O modo baseado em tabela pode ser interessante para fluxos de trabalho equipados com terminais de nível baixo (low-end) ou quando é necessário um nível mais alto de adaptação para representar adequadamente os fluxos HDR e SDR. No modo baseado em parâmetros, os metadados dinâmicos a serem transportados são parâmetros de mapeamento de luminância representativos da função de mapeamento inverso a ser aplicada na etapa de pós-processamento, isto é, parâmetros tmInputSignalBlackLevelOffset; tmInputSignalWhiteLevelOffset; shadowGain; destaque Ganho; midToneWidthAdjFactor; tmOutputFineTuning.
[0115] Além disso, outros metadados dinâmicos a serem transmitidos são parâmetros de correção de cores (saturationGainNumVal, saturationGainX(i) e saturationGainY(i)) usados para ajustar a função de correção de croma padrão β(.), conforme especificado em ETSI TS 103 433-1 V1.2.1, cláusulas 6.3.5 e 6.3.6. Os parâmetros a e b podem ser transportados respectivamente nos parâmetros da função saturationGain, conforme explicado acima. Esses metadados dinâmicos podem ser transmitidos usando a mensagem SEI registrada pelos dados de usuário de Informação HEVC SL-HDR (SL-HDRI) (vide o ETSI TS 103 433-1 V1.2.1, Anexo A.2) ou outro mecanismo de dados de extensão, como especificado em AVS2 /IEEE1857.4. O tamanho típico da carga útil de metadados dinâmicos é inferior a 100 bytes por imagem ou cena.
[0116] De volta à Fig. 3, na etapa 25, a mensagem SEI SL-HDRI é analisada para obter pelo menos um parâmetro do conjunto de parâmetros SP.
[0117] Nas etapas 282 e 202, a função de mapeamento inverso (assim chamada lutMapY) é reconstruída (derivada) dos parâmetros de mapeamento obtidos (vide ETSI TS 103 433-1 V1.2.1, cláusula 7.2.3.1, para obter mais detalhes, - a mesma cláusula para TS 103 433-2 V1.1.1).
[0118] Nas etapas 282 e 202, a função de correção de croma β(.) (assim chamada lutCC) também é reconstruída (derivada) dos parâmetros de correção de cores obtidos (vide ETSI TS 103 433-1 V1.2.1, cláusula 7.2.3.2, para obter mais detalhes , mesma cláusula para TS 103 433-2 V1.1.1).
[0119] No modo baseado em tabela, os dados dinâmicos a serem transmitidos são pontos pivôs de uma curva linear em peças, representativa da função de mapeamento. Por exemplo, os metadados dinâmicos são luminanceMappingNumVal que indicam o número de pontos pivôs, luminanceMappingX que indica os valores de abscissa (x) dos pontos pivôs e luminanceMappingY que indica os valores da ordenada (y) dos pontos pivôs (vide ETSI TS 103 433-1 V1.2.1, cláusulas 6.2.7 e 6.3.7 para obter mais detalhes). Além disso, outros metadados dinâmicos a serem transportados podem ser pontos pivôs de uma curva linear em peças representativa da função de correção de croma β(.).
Por exemplo, os metadados dinâmicos são colorCorrectionNumVal que indica o número de pontos pivôs, colorCorrectionX que indica os valores de x dos pontos pivôs e colorCorrectionY que indica os valores de y dos pontos pivôs (vide as cláusulas 6.2 de ETSI TS 103 433-1 V1.2.1 .8 e 6.3.8 para mais detalhes). Esses metadados dinâmicos podem ser transmitidos usando a mensagem SEI HEVC SL- HDRI (mapeamento entre os parâmetros da cláusula 6 e os metadados de distribuição do Anexo A são providos no Anexo A.2.3 de ETSI TS 103 433-1 V1.2.1).
[0120] Na etapa 25, a mensagem SEI SL-HDRI é analisada para obter os pontos pivôs de uma curva linear em peças representativa da função de mapeamento inverso e os pontos pivôs de uma curva linear me peças representativa da função de correção de croma β(. ) e os parâmetros de injeção de croma para luma a e b.
[0121] Nas etapas 282 e 202, a função de mapeamento inverso é derivada desses pontos pivôs em relação a uma curva linear em peças representativa da função de mapeamento inverso ITM (vide ETSI TS 103 433-1 V1.2.1, cláusula
7.2.3.3 para obter mais detalhes, - mesma cláusula para ETSI TS 103 433-2 V1.1.1).
[0122] Nas etapas 281 e 201, a função de correção de croma β(.) também é derivada daquela dos referidos pontos pivôs em relação a uma curva linear em peças representativa da função de correção de croma β(.), (Vide ETSI TS 103 433-1 V1.2.1, cláusula 7.2.3.4, para obter mais detalhes, - mesma cláusula para TS 103 433-2 V1.1.1).
[0123] Observe que os metadados estáticos também usados pela etapa de pós-processamento podem ser transmitidos pela mensagem SEI. Por exemplo, a seleção do modo baseado em parâmetros ou no modo baseado em tabela pode ser realizada pelas informações payloadMode, conforme especificado por ETSI TS 103 433-1 V1.2.1 (cláusula A.2.2). Os metadados estáticos, como, por exemplo, as cores primárias ou a luminância máxima de exibição de masterização, são transmitidos por uma mensagem SEI de Volume de Coro de Exibição de Masterização (MDCV), conforme especificado em AVC, HEVC ou incorporado na mensagem SEI SL-HDRI, conforme especificado em ETSI TS 103 433-1 V1.2.1, Anexo A.2. 2 3
[0124] Como descrito anteriormente, os componentes de croma 𝐶12 e 𝐶12 são obtidos corrigindo os componentes de croma 𝐶12 e 𝐶13 (eq. 6). Os referidos componentes de croma 𝐶12 , 𝐶13 são obtidos aplicando uma matriz de conversão A aos três componentes {𝐶10 } (etapa 21).
[0125] Pode ocorrer, para alguns valores específicos dos três componentes 2 3 {𝐶1 }, que pelo menos um dos componentes de croma 𝐶12 e 𝐶12 (eq. 6) estejam fora de um determinado intervalo de valores e, portanto, sejam cortados, produzindo erros de reconstrução nos três componentes {𝐶3 }.
[0126] As presentes modalidades evitam tal recorte de componente de croma, adaptando coeficientes da matriz de conversão que são relativos a um 2 2 componente de croma 𝐶12 (respectivamente 𝐶13 ), independentemente da adaptação dos coeficientes da matriz de conversão que são relativos ao componente de croma 2 2 𝐶13 (respectivamente 𝐶12 ).
[0127] De acordo com uma modalidade, a submatriz 1x3 A2 da matriz de conversão A é adaptada dividindo os coeficientes A21, A22 e A23 da submatriz 1x3 A2 por um fator de correção corr1 que leva a uma matriz corrigida A2corr = [A21/corr1 A22/corr1 A23/corr1].
[0128] A matriz de conversão corrigida Acorr1 é então dada por: 𝐴11 𝐴12 𝐴13 𝐴𝑐𝑜𝑟𝑟1 𝐴21 /𝑐𝑜𝑟𝑟1 𝐴22 /𝑐𝑜𝑟𝑟1 𝐴23 /𝑐𝑜𝑟𝑟1 𝐴31 𝐴32 𝐴33
[0129] O fator de correção corr1 é definido para evitar qualquer recorte do 2 componente 𝐶12 (eq. 6) em que a matriz de conversão A2 na eq. 1 é substituída pela submatriz corrigida A2corr.
[0130] De acordo com uma modalidade, a submatriz 1x3 A3 da matriz de conversão A é adaptada dividindo os coeficientes A31, A32 e A33 da submatriz 1x3 A3 por um fator de correção corr2 levando a uma submatriz corrigida A3corr = [A31/corr2 A32/corr2 A33/corr2].
[0131] A matriz de conversão corrigida Acorr2 é então dada por: 𝐴11 𝐴12 𝐴13 𝑐𝑜𝑟𝑟2 𝐴 21 𝐴 22 𝐴23 𝐴31 /𝑐𝑜𝑟𝑟2 𝐴32 /𝑐𝑜𝑟𝑟2 𝐴33 /𝑐𝑜𝑟𝑟2
[0132] O fator de correção corr2 é definido para evitar qualquer recorte do 2 componente 𝐶13 (eq.6) em que a matriz de conversão A3 na eq. 1 é substituída pela submatriz corrigida A3corr.
[0133] De acordo com uma modalidade, a submatriz 1x3 A2 e a submatriz 1x3 A3 da matriz de conversão A são adaptadas dividindo os coeficientes da submatriz A2 pelo fator de correção corr1 e os coeficientes da submatriz A3 pelo fator de correção corr2. As submatrizes A2 e A3 na eq. 1 são então substituídos pelas submatrizes corrigidas A2corr e A3corr, respectivamente.
[0134] A matriz de conversão corrigida Acorr1corr2 é então dada por: 𝐴11 𝐴12 𝐴13 𝑐𝑜𝑟𝑟1𝑐𝑜𝑟𝑟2 𝐴 21 /𝑐𝑜𝑟𝑟1 𝐴 22 /𝑐𝑜𝑟𝑟1 𝐴 23 /𝑐𝑜𝑟𝑟1 𝐴31/ 2 𝐴 32 /𝑐𝑜𝑟𝑟2 𝐴 33 /𝑐𝑜𝑟𝑟2
[0135] A correção dos coeficientes da submatriz A2 e/ou A3 precisa ser compensada pela mesma quantidade de correção na etapa de pós-processamento
28.
[0136] De acordo com uma modalidade, a adaptação dos coeficientes da matriz de conversão é compensada pela adaptação dos coeficientes de um inverso da matriz de conversão que se pretende aplicar aos componentes { 𝐶3 } (etapa 29).
[0137] De acordo com uma modalidade, quando a submatriz A2 é adaptada (etapa 21), uma matriz de conversão inversa corrigida A-1 corr1 é dada por: 1 0 𝐴′13 1 1 𝐴′22 ∗ 𝑐𝑜𝑟𝑟1 𝐴′23 𝐴 𝑐𝑜𝑟𝑟1 1 𝐴′32 ∗ 𝑐𝑜𝑟𝑟1 0
[0138] De acordo com uma modalidade, quando a submatriz A3 é adaptada (etapa 21), uma matriz de conversão inversa corrigida A-1 corr2 é dada por: 1 0 𝐴′13 ∗ 𝑐𝑜𝑟𝑟2 1 𝐴′ 𝐴 𝑐𝑜𝑟𝑟2 1 22 𝐴′23 ∗ 𝑐𝑜𝑟𝑟2 1 𝐴′32 0
[0139] De acordo com uma modalidade, quando as submatrizes A2 e A3 são adaptadas, uma matriz de conversão inversa corrigida A-1 corr1corr2 é dada por: 1 0 𝐴′13 ∗ 𝑐𝑜𝑟𝑟2 1 1 𝐴′22 ∗ 𝑐𝑜𝑟𝑟1 𝐴′23 ∗ 𝑐𝑜𝑟𝑟2 𝐴 𝑐𝑜𝑟𝑟1𝑐𝑜𝑟𝑟2 1 𝐴′32 ∗ 𝑐𝑜𝑟𝑟1 0
[0140] De acordo com uma modalidade, a matriz de conversão A é a matriz de conversão canônica de 3x3 R'G'B'-para-Y'CbCr.
[0141] De acordo com as presentes modalidades, um dado de informação é representativo da matriz de conversão corrigida Acorr1, Acorr2 ou Acorr1corr2 ou da matriz inversa corrigida A-1 corr1, A-1 corr2 ou A-1 corr1corr2.
[0142] De acordo com uma modalidade, os referidos dados de informação são representativos de pelo menos um dos fatores de correção corr1 e/ou corr2 e o inverso de pelo menos uma das matrizes inversas corrigidas A-1 corr1, A-1 corr2 ou A-1 corr1corr2 é então calculado a partir de uma matriz de conversão A, possivelmente transmitida ou conhecida de antemão, e o referido pelo menos um fator de correção corr1 e/ou corr2.
[0143] Preferivelmente, os referidos dados de informação são transmitidos como metadados utilizados para transmitir normalmente uma matriz de conversão A- 1 (sem qualquer correção). Esses metadados são definidos, por exemplo, na recomendação ETSI TS 103 433 (qualquer versão).
[0144] De acordo com uma modalidade, a correção dos coeficientes da matriz de conversão A é aplicada a todos os pixels em qualquer nível de luminância.
Isso envolve uma correção global que pode dessaturar os componentes de croma para toda a faixa de luminância, mesmo que a correção seja necessária apenas em uma pequena porção da faixa de luminância.
[0145] Portanto, de acordo com uma variante, a correção dos coeficientes da matriz de conversão A é aplicada apenas a pixels cujo nível de luminância pertence a uma faixa de luminância específica.
[0146] De acordo com uma modalidade, a correção da matriz de conversão A é compensada pela correção da função de correção de croma para a faixa de luminância que não precisa ser corrigida.
[0147] Por exemplo, a função de correção de croma β(.) de (eq. 10 e 10bis) pode ser corrigida da seguinte forma:
[0148] para (todos os valores v do componente 𝐶21 ou (𝐶2,1 ó ) (por exemplo, de 0 a 1023)) se (v não estiver na faixa Yu_corr1_)
βcorr1 (𝑣) = β (v)/corr1 Outro βcorr1 (𝑣) = β (v) se (𝐶12 não estiver na faixa Yv_corr2) βcorr2 (𝑣) = β (v)/corr2 Outro βcorr2 (𝑣) = β (v) onde Yu_corr1_range é uma faixa de luminância específica para o componente 𝐶22 , geralmente denota componente U, Yv_corr2_range é uma faixa de luminância específica para o componente 𝐶23 , geralmente denota componente V, e βcorr1(.), βcorr2(.) são funções de correção de croma aplicadas em (eq. 10 ou 10bis) em vez de β (.).
[0149] De acordo com uma modalidade, uma função de correção de croma βcorr (.), como o mínimo das funções de correção de croma βcorr1 (.), βcorr2 (.), aplica- se à eq. 10 ou 10bis para garantir que não ocorra saturação excessiva.
[0150] Matematicamente falando, para (todos os valores de v) βcorr (𝑣) = min(βcorr1(v), βcorr2(v)).
[0151] De acordo com uma variante, a função de correção de croma βcorr (.) é a função de correção de croma βcorr2 (.).
[0152] Na implementação prática, o fenômeno de dessaturação foi observado principalmente quando a correção foi aplicada no componente 𝐶23 (V), ou seja, no componente vermelho. Isso pode ser explicado pelo fato de o olho humano ser mais sensível à saturação nas cores vermelho do que nas cores azul.
[0153] De acordo com uma modalidade, um representante de dados de informação se a função de correção de croma corrigida βcorr ( ) (ou um fator de correção usado para adaptar uma determinada função de correção de croma β (.)) for transmitido da etapa de pré-processamento para a etapa de pós-processamento,
preferivelmente como metadados usados para transmitir normalmente a função de correção de croma β ( ) (sem nenhuma correção). Esses metadados são definidos, por exemplo, na recomendação ETSI TS 103 433 (qualquer versão).
[0154] Para que a compensação de correção relevante possa ser aplicada substituindo a função de correção de croma β (.) por βcorr (.) em (eq. 10 ou 10bis) do processo de reconstrução. Esta função de correção de croma corrigida βcorr (.) compensa a correção do inverso da matriz inversa A-1.
[0155] De acordo com uma modalidade, ilustrada na Fig. 6, os fatores de correção corr1 e/ou corr2 são (é) obtidos da seguinte forma:
[0156] Na etapa 600, um primeiro fator de correção atual corr1-cur é inicializado, por exemplo, para 1. Possivelmente, um segundo fator de correção atual corr2-cur é inicializado, por exemplo, para 1.
[0157] Um primeiro valor máximo indicado como Maximum-value-U é definido. O referido primeiro valor máximo é um valor máximo para o componente de croma 𝐶12 que pode ser representado sem recorte e sem correção.
[0158] Tipicamente, o referido componente de croma é representado em 9 bits mais sinal e, em seguida, valor máximo-U = 511.
[0159] Um segundo valor máximo denotado como Valor máximo-V é definido. O segundo valor máximo é um valor máximo para o componente de croma 𝐶13 que pode ser representado sem recorte e sem correção.
[0160] Tipicamente, o referido componente de croma é representado em 9 bits mais sinal e, em seguida, valor máximo-V = 511.
[0161] Yu_min e Yu_max definem os limites de um faixa de luminância Yu_corr1_range na qual o fator de correção corr1 se aplica: Yu_corr1_range = [Yu_min - Yu_max]
[0162] Observe que a correção de acordo com o fator de correção corr1 não se aplica a valores de luminância fora da faixa de luminância Yu_corr1_range.
[0163] Yv_min e Yv_max definem os limites de uma faixa de luminância Yv_corr2_range na qual o fator de correção corr2 se aplica: Yv_corr2_range = [Yv_min - Yv_max]
[0164] Observe que a correção de acordo com o fator de correção corr2 não se aplica a valores de luminância fora da faixa de luminância Yv_corr2_range.
[0165] Yu_curr, Yu_max, Yu_min, corr1_cur, corr1_max Yv_curr, Yv_max, Yv_min, corr2_cur e corr2_max são valores inteiros.
[0166] Yu_max, Yu_min, Yv_min e Yv_max são primeiro inicializados para um valor marcado como inválido, ou seja, com um valor que o método não pode gerar.
Yu_min = Yu_min_invalid Yu_max = Yu_max_invalid Yv_min = Yv_min_invalid Yv_max = Yv_max_invalid 1
[0167] Por exemplo, se o componente 𝐶12 for codificado em 10 bits, Yu_min e Yv_min poderão ser inicializados em 1023 ou mais, e Yu_max e Yv_max poderão ser inicializados em 0 ou menos.
[0168] Na etapa 610, para cada pixel p de uma imagem formada a partir dos três componentes {𝐶1 } (ou opcionalmente uma versão subamostrada da referida imagem): se (𝐶12 𝑝 > Maximum-value-U) então corr1_cur = 𝐶12 𝑝 / Maximum-value-U corr1_max = max (corr1_cur, corr1_max) Yu_curr = 𝐶1,1 1 𝑝 ou opcionalmente 𝐶12 𝑝) Yu_max = max(Yu_curr, Yu_max) Yu_min = min(Yu_curr, Yu_min) fim se (𝐶13 𝑝 > Maximum-value-V) então corr2_cur = 𝐶13 𝑝 / Maximum-value-V corr2_max = max (corr2_cur, corr2_max) Yv_curr = 𝐶1,1 1 𝑝 ou opcionalmente 𝐶12 𝑝) Yv_max = max(Yv_curr, Yv_max) Yv_min = min(Yv_curr, Yv_min) fim
[0169] No final da etapa 610, se Yu_min = Yu_min_invalid e Yu_max = Yu_max_invalid, isso significa que nenhuma correção precisa ser aplicada ao 2 componente 𝐶12 . Da mesma forma, se Yv_min = Yv_min_invalid e Yv_max = Yv_max_invalid, isso significa que nenhuma correção precisa ser aplicada ao 3 componente 𝐶12 .
[0170] O valor corr1_max resultante fornece o fator de correção corr1 e o valor corr2_max resultante fornece o fator de correção corr2.
[0171] De acordo com uma modalidade, os fatores de correção corr1 e corr2 são obtidos filtrando os fatores de correção corr1 e corr2 obtidos para pixels vizinhos.
[0172] Exemplo de filtragem é a média.
[0173] De acordo com uma modalidade, os fatores de correção corr1 e corr2 são obtidos a partir de um histograma de todos os diferentes valores de corr1 e corr2, cada valor de corr1 e corr2 é calculado para cada pixel da imagem.
[0174] Isso permite detectar alguns valores altos de corr1 e corr2 que podem aparecer erraticamente devido ao ruído presente na fonte.
[0175] Nesse caso não há necessidade de aplicar os valores altos correspondentes de corr1 e corr2 em todos os pixels e, assim, os fatores de correção consistentes corr1 e corr2 podem ser estimados forçando uma contagem mínima determinada fixa dos valores de corr1 e corr2 contando o número de posições presentes no histograma, começando pelos compartimentos mais altos.
[0176] Seis parâmetros corr1, corr2, Yu_min, Yu_max, Yv_min e Yv_max são derivados do método da Fig. 6.
[0177] Se nenhuma estabilização temporal for aplicada, esses parâmetros poderão variar, e isso fará com que as imagens da saída da etapa de pré- processamento 20 formadas pelos três componentes {𝐶12 } sejam instáveis e visualmente inaceitáveis.
[0178] A aplicação de uma estabilização temporal requer determinar períodos específicos de tempo para coletar os 6 parâmetros.
[0179] De acordo com uma modalidade do método, os valores de cada um dos 6 parâmetros são coletados durante um determinado período de tempo que precede um instante de tempo atual e, no instante de tempo atual, uma versão filtrada de cada um desses parâmetros é entregue.
[0180] A Fig. 7 mostra um método para coletar os valores de cada um dos 6 parâmetros corr1, coor2, Yu_min, Yu_max, Yv_min e Yv_max durante um determinado período de tempo, de acordo com um exemplo dos presentes princípios.
[0181] Em uma primeira etapa, os 6 parâmetros são inicializados, por exemplo, após a detecção de um corte de cena ou a cada n imagens sucessivas.
[0182] De acordo com uma modalidade, na etapa 700, um armazenador temporário (buffer) é inicializado para cada um dos 6 parâmetros como a seguir.
[0183] corr1_buf[i] é um armazenador temporário relativo ao parâmetro corr1 e corr1_buf[i] = corr1 para i = 0, n-1, em que i é um índice que faz referência a uma imagem pertencente a um determinado período de tempo;
[0184] corr2_buf[i] = corr2 para i = 0, n-1, em que corr2_buf[i] é um armazenador temporário relativo ao parâmetro corr2; Se (Yu_min! = Yu_min_invalid), então Yu_min_buf[i] = Yu_min ou Yu_min_buf[i] = Yu_min_invalid; Se (Yu_max! = Yu_max_invalid), então Yu_max_buf[i] = Yu_max ou Yu_max_buf[i] = Yu_max_invalid; Se (Yv_min! = Yv_min_invalid), então Yv_min_buf[i] = Yv_min; ou Yv_min_buf[i] = Yv_min_invalid; Se (Yv_max! = Yv_max_invalid), então Yv_max_buf[i] = Yv_max, ou Yv_max_buf[i] = Yv_max_invalid; onde corr1, corr2, Yu_min, Yu_max, Yv_min e Yv_max são valores recebidos gerados pelo método da Fig. 6 para cada imagem i do período especificado, Yu_min_invalid, Yu_max_invalid, Yv_min_invalid e Yv_max_invalid são valores inválidos em relação aos parâmetros Yu_min, Yu_max, Yv_min e Yv_max, respectivamente, e n é o número de imagens no período de tempo especificado. O tamanho do armazenador temporário n pode ser o mesmo para todos os parâmetros ou pode depender do parâmetro.
[0185] Quando um valor inválido é gerado pelo método da Fig. 6, isso significa que nenhuma faixa de luma válida foi calculada para esse quadro atual, ou seja, não há necessidade de corrigir o componente U ou V correspondente para o quadro atual. Consequentemente, não há necessidade de estabilizar temporariamente o parâmetro atual.
[0186] Para cada parâmetro, um valor acumulado representativo de todos os valores do armazenador temporário correspondente é calculado.
cum_corr1 = f(corr1_buf[i], i = 0..n-1) cum_corr2 = f(corr2_buf[i], i = 0..n-1) cum_Yu_min = f(Yu_min_buf[i], i = 0..n-1) cum_Yu_max = f(Yu_max_buf[i], i = 0..n-1) cum_Yv_min = f(Yv_min_buf[i], i = 0..n-1) cum_Yv_max = f(Yv_max_buf[i], i = 0..n-1)
onde cum_corr1, cum_corr2, cum_Yu_min, cum_Yu_max, cum_Yv_min e cum_Yv_max são os valores cumulativos relativos aos 6 parâmetros e f(.) é um funcional que pode ser uma soma simples, uma soma ponderada que atribui mais peso a valores específicos do índice i nos armazenadores temporários.
[0187] Na etapa 710, entre dois cortes de cena sucessivos, o valor cumulativo, relativo a cada um dos 6 parâmetros e calculado a partir de várias imagens até um índice j (0≤i≤j), é atualizado por: - subtrair o valor do parâmetro em relação à imagem j, que é o parâmetro mais antigo, a partir do valor acumulado atual; - adicionar um novo valor de parâmetro, calculado a partir da imagem atual na posição j; - atualizar o armazenador temporário correspondente no índice j; e - computar um valor filtrado para cada parâmetro.
[0188] De acordo com uma variante, o valor filtrado pode ser uma divisão simples do valor acumulado correspondente com o tamanho do armazenador temporário correspondente.
[0189] De acordo com outra variante da etapa 710, o valor filtrado pode ser uma divisão do valor acumulado correspondente com o número correspondente à soma dos quadros ponderados que foram levados em consideração ao calcular o valor acumulado.
[0190] De acordo com uma variante da etapa 710, a subtração pode ser uma subtração simples ou ponderada de uma combinação entre o valor do parâmetro mais antigo e qualquer um dos seguintes.
[0191] De acordo com uma variante da etapa 710, a adição pode ser uma adição simples ou ponderada de uma combinação entre o valor mais recente do parâmetro e qualquer um dos anteriores.
[0192] De acordo com uma variante da etapa 710, para os valores Yu_min,
Yu_max, Yv_min e Yv_max, o método verifica ainda se o armazenador temporário correspondente a um parâmetro já inicializado ou não anteriormente no corte atual.
Se sim, o valor de armazenador temporário atual será atualizado se o valor atual for um valor válido. Caso contrário, o armazenador temporário e o valor acumulado são inicializados, conforme descrito na etapa 700.
[0193] Com um exemplo, se o tamanho do armazenador temporário n for o mesmo para todos os 6 parâmetros, se o índice atual for j, se o valor acumulado for uma soma simples para todos os parâmetros e se o valor filtrado for uma divisão simples pelo tamanho do armazenador temporário n, todos os valores filtrados são calculados da seguinte maneira: - cum_corr1 = cum_corr1 - corr1_buf[j] + corr1 - corr1_buf[j] = corr1 - filtered_corr1 = cum_corr1 / n - cum_corr2 = cum_corr2 – corr2_buf[j] + corr2 - corr2_buf[j] = corr2 - filtered_corr2 = cum_corr2 / n Se (Yu_min != Yu_min_invalid) Se (Yu_min_buf[j] != Yu_min_invalid) cum_Yu_min = cum_Yu_min - Yu_min_buf[j] + Yu_min Yu_min_buf[j] = Yu_min filtered_Yu_min = cum_Yu_min / n ou (necessário iniciar o armazenador temporário e o valor acumulado) Yu_min_buf[i] = Yu_min para i=0,..,n-1; cum_Yu_min = Yu_min * n Se (Yu_max != Yu_max_invalid) Se (Yu_max_buf[j] != Yu_max_invalid)
cum_Yu_max = cum_Yu_max - Yu_max_buf[j] + Yu_max Yu_max_buf[j] = Yu_max filtered_Yu_max = cum_Yu_max / n ou (necessário iniciar o armazenador temporário e o valor acumulado) Yu_max_buf[i] = Yu_max for i=0,…,n-1; cum_Yu_max = Yu_max * n Se (Yv_min != Yv_min_invalid) Se (Yv_min_buf[j] != Yv_min_invalid) cum_Yv_min = cum_Yv_min - Yv_min_buf[j] + Yv_min Yv_min_buf[j] = Yv_min filtered_Yv_min = cum_Yv_min / n ou (necessário iniciar o armazenador temporário e o valor acumulado) Yv_min_buf[i] = Yv_min for i=0,…n-1 cum_Yv_min = Yv_min * n Se (Yv_max != Yv_max_invalid) Se (Yv_max_buf[j] != Yv_max_invalid) cum_Yv_max = cum_Yv_max - Yv_max_buf[j] + Yv_max Yv_max_buf[j] = Yv_max filtered_Yv_max = cum_Yv_max / n ou (necessário iniciar o armazenador temporário e o valor acumulado) Yv_max_buf[j] = Yv_max for i=0,…n-1 cum_Yv_max = Yv_max * n - Atualizar todos os indices j usando o algoritmo simples: - j++ Se (j = n (n = tamanho de armazenador temporário correspondente)) j=0
[0194] De acordo com outra modalidade do método, ilustrado na Fig. 8, os parâmetros são inicializados quando um primeiro quadro de uma sequência de imagens é considerado.
[0195] Nas Fig. 1-4c e 6-8, os módulos são unidades funcionais, que podem ou não estar relacionadas com unidades físicas distinguíveis. Por exemplo, esses módulos ou alguns deles podem ser reunidos em um componente exclusivo ou circuito ou contribuir para as funcionalidades de um software. Por outro lado, alguns módulos podem potencialmente ser compostos por entidades físicas separadas. Os aparelhos que são compatíveis com os presentes princípios são implementados usando hardware puro, por exemplo, usando hardware dedicado, como ASIC ou FPGA ou VLSI, respectivamente "Circuito Integrado de Aplicação Específica", "Arranjo de Porta Programável em Campo", "Integração em Escala Muito Grande" ou de vários componentes eletrônicos integrados incorporados em um aparelho ou de uma mistura de componentes de hardware e software.
[0196] A Fig. 5 representa uma modalidade exemplar de uma arquitetura de um aparelho 50 que pode ser configurado para implementar um método descrito em relação às Fig. 1-4c e 6-8.
[0197] O aparelho 50 compreende os seguintes elementos que são interligados por um barramento de dados e endereço 51: um microprocessador 52 (ou CPU), que é, por exemplo, um DSP (ou Processador de Sinal Digital), uma ROM (ou Memória Somente de Leitura) 53, uma RAM (ou Memória de Acesso Aleatório) 54, uma interface I/O 55 para recepção de dados para transmissão, a partir de um aplicativo e opcionalmente uma bateria 56. De acordo com um exemplo, a bateria 56 é externa ao aparelho. Em cada uma das memórias mencionadas, a palavra «registrador» usada na especificação pode corresponder a uma área de pequena capacidade (alguns bits) ou a uma área muito grande (por exemplo, um programa inteiro ou uma grande quantidade de dados recebidos ou decodificados). A ROM 53 compreende pelo menos um programa e parâmetros. A ROM 53 pode armazenar algoritmos e instruções para executar técnicas de acordo com os princípios presentes. Quando ligada, a CPU 52 carrega o programa na RAM 54 e executa as instruções correspondentes. A RAM 54 compreende, em um registrador, o programa executado pela CPU 52 e carregado após a comutação do aparelho 50, dados de entrada em um registrador, dados intermediários em diferentes estados do método em um registrador e outras variáveis usadas para a execução do método em um registrador.
[0198] As implementações descritas neste documento podem ser implementadas em, por exemplo, um método ou processo, um aparelho, um programa de software, um fluxo de dados ou um sinal. Mesmo se discutida apenas no contexto de uma única forma de implementação (por exemplo, discutida apenas como método ou um aparelho), a implementação de recursos discutidos também pode ser implementada de outras formas (por exemplo, um programa). Um aparelho pode ser implementado em, por exemplo, hardware, software e firmware apropriados. Os métodos podem ser implementados em, por exemplo, um aparelho tal como, por exemplo, um processador, que se refere ao aparelho de processamento em geral, incluindo, por exemplo, um computador, um microprocessador, um circuito integrado ou um aparelho de lógica programável. Os processadores também incluem aparelhos de comunicação, tais como, por exemplo, computadores, telefones celulares, assistentes digitais portáteis/pessoais ("PDAs") e outros aparelhos que facilitam a comunicação de informações entre os usuários finais.
[0199] De acordo com um exemplo, o vídeo de entrada ou uma imagem de um vídeo de entrada são obtidos a partir de uma fonte. Por exemplo, a fonte pertence a um conjunto que compreende uma memória local (53 ou 54), por exemplo, uma memória de vídeo ou uma RAM (ou Memória de Acesso Aleatório), uma memória flash, uma ROM (ou Memória Somente de Leitura), um disco rígido,
uma interface de armazenamento (55), por exemplo, uma interface com um armazenamento em massa, uma RAM, uma memória flash, uma ROM, um disco óptico ou um suporte magnético, uma interface de comunicação (55), por exemplo, uma interface cabeada (por exemplo, uma interface de barramento, uma interface de rede de área ampla, uma interface de rede de área local) ou uma interface sem fio (como uma interface IEEE 802.11 ou uma interface Bluetooth®); e um circuito de captura de imagem (por exemplo, um sensor como, por exemplo, um CCD (ou dispositivo acoplado a carga) ou CMOS (ou semicondutor de óxido de metal complementar)).
[0200] De acordo com exemplos, o fluxo de bits que carrega os metadados é enviado para um destino. Como exemplo, um fluxo de bits é armazenado em uma memória local ou remota, por exemplo, uma memória de vídeo ou uma RAM (54), um disco rígido. Em uma variante, pelo menos um dos fluxos de bits é enviado para uma interface de armazenamento (55), por exemplo, uma interface com um armazenamento em massa, uma memória flash, ROM, um disco óptico ou um suporte magnético e/ou transmitidos através de uma interface de comunicação (55), por exemplo, uma interface para um link ponto a ponto, um barramento de comunicação, um link ponto a multiponto ou uma rede de radiodifusão.
[0201] De acordo com outros exemplos, o fluxo de bits que carrega os metadados é obtido de uma fonte. Exemplarmente, o fluxo de bits é lido a partir de uma memória local, por exemplo, uma memória de vídeo (54), uma RAM (54), uma ROM (53), uma memória flash (53) ou um disco rígido (53). Em uma variante, o fluxo de bits é recebido de uma interface de armazenamento (55), por exemplo, uma interface com um armazenamento em massa, uma RAM, uma ROM, uma memória flash, um disco óptico ou um suporte magnético e/ou recebido de uma interface de comunicação (55), por exemplo, uma interface para um link ponto a ponto, um barramento, um link ponto a multiponto ou uma rede de transmissão.
[0202] De acordo com exemplos, o aparelho 50 que está sendo configurado para implementar o método descrito acima, pertence a um conjunto que compreende um dispositivo móvel, um dispositivo de comunicação, um dispositivo de jogo, um tablet (ou computador tablet), um laptop, uma câmera de imagem estática, uma câmera de vídeo, um chip de codificação/decodificação, uma televisão, uma caixa decodificadora, uma tela, um servidor de imagem estática e um servidor de vídeo (por exemplo, um servidor de transmissão, um servidor de vídeo sob demanda ou um servidor web).
[0203] As implementações dos vários processos e recursos descritos neste documento podem ser incorporadas em uma variedade de diferentes equipamentos ou aplicações. Exemplos de tais equipamentos incluem um codificador, um decodificador, uma saída de processamento pós-processador a partir de um decodificador, um pré-processador que fornece entrada para um codificador, um codificador de vídeo, um decodificador de vídeo, um codec de vídeo, um servidor web, uma caixa decodificadora, um laptop, um computador pessoal, um telefone celular, um PDA e qualquer outro dispositivo para processar uma imagem ou vídeo ou outro aparelho de comunicação. Como deve ficar claro, o equipamento pode ser móvel e mesmo instalado em um veículo móvel.
[0204] Além disso, os métodos podem ser implementados por instruções executadas por um processador e essas instruções (e/ou valores de dados produzidos por uma implementação) podem ser armazenadas em um meio de armazenamento legível por computador. Um meio de armazenamento legível por computador pode assumir a forma de um produto de programa legível por computador incorporado em um ou mais meios legíveis por computador e com código de programa legível por computador incorporado nele que é executável por um computador. Um meio de armazenamento legível por computador, conforme aqui utilizado, é considerado um meio de armazenamento não transitório, dada a capacidade inerente de armazenar as informações nele contidas, bem como a capacidade inerente de prover recuperação das informações a partir dele. Um meio de armazenamento legível por computador pode ser, por exemplo, mas não se limita a, um sistema, aparelho ou dispositivo eletrônico, magnético, óptico, eletromagnético, infravermelho ou semicondutor, ou qualquer combinação adequada dos anteriores. Deve ser apreciado que os seguintes, embora forneçam exemplos mais específicos de meios de armazenamento legíveis por computador aos quais os presentes princípios possam ser aplicados, são meramente uma lista ilustrativa e não exaustiva, como é facilmente apreciado por um versado na técnica: um computador portátil; um disquete; um disco rígido; uma memória somente de leitura (ROM); uma memória somente de leitura programável apagável (EPROM ou memória Flash); uma memória somente de leitura portátil de CD (CD-ROM); um dispositivo de armazenamento óptico; um dispositivo de armazenamento magnético; ou qualquer combinação adequada dos anteriores.
[0205] As instruções podem formar um programa de aplicativo tangivelmente incorporado em um meio legível por processador. As instruções podem estar, por exemplo, em hardware, firmware, software ou uma combinação. As instruções podem ser encontradas em, por exemplo, um sistema operacional, um aplicativo separado ou uma combinação dos dois. Um processador pode ser caracterizado, portanto, como, por exemplo, um aparelho configurado para executar um processo e um aparelho que inclui um meio legível por processador (como um aparelho de armazenamento) tendo instruções para executar um processo. Além disso, um meio legível por processador pode armazenar, em adição a ou em vez de, instruções, valores de dados produzidos por uma implementação.
[0206] Como será evidente para um especialista na técnica, implementações podem produzir uma variedade de sinais formatados para portar informações que podem ser, por exemplo, armazenadas ou transmitidas. As informações podem incluir, por exemplo, instruções para executar um método ou dados produzidos por uma das implementações descritas. Por exemplo, um sinal pode ser formatado para portar como dados as regras para gravar ou ler a sintaxe de um exemplo descrito dos presentes princípios, ou para portar como dados os valores reais da sintaxe gravada por um exemplo descrito dos presentes princípios. Esse sinal pode ser formatado, por exemplo, como uma onda eletromagnética (por exemplo, usando uma porção de espectro de radiofrequência) ou como um sinal de banda base. A formatação pode incluir, por exemplo, codificação de um fluxo de dados e modulação de uma portadora com o fluxo de dados codificado. A informação que o sinal porta pode ser, por exemplo, informação analógica ou digital. O sinal pode ser transmitido através de uma variedade de diferentes links com ou sem fio, como é conhecido. O sinal pode ser armazenado em um meio legível por processador.
[0207] Várias implementações foram descritas. No entanto, será entendido que várias modificações podem ser feitas. Por exemplo, elementos de diferentes implementações podem ser combinados, suplementados, modificados ou removidos para produzir outras implementações. Além disso, alguém versado na técnica entenderá que outras estruturas e processos podem ser substituídos pelos divulgados e as implementações resultantes desempenharão pelo menos substancialmente a mesma função (s), pelo menos substancialmente da mesma maneira (s), para atingir pelo menos substancialmente o mesmo resultado que as implementações divulgadas. Por conseguinte, estas e outras implementações são contempladas por este pedido.

Claims (14)

REIVINDICAÇÕES
1. Método, CARACTERIZADO pelo fato de que compreende: - derivar componentes de croma (𝐶 , 𝐶 ) de uma terceira imagem, corrigindo componentes de croma (𝐶 , 𝐶 ) de uma segunda imagem de acordo com um componente de luma (𝐶 , é) da referida segunda imagem e um componente reconstruído obtido pela aplicação de uma função de mapeamento ao referido componente de luma (𝐶 , é) da referida segunda imagem, sendo os referidos componentes de croma (𝐶 , 𝐶 ) da segunda imagem obtidos aplicando uma matriz de conversão aos componentes (𝐶 ) de uma primeira imagem; e - adaptar coeficientes da matriz de conversão que são relativos a um componente de croma da referida terceira imagem, independentemente dos coeficientes da matriz de conversão que são relativos a outro componente de croma da referida terceira imagem para garantir que não haja recorte nos componentes de croma da terceira imagem .
2. Dispositivo, CARACTERIZADO pelo fato de que compreende meios para: - derivar componentes de croma (𝐶 , 𝐶 ) de uma terceira imagem, corrigindo componentes de croma (𝐶 , 𝐶 ) de uma segunda imagem de acordo com um componente de luma (𝐶 , é) da referida segunda imagem e um componente reconstruído obtido pela aplicação de uma função de mapeamento ao referido componente de luma (𝐶 , é) da referida segunda imagem, sendo os referidos componentes de croma (𝐶 , 𝐶 ) da segunda imagem obtidos aplicando uma matriz de conversão aos componentes (𝐶 ) de uma primeira imagem; e - adaptar coeficientes da matriz de conversão que são relativos a um componente de croma da referida terceira imagem, independentemente dos coeficientes da matriz de conversão que são relativos a outro componente de croma da referida terceira imagem para garantir que não haja recorte nos componentes de croma da terceira imagem.
3. Método, de acordo com uma das reivindicações 1, ou o dispositivo, de acordo com a reivindicação 2, CARACTERIZADO pelo fato de que o método adicionalmente compreende uma etapa de, e o dispositivo adicionalmente compreende meios para: - derivar uma sexta imagem aplicando um inverso da matriz de conversão nos componentes de uma quinta imagem cujos componentes de croma (𝐶 , 𝐶 ) são derivados por componentes de croma de correção inversa (𝐶 , 𝐶 ) de um quarta imagem de acordo com um componente de luma (𝐶 ) da referida quarta imagem, sendo a referida quarta imagem obtida a partir dos componentes da referida terceira imagem; e - compensar a adaptação dos coeficientes da matriz de conversão, adaptando os coeficientes do inverso da matriz de conversão.
4. Método ou dispositivo, de acordo com a reivindicação 3, CARACTERIZADO pelo fato de que adaptar os coeficientes da matriz de conversão compreende dividir os referidos coeficientes por pelo menos um fator de correção e adaptar os coeficientes do inverso da matriz de conversão compreende multiplicar os referidos coeficientes pelo referido pelo menos um fator de correção.
5. Método ou dispositivo, de acordo com a reivindicação 3 ou 4, CARACTERIZADO pelo fato de que a correção da matriz de conversão se aplica a todos os pixels de uma imagem.
6. Método ou dispositivo, de acordo com a reivindicação 3 ou 4, CARACTERIZADO pelo fato de que a correção da matriz de conversão se aplica apenas a pixels cujo nível de luminância pertence a uma faixa de luminância específica.
7. Método, de acordo com uma das reivindicações 1 ou 3-6, ou dispositivo, de acordo com uma das reivindicações 2-6, CARACTERIZADO pelo fato de que o método adicionalmente compreende uma etapa e o dispositivo adicionalmente compreende meios para transmitir dados de informação representativos da matriz de conversão corrigida, do inverso corrigido da matriz de conversão ou pelo menos um fator de correção.
8. Método, de acordo com a reivindicação 1 ,ou dispositivo, de acordo com a reivindicação 2, CARACTERIZADO pelo fato de que o método adicionalmente compreende uma etapa e o dispositivo adicionalmente compreende meios para: - derivar uma sexta imagem aplicando um inverso da matriz de conversão nos componentes de uma quinta imagem cujos componentes de croma (𝐶 , 𝐶 ) são derivados por componentes de croma de correção inversa (𝐶 , 𝐶 ) de um quarta imagem de acordo com um componente de luma (𝐶 ) da referida quarta imagem e uma função de correção de croma, sendo a referida quarta imagem obtida a partir dos componentes da referida terceira imagem; - compensar a adaptação de coeficientes da matriz de conversão adaptando a função de correção de croma a pelo menos uma faixa de luminância que não precise ser corrigida.
9. Método ou dispositivo, de acordo com a reivindicação 8, CARACTERIZADO pelo fato de que uma função de correção de croma corrigida é derivada dividindo uma função de correção de croma por um fator de correção.
10. Método ou dispositivo, de acordo com a reivindicação 9, CARACTERIZADO pelo fato de que o método adicionalmente compreende uma etapa e o dispositivo adicionalmente compreende meios para transmitir dados de informação representativos da função de correção de croma corrigida ou do referido fator de correção.
11. Método, de acordo com uma das reivindicações 1, 3-7, 9-10, ou o dispositivo, de acordo uma das reivindicações 2-7, 9-10, CARACTERIZADO pelo fato de que um fator de correção e dois limites de uma faixa de luminância são obtidos para um componente de croma de uma imagem, e em que dois fatores de correção, os valores do referido fator de correção e dos referidos dois limites de uma faixa de luminância são coletados durante um determinado período de tempo anterior a um instante de tempo atual e, no instante de tempo atual, uma versão filtrada de cada um dos esses valores são entregues.
12. Sinal, CARACTERIZADO pelo fato de que porta dados de informação representativos de uma correção destinada a ser usada para adaptar coeficientes de uma matriz de conversão que são relativos a um componente de croma de uma imagem, independentemente dos coeficientes da matriz de conversão que são relativos a outro componente de croma da referida imagem.
13. Produto de programa de computador, CARACTERIZADO pelo fato de que compreende instruções que, quando o programa é executado por um computador, faz com que o computador execute as etapas do método definido na reivindicação 1.
14. Meio legível por computador não transitório, CARACTERIZADO pelo fato de que compreende instruções que, quando executadas por um computador, fazem com que o computador execute o método definido na reivindicação 1.
BR112020009563-0A 2017-11-24 2018-07-18 método e aparelho para correção de cor durante conversão hdr para sdr BR112020009563A2 (pt)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
EP17306639 2017-11-24
EP17306639.0 2017-11-24
EP17306781 2017-12-15
EP17306781.0 2017-12-15
PCT/EP2018/069475 WO2019101373A1 (en) 2017-11-24 2018-07-18 Method and apparatus for colour correction during hdr to sdr conversion

Publications (1)

Publication Number Publication Date
BR112020009563A2 true BR112020009563A2 (pt) 2020-11-03

Family

ID=62948130

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112020009563-0A BR112020009563A2 (pt) 2017-11-24 2018-07-18 método e aparelho para correção de cor durante conversão hdr para sdr

Country Status (7)

Country Link
US (1) US11423522B2 (pt)
EP (1) EP3714603A1 (pt)
KR (1) KR102496345B1 (pt)
CN (1) CN111386704B (pt)
BR (1) BR112020009563A2 (pt)
CA (1) CA3081406A1 (pt)
WO (1) WO2019101373A1 (pt)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3718304A1 (en) * 2017-12-01 2020-10-07 InterDigital VC Holdings, Inc. Processing an image
US20230394636A1 (en) * 2020-10-21 2023-12-07 Interdigital Ce Patent Holdings, Sas Method, device and apparatus for avoiding chroma clipping in a tone mapper while maintaining saturation and preserving hue
US11776163B1 (en) 2020-12-30 2023-10-03 Waymo Llc Systems, methods, and apparatus for correcting desaturation of images with transformed color values by appling a matrix
WO2023194089A1 (en) * 2022-04-04 2023-10-12 Interdigital Ce Patent Holdings, Sas Method for correcting sdr pictures in a sl-hdr1 system

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3192211B2 (ja) 1992-04-23 2001-07-23 株式会社日立国際電気 カラーテレビジョン信号処理回路
WO2012142506A1 (en) 2011-04-14 2012-10-18 Dolby Laboratories Licensing Corporation Image prediction based on primary color grading model
TWI624182B (zh) * 2011-04-15 2018-05-11 杜比實驗室特許公司 高動態範圍影像的編碼、解碼及表示
US9129445B2 (en) 2012-03-14 2015-09-08 Dolby Laboratories Licensing Corporation Efficient tone-mapping of high-bit-depth video to low-bit-depth display
TWI546798B (zh) 2013-04-29 2016-08-21 杜比實驗室特許公司 使用處理器來遞色影像的方法及其電腦可讀取儲存媒體
JP6288943B2 (ja) * 2013-05-20 2018-03-07 三星ディスプレイ株式會社Samsung Display Co.,Ltd. 映像表示装置
CN110992914B (zh) 2014-10-06 2022-07-01 三星电子株式会社 显示设备及控制该显示设备的方法
US9736335B2 (en) * 2015-04-15 2017-08-15 Apple Inc. Techniques for advanced chroma processing
US20170105014A1 (en) 2015-10-08 2017-04-13 Qualcomm Incorporated Luma-driven chroma scaling for high dynamic range and wide color gamut contents
US9857953B2 (en) * 2015-11-17 2018-01-02 Adobe Systems Incorporated Image color and tone style transfer
US9984446B2 (en) 2015-12-26 2018-05-29 Intel Corporation Video tone mapping for converting high dynamic range (HDR) content to standard dynamic range (SDR) content
US10019785B2 (en) 2016-03-07 2018-07-10 Novatek Microelectronics Corp. Method of processing high dynamic range images using dynamic metadata
US10645403B2 (en) * 2016-05-19 2020-05-05 Dolby Laboratories Licensing Corporation Chroma reshaping for high dynamic range images
US10462334B2 (en) * 2016-11-04 2019-10-29 Disney Enterprises, Inc. Pipeline for high dynamic range video coding based on luminance independent chromaticity preprocessing
CN106851272B (zh) 2017-01-20 2019-11-12 杭州当虹科技股份有限公司 一种hdr和sdr自适应码率控制的方法
US10778978B2 (en) * 2017-08-21 2020-09-15 Qualcomm Incorporated System and method of cross-component dynamic range adjustment (CC-DRA) in video coding

Also Published As

Publication number Publication date
KR102496345B1 (ko) 2023-02-06
KR20200090162A (ko) 2020-07-28
WO2019101373A1 (en) 2019-05-31
CN111386704B (zh) 2022-07-12
US20200349685A1 (en) 2020-11-05
CA3081406A1 (en) 2019-05-31
US11423522B2 (en) 2022-08-23
EP3714603A1 (en) 2020-09-30
CN111386704A (zh) 2020-07-07

Similar Documents

Publication Publication Date Title
RU2758035C2 (ru) Способ и устройство для реконструкции данных изображений по декодированным данным изображений
US20220167019A1 (en) Method and device for reconstructing image data from decoded image data
KR102537393B1 (ko) Hdr 이미지를 재구성하기 위한 방법 및 디바이스
BR112020009563A2 (pt) método e aparelho para correção de cor durante conversão hdr para sdr
BR112020008467A2 (pt) método e dispositivo para gerar segunda imagem a partir de primeira imagem
US10600163B2 (en) Method and device for reconstructing a display adapted HDR image
KR20210028654A (ko) Sl-hdr2 포맷에서 중간 동적 범위 비디오 신호를 처리하기 위한 방법 및 장치
BR112019022968A2 (pt) método e dispositivo para mapeamento de gama de cor
WO2019203973A1 (en) Method and device for encoding an image or video with optimized compression efficiency preserving image or video fidelity
BR112020010703A2 (pt) processamento de uma imagem
KR102369771B1 (ko) 디스플레이 적응형 hdr 이미지를 재구성하기 위한 방법 및 디바이스
JP2019097013A (ja) ディスプレイ適合hdr画像を再構成する方法およびデバイス
RU2776101C1 (ru) Способ и устройство для восстановления адаптированного к дисплею изображения hdr
CA2986520A1 (en) Method and device for reconstructing a display adapted hdr image
JP7464537B2 (ja) 画像を符号化するための方法および装置
RU2802304C2 (ru) Способ и оборудование для кодирования изображения
BR102017025044A2 (pt) Método e dispositivo para reconstruir uma imagem em hdr adaptada para exibição
EP3528201A1 (en) Method and device for controlling saturation in a hdr image
BR112020008999A2 (pt) processamento de uma imagem

Legal Events

Date Code Title Description
B350 Update of information on the portal [chapter 15.35 patent gazette]