BR112014006978B1 - Aparelho de processamento de imagem, tela e método de processamento de imagem. - Google Patents

Aparelho de processamento de imagem, tela e método de processamento de imagem. Download PDF

Info

Publication number
BR112014006978B1
BR112014006978B1 BR112014006978-6A BR112014006978A BR112014006978B1 BR 112014006978 B1 BR112014006978 B1 BR 112014006978B1 BR 112014006978 A BR112014006978 A BR 112014006978A BR 112014006978 B1 BR112014006978 B1 BR 112014006978B1
Authority
BR
Brazil
Prior art keywords
screen
dynamic range
image
luminance
image processing
Prior art date
Application number
BR112014006978-6A
Other languages
English (en)
Other versions
BR112014006978A2 (pt
Inventor
Charles Leonardus Cornelius Maria Knibbeler
Renatus Josephus Van Der Vleuten
Original Assignee
Koninklijke Philips N.V.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips N.V. filed Critical Koninklijke Philips N.V.
Publication of BR112014006978A2 publication Critical patent/BR112014006978A2/pt
Publication of BR112014006978B1 publication Critical patent/BR112014006978B1/pt

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2003Display of colours
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/327Table of contents
    • G11B27/329Table of contents on a disc [VTOC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/68Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0271Adjustment of the gradation levels within the range of the gradation scale, e.g. by redistribution or clipping
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0606Manual adjustment
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0613The adjustment depending on the type of the information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/066Adjustment of display parameters for control of contrast
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/06Colour space transformation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • G09G2360/144Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light being ambient light
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
    • G09G2370/045Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller using multiple communication channels, e.g. parallel and serial
    • G09G2370/047Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller using multiple communication channels, e.g. parallel and serial using display data channel standard [DDC] communication

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Picture Signal Circuits (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

aparelho de processamento de imagem, tela, método de processamento de imagem, e, sinal de dados da tela um aparelho de processamento de imagem compreende um receptor (201) para receber um sinal de imagem compreendendo uma imagem codificada. outro receptor (1701) recebe um sinal de dados de uma tela (107) onde o sinal de dados compreende um campo de dados que compreende uma indicação da faixa dinâmica da tela da tela (107). a indicação da faixa dinâmica da tela compreende pelo menos uma especificação de luminância para a tela. um processador de faixa dinâmica (203) está disposto para gerar uma imagem de saída aplicando uma transformada de faixa dinâmica à imagem codificada em resposta à indicação da faixa dinâmica da tela. uma saída (205) emite um sinal de imagem de saída compreendendo a imagem de saída à tela. a transformação pode ainda ser realizada em resposta a uma referência da tela alvo indicativa de uma faixa dinâmica da tela para a qual a imagem codificada é codificada. a invenção pode ser utilizada para gerar uma imagem de alta faixa dinâmica (hdr) melhorada de, por exemplo, uma imagem de baixa faixa dinâmica (ldr), ou vice-versa.

Description

CAMPO DA INVENÇÃO
[0001] A invenção se refere a transformadas de faixa dinâmica para imagens e, em particular, mas não exclusivamente ao processamento de imagem para gerar imagens de Alta Faixa Dinâmica de imagens de Baixa Faixa Dinâmica ou para gerar imagens de Baixa Faixa Dinâmica de imagens de Alta Faixa Dinâmica.
HISTÓRICO DA INVENÇÃO
[0002] A codificação digital de vários sinais da fonte se tornou muito importante nas últimas décadas como uma representação e comunicação do sinal digital crescentemente substituíram a representação e comunicação análoga. A pesquisa e o desenvolvimento contínuos estão em andamento em como melhorar a qualidade que pode ser obtida das imagens codificadas e sequência de vídeos enquanto ao mesmo tempo mantém a taxa de dados nos níveis aceitáveis.
[0003] Um fator importante para a qualidade da imagem percebida é a faixa dinâmica que pode ser reproduzida quando uma Imagem é exibida. Convencionalmente, a faixa dinâmica das imagens reproduzidas tendeu a ser substancialmente reduzida com relação à visão normal. De fato, os níveis de luminância encontrados no mundo real abrangem uma faixa dinâmica tão grande como 14 ordens de magnitude, variando de uma noite sem lua a olhar diretamente para o sol. A faixa dinâmica de luminância instantânea e a resposta do sistema visual humano correspondente podem cair 10.000:1 e 100.000:1 em dias ensolarados ou à noite (reflexos brilhantes contra regiões de sombra escura). Tradicionalmente, a faixa dinâmica das telas foi confinada a cerca de 2-3 ordens de magnitude, e ainda os sensores tiveram um alcance limitado, por exemplo, <10.000:1 dependendo da aceitabilidade do ruído. Consequentemente, tem sido tradicionalmente possível armazenar e transmitir imagens em formatos codificados por gama de 8 bits sem introduzir artefatos perceptivamente visíveis nos dispositivos de interpretação tradicionais. Entretanto, em um esforço para gravar imagens mais precisas e mais animadas, os novos sensores de imagem de alta faixa dinâmica (HDR) que podem gravar as faixas dinâmicas de mais de 6 ordens de magnitude foram desenvolvido. Além disso, a maioria dos efeitos especiais, melhoria dos gráficos de computador e outros trabalhos de pós-produção já são rotineiramente realizados em maiores bits de profundidades e com maiores faixas dinâmicas.
[0004] Além disso, o contraste e luminância máxima dos sistemas de exibição da técnica anterior continuam a aumentar. Recentemente, novas telas de protótipo foram apresentadas com uma luminância máxima tão alta quanto 3000 Cd/m2 e índices de contraste de 5-6 ordens de magnitude (origem da tela, o ambiente de visualização também afetará finalmente o índice de contraste interpretado, que pode para visualização de televisão durante o dia ainda cair abaixo de 50:1). É esperado que futuras telas possam prover faixas dinâmicas ainda mais altas e especificamente índices mais altos de luminância e de contraste. Quando tradicionalmente os sinais de 8 bits codificados são exibidos nestas telas, a quantização de ruído e artefatos de recorte pode aparecer. Além disso, formatos tradicionais de vídeo oferecem altura insuficiente e precisão para conduzir a informação rica contida na nova imagem HDR.
[0005] Como resultado, há uma necessidade de crescimento para novas abordagens que permitem que um consumidor se beneficie completamente das capacidades dos sensores da técnica anterior (e futuros) e sistemas de exibição. Preferivelmente, as representações destas informações adicionais são compatíveis com o retrocesso de modo que o equipamento legado possa ainda receber os fluxos de vídeo comuns, enquanto novos dispositivos habilitados por HDR possam ter vantagem completa da informação adicional conduzida pelo novo formato. Assim, é desejável que os dados de vídeo codificados não representem apenas as imagens HDR, mas também permitam a codificação das imagens tradicionais de baixa faixa dinâmica (LDR) tradicionais correspondentes que podem ser exibidas no equipamento convencional.
[0006] Para introduzir com sucesso os sistemas HDR e para explorar completamente a promessa de HDR, é importante que a abordagem tomada proveja tanto a retrocompatibilidade e permita a otimização ou pelo menos adaptação às telas HDR. Entretanto, isso envolve inerentemente um conflito entre a otimização para HDR e otimização para LDR tradicional.
[0007] Por exemplo, tipicamente o conteúdo de imagem, como videoclipes, será processado no estúdio (classificação de cor e mapeamento do tom) para aparência ideal em uma tela específica. Tradicionalmente, esta otimização foi realizada para telas LDR. Por exemplo, durante a produção para uma tela LDR padrão, os especialistas em classificação de cor equilibrarão muitos aspectos da qualidade da foto para criar a ‘aparência’ desejada para o enredo. Isso pode envolver os contrastes regional e local de equilíbrio, às vezes ainda os pixels deliberavelmente de recorte. Por exemplo, em uma tela com claridade de pico relativamente baixo, explosões ou destaques claros são geralmente severamente recortados para conduzir uma impressão de alta claridade ao visualizador (o mesmo acontece para detalhes da sombra escura nas telas com baixos níveis de preto). Essa operação tipicamente será realizada assumindo uma tela LDR nominal e tradicionalmente as telas desviaram um pouco relativamente das telas LDR nominais conforme ainda virtualmente todas as telas do consumidor são telas LDR.
[0008] Entretanto, se o filme foi adaptado para uma tela HDR alvo, o resultado seria muito diferente. De fato, os especialistas em cor realizariam uma otimização que resultaria em um mapeamento de código muito diferente. Por exemplo, não apenas pode destacar e sombrear detalhes se mais bem preservado nas telas HDR, mas estas podem ainda ser otimizadas para ter diferentes tons de distribuição de cinza médio. Assim, uma imagem HDR ideal não é atingida por uma simples escala de uma imagem LDR por um valor correspondente à diferença nas luminâncias de ponto branco (a claridade máxima atingível).
[0009] Idealmente, classificações de cor separada e mapeamentos do tom seriam realizados para cada possível faixa dinâmica de uma tela. Por exemplo, uma sequência de vídeo seria para uma luminância máxima de ponto branco de 500 Cd/m2, um para 1000 Cd/m2, um para 1500 Cd/m2 etc. até a claridade máxima possível. Uma dada tela poderia então simplesmente selecionar a sequência de vídeo correspondente a sua claridade. Entretanto, tal abordagem é pouco praticável, pois requer um grande número de sequência de vídeos a ser geradas assim aumentando o recurso necessário para gerar estas diferentes sequências de vídeo. Além disso, a capacidade de armazenamento e distribuição necessária aumentaria substancialmente. Ainda, a abordagem limitaria o nível de claridade máximo possível em níveis discretos assim provendo o desempenho subideal para telas com níveis de claridade máxima entre os níveis nos quais as sequências de vídeo estão sendo providas. Além disso, tal abordagem não permitirá que futuras telas desenvolvidas com níveis de claridade máxima mais alta do que para a sequência de vídeo do nível de claridade mais alta a ser explorado.
[0010] Certamente, é esperado que apenas um número de sequência de vídeos limitado seja criado no lado da provisão de conteúdo, e é esperado que as conversões automáticas da faixa dinâmica sejam aplicadas em pontos posteriores na cadeia de distribuição nestas sequências de vídeo para gerar uma sequência de vídeo adequada para a tela específica na qual a sequência de vídeo é interpretada. Entretanto, nestas abordagens a qualidade da imagem resultante é altamente dependente da conversão automática da faixa dinâmica.
[0011] Assim, uma abordagem melhorada para suportar diferentes faixas dinâmicas para as imagens, e preferivelmente para suportar diferentes imagens de faixa dinâmica, seria vantajosa.
SUMÁRIO DA INVENÇÃO
[0012] Certamente, a invenção busca preferivelmente mitigar, aliviar ou eliminar uma ou mais das desvantagens mencionadas acima unicamente ou em qualquer combinação.
[0013] De acordo com um aspecto da invenção é provido um aparelho de processamento de imagem compreendendo: um receptor para receber um sinal de imagem, o sinal de imagem compreendendo pelo menos uma primeira imagem codificada e uma primeira referência da tela alvo, a primeira referência da tela alvo sendo indicativa de uma faixa dinâmica de uma primeira tela alvo para a qual a primeira imagem codificada é codificada; um processador de faixa dinâmica disposto para gerar uma imagem de saída aplicando uma transformada de faixa dinâmica à primeira imagem codificada em resposta à primeira referência da tela alvo; e uma saída para emitir um sinal de imagem de saída compreendendo a imagem de saída.
[0014] A invenção pode permitir que um sistema suporte diferentes imagens de faixa dinâmica e/ou telas. Em particular, a abordagem pode permitir transformadas de faixa dinâmica melhoradas que podem adaptar as características específicas da interpretação da imagem. Em muitos cenários uma transformada de faixa dinâmica melhorada de imagens LDR em HDR ou de HDR em LDR pode ser obtida.
[0015] Em algumas realizações, a transformada de faixa dinâmica aumenta uma faixa dinâmica do sinal de vídeo emitido com relação à primeira imagem codificada. Em algumas realizações, a transformada de faixa dinâmica reduz uma faixa dinâmica do sinal de vídeo emitido com relação à primeira imagem codificada.
[0016] Uma faixa dinâmica corresponde a uma faixa de luminância de interpretação, ou seja, a uma faixa de uma saída de luz mínima em uma saída de luz máxima para a imagem interpretada. Assim, uma faixa dinâmica não é meramente um índice entre um valor máximo e um valor mínimo, ou uma medição de quantização (como um número de bits), mas corresponde a uma faixa de luminância real para uma interpretação de uma imagem. Assim, uma faixa dinâmica pode ser uma faixa de valores de luminância, por exemplo, medida em candela por metro quadrado (cd/m2) que também é referido como nits. Uma faixa dinâmica é então a faixa de luminância da luz emitida (claridade) correspondente ao valor de luminância mais baixo (geralmente assumido ser preto absoluto, ou seja, nenhuma luz emitida) na luz emitida (claridade) correspondente ao valor de luminância mais alto. A faixa dinâmica pode especificamente ser caracterizada pelo valor da luz emitida mais alto, também referido como o ponto branco, luminância de ponto branco, luminância branca ou luminância máxima. Para imagens LDR e telas LDR, o ponto branco é tipicamente 500 nits ou menos.
[0017] O sinal de imagem de saída pode especificamente ser inserido em uma tela tendo uma faixa dinâmica específica, e assim a transformada de faixa dinâmica pode converter a imagem codificada de uma faixa dinâmica indicada pela referência da tela alvo em uma faixa dinâmica da tela na qual a imagem é interpretada.
[0018] A imagem pode ser uma imagem de uma sequência de imagem em movimento, como por exemplo, uma estrutura ou imagem de uma sequência de vídeo. Como outro exemplo, a imagem pode ser uma luz de fundo permanente ou, por exemplo, uma imagem de sobreposição como gráficos etc.
[0019] A primeira imagem codificada pode especificamente ser uma imagem LDR e a imagem de saída pode ser uma imagem HDR. A primeira imagem codificada pode especificamente ser uma imagem HDR e a imagem de saída pode ser uma imagem LDR.
[0020] De acordo com uma característica opcional da invenção, a primeira referência da tela alvo compreende uma luminância de ponto branco da primeira tela alvo.
[0021] Isso pode prover a operação vantajosa em muitas realizações. Em particular, pode permitir a baixa complexidade e/ou baixa despesa enquanto provém informação suficiente para permitir que uma transformada de faixa dinâmica melhorada seja realizada.
[0022] De acordo com uma característica opcional da invenção, a primeira referência da tela alvo compreende uma indicação da Função de Transferência Eletro-Óptica para a primeira tela alvo.
[0023] Isso pode prover a operação vantajosa em muitas realizações. Em particular, pode permitir a baixa complexidade e/ou baixa despesa enquanto provém informação suficiente para permitir que uma transformada de faixa dinâmica melhorada seja realizada. A abordagem pode em particular permitir que a transformada de faixa dinâmica também se adapte às características específicas para, por exemplo, luminâncias de faixa média. Por exemplo, pode permitir que a transformada de faixa dinâmica considere as diferenças na gama da tela alvo e a tela do usuário final.
[0024] De acordo com uma característica opcional da invenção, a primeira referência da tela alvo compreende uma indicação de mapeamento do tom que representa um mapeamento do tom utilizado para gerar a primeira imagem codificada para a primeira tela alvo.
[0025] Isso pode permitir que uma transformada de faixa dinâmica melhorada seja realizada em muitos cenários, e pode especificamente permitir que a transformada de faixa dinâmica compense as características específicas do mapeamento do tom realizado no lado de criação do conteúdo.
[0026] Em alguns cenários, o dispositivo de processamento de imagem pode então considerar ambas as características da tela para a qual a imagem codificada foi otimizada e as características do mapeamento do tom específico. Isso pode, por exemplo, permitir a subjetividade e, por exemplo, que as decisões de mapeamento do tom artístico sejam consideradas ao transformar uma imagem de uma faixa dinâmica em outra.
[0027] De acordo com uma característica opcional da invenção, o sinal de imagem é ainda caracterizado por compreender um campo de dados compreendendo a transformada de dados de controle da faixa dinâmica; e o processador de faixa dinâmica é ainda disposto para realizar a transformada de faixa dinâmica em resposta à transformada de dados de controle da faixa dinâmica.
[0028] Isso pode prover o desempenho e/ou funcionalidade melhorada em muitos sistemas. Em particular, pode permitir a adaptação localizada e alvo nas telas de faixa dinâmica específica enquanto ainda permite que o lado do provedor de conteúdo retenha algum controle sobre as imagens resultantes.
[0029] A transformada de dados de controle da faixa dinâmica pode incluir dados que especificam as características da transformada de faixa dinâmica que deve e/ou pode ser aplicada e/ou pode especificar as características recomendadas da transformada de faixa dinâmica.
[0030] De acordo com uma característica opcional da invenção, a transformada de dados de controle da faixa dinâmica compreende diferentes parâmetros da transformada de faixa dinâmica para diferentes níveis da tela luminância máxima.
[0031] Isso pode prover o controle e/ou adaptação melhorada em muitas realizações. Em particular, pode permitir que o dispositivo de processamento de imagem 103 selecione e aplique os dados de controle apropriados para a faixa dinâmica específica da imagem de saída que é gerada.
[0032] De acordo com uma característica opcional da invenção, a transformada de dados de controle da faixa dinâmica compreende diferentes parâmetros de mapeamento do tom para diferentes níveis da tela luminância máxima, e o processador de faixa dinâmica está disposto para determinar os parâmetros de mapeamento do tom para a transformada de faixa dinâmica em resposta aos diferentes parâmetros de mapeamento do tom e uma luminância máxima para o sinal de imagem de saída.
[0033] Isso pode prover controle e/ou adaptação melhorada em muitas realizações. Em particular, pode permitir que o dispositivo de processamento de imagem 103 selecione e aplique os dados de controle apropriados para a faixa dinâmica específica para a qual a imagem de saída é gerada. Os parâmetros de mapeamento do tom podem especificamente prover parâmetros que devem, podem ou são recomendados para a transformada de faixa dinâmica.
[0034] De acordo com uma característica opcional da invenção, a transformada de dados de controle da faixa dinâmica compreende os dados que definem um conjunto de parâmetros de transformada que devem ser aplicados pela transformada de faixa dinâmica.
[0035] Isso pode permitir que um lado do provedor de conteúdo retenha o controle sobre as imagens interpretadas nas telas suportadas pelo dispositivo de processamento de imagem. Isso pode garantir a homogeneidade entre as diferentes situações de interpretação. A abordagem pode, por exemplo, permitir que um provedor de conteúdo garanta que a impressão artística da imagem permanecerá inalterada quando interpretada nas diferentes telas.
[0036] De acordo com uma característica opcional da invenção, a transformada de dados de controle da faixa dinâmica compreende os dados que definem os limites para os parâmetros de transformada ser aplicada pela transformada de faixa dinâmica.
[0037] Isso pode prover operações melhoradas e uma experiência melhorada do usuário em muitas realizações. Em particular, pode em muitos cenários permitir um compromisso melhorado entre o desejo de um provedor de conteúdo para reter o controle sobre a interpretação de seu conteúdo enquanto permite que um usuário final padronize suas preferências.
[0038] De acordo com uma característica opcional da invenção, a transformada de dados de controle da faixa dinâmica compreende diferentes dados de controle de transformada para diferentes categorias da imagem.
[0039] Isso pode prover transformadas da imagem melhorada em muitos cenários. Em particular pode permitir que a transformada de faixa dinâmica seja otimizada para as características individuais das diferentes imagens. Por exemplo, as diferentes transformadas de faixa dinâmica podem ser aplicadas às imagens correspondentes à imagem principal, imagens correspondentes aos gráficos, imagens correspondentes a um fundo etc.
[0040] De acordo com uma característica opcional da invenção, uma luminância máxima da faixa dinâmica da primeira tela alvo é menor do que 1000 nits.
[0041] A imagem a ser transformada pode ser uma imagem HDR. A transformada de faixa dinâmica pode transformar tal imagem HDR em outra imagem HDR (associada com uma tela tendo uma faixa dinâmica não menor do que 1000 nits) tendo uma diferente faixa dinâmica. Assim, a qualidade da imagem melhorada pode ser obtida convertendo uma imagem HDR para uma faixa dinâmica em outra imagem HDR para outra faixa dinâmica (que pode ter uma luminância de ponto branco mais alta ou mais baixa).
[0042] De acordo com uma característica opcional da invenção, o sinal de imagem compreende uma segunda imagem codificada e uma segunda referência da tela alvo, a segunda referência da tela alvo sendo indicativa de uma faixa dinâmica de uma segunda tela alvo para a qual a segunda imagem codificada é codificada, a faixa dinâmica da segunda tela alvo sendo diferente da faixa dinâmica da primeira tela alvo; e o processador de faixa dinâmica está disposto para aplicar a transformada de faixa dinâmica na segunda imagem codificada em resposta à segunda referência da tela alvo.
[0043] Isso pode permitir a qualidade de saída melhorada em muitos cenários. Em particular, diferentes transformações podem ser aplicadas para a primeira imagem codificada e para a segunda imagem codificada dependente das diferenças das telas alvos associadas (e tipicamente dependente de como cada uma destas se refere à faixa dinâmica desejada da imagem de saída).
[0044] De acordo com uma característica opcional da invenção, o processador da imagem de faixa dinâmica está disposto para gerar a imagem de saída combinando a primeira imagem codificada e a segunda imagem codificada.
[0045] Isso pode prover a qualidade da imagem melhorada em muitas realizações e cenários. Em alguns cenários, a combinação pode ser uma combinação de seleção onde a combinação é realizada simplesmente selecionando uma das imagens.
[0046] De acordo com uma característica opcional da invenção, o aparelho de processamento de imagem ainda compreende: um receptor para receber um sinal de dados de uma tela, o sinal de dados compreendendo um campo de dados que compreende uma indicação da faixa dinâmica da tela de exibição, a indicação da faixa dinâmica da tela compreendendo pelo menos uma especificação de luminância; e o processador de faixa dinâmica está disposto para aplicar a transformada de faixa dinâmica na primeira imagem codificada em resposta à indicação da faixa dinâmica da tela.
[0047] Isso pode permitir a interpretação melhorada da imagem em muitas realizações.
[0048] De acordo com uma característica opcional da invenção, o processador de faixa dinâmica está disposto para selecionar entre gerar a imagem de saída como a primeira imagem codificada e gerar a imagem de saída como uma imagem transformada da primeira imagem codificada em resposta à primeira referência da tela alvo.
[0049] Isso pode permitir a interpretação melhorada da imagem em muitas realizações e/ou pode reduzir a carga computacional. Por exemplo, se a tela do usuário final tiver uma faixa dinâmica que é muito próxima à da imagem codificada que foi gerada, a qualidade melhorada da imagem interpretada será tipicamente obtida se a imagem recebida for utilizada diretamente. Entretanto, se as faixas dinâmicas são suficientemente diferentes, a qualidade melhorada é obtida processando a imagem para adaptá-la às diferentes faixas dinâmicas. Em algumas realizações, a transformada de faixa dinâmica pode simplesmente ser adaptada entre uma operação nula (utilizando a primeira imagem codificada diretamente) e aplicando uma transformada de faixa dinâmica predeterminada e fixa se a referência da tela alvo for suficientemente diferente da tela do usuário final.
[0050] De acordo com uma característica opcional da invenção, a transformada de faixa dinâmica compreende uma transformada em gama.
[0051] Isso pode permitir uma imagem de saída melhorada a ser gerada em muitas realizações e cenários. Em particular, pode permitir uma interpretação de cor melhorada percebida e pode, por exemplo, compensar as mudanças na percepção de cor resultante das mudanças na claridade das áreas da imagem. Em algumas realizações a transformada de faixa dinâmica pode consistir em uma transformada em gama.
[0052] De acordo com uma característica opcional da invenção, o aparelho de processamento de imagem ainda compreende um transmissor de dados de controle para transmitir os dados de controle da faixa dinâmica a uma fonte do sinal de imagem.
[0053] Isso pode permitir que a fonte adapte o sinal de imagem em resposta aos dados de controle da faixa dinâmica. Os dados de controle da faixa dinâmica podem especificamente compreender uma indicação de uma faixa dinâmica preferida para a imagem, e/ou uma indicação de uma faixa dinâmica (por exemplo, luminância de ponto branco e opcionalmente EOTF ou função de gama) para a tela do usuário final.
[0054] De acordo com um aspecto da invenção é provido um aparelho da fonte do sinal de imagem compreendendo: um receptor para receber uma imagem codificada; um gerador para gerar um sinal de imagem compreendendo a imagem codificada e uma referência da tela alvo indicativa de uma faixa dinâmica de uma tela alvo para a qual a imagem codificada é codificada; um transmissor para transmitir o sinal de imagem
[0055] De acordo com um aspecto da invenção é provido um método de processamento de imagem compreendendo:
[0056] recepção de um sinal de imagem, o sinal de imagem compreendendo pelo menos uma primeira imagem codificada e uma primeira referência da tela alvo, a primeira referência da tela alvo sendo indicativa de uma faixa dinâmica de uma primeira tela alvo para a qual a primeira imagem codificada é codificada;
[0057] geração de uma imagem de saída aplicando uma transformada de faixa dinâmica na primeira imagem codificada em resposta à primeira referência da tela alvo; e
[0058] emissão de um sinal de imagem de saída compreendendo a imagem de saída.
[0059] De acordo com um aspecto da invenção é provido um método para transmitir um sinal de imagem, o método compreendendo: recepção de uma imagem codificada; geração de um sinal de imagem compreendendo a imagem codificada e uma referência da tela alvo indicativa de uma faixa dinâmica de uma tela alvo para a qual uma imagem codificada é codificada; e transmitir o sinal de imagem.
[0060] De acordo com um aspecto da invenção é provido um sinal de imagem compreendendo pelo menos uma primeira imagem codificada e uma primeira referência da tela alvo, a primeira referência da tela alvo sendo indicativa de uma faixa dinâmica de uma primeira tela alvo para a qual a primeira imagem codificada é codificada.
[0061] Estes e outros aspectos, características e vantagens da invenção serão evidentes e esclarecidos com referência à(s) realização(ões) descrita(s) abaixo.
BREVE DESCRIÇÃO DOS DESENHOS
[0062] As realizações da invenção serão descritas, em forma de exemplo apenas, com referência aos desenhos, em que:
[0063] A figura 1 é uma ilustração de exemplo de elementos de um sistema de interpretação de imagem de acordo com algumas realizações da invenção;
[0064] A figura 2 é uma ilustração de um exemplo de elementos de um aparelho de processamento de imagem;
[0065] A figura 3 ilustra um exemplo de um mapeamento para um aparelho de processamento de imagem;
[0066] A figura 4 ilustra um exemplo de uma
Função de Transferência Eletro-Óptica (EOTF) para uma tela;
[0067] A figura 5 ilustra um exemplo do modelo para os planos de apresentação no modo HDMV-2D do padrão Blu- TM rayTM;
[0068] A figura 6 ilustra um exemplo do processamento de faixa dinâmica para imagens HDR e LDR;
[0069] A figura 7 ilustra um exemplo de um mapeamento para um aparelho de processamento de imagem;
[0070] As figuras 8-10 ilustram exemplo de imagens com diferentes transformadas de faixa dinâmica quando apresentadas na mesma tela;
[0071] A figura 11 ilustra um exemplo de uma relação entre os valores de luminância e possíveis mapeamentos para um aparelho de processamento de imagem;
[0072] A figura 12 ilustra um exemplo de um mapeamento para um
[0073] aparelho de A figura processamento 13 ilustra um de imagem; exemplo de um mapeamento para um
[0074] aparelho de A figura processamento 14 ilustra a de imagem; estrutura de um fluxo de gráficos
[0075] de acordo com o padrão Blu- A figura 15 ilustra TM rayTM; um exemplo do processamento da faixa dinâmica para uma imagem e uma imagem de gráficos de sobreposição associados;
[0076] A figura 16 ilustra um exemplo do processamento da faixa dinâmica para uma imagem e gráficos;
[0077] A figura 17 é uma ilustração de um exemplo de elementos de um aparelho de processamento de imagem;
[0078] A figura 18 ilustra um exemplo de um mapeamento para um aparelho de
[0079] A figura processamento de imagem; 19 é uma ilustração de um exemplo de elementos de um aparelho de processamento de imagem;
[0080] A figura 20 ilustra um exemplo de um mapeamento para um aparelho de
[0081] A figura processamento de imagem; 21 é uma ilustração de um exemplo de elementos de uma tela de acordo com algumas realizações da invenção;
[0082] A figura 22 é uma ilustração de um exemplo de elementos de um aparelho de processamento de imagem; e
[0083] A figura 23 ilustra esquematicamente uma geração de uma imagem de 8 bits que codifica uma imagem HDR por meios de um aparelho de codificação.
DESCRIÇÃO DETALHADA DE ALGUMAS REALIZAÇÕES DA INVENÇÃO
[0084] A figura 1 ilustra um exemplo de uma passagem de distribuição audiovisual. No exemplo, um aparelho provedor de conteúdo 101 gera um sinal de conteúdo audiovisual para um item do conteúdo audiovisual, como, por exemplo, um filme, um programa de televisão, etc. O aparelho provedor de conteúdo 101 pode especificamente codificar o conteúdo audiovisual de acordo com um formato de codificação adequado e representação de cor. Em particular, o aparelho provedor de conteúdo 101 pode codificar as imagens de uma sequência de vídeo do item do conteúdo audiovisual de acordo com uma representação adequada como, por exemplo, YCrCb. O aparelho provedor de conteúdo 101 pode ser considerado para representar uma casa de produção e distribuição que cria e transmite o conteúdo.
[0085] sinal de conteúdo audiovisual é então distribuído a um dispositivo de processamento de imagem 103 através de uma passagem de distribuição 105. O dispositivo de processamento de imagem 103 pode, por exemplo, ser uma caixa do aparelho de televisão que reside com um consumidor específico do item do conteúdo, como, por exemplo, um Personal Vídeo Recorder, um aparelho Blu-rayTM, um dispositivo de transmissão por rede (por exemplo, Internet), um satélite ou receptor de televisão terrestre, etc.
[0086] O conteúdo audiovisual é codificado e distribuído do aparelho provedor de conteúdo 101 através de um meio, que pode, por exemplo, consistir no meio em pacote ou um meio de comunicação. Então atinge um dispositivo-fonte na forma do dispositivo de processamento de imagem 103 que compreende a funcionalidade para decodificar e reproduzir o conteúdo.
[0087] Será observado que a passagem de distribuição 105 pode ser qualquer passagem de distribuição e através de qualquer meio ou utilizando qualquer padrão de comunicação adequado. Ainda, a passagem de distribuição não precisa ser em tempo real, mas pode incluir armazenamento permanente ou temporário, por exemplo, a passagem de distribuição pode incluir a Internet, satélite, cabo ou transmissão terrestre, uma rede de comunicação móvel ou fixa etc., ou armazenamento no meio distribuído fisicamente como DVD ou Blu-ray DiscTM ou um cartão de memória etc...
[0088] O dispositivo de processamento de imagem 103 é acoplado a uma tela 107 através de uma passagem de comunicação 109. O dispositivo de processamento de imagem 103 gera um sinal de exibição que representa o item do conteúdo audiovisual. Assim, o dispositivo-fonte transmite o conteúdo decodificado a um dispositivo dissipador, que pode ser uma TV ou outro dispositivo que converte os sinais digitais em uma representação física.
[0089] O dispositivo de processamento de imagem 103 pode realizar, por exemplo, a melhoria da imagem ou algoritmos de processamento de sinal nos dados e pode especificamente decodificar e redecodificar o sinal de audiovisual (processado). A redecodificação pode especificamente estar em um diferente formato de codificação ou representação do que para o sinal recebido.
[0090] O sistema da figura 1 é em algumas realizações disposto para prover a informação do vídeo de Alta Faixa Dinâmica (HDR) à tela 107 e em outras realizações ou cenários está disposto para prover uma imagem de Baixa Faixa dinâmica (LDR) à tela 107. Ainda, para prover, por exemplo, retrocompatibilidade melhorada, pode em alguns cenários prover tanto uma imagem LDR quanto uma imagem HDR dependendo da tela na qual é exibida. Especificamente, o sistema pode comunicar/distribuir os sinais de imagem referentes a ambas as imagens LDR e HDR.
[0091] Telas convencionais tipicamente utilizam uma representação LDR. Tipicamente estas representações LDR são providas por uma representação de 8 bits com três componentes relacionados às primeiras específicas. Por exemplo, uma representação de cor RGB pode ser provida por três amostras de 8 bits referenciadas a uma primária Vermelha, Verde e Azul respeitosamente. Outra representação utiliza um componente luma e dois componentes de cor (como YCrCb). Estas representações LDR correspondem a uma dada claridade ou faixa de luminância.
[0092] HDR especificamente permite que imagens significativamente mais claras (ou áreas da imagem) sejam apresentadas corretamente nas telas HDR. De fato, uma imagem HDR exibida em uma tela HDR pode prover uma branca substancialmente mais clara do que pode ser provido pela imagem LDR correspondente apresentada em uma tela LDR. De fato, uma tela HDR pode permitir tipicamente pelo menos uma branca quatro vezes mais clara do que uma tela LDR. A claridade pode especificamente ser medida com relação ao preto mais escuro que pode ser representado ou pode ser medido com relação a um dado nível de cinza ou preto.
[0093] A imagem LDR pode especificamente corresponder aos parâmetros específicos da tela, como uma resolução de bit fixo relacionada a um conjunto específico dos primeiros e/ou ponto branco específico. Por exemplo, 8- bits podem ser providos para um dado conjunto de primeiros RGB e, por exemplo, um ponto branco de 500 Cd/m2. A imagem HDR é uma imagem que inclui dados que deveriam ser interpretados acima destas restrições. Em particular, uma claridade pode ser mais do que quatro vezes mais clara do que o ponto branco (por exemplo, 2000 Cd/m2) ou mais.
[0094] Valores de pixel de alta faixa dinâmica têm uma faixa de contraste de luminância (luminância mais clara no conjunto de pixels dividido pela luminância mais escura) que é (muito) maior do que uma faixa que pode ser fielmente exibida nas telas padronizadas no NTSC e MPEG-2 era (com seus primeiros RGB típicos, e um branco D65 com nível de acionamento máximo [255, 255, 255] uma claridade de referência de, por exemplo, 500 nit ou abaixo). Tipicamente para tal referência 8 bits da tela são suficientes para exibir todos os valores de cinza entre aproximadamente 500 nit e aproximadamente 0,5 nit (ou seja, com faixa de contraste 1000:1 ou abaixo) nas etapas visualmente pequenas, onde imagens HDR são codificadas com uma palavra de bit mais alto, por exemplo, 10 bits (que também é capturado por uma câmera com uma profundidade maior e DAC, por exemplo, 14bits). Em particular, as imagens HDR tipicamente contêm muitos valores de pixel (de objetos de imagem clara) acima de um branco da cena. Em particular, vários pixels são mais claros do que duas vezes um branco da cena. Este branco da cena pode tipicamente ser equalizado com o branco da tela de referência NTSC/MPEG-2.
[0095] O número de bits utilizado para as imagens HDR X pode tipicamente ser maior ou igual ao número de bits Y utilizado para imagens LDR (X pode tipicamente ser, por exemplo, 10 ou 12, ou 14 bit (por canal de cor se vários dos canais forem utilizados), e Y pode, por exemplo, ser 8, ou 10 bits). Uma transformação/mapeamento pode ser exigido para ajustar os pixels em uma faixa menor, por exemplo, uma escala compressiva. Tipicamente, uma transformação não linear pode estar envolvido, por exemplo, uma codificação logarítmica pode codificar (como lumas) uma faixa de luminância muito distante em uma palavra de X-bit do que uma codificação linear, ser que as etapas de diferença de luminância de um valor ao próximo não são então equidistantes, mas também não são necessárias para ser o sistema visual humano.
[0096] Deve ser observado que a diferença entre imagens LDR e imagens HDR não é meramente que um número maior de bits é utilizado para imagens HDR do que para imagens LDR. Ainda, imagens HDR cobrem uma faixa de luminância maior do que as imagens LDR e tipicamente têm um valor de luminância máximo mais alto, ou seja, um ponto branco mais alto. De fato, onde as imagens LDR têm um ponto de luminância máxima (branco) correspondente a não mais do que 500 nits, imagens HDR têm um ponto de luminância máxima (branco) correspondente a mais do que 500 nits, e geralmente não mais do que 1000 nits, 2000 nits ou ainda 4000 nits ou mais alto. Assim, uma imagem HDR não utiliza meramente mais bits correspondentes a uma granularidade mais alta ou quantização melhorada, mas corresponde a uma faixa de luminância real maior. Assim, o valor de pixel mais claro possível geralmente corresponde a uma luminância/luz emitida que é mais alta para uma imagem HDR do que para uma imagem LDR. De fato, imagens HDR e LDR podem utilizar o mesmo número de bits, mas com os valores da imagem HDR sendo referenciados a uma faixa dinâmica de luminância maior/ luminância máxima mais clara do que os valores da imagem LDR (e assim com as imagens HDR sendo representadas com uma quantização mais grossa em uma escala de luminância).
[0097] De forma ideal, o conteúdo provido pelo aparelho provedor de conteúdo 101 será capturado e codificado com referência a uma faixa de luminância que corresponde à faixa de luminância da tela 107. Entretanto, nos sistemas práticos o conteúdo pode ser interpretado em várias telas diferentes com muitas características diferentes, e/ou pode ser codificado de acordo com os padrões que têm como base nas faixas de luminância que diferem da faixa de luminância da tela específica 107. Além disso, o conteúdo pode não ser originalmente capturado por um dispositivo de captura ou abordagem que corresponde exatamente à faixa de luminância da tela.
[0098] Certamente, o suporte de HDR em um sistema de conteúdo tipicamente exige alguma transformação ou conversão entre diferentes faixas de luminâncias. Por exemplo, se uma imagem LDR for recebida e deve ser apresentada em uma tela HDR, uma conversão de LDR em HDR deve ser realizada. Se uma imagem HDR for recebida e deve ser apresentada em uma tela LDR, uma conversão de HDR em LDR deve ser realizada. Estas conversões são tipicamente mais complexas e não estão meramente relacionados a uma escala simples das faixas de luminâncias como tal escala resultaria em uma imagem que seria percebida como uma aparência anormal. Transformações mais complexas são tipicamente utilizadas e estas transformações são geralmente mencionadas para utilizar o termo mapeamento do tom.
[0099] Em princípio, estas transformações de luminância poderiam ser realizadas em três lugares diferentes no sistema de distribuição do conteúdo.
[0100] Uma opção é realizá-lo no aparelho provedor de conteúdo 101. Tipicamente, isso pode permitir que a mesma operação de transformação de luminância seja distribuída a várias telas assim permitindo que uma única transformação seja utilizada por muitos usuários. Isso pode permitir e justificar que o mapeamento do tom complexo, manual e recurso seja realizado, por exemplo, por técnicos no assunto do mapeamento do tom. De fato, isso pode prover uma imagem subjetivamente otimizada para uma dada faixa de luminância, geralmente referida como um mapeamento do tom artístico. Entretanto, tal abordagem demanda muito recurso e não é praticável para a aplicação em muitas telas. Além disso, um fluxo de imagem separado é necessário para cada faixa de luminância suportada resultante em um recurso de comunicação muito alto sendo necessário o que é pouco praticável por muitos sistemas.
[0101] Outra opção é realizar a transformada de luminância no dispositivo de processamento de imagem 103. Entretanto, como o usuário geral não é técnico nas transformadas de luminância e visto que o efeito necessário interpreta-o como pouco praticável para realizar a adaptação manual (especialmente para imagens móveis, como videoclipes, filmes etc.), a transformação deve preferivelmente ser automática. Entretanto, estas transformadas são podem convencionalmente prover imagens ideais. Em particular, a transformada ideal pode depender do tipo específico de conteúdo, as características pretendidas da imagem (por exemplo, diferentes transformadas podem ser apropriadas para uma cena pretendida ser escura e ameaçadora e uma cena que é apenas pretendida para ser escura para indicar uma cena noturna). Ou uma diferente transformação pode ser aplicada a desenhos, ou jornais. Além disso, o originador do conteúdo pode ser relacionado sobre o impacto potencial destas transformadas automáticas e pode ser relutante para perder o controle sobre como o conteúdo pode ser apresentado em diferentes cenários. Ainda, a transformação ideal dependerá tipicamente das características exatas da tela 107 e uma transformação com base em uma tela assumida, nominal ou padrão resultará tipicamente nas transformadas subideais.
[0102] A transformada pode possivelmente também ser realizada na tela 107.
[0103] No sistema da figura 1 o dispositivo de processamento de imagem 103 compreende a funcionalidade para realizar uma transformada de luminância de faixa dinâmica em uma imagem (ou conjunto de imagens, como, por exemplo, uma sequência de vídeo) recebida do dispositivo de processamento do conteúdo 103 para aumentar a faixa dinâmica deste. Em particular, o dispositivo de processamento de imagem 103 recebe uma imagem do aparelho provedor de conteúdo 101 então processa a imagem para gerar uma imagem de faixa dinâmica mais alta. Especificamente, a imagem recebida pode ser uma imagem LDR que é convertida em uma imagem HDR aplicando a transformada de luminância de faixa dinâmica para aumentar a faixa dinâmica. A imagem transformada pode então ser emitida na tela 107 sendo uma tela HDR assim resultando na imagem originalmente recebida LDR sendo convertida em uma imagem interpretada HDR. Uma transformada de faixa dinâmica pode mapear os valores de luminância de (pelo menos parte) de uma imagem de entrada associada com uma faixa dinâmica aos valores de luminância para (pelo menos parte) de uma imagem de saída associada com uma diferente faixa dinâmica.
[0104] Em outro cenário, o dispositivo de processamento de imagem 103 pode receber uma imagem do aparelho provedor de conteúdo 101 e então processa a imagem ara gerar uma imagem de faixa dinâmica inferior. Especificamente, a imagem recebida pode ser uma imagem HDR que é convertida em uma imagem LDR aplicando a transformada de luminância de faixa dinâmica para reduzir a faixa dinâmica. A imagem transformada pode então ser emitida à tela 107 sendo uma tela LDR assim resultando na imagem originalmente recebida HDR sendo convertida em uma imagem interpretada LDR.
[0105] No sistema da figura 1, a transformada de faixa dinâmica é adaptada na dependência da informação recebida do aparelho provedor de conteúdo 101 e/ou da tela 107. Assim, no sistema, a transformada de faixa dinâmica não é meramente uma operação localmente realizada no dispositivo de processamento de imagem 103, mas também pode dependente das características, propriedades ou informação do aparelho provedor de conteúdo 101 e/ou da tela 107.
[0106] Primeiro o sistema da figura 1 será descrito com referência a uma situação em que a transformada de faixa dinâmica tem como base a informação provida ao dispositivo de processamento de imagem 103 do aparelho provedor de conteúdo 101.
[0107] A figura 2 ilustra um exemplo de elementos do dispositivo de processamento de imagem 103 da figura 1.
[0108] O dispositivo de processamento de imagem 103 compreende um receptor 201 que recebe um sinal de imagem do aparelho provedor de conteúdo 101. O sinal de imagem compreende uma ou mais imagens codificadas. Em muitos cenários o sinal de imagem pode ser um sinal de vídeo compreendendo uma sequência de vídeo codificada, ou seja, uma sequência de imagens. Será observado que qualquer codificação adequada da(s) imagem(s) pode ser utilizada incluindo, por exemplo, codificação de imagem JPEG, codificação de vídeo MPEG, etc. A imagem codificada é representada por valores de pixel que para cada pixel da imagem representa a luz emitida correspondente para o pixel (ou para subpixel individual do canal de cor). Os valores de pixel podem ser providos de acordo com qualquer representação de cor adequada como, por exemplo, RGB, YUV etc.
[0109] O sinal de imagem ainda compreende a referência da tela alvo que é indicativa de uma faixa dinâmica de uma tela alvo para a qual a primeira imagem codificada é codificada. Assim, a referência da tela alvo provê uma referência para a imagem codificada que reflete a faixa dinâmica para a qual uma imagem recebida foi construída. A referência da tela alvo pode indicar as luminâncias para as quais o mapeamento do tom no aparelho provedor de conteúdo 101 foi desenhado, e especificamente otimizado.
[0110] O aparelho provedor de conteúdo 101 é então disposto para gerar um sinal de imagem que não apenas inclui a própria imagem codificada, mas também uma referência da tela alvo que representa a faixa dinâmica da tela para a qual o sinal codificado foi gerado. O aparelho provedor de conteúdo 101 pode especificamente receber a imagem codificada de uma fonte interna ou externa. Por exemplo, a imagem pode ser provida como um resultado de uma classificação de tom manual que otimiza a imagem codificada para uma tela específica. Além disso, o aparelho provedor de conteúdo 101 pode obter informação da tela específica que foi utilizada para a otimização, por exemplo, através da informação da tela que foi automaticamente comunicada ao aparelho provedor de conteúdo 101 da tela (por exemplo, o aparelho provedor de conteúdo 101 pode ainda incluir a funcionalidade necessária para suportar o mapeamento do tom manual e pode ser conectado à tela alvo/de referência utilizada para este mapeamento do tom). Como outro exemplo, a imagem mapeada do tom codificado pode ser recebida em um meio no qual as propriedades da tela associada também são armazenadas. Ainda como outro exemplo, o aparelho provedor de conteúdo 101 pode receber a informação de uma característica da tela alvo por uma entrada manual do usuário.
[0111] O aparelho provedor de conteúdo 101 pode em resposta a esta informação gerar um sinal de imagem que compreende tanto a imagem codificada quanto a referência da tela alvo que indica uma faixa dinâmica da tela alvo que foi utilizada para o mapeamento do tom. Por exemplo, um valor de dados correspondente a uma identificação de uma luminância de ponto branco e opcionalmente uma Função de Transferência Eletro-Óptica correspondente a da tela alvo pode ser incluída no sinal de imagem pelo aparelho provedor de conteúdo 101.
[0112] O dispositivo de processamento de imagem 103 ainda compreende um processador de faixa dinâmica 203 que aplica a transformada de faixa dinâmica na imagem recebida codificada para gerar uma imagem de saída com uma faixa dinâmica mais alta, ou seja, que corresponde a uma faixa maior de luminâncias de saída quando a imagem é interpretada. Especificamente, a imagem de entrada codificada pode ser uma imagem que é codificada para uma tela LDR com um ponto branco de luminância máxima de 500 nits e isso pode ser transformado em uma imagem HDR de saída com um ponto branco de luminância máxima de, por exemplo, 1000 ou 2000 nits. Tipicamente, a transformada de faixa dinâmica pode ainda aumenta o número de bits utilizado para representar cada valor, mas será observado que isso não é essencial e que em algumas realizações o mesmo número de bits (ou ainda poucos bits) pode ser utilizado para a imagem de saída do que para a imagem de entrada. Como outro exemplo, a imagem de entrada codificada pode ser uma imagem que é codificada para uma tela HDR com uma luminância máxima de ponto branco de 2000 nits e isso pode ser transformado em uma imagem LDR de saída com uma luminância máxima de ponto branco de, por exemplo, 500 nits. Esta transformada de redução da faixa dinâmica pode ainda incluir uma redução no número de bits utilizado para os valores de pixel.
[0113] A transformada de faixa dinâmica é realizada em resposta à referência da tela alvo e assim pode ser adaptada para considerar náo apenas a faixa de luminância de saída desejada, mas também a faixa de luminância para a qual a imagem recebida foi codificada. Por exemplo, o sistema pode adaptar a transformada de faixa dinâmica de modo que uma transformada gere uma imagem de saída para 1000 nits será diferente dependendo se a imagem de entrada for gerada para uma imagem de 300 nits ou 500 nits. Isso pode resultar em uma imagem de saída substancialmente melhorada.
[0114] De fato, em algumas realizações a própria imagem de entrada pode ser uma imagem HDR, como, por exemplo, uma imagem de 1000 nits. A transformação ideal de tal imagem em respectivamente uma imagem de 2000 nits e uma imagem de 5000 nits será tipicamente diferente e a provisão de uma referência da tela alvo pode permitir que o dispositivo de processamento de imagem 103 otimize a transformada de faixa dinâmica para a situação específica, assim provendo uma imagem substancialmente melhorada para as características específicas da tela. De fato, se a tela for uma tela de 500 nits, a transformada de faixa dinâmica deve realizar uma compressão de faixa dinâmica além da expansão.
[0115] As abordagens podem ser particularmente vantajosas nos sistemas de distribuição do conteúdo não homogêneos como, por exemplo, o que é muito percebido para sistemas futuros de televisão. De fato a claridade (máxima) de HDR LCD/LED TVs está atualmente rapidamente aumentando e no futuro próximo, as telas com uma ampla variedade de claridade (máxima) são esperadas para coexistir no mercado. Fotos mais claras parecem melhor na tela da TV e uma TV mais clara vende melhor na loja. Por outro lado, telas “de capacidade reduzida” nos notebooks, tablets e smartphones também estão se tornando muito populares e também são utilizadas para a interpretação do conteúdo, por exemplo, da TV.
[0116] Visto que a claridade da tela (e tipicamente a função de transferência eletro-óptica que especifica como uma tela converte os valores de acionamento do pixel de entrada (cor) em valores de luz que então provêm uma impressão psicovisual particular ao visualizador) não é mais conhecida no lado de geração de conteúdo (e que é ainda geralmente diferente do monitor de referência no qual o conteúdo foi direcionado/classificado), se torna desafiante para prover a melhor/qualidade ideal da figura na tela. Além disso, onde algumas variações na claridade da tela podem ter existido no passado, essa variação foi relativamente menor e a suposição de uma claridade fixa conhecida não introduziu degradações significativas (e poderiam geralmente ser compensadas manualmente para ser um usuário, por exemplo, definindo a claridade e/ou contraste de uma tela).
[0117] Entretanto, devido ao aumento substancial na variedade de telas (smartphones, tablets, laptops, monitores de PC, telas CRT, telas de TV LCD tradicionais e HDRs de tela clara), as características (especialmente a claridade e contraste) das telas utilizadas para a interpretação exibem uma enorme variação. Por exemplo, o contraste de luminância máxima dos sistemas de exibição de alta gama da técnica anterior está continuamente aumentando e telas de novo protótipo foram desenvolvidas com uma luminância máxima tão alta quanto 5000 cd/m2 e índices de contraste de 5-6 de magnitude. Por outro lado, as telas sendo utilizadas, por exemplo, em smartphones e tablets, estão se tornando mais e mais populares, mas têm características de desempenho relativamente baixo.
[0118] Conforme o conteúdo mencionado previamente conteúdo, como vídeo para filmes, etc, é processado na criação do conteúdo para prover as imagens interpretadas desejadas. Por exemplo, quando um filme é emitido para distribuição geral (como por DVD ou Blu-rayTM) os produtores/estúdio tipicamente adaptam e padronizam as imagens para aparência ideal em uma tela específica. Este processo é geralmente referido como classificação de cor e mapeamento do tom. O mapeamento de tom pode ser considerado como um mapeamento não linear de um valor de luma de um pixel de entrada ao valor de luma de um pixel de saída. O mapeamento do tom é realizado para corresponder o vídeo com as características da tela, condições de visualização e preferências subjetivas. No caso do mapeamento do tom local, o processamento varia dependendo da posição do pixel dentro de uma imagem. No caso do mapeamento do tom global, o mesmo processamento é aplicado a todos os pixels.
[0119] Por exemplo, ao converter o conteúdo a ser adequado para distribuição do consumidor geral, o mapeamento do tom é geralmente realizado para prover uma saída desejada em uma tela LDR padrão. Isso pode ser realizado manualmente por especialistas da classificação de cor que equilibram muitos aspectos da qualidade da foto para criar a ‘aparência’ desejada para o enredo. Isso pode envolver contrastes local e global de equilíbrio, às vezes mesmo pixels de recorte. Assim, tipicamente o mapeamento do tom neste estágio não é meramente uma simples conversão automatizada, mas é tipicamente um manual, subjetivo e geralmente a conversão artística.
[0120] Se o conteúdo foi classificado para uma tela HDR alvo ainda do que para uma tela LDR alvo, o resultado do mapeamento do tom seria tipicamente muito diferente. Assim, ao interpretar meramente o conteúdo de vídeo codificado para uma tela LDR em uma tela HDR, as imagens resultantes diferirão substancialmente da imagem ideal. Semelhantemente, se uma imagem HDR otimizada é meramente interpretada em uma tela LDR, uma redução da qualidade da imagem percebida significativa pode ocorrer.
[0121] Essa questão está no sistema da figura 1 direcionada pela transformada de faixa dinâmica sendo realizada no dispositivo de processamento de imagem 103, mas tendo como base a informação recebida preferivelmente do aparelho provedor de conteúdo 101 e da tela 107. Dessa forma, a transformada de faixa dinâmica (especificamente um algoritmo do mapeamento do tom) pode ser adaptado para considerar as características do mapeamento do tom que foi realizado no aparelho provedor de conteúdo 101 e na faixa de luminância da tela específica 107. Especificamente, o mapeamento do tom realizada no dispositivo de processamento de imagem 103 pode ser dependente da tela alvo na qual o mapeamento do tom é realizado no lado da geração do conteúdo.
[0122] O aparelho provedor de conteúdo 101 provê uma referência da tela alvo ao dispositivo de processamento de imagem 103 (tanto separadamente quanto integrado à imagem codificada, ou seja, o sinal de imagem pode ser feito de duas comunicações de dados separadas). A referência da tela alvo pode especificamente incluir ou ser uma luminância de ponto branco da tela alvo.
[0123] Por exemplo, para um sistema relativamente com baixa complexidade, o aparelho provedor de conteúdo 101 pode simplesmente transmitir uma indicação da luminância de ponto branco da tela alvo para cada imagem codificada (vídeo) que foi codificada. Por exemplo, dados podem ser comunicados indicando o número de nits disponível na tela alvo. A transformada de faixa dinâmica pode então adaptar a transformação com base no número de nits. Por exemplo, se o dispositivo de processamento de imagem 103 estiver realizando uma transformada de faixa dinâmica para gerar uma imagem de saída para uma tela de 2000 nits, o conhecimento se a imagem de entrada é mapeada por tom em uma tela de 500 nits ou uma de 1000 bits pode ser utilizada para otmizar a transformada de faixa dinâmica realizada no dispositivo de processamento de imagem 103. Em ambos os cenários, a transformada de faixa dinâmica pode aplicar uma transformada não linear, mas esta transformada não linear pode ter diferentes características para os dois cenários, ou seja, dependente do ponto branco da tela alvo utilizado para o mapeamento do tom no lado da provisão do conteúdo.
[0124] Por exemplo, o seguinte mapeamento entre os pixels da imagem recebida LDR mapeada por tom para uma tela alvo de 500 nits e os pixels da imagem HDR emitida para uma tela de 2000 nits do usuário final podem ser realizados: 0-200 nits ^ 0-200 nits 200- 300 nits ^ 200-600 nits 300- 400 nits ^ 600-1000 nits 400- 500 nits ^ 1000-2000 nits Entretanto, para uma tela alvo de 1000 nits, o seguinte mapeamento pode ainda ser realizado:
Figure img0001
Entretanto, para uma tela alvo de 1000 nits, o seguinte mapeamento pode ainda ser realizado:
Figure img0002
[0125] Assim, nos termos dos valores relativos (porcentagem do mapeamento completo), os dois diferentes mapeamentos podem ser conforme mostrado na figura 3 onde a relação entre a porcentagem de nível de branco para a imagem de entrada no eixo-x com relação à porcentagem do nível de branco para a imagem de saída no eixo-y é mostrada para respectivamente uma tela alvo de 500 nits 301 e uma tela alvo de 1000 nits. No exemplo, dois mapeamentos não lineares do tom muito diferentes são aplicados para a mesma tela do usuário dependendo da tela alvo de referência que foi utilizada/assumida no lado da provisão do conteúdo.
[0126] Será observado que os mesmos mapeamentos podem ser utilizados para mapeamento de uma imagem otimizada de 2000 nits em uma imagem otimizada de 500 ou 1000 nits trocando os eixos (correspondentes a uma aplicação de um mapeamento inverso deste descrito acima). Também será observado que o mapeamento, por exemplo, em uma imagem otimizada de 500 nits pode ser adaptado dependendo se a imagem de entrada é uma imagem otimizada de 1000, 2000 ou 4000 nits.
[0127] Em algumas realizações, a referência da tela alvo pode de forma adicional ou alternativa compreender uma indicação da Função de Transferência Eletro-Óptica para a tela alvo. Por exemplo, uma indicação de gama para a tela alvo pode ser incluído.
[0128] A Função de transferência eletro-óptica (EOTF) de uma tela descreve a relação entre o valor de luma de entrada (acionamento) (Y’) e luminância de saída (Y) para a tela. Essa função de conversão depende de muitas características da tela. Ainda, os ajustes do usuário como claridade e contraste podem ter grande influência nessa função. A figura 4 ilustra um exemplo típico de uma EOTF para um valor de entrada de 8 bits (nível 256).
[0129] A comunicação de uma EOTF da tela alvo pode prover uma caracterização vantajosa da tela alvo ou de referência utilizada para gerar a imagem codificada ou vídeo. Essa caracterização pode então ser utilizada no dispositivo de processamento de imagem 103 para adaptar a transformada de faixa dinâmica nas diferenças entre as características da tela alvo e a tela do usuário final. Por exemplo, a transformada de faixa dinâmica pode incluir uma compensação que inverte um índice entre as EOTFs da tela alvo/de referência e a tela do usuário final.
[0130] Será observado que há muitas formas de caracterizar uma EOTF. Uma possibilidade é prover um conjunto de valores de amostra da EOTF. O dispositivo de processamento de imagem 103 pode então interpolar entre os pontos de amostra, por exemplo, utilizando a interpolação linear simples. Outra possibilidade é prover um modelo específico do comportamento de escala de cinza/contraste da tela pelo menos sobre uma parte da faixa da tela. Como outro exemplo, o aparelho provedor de conteúdo 101 pode comunicar uma função matemática específica que caracteriza a EOTF. Em alguns cenários, um conjunto de telas alvo pode ser predefinido com os parâmetros associados do modelo/função sendo armazenado localmente no dispositivo de processamento de imagem 103. Neste caso, o aparelho provedor de conteúdo 101 pode apenas comunicar o código de identificação da tela alvo ao dispositivo de processamento de imagem 103...
[0131] Ainda como outro exemplo, uma função matemática subjacente pode ser predeterminada e a indicação da tela alvo pode compreender parâmetros para adaptar a função predefinida para descrever a EOTF da tela específica alvo. Por exemplo, a EOTF pode ser caracterizada por uma função de gama como utilizado para telas convencionais, e a indicação da tela alvo pode prover uma gama específica para a tela alvo.
[0132] Em muitos sistemas, a indicação da tela alvo pode compreender ou consistir em uma luminância máxima e uma gama da tela alvo. Assim, especificamente, a caracterização da EOTF pode ser provida por dois valores, a saber, a gama e o ponto branco/ luminância máxima. As seguintes descrições focarão neste cenário.
[0133] A descrição também focará nas realizações em que o sistema de distribuição é de acordo com o padrão Blu-rayTM. Blu-rayTM é uma distribuição em formatos de família de áudio/Vídeo/Dados com base na tecnologia de disco óptico. BD-ROMTM é o acrônimo para o formato somente leitura do disco Blu-ray. Este formato é predominantemente utilizado para distribuição de vídeo com alta definição (2D e 3D) e alta qualidade de áudio.
[0134] Um BD-ROMTM player caracteriza dois modos de operação: HDMV e BD-J. Em qualquer ponto no tempo o player é tanto um modo HDMV quanto BD-J. Os players do perfil 5 Blu- rayTM caracterizam a interpretação do Vídeo/Gráficos estereoscópicos 3D próximo à interpretação de Vídeo/Gráficos 2D padrão. Como um exemplo a figura 5 mostra o modelo para planos de apresentação no modo HDMV-2D.
[0135] Como um exemplo específico do sistema da figura 1, o sinal de imagem pode ser um sinal de vídeo codificado em BDROMTM e, assim, o dispositivo de processamento de imagem 103 pode especificamente ser um Blu- rayTM player. O vídeo codificado pode ser o primário ou opcionalmente o conteúdo de vídeo secundário no disco. O vídeo primário é tipicamente o filme real em 2D ou possivelmente em formato estereoscópico 3D.
[0136] Para atingir a qualidade ideal da foto no sistema BDROMTM, o sistema da figura 1 utiliza um aumento na especificação de BDROMTM que permite a transmissão de um parâmetro da tela alvo. Estes dados com “a informação assumida ou real da tela do usuário final, são então utilizados pelo BDROMTM player para realizar a transformada de faixa dinâmica. Especificamente, o BDROMTM player (o dispositivo de processamento de imagem 103) pode realizar o mapeamento do tom de vídeo adicional ou outro processamento dependente das características da tela alvo e/ou da tela do usuário final.
[0137] Uma opção para transmitir a informação nos parâmetros da tela alvo é por incorporação dos dados indicativos destes valores dos parâmetros nos dados BDROMTM no disco. Uma estrutura dos dados de extensão no arquivo de playlist (xxxxx.mpls) pode ser utilizada for isso. Essa estrutura dos dados de extensão terá uma única e nova identificação. Os BDROMTM players de legado incompatíveis serão ignorantes desta nova estrutura de dados e meramente ignorará. Isso garantirá a compatibilidade de retrocesso. Uma
Figure img0003
[0138] Neste exemplo, Abs_Max_Luminance é um parâmetro com um valor, por exemplo, entre 0 e 255 que indica a Luminância máxima absoluta/ponto branco da tela alvo de acordo com:
Figure img0004
[0139] Será observado que outras quantidades de bits para mantissa ou expoente pode certamente ser utilizado.
[0140] Gama é um parâmetro com um valor, por exemplo, entre 0 e 255 que indica a gama da tela alvo de acordo com: Gama da tela alvo EOTF = Gama/25.
[0141] Assim, neste exemplo, uma referência da tela alvo é provida ao dispositivo de processamento de imagem 103 pelo BDROMTM incluindo uma luminância máxima absoluta e um valor da gama para a tela alvo na qual o sinal de vídeo foi gerado. O dispositivo de processamento de imagem 103 então utiliza essa informação ao realizar uma transformada de faixa dinâmica automática para aumentar ou reduzir a faixa dinâmica do sinal de vídeo para uma tela do usuário final da luminância mais alta/mais baixa.
[0142] Será observado que muitas diferentes transformadas de faixa dinâmica são possíveis e que muitas diferentes formas de adaptar estas transformadas de faixa dinâmica com base nas referências da tela alvo podem ser utilizadas. A seguir, vários exemplos são providos, mas será observado que outras abordagens podem ser utilizadas em outras realizações.
[0143] Primeiramente, a diferença no mapeamento ideal de uma dada imagem original na respectivamente uma imagem LDR e uma imagem HDR podem ser ilustradas pela figura 6 que mostra um exemplo dos diferentes mapeamentos do tom que podem ser utilizados para uma tela LDR (parte inferior da figura) e uma tela HDR (parte superior da figura). A imagem original é a mesma para ambas LDR e HDR. O histograma dessa imagem é mostrado à esquerda da figura 6. Mostra que a maioria dos pixels tem valores de luma na faixa média baixa. O histograma também mostra um segundo, pequeno pico nos valores de luma altos (por exemplo, faróis de um carro ou uma lanterna).
[0144] Neste exemplo, o mapeamento do tom é representado pelas três etapas de processamento sucessivas:
[0145] Recorte: mapeamento dos valores de luma na faixa alta e baixa e em um número limitado de valores de luma de saída.
[0146] Expansão: adaptar a faixa dinâmica à faixa dinâmica de luma desejada.
[0147] Claridade: adaptar o nível de luminância médio para claridade ideal.
[0148] No caso de LDR, a faixa da luma é mapeada em uma faixa de luminância de uma tela LDR. A faixa dinâmica da imagem original é muito maior e assim a imagem original é severamente recortada para acomodar a faixa dinâmica limitada da tela.
[0149] No caso de HDR (parte superior da figura) o recorte pode ser menos severo, pois a faixa dinâmica da tela é uma ordem de magnitude maior do que para a tela LDR.
[0150] A figura 6 mostra o histograma após cada etapa de processamento bem como o histograma da imagem mostrado na tela LDR e na tela HDR respectivamente. Em particular, os histogramas mais à direita ilustram a imagem LDR mapeada por tom quando mostrada em uma tela HDR e vice- versa. No primeiro caso a imagem será muito clara e os valores de luma de faixa alta e baixa perderão muito detalhe. No segundo caso a imagem será muito escura e os valores de luma de faixa média perderão muito mais detalhe e contraste.
[0151] Como pode ser visto, meramente apresentando uma (versão de escala de luminância) imagem otimizada LDR em uma tela HDR (ou vice-versa) pode substancialmente reduzir a qualidade da imagem, e assim o dispositivo de processamento de imagem 103 pode realizar uma transformada de faixa dinâmica para aumentar a qualidade da imagem. Além disso, visto que a otimização realizada no estúdio depende muito das características da tela nas quais a otimização foi realizada, a ideal transformada de faixa dinâmica a ser realizada pelo dispositivo de processamento de imagem 103 não depende meramente da tela do usuário final, mas também depende da tela de referência. Certamente, a referência da tela alvo provida ao dispositivo de processamento de imagem 103 permite que o dispositivo de processamento de imagem 103 realize a transformada de faixa dinâmica desejada não meramente com base nas características assumidas ou conhecidas da tela do usuário final, mas também com base na tela real utilizada no lado do provedor de conteúdo. De fato, pode ser considerado que a provisão da referência da tela alvo permite que o dispositivo de processamento de imagem 103 reverta parcialmente ou completamente algum mapeamento do tom realizado no estúdio assim permitindo a estimativa das características da imagem original. Com base nessa estimativa, o dispositivo de processamento de imagem 103 pode então aplicar um mapeamento do tom desejado otimizado para as características da faixa dinâmica específica da tela HDR do usuário final.
[0152] Será observado que o dispositivo de processamento de imagem 103 tipicamente não busca realizar um mapeamento do tom inverso específico para recriar o sinal original seguido por um mapeamento do tom adequado para a tela específica do usuário final. De fato, tipicamente a transformada de faixa dinâmica não proverá informação suficiente para realizar este mapeamento de tom inverso e o mapeamento do tom realizado pelo provedor de conteúdo pode geralmente ser parcialmente irreversível. Entretanto, o dispositivo de processamento de imagem 103 pode realizar uma transformada de faixa dinâmica que busca adaptar a imagem recebida pela transformada de faixa dinâmica provendo um resultado que pode ser uma (possivelmente muito grosseira) aproximação da operação mais teórica de um mapeamento de tom inverso para gerar a imagem original seguida por um mapeamento do tom da imagem original otimizado na faixa dinâmica desejada específica. Assim, o dispositivo de processamento de imagem 103 pode simplesmente aplicar, por exemplo, um simples mapeamento de valores de luma da entrada na transformada de faixa dinâmica nos valores de luma apropriados na saída da transformação. Entretanto, este mapeamento não reflete apenas o mapeamento do tom da imagem original desejado para a dada tela do usuário final, mas também depende do mapeamento do tom real já realizado no aparelho provedor de conteúdo 101. Assim, o dispositivo de processamento de imagem 103 pode utilizar a transformada de faixa dinâmica para adaptar a transformada aplicada para considerar e adaptar ao mapeamento do tom que há foi realizado.
[0153] Como um exemplo, o dispositivo de processamento de imagem 103 pode ser disposto para prover uma imagem de saída para exibir em uma imagem HDR com uma luminância máxima predeterminada (como 4000 nits). A imagem/vídeo recebido pode ser mapeado por tom para uma tela LDR de 500 nits. Este mapeamento do tom então otimizou a imagem para uma dada luminância máxima e gama. Como um exemplo específico, a função de gama pode ser como curva 701 da figura 7 e a imagem resultante quando apresentada em uma tela de 500 nits tela pode ser como a figura 8.
[0154] Quando essa imagem deve ser apresentada em uma tela HDR de, por exemplo, 4000 nits, é geralmente desejável que a luz emitida para áreas escuras não mudem substancialmente onde a luz emitida para áreas claras deve ser aumentada muito substancialmente. Assim, uma relação muito diferente entre valores (lineares) de luminância e valores reais de acionamento é necessária. Especificamente, uma imagem substancialmente melhorada teria sido gerada para uma imagem HDR se a curva do mapeamento 703 da figura 7 foi utilizada, ou seja, se uma gama mais alta foi aplicada no mapeamento do tom do lado do conteúdo. Entretanto, esse mapeamento mais alto resultará em uma tela de 500 nits nas imagens que aparecem como muito escuras conforme ilustrado na figura 9.
[0155] No sistema, o dispositivo de processamento de imagem 103 é informado do valor da gama para a tela alvo no lado do conteúdo, e pode assim derivar a curva 701. Além disso, a curva 703 desejada é conhecida, pois depende da faixa dinâmica da tela para a qual uma imagem de saída é gerada (que, por exemplo, pode ser provida ao dispositivo de processamento de imagem 103 da tela 107 ou pode ser assumida/ predeterminada). Assim, o dispositivo de processamento de imagem 103 pode aplicar uma transformação em cada pixel valor de luminância correspondente à conversão de curva 701 a curva 703. Dessa forma, o dispositivo de processamento de imagem 103 pode assim proceder para utilizar a referência da tela alvo provida do aparelho provedor de conteúdo 101 para aplicar uma transformada de faixa dinâmica que converte o sinal de saída gerado de um adequado para uma tela LDR a um adequado para uma tela HDR.
[0156] Será observado que as mesmas considerações podem aplicar ao realizar a transformada de faixa dinâmica para reduzir a faixa dinâmica. Por exemplo, se o conteúdo recebido for exibido em uma baixa qualidade, a tela de baixa luminância, como uma tela de celular, a gama preferida para a curva do mapeamento pode ser conforme indicado pela curva 705 da figura 7, ou seja, uma gama menor do que um pode ser preferida. Quando apresentado em uma LDR de 500 nits normal, uma imagem correspondente pareceria muito clara e com muito pouco contraste conforme indicado pela figura 10, e ainda o cenário seria pior para uma tela HDR.
[0157] Assim, se o dispositivo de processamento de imagem 103 for gerar uma imagem para esta tela de baixa claridade, essa pode proceder para realizar uma transformada de faixa dinâmica que reduz a faixa dinâmica ajustando os valores de luminância para as diferenças na gama entre a curva 701 e 705.
[0158] Como outro exemplo, se o aparelho provedor de conteúdo 101 provê uma imagem direcionada para uma tela de baixa claridade/faixa dinâmica e certamente uma imagem que é codificada de acordo com a curva 705, o dispositivo de processamento de imagem 103 pode utilizar o conhecimento dessa gama provida pela transformada de faixa dinâmica para transformar os valores recebidos em valores adequados tanto para uma tela de 500 nits adaptando a diferença entre as curvas 705 e 701, quanto para a tela de 4000 nits adaptando a diferença entre as curvas 705 e 703.
[0159] Assim, a provisão de uma transformada de faixa dinâmica indicando uma luminância máxima/ luminância de ponto branco e um valor da gama assumido para a tela alvo permite que o dispositivo de processamento de imagem 103 converta a imagem recebida em um valor da gama adequado para o valor de luminância da tela da claridade específica no qual a imagem deve ser interpretado.
[0160] Em alguns sistemas, a referência da tela alvo pode compreender uma indicação de mapeamento do tom que representa um mapeamento do tom utilizado para gerar o primeiro fluxo do vídeo codificado para a primeira tela alvo.
[0161] Em alguns sistemas, a referência da tela alvo pode diretamente prover a informação de alguns do mapeamento do tom específico que foi realizado no lado do provedor de conteúdo. Por exemplo, a referência da tela alvo pode incluir a informação que define a luminância de ponto branco e gama na qual a imagem LDR (ou HDR) foi gerada, ou seja, a tela na qual o mapeamento do tom foi realizado. Entretanto, além disso, a referência da tela alvo pode prover alguma informação específica que, por exemplo, define algumas das informações perdidas no mapeamento do tom que foi realizado no lado do provedor de conteúdo.
[0162] Por exemplo, no exemplo da figura 6, uma imagem LDR mapeada por tom correspondente à imagem cortada pode ser recebida pelo dispositivo de processamento de imagem 103. O dispositivo de processamento de imagem 103 pode aplicar uma transformada de faixa dinâmica que mapeia essa na faixa dinâmica apropriada e relação não linear com base na informação da gama da tela alvo e ponto branco. Entretanto, para prover uma adaptação melhorada, o severo recorte traduzido em um recorte menos severo (ou ainda em alguns cenários ao recorte). Certamente, o aparelho provedor de conteúdo 101 pode prover informação adicional que identifica o recorte específico que foi realizado para a imagem LDR pelo provedor de conteúdo assim permitindo que o recorte seja parcialmente ou completamente revertido. Por exemplo, a transformada de faixa dinâmica pode definir a faixa que foi recortada e o dispositivo de processamento de imagem 103 pode certamente distribuir os valores cortados sobre essa faixa de acordo com um algoritmo adequado (por exemplo, identificando uma área de valores cortados (como uma explosão) e gerando uma claridade crescente em direção ao centro dessa área).
[0163] A transformada de faixa dinâmica pode de forma adicional ou alternativa prover a informação que define um mapeamento do tom adicional que foi realizado no lado do provedor de conteúdo. Por exemplo, um mapeamento do tom relativamente padrão pode ser realizado para a maioria das imagens de um filme ou outra sequência de vídeo. O dispositivo de processamento de imagem 103 pode, com base na gama e luminância de ponto branco, converter tal imagem mapeada por tom em uma imagem da faixa dinâmica desejada (mais alta e mais baixa) utilizando uma transformada de faixa dinâmica que assume um mapeamento do tom padrão no lado do provedor de conteúdo. Entretanto, para algumas imagens o provedor de conteúdo pode ter realizado um mapeamento do tom dedicado e subjetivo. Por exemplo, o classificador de cor pode desejar um efeito artístico específico ou qualidade para algumas imagens, como, por exemplo, uma fina graduação ou fundição de cor para imagens escuras de uma situação tensa (em filme de terror) ou um efeito específico para sonho como cenas. Esse mapeamento do tom pode ser caracterizado pelos dados na referência da tela alvo assim permitindo que o dispositivo de processamento de imagem 103 adapte a transformada de faixa dinâmica ao mapeamento do tom específico que foi aplicado.
[0164] Assim, especificamente, em alguns cenários do mapeamento do tom adicional/modificado é realizada no lado do provedor de conteúdo para gerar uma aparência específica de modo que a imagem seja modificada com relação ao o que seria esperado por uma adaptação fixa ao comportamento eletro-óptico nu da tela alvo. Os dados providos pelo aparelho provedor de conteúdo 101 podem especificar uma aparência desejada comparada à tela de referência e isso pode pelo dispositivo de processamento de imagem 103 ser utilizado para de fato gerar o comportamento óptico desejado, considerando todos os fatores (por exemplo, onde uma codificação cega no sinal de entrada poderia acidentalmente finalizar abaixo da luz envolta refletiva de modo que pode não seja mais compensada de acordo com o comportamento do lado do provedor de conteúdo codificado).
[0165] Como um exemplo, se é conhecido que a gama da tela alvo é baixa para os valores mais escuros, é para tal tela (de referência) possível ajustar a aparência, digamos, de cenas de terror. Por exemplo, a imagem pode ser compensada por um aumento de luminância extra de modo que a imagem ainda pareça mais escura, mas pelo menos com alguma estrutura do objeto ainda visível.
[0166] Como um exemplo, com “a gama e luminância de ponto branco do alvo de referência, o classificador de cor no lado da provisão do conteúdo pode prover alguma informação (adicional) sobre a impressão artística de certas regiões e/ou imagens. Por exemplo, para uma dada EOTF, o provedor de conteúdo pode indicar que uma determinada área é desejada para ter a claridade aumentada para melhor visibilidade, ou contraste reduzido para prover uma aparência nebulosa, etc. Assim, com “uma EOTF (por exemplo, representada pela gama e luminância de ponto branco) a referência da tela alvo pode indicar limites de uma faixa de luminância da tela parcial/local e prover dados da transformada de faixa dinâmica que provê informação mais precisa sobre a alocação preferida dos níveis de cinza destes.
[0167] Em algumas realizações, o processador de faixa dinâmica (203) pode ser disposto para selecionar entre gerar a imagem de saída como a imagem recebida codificada e gerar a imagem de saída como uma imagem transformada da primeira imagem codificada em resposta à referência da tela alvo.
[0168] Especificamente, se a luminância de ponto branco indicada pela referência da tela alvo for suficientemente próxima à luminância de ponto branco da tela do usuário final, a transformada de faixa dinâmica pode simplesmente consistir em não realizar qualquer processamento na imagem recebida codificada, ou seja, a imagem de entrada pode simplesmente ser utilizada como a imagem de saída. Entretanto, se a luminância de ponto branco indicada pela referência da tela alvo for diferente da luminância de ponto branco da tela do usuário final, a transformada de faixa dinâmica pode modificar a imagem recebida de acordo com um mapeamento da imagem recebida adequado dos pixels na imagem de pixel de saída. Nestes casos, o mapeamento pode ser adaptado dependendo da referência da tela alvo. Em outro exemplo, um ou mais mapeamentos predeterminados pode ser utilizado.
[0169] Por exemplo, o dispositivo de processamento de imagem 103 pode incluir um primeiro mapeamento predeterminado que foi determinado para prover uma imagem de saída adequada para uma duplificação na luminância de ponto nível de branco e um segundo mapeamento predeterminado que foi determinado para prover uma imagem de saída adequada para divisão da luminância de ponto nível de branco. Neste exemplo, o dispositivo de processamento de imagem 103 pode selecionar entre o primeiro mapeamento, o segundo mapeamento, e um mapeamento de unidade dependente da luminância de ponto branco da tela alvo de referência e o ponto branco da tela do usuário final. O dispositivo de processamento de imagem 103 pode especificamente selecionar o mapeamento que mais corresponde de forma próxima ao índice entre a tela alvo de referência luminância de ponto branco e a tela do usuário final luminância de ponto branco...
[0170] Por exemplo, se uma imagem de entrada é recebida com uma tela alvo de referência indicando que foi otimizada para uma tela de 500 nits e a tela do usuário final é uma tela de 1000 nits, o dispositivo de processamento de imagem 103 selecionará o primeiro mapeamento. Se ainda, a tela alvo de referência indica que a imagem de entrada foi otimizada para uma tela de 1000 nits, o dispositivo de processamento de imagem 103 selecionará o mapeamento de unidade (ou seja, usar a imagem de entrada diretamente). Se a tela alvo de referência indica que foi otimizada para uma tela de 2000 nits, o dispositivo de processamento de imagem 103 selecionará o segundo mapeamento.
[0171] Se valores intermediários para a luminância de ponto branco da tela alvo são recebidos, o dispositivo de processamento de imagem 103 pode selecionar o mapeamento mais próximo ao índice entre as luminâncias de ponto branco, ou pode, por exemplo, interpolar entre os mapeamentos.
[0172] Em algumas realizações, a transformada de faixa dinâmica pode compreender ou consistir em uma transformada em gama. Assim, em algumas realizações, o processador de faixa dinâmica 203 pode modificar as cromaticidades da imagem interpretada dependendo da tela alvo de referência. Por exemplo, quando uma imagem recebida HDR interpretada em uma tela LDR a compressão pode resultar em uma imagem mais suave com poucas variações e graduações nos objetos de imagem individual. A transformada de faixa dinâmica pode compensar estas reduções aumentando as variações de croma. Por exemplo, quando uma imagem com uma maçã de luz intensa é otimizada para interpretação em uma tela HDR, a interpretação em uma tela LDR com a faixa dinâmica reduzida tipicamente fará com que a maçã pareça se destaque menos e pareça menos clara e opaca. Isso pode pela transformada de faixa dinâmica ser compensado tornando a cor da maçã mais saturada. Como outro exemplo, as variações de textura podem se tornar menos perceptualmente significativas devido às variações de luminância reduzida e isso pode ser compensado aumentando as variações de croma da textura.
[0173] Em alguns sistemas, o sinal de vídeo pode compreender um campo de dados que inclui a transformada de dados de controle da faixa dinâmica e o processador de faixa dinâmica 203 pode adaptar a transformada de faixa dinâmica em resposta a estes dados de controle. Isso pode ser utilizado pelo proprietário/provedor do conteúdo para reter pelo menos alguma entrada ou controle sobre a interpretação do conteúdo provido.
[0174] Os dados de controle podem, por exemplo, definir uma operação ou parâmetro da transformada de faixa dinâmica que deve ser aplicada, pode ser aplicada, ou que é recomendada a ser aplicada. Os dados de controle podem ainda ser diferenciados para diferentes telas do usuário final. Por exemplo, os dados individuais de controle podem ser providos para uma pluralidade de possíveis telas do usuário final, como um conjunto de dados para uma tela de 500 nits, outro conjunto para uma tela de 1000 nits, outro conjunto de uma tela de 2000 nits, e ainda outro conjunto para uma tela de 4000 nits.
[0175] Como um exemplo, o criador do conteúdo pode especificar que o mapeamento do tom deve ser realizado pelo processador de faixa dinâmica 203 dependendo das características da tela do usuário final conforme ilustrado na figura 11. No exemplo, os dados de controle podem especificar um mapeamento para cada uma das três áreas correspondentes a dados valores da luminância máxima da tela (eixo-x) e o incidente da luz na tela (e assim as reflexões da tela - eixo-y).
[0176] Assim, no exemplo específico, o mapeamento 1 é utilizado para exibir as baixas claridades em ambientes de luz ambiente baixa. O mapeamento 1 pode simplesmente ser um mapeamento de unidade, ou seja, a imagem LDR recebida pode ser utilizada diretamente. Para uma tela de alta luminância máxima (HDR) em um ambiente relativamente escuro (reflexões baixas da tela), o mapeamento 2 pode ser utilizado. O mapeamento 2 pode realizar um mapeamento que estende as luminâncias da imagem LDR clara ainda enquanto substancialmente mantém a intensidade para os segmentos mais escuros. Para uma tela de alta luminância máxima (HDR) em um ambiente relativamente claro (reflexões substanciais da tela), o mapeamento 3 pode ser utilizado. O mapeamento 3 pode realizar um mapeamento mais agressivo que não estende apenas as luminâncias da imagem LDR clara, mas também clareia e aumenta o contraste para as áreas da imagem mais escura.
[0177] Em alguns cenários, os dados de controle podem especificar os limites entre os mapeamentos com os mapeamentos sendo predeterminados (por exemplo, padronizados ou conhecidos em ambos os lados do provedor de conteúdo e no lado interpretado). Em alguns cenários, os dados de controle podem ainda definir elementos dos diferentes mapeamentos ou podem ainda especificar os mapeamentos precisamente, por exemplo, utilizando um valor da gama ou especificando uma função de transformação específica.
[0178] Em algumas realizações, a transformada de dados de controle da faixa dinâmica pode diretamente e explicitamente especificar a transformada de faixa dinâmica que deve ser realizada para transformar a imagem recebida em uma imagem com uma diferente faixa dinâmica. Por exemplo, os dados de controle podem especificar um mapeamento direto dos valores da imagem de entrada em valores da imagem de saída para uma faixa de pontos brancos da tela de saída alvo. O mapeamento pode ser provido como um simples parâmetro permitindo que a transformada apropriada seja realizada pelo processador de faixa dinâmica 203 ou dados detalhados possam ser providos como uma tabela de visualização específica ou função matemática.
[0179] Como um exemplo de baixa complexidade, a transformada de faixa dinâmica pode simplesmente aplicar uma função linear em segmentos aos valores de entrada de uma imagem LDR para gerar valores melhorados da HDR. De fato, em muitos cenários, um simples mapeamento que consiste em duas relações lineares conforme ilustrado na figura 12 pode ser utilizado. O mapeamento mostra um mapeamento direto entre os valores de pixel de entrada e os valores de pixel de saída (ou em alguns cenários o mapeamento pode refletir um (possivelmente contínuo) mapeamento entre luminâncias do pixel de entrada luminâncias e luminâncias do pixel de saída). Será observado que o mesmo mapeamento pode ser utilizado para mapear uma imagem de entrada HDR em uma imagem de saída LDR.
[0180] Especificamente, para um mapeamento de LDR em HDR, a abordagem provê uma transformada de faixa dinâmica que mantém as áreas escuras de uma imagem para manter o escuro enquanto ao mesmo tempo permite que a faixa dinâmica substancialmente elevada seja utilizada para prover uma interpretação muito mais clara das áreas claras, bem como ainda uma faixa média de aparência melhorada e mais alegre. Para um mapeamento de HDR em LDR, a abordagem provê uma transformada de faixa dinâmica que mantém as áreas escuras de uma imagem, mas comprime as áreas mais claras para refletir a faixa de claridade reduzida da tela.
[0181] Entretanto, a transformação exata depende da tela alvo para a qual uma imagem foi gerada e na tela na qual deve ser interpretada. Por exemplo, ao interpretar uma imagem para uma tela de 500 nits em uma tela de 1000 nits, uma transformação relativamente modesta é necessária e o alongamento das áreas claras é relativamente limitado. Entretanto, se a mesma imagem for exibida em uma tela de 5000 nits, uma transformação muito mais extrema é necessária para explorar completamente a claridade disponível sem iluminar muito as áreas escuras.
[0182] Assim, o mapeamento pode depender da tela alvo na qual a imagem original foi gerada. Por exemplo, se uma imagem de entrada otimizada para 1000 nits deve ser interpretada em uma tela de 2000 nits, uma transformação relativamente modesta é necessária e o alongamento das áreas claras é relativamente limitado. Entretanto, se uma imagem foi otimizada para a tela de 500 nits e deve ser exibida em uma tela de 2000 nits, uma transformação muito mais extrema é necessária para explorar completamente a claridade disponível sem clarear muito as áreas escuras. A figura 13 ilustra como dois diferentes mapeamentos podem ser utilizados para respectivamente uma imagem de entrada 1000 nits (curva 1301, valor máximo de 255 correspondente a 1000 nits) e uma imagem de entrada 1000 nits (curva 1303 valor máximo de 255 correspondente a 500 nits) para a tela em uma imagem LDR de entrada de 2000 nits (valor máximo de 255 correspondente a 2000 nits).
[0183] Uma vantagem desta simples relação é que o mapeamento do tom desejado pode ser comunicado com uma despesa muito baixa. De fato, os dados de controle podem especificar o joelho da curva, ou seja, o ponto da transição entre as duas partes lineares. Assim, um valor de dados simplesmente com dois componentes pode especificar o mapeamento do tom desejado a ser realizado pelo dispositivo de processamento de imagem 103 para diferentes telas. O dispositivo de processamento de imagem 103 pode ainda determinar os valores adequados para outros valores de luminância máxima interpolando entre os valores providos.
[0184] Em algumas implementações, mais pontos podem, por exemplo, ser providos para definir uma curva que é ainda em pedaços lineares, mas com mais intervalos lineares. Isso pode permitir um mapeamento do tom mais preciso e melhorar a qualidade da imagem resultante enquanto introduz apenas uma suspensão relativamente menor.
[0185] Em muitas implementações, os dados de controle podem não especificar um mapeamento do tom específico que deve ser realizado, mas ainda para prover dados que definem limites dentro do qual a transformada de faixa dinâmica/ mapeamento do tom pode ser livremente adaptado pelo dispositivo de processamento de imagem 103.
[0186] Por exemplo, ainda especificando um ponto de transição específico para as curvas das figuras 12 e 13, os dados de controle podem definir limites para o ponto de transição (com possivelmente diferentes limites sendo providos para diferentes níveis de claridade máxima). Assim, o dispositivo de processamento de imagem 103 pode individualmente determinar os parâmetros desejados para a transformada de faixa dinâmica de modo que isso possa ser definido para prover a transição preferida para a tela específica considerando, por exemplo, as preferências específicas do usuário. Entretanto, ao mesmo tempo o provedor de conteúdo pode garantir que essa liberdade seja restrita a uma faixa aceitável assim permitindo que o provedor de conteúdo retenha algum controle sobre como o conteúdo é interpretado.
[0187] Assim, a transformada de dados de controle da faixa dinâmica pode incluir dados que definem parâmetros de transformada que devem ser aplicados pela transformada de faixa dinâmica realizada pelo processador de faixa dinâmica 203 e/ou que definem os limites para os parâmetros de transformada. Os dados de controle podem prover esta informação para uma faixa de níveis de claridade máxima assim permitindo a adaptação da transformada de faixa dinâmica em diferentes telas do usuário finais. Além disso, para níveis de claridade máxima não explicitamente incluídos nos dados de controle, valores de dados apropriados podem ser gerados dos valores de dados disponíveis, por exemplo, pela interpolação. Por exemplo, se um ponto do joelho entre duas partes lineares for indicado para uma tela de 2000 nits e uma tela de 4000 nits do usuário final, um valor adequado para uma tela de 3000 nits pode ser encontrado pela simples interpolação (por exemplo, por uma simples média no exemplo específico).
[0188] Será observado que muitas diferentes e variadas abordagens tanto para a transformada de faixa dinâmica quanto para restringir, adaptar e controlar isso do lado do provedor de conteúdo pelos dados de controle adicionais podem ser utilizadas em diferentes sistemas dependendo das preferências específicas e exigências da aplicação individual.
[0189] De fato, muitos diferentes comandos ou valores de parâmetro podem ser providos nos dados de controle para gerar mapeamentos do tom de acordo com as preferências do provedor de conteúdo.
[0190] Por exemplo, nos sistemas de baixa complexidade, uma simples transformada de faixa dinâmica pode ser aplicada e o aparelho provedor de conteúdo 101 pode simplesmente prover um nível de branco e nível de preto para a tela alvo que é então utilizada pelo processador de faixa dinâmica 203 para determinar o mapeamento do tom para aplicar. Em alguns sistemas uma função do mapeamento do tom (gama ou outro) pode ser provida como mandatória para mapeamento pelo menos de uma faixa da imagem de entrada. Por exemplo, os dados de controle podem especificar estas faixas médias / mais escuras devem ser interpretadas de acordo com um dado mapeamento enquanto permite faixas mais claras ter faixas a ser mapeadas livremente pelo dispositivo de processamento de imagem 103.
[0191] Em alguns cenários, os dados de controle podem meramente prover uma sugestão de mapeamento adequado que pode ser aplicado, por exemplo, na área de faixa média. Neste case, o provedor de conteúdo pode assim auxiliar o dispositivo de processamento de imagem 103 provendo parâmetros da transformada de faixa dinâmica sugeridos que foram encontrados (por exemplo, através da otimização manual pelo provedor de conteúdo) para prover uma alta qualidade da imagem quando visualizada em uma dada tela HDR. O dispositivo de processamento de imagem 103 pode vantajosamente utilizar este, mas é livre para modificar o mapeamento, por exemplo, para acomodar as preferências individuais do usuário.
[0192] Em muitos cenários o mapeamento é pelo menos parcialmente realizado com base nos dados de controle que representarão uma relação funcional de complexidade relativamente baixa, como um mapeamento de gama, curva em S, mapeamento combinado definido pelas especificações parciais para faixas individuais etc. Entretanto, em alguns cenários mapeamentos mais complexos podem certamente ser utilizados.
[0193] Também será observado que a transformada de faixa dinâmica pode geralmente incluir um aumento ou redução no número de bits utilizado para representar os valores. Por exemplo, uma imagem de 8 bits pode ser transformada em uma imagem de 12 ou 14 bits. Nestes casos, os dados de controle do aparelho provedor de conteúdo 101 podem ser providos independentemente da quantização mudada. Por exemplo, um mapeamento do tom codificado de 8 em 8 bits (“forma” para subdistribuição em cinza) pode ser definido pelo aparelho provedor de conteúdo 101 e o dispositivo de processamento de imagem 103 pode escalar isso na claridade do branco específico da tela considerando a transformação em mais bits.
[0194] Em outras realizações ou cenários, a transformada de faixa dinâmica pode incluir uma redução no número de bits utilizado para representar os valores. Por exemplo, uma imagem de 12 bits pode ser transformada em uma imagem de 8 bits. Estes cenários podem geralmente ocorrer quando uma redução na faixa dinâmica é provida pela transformada de faixa dinâmica, por exemplo, ao converter uma imagem de 12 bits HDR a ser interpretada em uma tela LDR do valor de entrada de 8 bits.
[0195] Conforme mencionado, os dados de controle podem prover dados de controle mandatório ou voluntário. De fato, os dados recebidos podem incluir um ou mais campos que indicam se os parâmetros de mapeamento do tom provido são mandatórios, permitidos ou sugeridos.
[0196] Por exemplo, uma função do mapeamento do tom sugerida pode ser provida com “uma indicação de quão grande um desvio desta pode ser aceita. Um dispositivo de processamento de imagem 103 em uma configuração padrão pode então automaticamente aplicar o mapeamento sugerido. Entretanto, a transformada pode ser modificada, por exemplo, para refletir as preferências pessoais do usuário. Por exemplo, uma entrada do usuário pode mudar os ajustes do dispositivo de processamento de imagem 103, por exemplo, de modo que as áreas escuras de uma imagem sejam interpretadas mais claras do que considerado ideal pelo provedor de conteúdo. Por exemplo, um usuário pode simplesmente pressionar um botão para aumentar a claridade, e o mapeamento do tom pode ser mudado corretamente (por exemplo, a seção linear inferior das curvas da figura 12 e 13 é movida para cima). O usuário pode então introduzir uma sintonização no mapeamento do tom. Entretanto, dados de o quanto a sintonização é aceitável ao provedor de conteúdo podem ser incluídos nos dados de controle assim restringindo a transformada de faixa dinâmica para gerar as imagens de saída que são ainda consideradas pelo provedor de conteúdo para reter a integridade da imagem sendo provida. Os dados de controle podem, por exemplo, também especificar o efeito das interações do usuário, como, por exemplo, definir ou limitar a mudança na claridade que ocorre para cada pressão do botão por um usuário.
[0197] A transformada de faixa dinâmica certamente provê uma transformada de faixa dinâmica que é direcionada para prover uma imagem que é apropriada para a tela específica do usuário final 107 enquanto considera as características de exibição da tela na qual a imagem de entrada é gerada. Assim, o dispositivo de processamento de imagem 103 gera um sinal de saída que está associado com um dado valor de luminância máxima/ claridade, ou seja, que é direcionado para a interpretação em uma tela com o ponto branco/ valor de luminância máxima. Em alguns sistemas, a luminância de ponto branco da tela pode não ser precisamente conhecida pelo dispositivo de processamento de imagem 103, e assim o sinal de saída pode ser gerado para uma luminância de ponto branco assumida (por exemplo, manualmente inserida por um usuário). Em outras aplicações (como será descrito posteriormente), a tela pode prover a informação na luminância de ponto branco e o dispositivo de processamento de imagem 103 pode adaptar a transformada de faixa dinâmica com base nessa informação.
[0198] Se a luminância de ponto branco na qual o sinal de saída é gerado corresponde exatamente ou suficientemente mais próxima à luminância de ponto branco de uma das imagens recebidas (de acordo com qualquer critério adequado, como uma diferença as luminâncias de ponto branco sendo abaixo de um limite), o dispositivo de processamento de imagem 103 pode proceder para utilizar essa imagem diretamente na imagem de saída, ou seja, a transformada de faixa dinâmica pode simplesmente ser um mapeamento de unidade. Além disso, se a luminância de saída de ponto branco não corresponde diretamente a uma luminância de ponto branco de uma imagem recebida, mas corresponde uma luminância da tela do usuário final de ponto branco na qual a transformada de dados de controle da faixa dinâmica explicita foi provida, estes dados de controle podem ser utilizados diretamente para adaptar a transformada de faixa dinâmica. Se a luminância de saída de ponto branco não corresponde diretamente com a luminância de ponto branco de uma imagem recebida ou com uma luminância de ponto branco na qual a transformada de dados de controle da faixa dinâmica foi provida, os parâmetros de mapeamento do tom providos pelos dados de controle para diferentes luminâncias de ponto branco podem ser utilizados para adaptar a transformada de faixa dinâmica na dependência da luminância de saída de ponto branco. Em particular, o processador de faixa dinâmica 203 pode interpolar entre os parâmetros de mapeamento do tom para outros valores de luminância de ponto branco na luminância de saída de ponto branco específica. Em muitas realizações, uma interpolação simples linear será suficiente, mas será observado que muitas outras abordagens podem ser utilizadas.
[0199] De fato, os dados de controle podem, por exemplo, também prover a informação em como os parâmetros de mapeamento do tom providos para diferentes luminâncias de ponto branco da tela devem ser processados para gerar os parâmetros de mapeamento do tom para a específica luminância de saída de ponto branco. Por exemplo, os dados de controle podem indicar uma função de interpolação não linear que deve ser utilizada para gerar os parâmetros de mapeamento do tom apropriados.
[0200] Também será observado que a transformada de faixa dinâmica não é necessariamente constante para diferentes imagens ou ainda para a mesma imagem.
[0201] De fato, em muitos sistemas a transformada de dados de controle da faixa dinâmica pode continuamente ser atualizada assim permitindo a transformada de faixa dinâmica realizada pelo processador de faixa dinâmica 203 a ser adaptada às característica atuais. Isso pode permitir diferentes mapeamentos do tom a ser utilizados para imagens escuras / cenas escuras do que para imagens/cenas claras. Isso pode prover desempenho melhorado. De fato, uma transformada de faixa dinâmica variável por tempo controlada em resposta à transformada de dados de controle da faixa dinâmica dinamicamente atualizada pode ser utilizada para prover controle adicional ao provedor de conteúdo. Por exemplo, a interpretação de uma cena escura pode ser diferente em uma tela HDR dependendo se a cena é uma cena tensa direcionada para prover desconforto ou se a cena é meramente escura para corresponder um cenário noturno (no primeiro caso a cena escura pode ser interpretada como escura na tela HDR como em uma tela LDR, e no segundo caso a cena escura pode ser interpretada de alguma forma mais clara, assim explorando a faixa dinâmica adicional para permitir a diferenciação perceptível visualmente melhorada nas áreas escuras).
[0202] As mesmas considerações podem ser aplicadas dentro de uma imagem. Por exemplo, uma cena pode corresponder a um céu claro sobre um chão sombreado escuro (por exemplo, um céu claro na metade superior da imagem e uma floresta na metade inferior da imagem). As duas áreas podem vantajosamente ser mapeadas diferentemente ao mapear de LDR em HDR, e a transformada de dados de controle da faixa dinâmica pode especificar a diferença nestes mapeamentos. Assim, a transformada de dados de controle da faixa dinâmica pode incluir parâmetros de mapeamento do tom que mudam para diferentes imagens e/ou que dependem da posição na imagem.
[0203] Como um exemplo específico, pelo menos alguns dados de controle podem ser associados com uma dada área da imagem, faixa de luminância, e/ou faixa da imagem.
[0204] A transformada de dados de controle da faixa dinâmica pode ser provida ao dispositivo de processamento de imagem 103 de acordo com qualquer abordagem ou padrão de comunicação adequada.
[0205] No exemplo específico da comunicação entre o aparelho provedor de conteúdo 101 e o dispositivo de processamento de imagem 103 utiliza uma mídia Blu-rayTM. A Transmissão dos comandos de controle para a transformada de faixa dinâmica pode ser obtida incorporando estes valores dos parâmetros nos dados de BDROM no disco. Uma estrutura dos dados de extensão no arquivo de playlist (xxxxx.mpls) pode ser utilizado para isso. Essa estrutura dos dados de extensão terá uma única e nova identificação. Os BDROM players de legado serão ignorantes dessa nova estrutura de dados e simplesmente a ignorarão. Isso garantirá a compatibilidade de 5 retrocesso. Uma possível implementação da sintaxe e semântica de tal LHDR_descriptor é mostrada abaixo. Sintaxe No. de bits Mnemôn icos
Figure img0005
[0206] Neste exemplo o LHDR_descriptor contém três descritores de processamento. Estes parâmetros especificam o processamento adicional do vídeo no caso da 10 categoria da tela alvo ser diferente da categoria da tela do usuário final. Como um exemplo estes parâmetros podem ter os seguintes valores. Video_Process_descriptor:
Figure img0006
Video_Process_descriptor:
Figure img0007
Figure img0008
DR_Process_descriptor:
Figure img0009
Level_Process_descriptor:
Figure img0010
[0207] O exemplo anterior focou no exemplo em que o sinal recebido do aparelho provedor de conteúdo 101 compreende apenas uma versão da imagem/sequência de vídeo, e especificamente onde o sinal compreende apenas uma imagem LDR/sequência de vídeo.
[0208] Entretanto, em alguns sistemas e implementações, o aparelho provedor de conteúdo 101 pode gerar um sinal de imagem que compreende mais do que uma versão da imagem. Nestes cenários uma imagem pode ser mapeada por tom para uma tela alvo e outra imagem pode corresponder à mesma imagem original, mas mapeada por tom para uma diferente tela alvo. Especificamente, uma imagem pode ser uma imagem LDR gerada para, por exemplo, uma tela de 500 nits e outra imagem pode ser uma imagem HDR gerada para, por exemplo, uma tela de 2000 nits.
[0209] Neste exemplo, o sinal de imagem pode ainda compreender uma segunda tela alvo de referência, ou seja, uma tela alvo de referência pode ser provida para cada uma das imagens assim indicando as características da tela nas quais o mapeamento do tom no lado do codificador foram otimizadas para as imagens individuais. Especificamente, um parâmetro de gama e claridade máxima pode ser provido para cada imagem/ sequência de vídeo.
[0210] Nestes sistemas, o dispositivo de processamento de imagem 103 pode ser disposto para aplicar a transformada de faixa dinâmica em resposta à segunda tela alvo de referência, e especificamente considerando tanto a primeira quanto a segunda referência da tela alvo...
[0211] A transformada de faixa dinâmica pode não apenas adaptar o mapeamento específico ou operação específica que é realizada em uma imagem, mas pode também depender das referências da tela alvo selecionar esta imagem para utilizar como a base para a transformação. Como um exemplo de baixa complexidade, o processador de faixa dinâmica 203 pode selecionar entre utilizar a primeira e a segunda imagem dependendo de como a tela alvo de referência associada corresponde com a luminância de ponto branco na qual o sinal de saída é gerado. Especificamente, a imagem associada com uma luminância de ponto branco mais próxima à luminância de ponto branco de saída desejada pode ser selecionada. Assim, se uma imagem LDR de saída for gerada, a transformada de faixa dinâmica pode ser realizada da imagem LDR codificada. Entretanto, se uma imagem HDR com claridade máxima mais alta do que a imagem HDR codificada é gerada, a transformada de faixa dinâmica pode ser realizada na imagem HDR codificada.
[0212] Se uma imagem deve ser gerada para uma claridade máxima entre as luminâncias de ponto branco das imagens codificadas (por exemplo, para uma tela de 1000 nits), a transformada de faixa dinâmica pode ser baseada em ambas as imagens. Em particular, uma interpolação entre as imagens pode ser realizada. Tal interpolação pode ser linear ou não linear e pode ser realizada diretamente nas imagens codificadas antes da transformação ou pode ser aplicada nas imagens após a aplicação da transformação. A ponderação das imagens individuais pode tipicamente depender de como proximamente elas são a claridade máxima desejada emitida.
[0213] Por exemplo, uma primeira imagem transformada pode ser gerada aplicando uma transformada de faixa dinâmica na primeira imagem codificada (a imagem LDR) e uma segunda imagem transformada pode ser gerada aplicando uma transformada de faixa dinâmica na segunda imagem transformada. A primeira e a segunda imagem transformada são então combinadas (por exemplo, somadas) para gerar a imagem de saída. Os pesos de respectivamente a primeira e a segunda imagem transformada são determinados pelas referências próximas da tela alvo respectivamente da primeira e da segunda imagem codificada correspondem com a claridade máxima desejada emitida.
[0214] Por exemplo, para uma tela de 700 nits, a primeira imagem transformada pode ser ponderada muito mais alta do que a segunda imagem transformada e para uma tela de 3000 nits a segunda imagem transformada pode ser ponderada significativamente mais alta do que a primeira imagem transformada. Para uma tela de 2000 nits as duas imagens transformadas podem passivamente ser ponderadas igualmente e os valores de saída podem ser gerados por uma média dos valores para cada imagem.
[0215] Como outro exemplo, a transformação pode ser realizada de forma selecionável com base na primeira ou na segunda imagem para diferentes áreas da imagem, por exemplo, dependendo das características da imagem.
[0216] Por exemplo, para áreas relativamente escuras a transformada de faixa dinâmica pode ser aplicada na imagem LDR para gerar valores de pixel que são adequados para uma tela de 1000 nits ainda utilizam a resolução mais fina que pode ser disponível para as áreas escuras para a imagem LDR correspondente à imagem HDR (por exemplo, se o mesmo número de bits é utilizado para ambas as imagens). Entretanto, para as áreas mais claras os valores de pixel podem ser gerados aplicando uma transformada de faixa dinâmica na imagem HDR assim explorando que essa imagem tipicamente terá mais informação nas faixas de alta claridade (especificamente a perda de informação devido ao recorte é tipicamente muito menor para uma imagem HDR com relação a uma imagem LDR).
[0217] Assim, quando mais do que uma imagem é recebida do aparelho provedor de conteúdo 101 o dispositivo de processamento de imagem 103 pode gerar a imagem de saída de uma destas imagens ou pode combiná-las ao gerar uma imagem de saída. A seleção e/ou combinação das imagens codificadas tem como base a tela alvo de referência provida para cada imagem bem como na claridade máxima para a qual o sinal de saída é gerado.
[0218] Será observado que além da combinação e/ou da seleção das imagens individuais codificadas, as transformadas de faixa dinâmica individuais podem também ser ajustadas e adaptadas em resposta à transformada de faixa dinâmica. Por exemplo, as abordagens previamente descritas podem ser aplicadas individualmente a cada transformada de faixa dinâmica. Semelhantemente, a transformada de dados de controle da faixa dinâmica pode ser recebida podendo ser utilizada para adaptar e controlar cada transformada de faixa dinâmica conforme previamente descrito. Além disso, a transformada de dados de controle da faixa dinâmica pode conter a informação que define parâmetros mandatórios, opcionais ou preferidos / sugeridos para a combinação do processamento da primeira e segunda imagens codificada.
[0219] Em alguns sistemas, a transformada de dados de controle da faixa dinâmica compreende diferentes dados de controle de transformada para diferentes categorias da imagem. Especificamente, diferentes tipos de imagens/ conteúdo podem ser processados diferentemente ao realizar a transformada de faixa dinâmica.
[0220] Por exemplo, diferentes mapeamentos do tom podem ser definidos ou sugeridos para diferentes tipos de conteúdo de vídeo. Por exemplo, uma diferente transformada de faixa dinâmica é definida para um desenho, um filme de terror, um jogo de futebol, etc. O sinal de vídeo recebido pode neste caso prover metadados que descrevem o tipo de conteúdo (ou análise de conteúdo pode ser aplicada localmente no dispositivo de processamento de imagem 103) e aplicar a transformada de faixa dinâmica apropriada para o conteúdo específico.
[0221] Como outro exemplo, uma imagem interpretada pode ser gerada como uma combinação de imagens sobrepostas com diferentes transformadas sendo providas para as diferentes imagens. Por exemplo, em Blu-rayTM um número de diferentes planos de apresentação é definido (conforme ilustrado na figura 5) e diferentes transformadas de faixa dinâmica podem ser aplicadas para os diferentes planos de apresentação.
[0222] As características de cada um destes planos de apresentação são otimizadas pelo provedor de conteúdo para uma tela específica alvo. A experiência de visualização para o usuário final pode ser otimizada adaptando as características dos planos de apresentação à tela do usuário final. Tipicamente, a ideal adaptação será diferente para os diferentes planos de apresentação.
[0223] Com relação ao mapeamento do tom a situação no sistema BDROM do dia atual é como segue:
[0224] - Mapeamento do tom do vídeo (global e/ou local) é realizado no estúdio utilizando um monitor do estúdio.
[0225] - Mapeamento do tom de gráficos (geralmente diferentes do Mapeamento do tom do vídeo) é realizado no estúdio utilizando um monitor de estúdio.
[0226] - Mapeamento do tom OSD é realizado no BDROM player.
[0227] - Mapeamento do tom local e/ou global é realizado na tela no sinal combinado de Vídeo e Gráficos. Este processamento não pode ser controlado pelo usuário final.
[0228] - Mapeamento do tom global é realizado na tela no sinal combinado de vídeo e gráficos. Este processamento depende, entre outras coisas, dos valores de claridade e contraste pelo usuário final.
[0229] A qualidade melhorada da foto é obtida quando: b. Mapeamento do tom do vídeo é otimizado para a tela do usuário final. 2. Mapeamento do tom de gráficos é otimizado para a tela do usuário final. 3. O sistema permite para o Mapeamento do tom de gráficos diferentes do Mapeamento do tom do vídeo. 4. O sistema permite diferentes Mapeamento do tom de gráficos para diferentes componentes dos Gráficos 5. O sistema permite o Vídeo & Mapeamento do tom de gráficos dependendo das características do vídeo.
[0230] Ainda observe que no caso que tanto uma LDR quanto uma HDR do Vídeo são presentes no disco, o mapeamento do tom adicional dependerá de dois conjuntos de parâmetros para as telas alvo: uma para a versão LDR do vídeo e uma para a versão HDR do vídeo.
[0231] Em outra implementação melhorada, o Vídeo e/ou Mapeamento do tom de gráficos varia no tempo e dependem, por exemplo, do Conteúdo de vídeo em uma cena. O provedor de conteúdo pode enviar as instruções do mapeamento do tom ao player dependendo das características do conteúdo de Vídeo e Gráficos. Em outra implementação, o player autonomamente extrai as características do Vídeo do sinal de vídeo e adapta o Vídeo & Mapeamento do tom de gráficos dependendo destas características.
[0232] Por exemplo, legendas pode ser escurecidas para um determinado período de tempo, ou uma determinada mudança de gama pode ser implementada para uma quantidade de tempo (e ambas podem ser consideradas).
[0233] A seguir um exemplo de como prover comandos de controle para o Mapeamento do tom de gráficos para um BDROM é descrito.
[0234] Um fluxo de gráficos BDROM consiste em segmentos embutidos nos pacotes PES que são embutidos em um fluxo de transporte. A figura 14 ilustra a estrutura de dados apropriada. 5
[0235] A sincronização com o vídeo principal é feita no nível elementar do fluxo utilizando valores PTS nos pacotes PES. O segmento dos gráficos BDROM consiste em um descritor de segmento e os dados do segmento. O descritor de segmento contém o tipo do segmento e o comprimento. 10
[0236] A tabela a seguir mostra alguns tipos de segmentos definidos no padrão Blu-ray Disc:
Figure img0011
[0237] Na especificação existente, os valores 0x83 a 0xFF são reservados. Assim um novo tipo de segmento é definido utilizando, por exemplo, valor 0x83 para indicar um 15 segmento que contém o segmento LHDR_Processing_definition. No geral, o segmento LHDR_Processing_definition define a forma que o decodificador dos gráficos processa os gráficos no caso da tela alvo ser diferente da tela do usuário final.
[0238] A seguinte tabela mostra um exemplo de uma possível estrutura do segmento LHDR_Processing_definition:
Figure img0012
[0239] Neste exemplo, o segmento 5 LHDR_Processing_definition contém dois descritores de processamento: Pop-up_Process_descriptor e Subtitle_Process_descriptor. O segmento pode também conter paletas a ser utilizadas no caso que a categoria da tela alvo é diferente da categoria da tela do usuário final. A paleta 10 LHDR contém o mesmo número de entradas que a paleta original, mas as entradas são otimizadas para a outra categoria da tela.
[0240] O parâmetro Pop-up_Process_descriptor especifica o processamento adicional dos gráficos de Pop-up 15 no caso que a categoria da tela alvo é diferente da categoria da tela do usuário final.
[0241] Como um exemplo esse parâmetro pode ter os seguintes valores. - Pop-up_Process_descriptor=0x00: Nenhum processamento adicional. - Pop-up_Process_descriptor=0x01 a 0x03: valor de transparência mínima definida. - Pop-up_Process_descriptor=0x04: o processador de gráficos utiliza paletas definidas no segmento LHDR_Processing_definition. - Pop-up_Process_descriptor=0x05: Nenhuma restrição no processamento adicional.
[0242] O parâmetro Subtitle_Process_descriptor especifica os gráficos adicionais do processamento de Legenda no caso da categoria da tela alvo ser diferente da categoria da tela do usuário final.
[0243] Como um exemplo esse parâmetro pode ter os seguintes valores. - Subtitle_Process_descriptor =0x00: Nenhum processamento adicional. - Pop-up_Process_descriptor=0x01 a 0x03: Adapt valor de luma. - Subtitle_Process_descriptor =0x04: o processador de gráficos utiliza paletas definidas no segmento LHDR_Processing_definition. - Subtitle_Process_descriptor =0x05: Nenhuma restrição no processamento adicional.
[0244] Exemplo específico de sintaxes para Pop-up_Process_descriptor e a Subtitle_Process_descriptor são providos nas tabelas a seguir:
Figure img0013
Figure img0014
[0245] Exemplos específicos de mapeamento do tom diferenciado dependendo das características da tela são ilustrados nas figuras 15 e 16. Neste exemplo, a conteúdo 5 original caracteriza o conteúdo de vídeo e legendas HDR. O mapeamento de tom para o vídeo é o mesmo que no exemplo da figura 6.
[0246] Os gráficos caracterizam os carácteres de subtítulo em branco com uma borda preta. O histograma 10 original mostra um pico na faixa da luma baixa e outro pico na faixa de luma alta. Esse histograma para o conteúdo de legenda é muito adequado para uma tela LDR, pois resultará no texto legível claro na tela. Entretanto, em uma tela HDR estes caracteres seriam muito claros causando ruído, halo e 15 luminosidade. Por esta razão, o mapeamento do tom para os gráficos de subtítulo serão adaptados conforme descrito na figura 16.
[0247] No exemplo anterior, o dispositivo de processamento de imagem 103 gerou uma imagem de saída para corresponder a uma claridade máxima desejada, ou seja, direcionada para a apresentação em uma tela com uma dada faixa dinâmica/luminância de ponto branco. O sinal de saída pode especificamente ser gerado para corresponder a um ajuste do usuário que indica uma luminância de ponto branco / máxima desejada, ou pode simplesmente assumir uma dada faixa dinâmica para a tela 107.
[0248] Em alguns sistemas o dispositivo de processamento de imagem 103 pode compreender um processador de faixa dinâmica 203 que está disposto para adaptar seu processamento em dependência dos dados recebidos da tela 107 indicando uma característica da luminância da tela 107.
[0249] Um exemplo deste dispositivo de processamento de imagem 103 é ilustrado na figura 17. O dispositivo de processamento de imagem 103 corresponde ao da figura 1, mas neste exemplo o dispositivo de processamento de imagem 103 também compreende um receptor de tela 1701 que recebe um sinal de dados da tela 107. O sinal de dados compreende um campo de dados que compreende uma indicação da faixa dinâmica da tela para a tela 107. A indicação da faixa dinâmica da tela compreende pelo menos uma especificação de luminância indicativa de uma propriedade de luminância da tela. Especificamente a especificação de luminância pode incluir uma especificação de uma claridade máxima, ou seja, de uma luminância de ponto branco/máxima para a tela. Especificamente, a indicação da faixa dinâmica da tela pode definir se a tela é uma Tela HDR ou tela LDR e pode em particular indicar a saída de luz máxima em nits. Assim, a indicação da faixa dinâmica da tela pode definir se a tela é uma tela de 500 nits, 1000 nits, 2000 nits, 4000 nits etc.
[0250] O receptor de tela 1701 do dispositivo de processamento de imagem 103 é acoplado ao processador de faixa dinâmica 203 que é inserido na indicação da faixa dinâmica da tela. O processador de faixa dinâmica 203 pode certamente gerar um sinal de saída que diretamente corresponde à tela específica ainda para gerar o sinal de saída para uma luminância de ponto branco assumida ou manualmente definida.
[0251] O processador de faixa dinâmica 203 pode certamente adaptar a transformada de faixa dinâmica em resposta à indicação da faixa dinâmica da tela recebida. Por exemplo, a imagem recebida codificada pode ser uma imagem LDR e pode ser assumido que essa imagem foi otimizada para uma tela de 500 nits. Se a indicação da faixa dinâmica da tela indica que a tela é ainda uma tela de 500 nits, o dispositivo de processamento de imagem 103 pode utilizar a imagem codificada diretamente. Entretanto, se a indicação da faixa dinâmica da tela indica que a tela é uma tela de 1000 nits, uma primeira transformada dinâmica pode ser aplicada. Se a indicação da faixa dinâmica da tela indica que a tela 107 é uma tela de 2000 nits, uma diferente transformada pode ser aplicada, etc. Semelhantemente, se a imagem recebida é uma imagem otimizada de 2000 nits, o dispositivo de processamento de imagem 103 pode utilizar essa imagem diretamente se a indicação da faixa dinâmica da tela indica que a tela é uma tela de 2000 nits. Entretanto, se a indicação da faixa dinâmica da tela indica que a tela é uma tela de 1000 nits ou uma tela de 500 nits, o dispositivo de processamento de imagem 103 pode para realizar a transformada de faixa dinâmica apropriada para reduzir a faixa dinâmica.
[0252] Por exemplo, com referência à figura 18, duas diferentes transformações podem ser definidas para respectivamente uma tela de 1000 nits e para uma tela de 4000 nits, e com um terceiro mapeamento um a um sendo definido para uma tela de 500 nits. Na figura 1, o mapeamento para uma tela de 500 nits é indicado pela curva 1801, o mapeamento para a tela de 1000 nits é indicado pela curva 1803, o mapeamento para uma tela de 4000 nits é indicado pela curva 1805. Assim, no exemplo, a imagem recebida codificada é assumida para ser uma imagem de 500 nits e isso é automaticamente convertido em uma imagem adequada para a tela específica. Assim, o dispositivo de processamento de imagem 103 pode automaticamente adaptar e gerar uma imagem otimizada para a tela específica da qual é conectada. Em particular, o dispositivo de processamento de imagem 103 pode automaticamente adaptar ao se a tela é uma tela HDR ou tela LDR, e pode ainda adaptar à luminância branca da tela específica.
[0253] Será observado que os mapeamentos inversos podem ser utilizados ao mapear uma faixa dinâmica mais alta em uma faixa dinâmica inferior.
[0254] Se a tela tem uma luminância branca correspondente a uma das três curvas da figura 18, o mapeamento correspondente pode ser aplicado à imagem codificada. Se a tela tem um diferente valor de luminância, uma combinação das transformações pode ser utilizada...
[0255] Assim, o processador de faixa dinâmica 203 pode selecionar uma transformada de faixa dinâmica apropriada dependendo da indicação da faixa dinâmica da tela. Como um exemplo de baixa complexidade, o processador de faixa dinâmica 203 pode selecionar entre utilizar as curvas dependendo de quão próximo a luminância de ponto branco associada corresponde à luminância de ponto branco indicada pela indicação da faixa dinâmica da tela. Especificamente, o mapeamento que é associado com uma luminância de ponto branco mais próximo à luminância de ponto branco indicada desejada na indicação da faixa dinâmica da tela pode ser selecionado. Assim, se uma imagem LDR de saída for gerada, a transformada de faixa dinâmica pode ser realizada utilizando a curva 1801. Se uma imagem HDR da luminância de ponto branco relativamente baixa for gerada, o mapeamento da curva 1803 é utilizado. Entretanto, se a imagem HDR de alta luminância de ponto branco é gerada, a curva 1805 é utilizada.
[0256] Se uma imagem deve ser gerada para uma luminância branca entre as transformadas de faixa dinâmica para os dois ajustes HDR (por exemplo, para uma tela de 2000 nits), ambos os mapeamentos 1803, 1805 podem ser utilizados. Em particular, uma interpolação entre as imagens transformadas para os dois mapeamentos pode ser realizada. Tal interpolação pode ser linear ou não linear. A ponderação das imagens individuais transformadas pode tipicamente depender de quão próximas estão da claridade máxima desejada emitida.
[0257] Por exemplo, uma primeira imagem transformada pode ser realizada aplicando um primeiro mapeamento 1803 à imagem codificada (a imagem LDR) e uma segunda imagem transformada pode ser realizada aplicando um segundo mapeamento à imagem codificada. A primeira e a segunda imagens transformadas são então combinadas (por exemplo, somadas) para gerar a imagem de saída. Os pesos de respectivamente a primeira e a segunda imagens transformadas são determinados em quão próxima a luminância branca associada com os diferentes mapeamentos corresponde com a luminância branca da tela indicada na indicação da faixa dinâmica da tela.
[0258] Por exemplo, para uma tela de 1500 nits, a primeira imagem transformada pode ser ponderada muito mais alta do que a segunda imagem transformada e para uma tela de 3500 nits a segunda imagem transformada pode ser ponderada significativamente mais alta do que a primeira imagem transformada.
[0259] Em algumas realizações, o processador de faixa dinâmica (203) pode ser disposto para selecionar entre gerar a imagem de saída como a imagem recebida codificada e gerar a imagem de saída como uma imagem transformada da imagem recebida codificada em resposta à indicação da faixa dinâmica da tela.
[0260] Especificamente, se a luminância de ponto branco indicada pela indicação da faixa dinâmica da tela for suficientemente próxima à luminância de ponto branco indicada ou assumida para a imagem recebida, a transformada de faixa dinâmica pode simplesmente consistir em não para realizar qualquer processamento na imagem recebida, ou seja, a imagem de entrada pode simplesmente ser utilizada como a imagem de saída. Entretanto, se a luminância de ponto branco indicada pela indicação da faixa dinâmica da tela for diferente na luminância de ponto branco assumida ou indicada para a imagem recebida, a transformada de faixa dinâmica pode modificar a imagem recebida codificada de acordo com um mapeamento da imagem adequado dos pixels de entrada da imagem de pixel de saída. Nestes casos, o mapeamento pode ser adaptado dependendo da indicação recebida da luminância de ponto branco da tela do usuário final. Em outro exemplo, um ou mais mapeamentos predeterminados podem ser utilizados.
[0261] Por exemplo, o dispositivo de processamento de imagem 103 pode incluir um primeiro mapeamento predeterminado que foi determinado para prover uma imagem de saída adequada para uma duplicagem no ponto nível de branco e um segundo mapeamento predeterminado que foi determinado para prover uma imagem de saída adequada para dividir no ponto nível de branco. Neste exemplo, o dispositivo de processamento de imagem 103 pode selecionar entre o primeiro mapeamento, o segundo mapeamento, e um mapeamento de unidade dependente da luminância de ponto branco da imagem recebida (por exemplo, conforme indicado pela tela alvo de referência) e a luminância de ponto branco para a tela do usuário final conforme indicado pela indicação da faixa dinâmica da tela. O dispositivo de processamento de imagem 103 pode especificamente selecionar o mapeamento que mais corresponde proximamente ao índice entre as luminâncias de ponto branco da imagem de entrada e a tela do usuário final.
[0262] Por exemplo, se uma imagem de entrada é recebida com uma tela alvo de referência indicando que foi otimizada para uma tela de 1000 nits e a tela do usuário final é uma tela de 2000 nits, o dispositivo de processamento de imagem 103 selecionará o primeiro mapeamento. Se ao invés, a indicação da faixa dinâmica da tela indica que uma tela do usuário final é uma tela de 1000 nits, o dispositivo de processamento de imagem 103 selecionará o mapeamento de unidade (ou seja, utilizar a imagem de entrada diretamente). Se a indicação da faixa dinâmica indica que uma tela do usuário final é uma tela de 500 nits, o dispositivo de processamento de imagem 103 selecionará o segundo mapeamento.
[0263] Se entre os valores para a luminância de ponto branco da tela do usuário final são recebidos, o dispositivo de processamento de imagem 103 pode selecionar o mapeamento mais próximo ao índice entre as luminâncias de ponto branco, ou pode, por exemplo, interpolar entre os mapeamentos.
[0264] No exemplo da figura 2, o dispositivo de processamento de imagem 103 está disposto para realizar uma transformada de faixa dinâmica com base em uma tela alvo de referência recebida do aparelho provedor de conteúdo 101, mas sem qualquer informação específica ou conhecimento da tela específica 107 (ou seja, pode simplesmente gerar a imagem de saída para ser otimizada para uma dada faixa dinâmica/ ponto branco, mas sem explicitamente conhecer se a tela conectada 107 tem este valor). Assim, uma luminância de ponto branco assumida ou de referência pode ser utilizada. No exemplo da figura 17, o dispositivo de processamento de imagem 103 pode para realizar uma transformada de faixa dinâmica com base em uma indicação da faixa dinâmica da tela recebida da tela 107, mas sem qualquer informação específica ou conhecimento da faixa dinâmica específica e luminância de ponto branco que a imagem recebida codificada foi gerada para (ou seja, pode simplesmente gerar a imagem de saída com base na dada faixa dinâmica/ luminância de ponto branco para a imagem recebida codificada, mas sem explicitamente saber se a imagem foi realmente gerada para tal faixa e luminância). Assim, uma luminância de ponto branco assumida ou de referência para a imagem codificada pode ser utilizada. Entretanto, será observado que em muitas implementações o dispositivo de processamento de imagem 103 pode ser disposto para realizar a transformada de faixa dinâmica em resposta à informação recebida do lado do provedor de conteúdo e da tela do usuário final. A figura 19 mostra um exemplo de um dispositivo de processamento de imagem 103 que compreende um processador de faixa dinâmica 203 disposto para realizar uma transformada de faixa dinâmica em resposta à tela alvo de referência e à indicação da faixa dinâmica da tela. Também será observado que os comentários e descrições providos para as abordagens independentes da figura 2 e 17 aplicam igualmente (mutatis mutandis) ao sistema da figura 19.
[0265] As abordagens podem ser particularmente vantajosas nos sistemas de distribuição do conteúdo não homogêneos como, por exemplo, o que é progressivamente percebido para futuros sistemas de televisão. De fato, a claridade (máxima) das telas está atualmente aumentando e no futuro, as telas com uma ampla variedade de claridade (máxima) são esperadas para coexistir no mercado. Visto que a claridade da tela (e tipicamente a função de transferência eletro-óptica que especifica como uma tela converte os valores de acionamento do pixel de entrada (cor) em valores leves que então provêm uma impressão psicovisual particular ao visualizador) não é mais conhecida no lado da geração do conteúdo (e que é ainda geralmente diferencia do monitor de referência no qual o conteúdo foi direcionada/classificado), se torna desafiante prover a melhor/qualidade ideal da foto na tela.
[0266] Assim, no sistema da figura 1 a tela 107 (ou dispositivo dissipador) pode enviar informação sobre suas capacidades de clareamento (claridade máxima, função de transferência de cinza (cor), ou outras propriedades de interpretação de cinza sobre sua faixa HDR, como uma função de transferência eletro-óptica particular etc.) de volta ao dispositivo de processamento de imagem 103.
[0267] No exemplo específico o dispositivo de processamento de imagem 103 é um BDROM player conectado a uma tela por meios de uma interface HDMI, e assim a indicação da faixa dinâmica da tela pode ser comunicada da tela ao dispositivo de processamento de imagem 103 através de uma interface HDMI. Assim, a indicação da faixa dinâmica da tela pode especificamente ser comunicada como parte da informação EDID que pode ser sinalizada sobre o HDMI da tela 107 ao dispositivo de processamento de imagem 103. Entretanto, será observado que a abordagem pode ser aplicada a muitos outros dispositivos geradores de vídeos/gráficos como receptores DVB, ATSC receptores, computadores pessoais, tablets, smartphones e consoles de jogo etc. Também será observado que muitas outras interfaces cabeadas e sem fio podem ser utilizadas coma Porta da tela, USB, Ethernet e WI-FI etc.
[0268] O dispositivo de processamento de imagem 103 pode então selecionar, por exemplo, uma de diferentes versões do conteúdo/sinal dependendo, por exemplo, da claridade da tela. Por exemplo, se o sinal do aparelho provedor de conteúdo 101 compreende tanto uma imagem LDR quanto uma imagem HDR, o dispositivo de processamento de imagem 103 pode selecionar entre estes com base se a indicação da faixa dinâmica da tela for indicativa da tela sendo uma tela LDR ou uma tela HDR. Como outro exemplo, o dispositivo de processamento de imagem 103 pode interpolar/misturar diferentes versões da claridade do conteúdo para derivar um novo sinal que é aproximadamente ideal para a claridade da tela. Como outro exemplo, pode adaptar o mapeamento da imagem codificada à imagem de saída.
[0269] Será observado que em diferentes implementações diferentes parâmetros e informação podem ser providos na indicação da faixa dinâmica da tela. Em particular, os comentários e descrições previamente providos para uma tela alvo de referência pode aplicar igualmente à indicação da faixa dinâmica da tela. Assim, os parâmetros e informação comunicados da tela 107 ao dispositivo de processamento de imagem 103 podem ser conforme os descritos para comunicação de informação na tela alvo do aparelho provedor de conteúdo 101 ao dispositivo de processamento de imagem 103.
[0270] Especificamente, a tela pode comunicar uma luminância máxima/ luminância de ponto branco para uma tela e isso pode ser utilizado pelo processador de faixa dinâmica 203 para adaptar o sinal de saída conforme previamente descrito.
[0271] Em algumas realizações, a indicação da faixa dinâmica da tela pode de forma adicional ou alternativa incluir uma luminância de ponto preto para uma tela 107. A luminância de ponto preto pode tipicamente indicar uma luminância correspondente a valores de acionamento correspondentes ao valor de pixel mais escuro. A luminância de ponto preto intrínseca para uma tela pode para algumas telas corresponder à praticamente nenhuma luz emitida. Entretanto, para muitas telas o ajuste mais escuro de, por exemplo, os elementos LCD ainda resultam em alguma luz emitida da tela resultante nas áreas da imagem pretas sendo percebidas mais claras e acinzentadas mãos do que o preto profundo. Para estas telas, a informação da luminância de ponto preto pode ser utilizada pelo processador de faixa dinâmica 203 para realizar um mapeamento do tom onde, por exemplo, todos os níveis de preto abaixo da luminância de ponto preto da tela serão convertidos ao valor de pixel escuro mais profundo (ou, por exemplo, utilizando uma transição mais gradual). Em alguns cenários a luminância de ponto preto pode incluir um contribuição da luz ambiente. Por exemplo, a luminância de ponto preto pode refletir a quantidade de luz sendo refletida da tela.
[0272] Além disso, a indicação da faixa dinâmica da tela pode para muitas telas incluir mais informação caracterizando a OETF da tela. Especificamente, conforme previamente mencionado, a tela pode incluir a luminância de ponto branco e/ou a luminância de ponto preto. Em muitos sistemas, a indicação da faixa dinâmica da tela pode também incluir mais detalhes sobre a OETF da tela na intervenção da luz emitida. Especificamente, a indicação da faixa dinâmica da tela pode incluir uma gama da OETF para uma tela.
[0273] O processador de faixa dinâmica 203 pode então utilizar a informação dessa OETF para adaptar a transformada de faixa dinâmica específica para prover o desempenho desejado e em particular, a conversão em uma imagem HDR pode refletir não apenas que uma luz emitida mais clara é possível, mas pode também considerar exatamente como a relação entre os valores de acionamento devem ser gerados para prover a luz emitida desejada na faixa de claridade elevada. Semelhantemente, a conversão em uma imagem LDR pode refletir não apenas que uma luz emitida menos clara está disponível, mas pode também considerar exatamente como a relação entre os valores de acionamento deve ser gerada para prover a luz emitida desejada na faixa de claridade reduzida.
[0274] A indicação da faixa dinâmica da tela pode assim especificamente prover informação que informa o processador de faixa dinâmica 203 de como ele deve mapear os valores de entrada correspondentes a uma faixa dinâmica para emitir valores correspondentes a outro e tipicamente faixa dinâmica maior. O processador de faixa dinâmica 203 pode considerar e pode, por exemplo, compensar quaisquer variações ou não linearidades na interpretação pela tela 107.
[0275] Será observado que muitas transformadas diferentes de faixa dinâmica são possíveis e que muitas diferentes formas de adaptar estas transformadas de faixa dinâmica com base na indicação da faixa dinâmica da tela podem ser utilizadas. De fato, será observado que a maioria dos comentários providos para a transformada de faixa dinâmica com base na tela alvo de referência do aparelho provedor de conteúdo 101 são igualmente apropriadas (mutatis mutandis) à transformada de faixa dinâmica com base na informação das características de luminância da tela do usuário final.
[0276] Como um exemplo de baixa complexidade, a transformada de faixa dinâmica pode simplesmente aplicar uma função linear em partes nos valores de entrada de uma imagem LDR para gerar valores de HDR melhorados (ou aos valores de entrada de uma imagem HDR para gerar valores LDR melhorados). De fato, em muitos cenários, um simples mapeamento que consiste em duas relações lineares conforme ilustrado na figura 20 pode ser utilizado. O mapeamento mostra um mapeamento direto entre valores de pixel de entrada e valores de pixel de saída (ou em alguns cenários o mapeamento pode refletir um mapeamento (possivelmente contínuo) entre as luminâncias do pixel de entrada e os pixels de luminância de saída).
[0277] Especificamente, a abordagem provê uma transformada de faixa dinâmica que mantém as áreas escuras de uma imagem para permanecer escuro enquanto ao mesmo tempo permite que a faixa dinâmica substancialmente elevada seja para prover uma interpretação muito mais clara das áreas claras, bem como ainda uma faixa média de aparência melhorada e mais alegre. Entretanto, a transformação exata depende da tela na qual deve ser interpretada. Por exemplo, ao interpretar uma imagem para uma tela de 500 nits em uma tela de 1000 nits, uma transformação relativamente modesta é necessária e o alongamento das áreas claras é relativamente limitado. Entretanto, se a mesma imagem deve ser exibida em uma tela de 5000 nits, uma transformação muito mais extrema é necessária para explorar completamente a claridade disponível sem clarear muito as áreas escuras. A figura 20 ilustra como dois diferentes mapeamentos podem ser utilizados para respectivamente uma tela de 1000 nits (curva 2001, valor máximo de 255 correspondente a 1000 nits) e uma tela de 5000 nits (curva 2003 valor máximo de 255 correspondente a 5000 nits) para uma imagem de entrada de 500 nits LDR (valor máximo de 255 correspondente a 500 nits). O dispositivo de processamento de imagem 103 pode ainda determinar os valores adequados para outra luminância máxima interpolando entre os valores providos. Em algumas implementações, mais pontos podem ser utilizados para definir uma curva que é ainda linear em peças, mas com mais intervalos lineares.
[0278] Será observado que os mesmos mapeamentos podem ser utilizados ao mapear de uma imagem de entrada HDR em uma imagem LDR de saída.
[0279] Em algumas realizações, a transformada de faixa dinâmica pode compreender ou consistir em uma transformada em gama que pode ser dependente da indicação recebida da faixa dinâmica da tela. Assim, em algumas realizações, o processador de faixa dinâmica 203 pode modificar as cromaticidades da imagem interpretada dependendo da indicação da faixa dinâmica da tela. Por exemplo, quando uma imagem recebida HDR é interpretada em uma tela LDR a compressão pode resultar em uma imagem mais suave com poucas variações e gradações nos objetos da imagem individual. A transformada de faixa dinâmica pode compensar estas reduções aumentando as variações de croma. Por exemplo, quando uma imagem com uma luz forte é otimizada para interpretação em uma tela HDR, a interpretação em uma tela LDR com faixa dinâmica reduzida tipicamente fará uma maçã aparecer para considerar e parecer menos clara e mais opaca. Isso pode pela transformada de faixa dinâmica ser compensado tornando a cor da maçã mais saturada. Como outro exemplo, as variações de textura podem se tornar menos perceptualmente significativas devido às variações de luminância reduzida e isso pode ser compensado aumentando as variações de croma da textura.
[0280] A indicação da faixa dinâmica da tela pode em alguns exemplos ou cenários prover informação genérica para uma tela, como os parâmetros de fabricação padrão, a EOTF padrão etc. Em alguns exemplos e cenários, a indicação da faixa dinâmica da tela pode ainda refletir o processamento específico realizado na tela e pode especificamente refletir os ajustes do usuário. Assim, neste exemplo, a indicação da faixa dinâmica da tela não meramente provê informação fixa e inalterada que depende apenas da tela, mas ainda provê uma função variante do tempo que pode refletir a operação específica da tela.
[0281] Por exemplo, a tela pode operar em diferentes modos de imagem com diferentes características de interpretação. Por exemplo, em um modo de tela “vivo”, a tela pode interpretar imagens com as áreas claras mais claras do que normal, em um modo de tela “mudo” pode interpretar as imagens com as áreas mais escuras do que o normal etc. A informação no modo atual, por exemplo, a gama específico para esse modo, pode ser reportada ao dispositivo de processamento de imagem 103 como parte da indicação da faixa dinâmica da tela assim permitindo o dispositivo de processamento de imagem 103 para adaptar a transformada de faixa dinâmica para refletir as características da interpretação. O dispositivo de processamento de imagem 103 pode, por exemplo, ajuste de tela domina compensando isso ou pode otimizar a transformada para manter o ajuste específico.
[0282] A indicação da faixa dinâmica da tela pode também refletir outros ajustes de processamento para uma tela. Por exemplo, níveis de recorte, ajustes de energia da luz de fundo, mapeamentos do esquema de cor, etc., pode ser comunicada ao dispositivo de processamento de imagem 103 onde eles podem ser utilizados pelo processador de faixa dinâmica 203 para adaptar a transformada de faixa dinâmica.
[0283] A figura 21 ilustra um exemplo de elementos da tela 107 onde a tela provê uma indicação da faixa dinâmica da tela ao dispositivo de processamento de imagem 103.
[0284] No exemplo, a tela compreende um receptor 2101 que recebe o sinal de imagem emitido do dispositivo de processamento de imagem 103. O sinal de imagem recebido é acoplado a um acionador 2103 que é ainda acoplado a um painel de exibição 2105 que interpreta a imagem. O painel de exibição pode, por exemplo, ser um painel de exibição de LCD ou plasma como será conhecido pelo técnico no assunto.
[0285] O acionador 2103 está disposto para acionar o painel de exibição 2105 de modo que interprete a imagem codificada. Em algumas realizações, o acionador 2103 pode para realizar algoritmos de processamento do sinal avançado e adaptativo incluindo mapeamento do tom, classificação de cor etc. Em outras realizações, o acionador 2103 pode ter complexidade relativamente baixa e pode, por exemplo, meramente realizar um mapeamento padrão do sinal de valores de entrada nos valores de acionamento para os elementos de pixel do painel de exibição 2105.
[0286] No sistema, a tela 107 ainda compreende um transmissor 2107 que está disposto para transmitir um sinal de dados ao dispositivo de processamento de imagem 103. O sinal de dados pode, por exemplo, para uma conexão de HDMI ser comunicada em um canal DDC utilizando a estrutura E-EDID como será descrito posteriormente.
[0287] O transmissor 2107 gera o sinal de dados para incluir a indicação da faixa dinâmica da tela para uma tela (107). Assim, especificamente o transmissor 2107 que indica, por exemplo, a luminância de ponto branco e opcionalmente a EOTF da tela. Por exemplo, um valor de dados provendo um índice entre um número de luminâncias de ponto branco predeterminadas ou EOTFs podem ser geradas e transmitidas.
[0288] Em algumas realizações de baixa complexidade, por exemplo, a luminância de ponto branco pode ser um valor fixo armazenado no transmissor 2107 que meramente comunica esse valor padrão. Em valores mais complexos, a indicação da faixa dinâmica da tela pode ser determinada para refletir dinamicamente valores variantes e/ou adaptados. Por exemplo, o acionador 2103 pode ser disposto para operar em diferentes modos de tela, e a indicação da faixa dinâmica da tela pode ser adaptada corretamente. Como outro exemplo, o ajuste do usuário de, por exemplo, um nível de claridade para uma tela pode ser refletido pela indicação da faixa dinâmica da tela gerada e transmitido pelo transmissor 2107...
[0289] Conforme mencionado previamente, a indicação da faixa dinâmica da tela pode compreender uma medição da luz ambiente e o processador de faixa dinâmica pode ser disposto para adaptar a transformada de faixa dinâmica em resposta à medição da luz ambiente. A medição da luz ambiente pode ser provida como dados explícitos e separados ou pode ser refletida em outros parâmetros. Por exemplo, a medição da luz ambiente pode ser refletida na luminância de ponto preto que pode incluir uma contribuição correspondente às reflexões de luz da tela.
[0290] Em muitos cenários, a tela pode incluir um detector de luz posicionado na frente da tela. Esse detector de luz pode detectar o nível de luz do ambiente geral ou pode especificamente medir a luz que atinge a tela de um dado diretamente para ser refletida de volta ao visualizador. Com base nessa detecção de luz, a tela pode assim gerar uma indicação de luz ambiente que reflete, por exemplo, o nível de luz ambiente do ambiente de visualização no geral ou, por exemplo, que especificamente reflete uma estimativa da luz refletida da tela. A tela 107 pode reportar esse valor ao dispositivo de processamento de imagem 103, tanto como um valor individual quanto, por exemplo, calculando o nível de luminância de preto efetivo para refletir a quantidade de reflexões da luz.
[0291] O processador de faixa dinâmica 203 pode então adaptar a transformada de faixa dinâmica certamente. Por exemplo, quando o nível de luz ambiente é alto, mais uso dos níveis de claridade adicional de uma tela HDR pode ser utilizado mais agressivamente para gerar uma imagem com boa aparência com um alto contraste. Por exemplo, a luz emitida média pode ser definida relativamente alta e mais luminâncias de faixa média podem ser empurrados em direção à faixa HDR. Áreas claras podem ser interpretadas utilizando toda a faixa HDR e áreas mais escuras seriam tipicamente ser interpretadas em níveis de luz relativamente altos. Entretanto, a faixa dinâmica elevada de uma imagem HDR permite que para tal imagem relativamente clara ainda exiba grandes variações de luminância e assim ainda ter um alto contraste.
[0292] Assim, as capacidades de HDR da tela são utilizadas para gerar uma imagem que provê imagens que são percebidas para ser claras e ter alto contraste mesmo quando visualizadas, por exemplo, na luz do dia claro. Tal imagem tipicamente não seria apropriada em uma sala escura, pois seria dominante e pareceria muito longe. Assim, em um ambiente escuro, a transformada de faixa dinâmica realizaria uma transformada de LDR a HDR muito mais conservativa que, por exemplo, manteria a mesma luz emitida LDR para valores de faixa média e escura e apenas aumenta a claridade para as áreas mais claras.
[0293] A abordagem pode permitir o dispositivo de processamento de imagem 103 para automaticamente adaptar a Transformada de faixa dinâmica LDR em HDR (ou, por exemplo, uma Transformada de faixa dinâmica HDR em LDR) para corresponder ao ambiente de visualização específico da tela. Isso é ainda possível sem exigir que o dispositivo de processamento de imagem 103 faça quaisquer medições de ou realmente quaisquer medições de ou realmente para ser posicionadas dentro ou próximo deste ambiente.
[0294] A indicação de luz ambiente pode tipicamente ser opcional e assim o dispositivo de processamento de imagem 103 pode utilizá-la se disponível e, caso contrário, apenas realizar uma transformada de faixa dinâmica padrão para as características específicas (por exemplo, OETF da tela).
[0295] A informação de extensão opcional provida pela tela sobre seu ambiente de visualização (especialmente a luz circundante) é então utilizada pelo dispositivo de processamento de imagem 103 para executar as transformadas de otimização de imagem/vídeo mais complicadas para apresentar imagem ideal/vídeo ideal na tela onde otimização pode incluir não apenas características da tela, mas também do ambiente de visualização.
[0296] Então, outras otimizações pode ser realizadas quando a informação é provida pela tela sobre o ambiente de visualização. A tela tipicamente periodicamente medirá a luz circundante e enviará a informação (por exemplo, claridade e cor na forma de três parâmetros: XYZ) sobre essa ao dispositivo de processamento de imagem 103. Essa informação pode tipicamente não ser provida como parte dos dados EDID ou qualquer outro tipo de dado tipo principalmente utilizado para comunicação única de informação. Ainda, pode ser comunicada, por exemplo, em um canal separado, como, por exemplo, utilizando HDMI-CEC. Essa medição e atualização periódica podem, por exemplo, resultar se o usuário, por exemplo, desliga a luz na proximidade da tela, o dispositivo de processamento de imagem 103 pode automaticamente adaptar o processamento para prover imagens mais adequadas para a situação de visualização mais escura, por exemplo, aplicando diferentes mapeamentos de cor/luminância.
[0297] Um exemplo de um conjunto de parâmetros relevantes que pode ser reportado pela tela do usuário final na indicação da faixa dinâmica da tela inclui: • A luminância máxima absoluta (luminância de ponto branco) da tela do usuário final. • Gama da tela do usuário final - ajuste de fábrica.
[0298] A luminância máxima absoluta da tela do usuário final pode, por exemplo, ser definida para ajustes típicos da tela, ajustes de fábrica padrão ou ajustes que produzem a claridade mais alta.
[0299] Outro exemplo de um conjunto de parâmetros relevantes que pode ser reportado pela tela do usuário final na indicação da faixa dinâmica da tela inclui: • Luminância máxima da tela do usuário final para os ajustes atuais de claridade, contraste, etc. • Gama da tela do usuário final - ajustes atuais.
[0300] O primeiro conjunto de parâmetros é independente de tempo onde o segundo conjunto varia no tempo, pois depende dos ajustes do usuário. A aplicação de um ou outro conjunto tem consequências para o comportamento do sistema e a experiência do usuário, e será observado que o conjunto de parâmetros específicos utilizado em um sistema específico depende das referências e exigências do sistema. De fato, os parâmetros podem ser misturados entre os dois conjuntos, e, por exemplo, os ajustes de fábrica padrão podem ser providos na ligação, com os parâmetros dependentes do ajuste do usuário sendo reportados periodicamente depois deles.
[0301] É também observado que os conjuntos de parâmetro específico podem caracterizar uma EOTF para uma tela que tem tanto a EOTF padrão de fábrica quanto a EOTF dependente do ajuste do usuário atual específica. Então, os parâmetros podem prover informação no mapeamento entre valores de acionamento e uma luminância emitida da tela que permite que o dispositivo de processamento de imagem 103 gere os valores de acionamento que resultarão na imagem de saída desejada. Será observado que em outras implementações outros parâmetros podem ser utilizados para caracterizar parte ou todo o mapeamento entre os valores de acionamento e luz emitida para uma tela.
[0302] Será observado que muitas diferentes abordagens podem ser utilizadas para comunicar a indicação da faixa dinâmica da tela da tela ao dispositivo de processamento de imagem 103.
[0303] Por exemplo, para parâmetros da tela que são independentes dos ajustes do usuário e não variam ao longo do tempo, a comunicação pode para uma conexão HDMI pode ser efetivamente transferida em um canal DDC utilizando a estrutura E-EDID.
[0304] Em uma abordagem de baixa complexidade, um conjunto de categorias pode ser definido para as telas do usuário finais com cada categoria definindo as faixas dos parâmetros relevantes. Nesta abordagem apenas um código de identificação da categoria para uma tela do usuário final precisa ser transmitida.
[0305] Um exemplo específico de uma comunicação de indicação da faixa dinâmica dos dados da tela em um formato E-EDID será descrito.
[0306] No exemplo específico, os primeiros 128 bytes do E-EDID compreenderão uma estrutura EDID 1.3 (bloco de base EDID).
[0307] Para a indicação da faixa dinâmica da tela parâmetros, um novo Bloco Descritor da Tela na estrutura de dados E-EDID pode ser definido. Como os dispositivos atuais são ignorantes deste novo Bloco Descritor da Tela, eles ignorarão meramente então provendo a retrocompatibilidade. Um possível formato desse descritor de “Comportamento de Luminância” é listado na tabela abaixo.
Figure img0015
[0308] valor entre 0 e 255 Indica que esse descritor de 18 00h bytes é um descritor de tela 00h Reservado número de identificação do descritor de tela indicando que F6h este é um descritor de Luminância. 00h Reservado Peak_Luminance curva de transferência (opcional; por exemplo, alfa, beta, relevância) Peak_Luminance é um parâmetro com um que indica a luminância máxima da tela de acordo com: luminância máxima da tela (cd/m2 ) = 50 x Peak_Luminance,
[0309] então abrangendo uma faixa de 0 a 255*50=12750 cd/m2
[0310] ou 255*100
[0311] A curva de transferência pode ser uma curva de gama (como em ITU601, ITU709, etc.), mas permitindo uma gama muito mais alta (até 10). ou uma diferente transferência (ou log) parâmetro da curva pode em alguns cenários ser mais apropriado. Por exemplo, ao invés da função de gama:
Figure img0016
uma função de potência:
Figure img0017
poderia ser utilizada onde os parâmetros α,β e Δ podem ser definidos para prover a caracterização desejada.
[0312] A informação adicional pode então ser utilizada pelo dispositivo de processamento de imagem 103 para tomar as decisões mais avançadas para determinar diferentes níveis de cinza de vídeos e gráficos (ou componente de várias imagens), como, por exemplo, processamento global como modificações à base de gama. Tendo mais informação, como sobre como a tela remapeará por gama todos os valores de cinza, o processador de faixa dinâmica 203 pode tomar decisões muito mais espertas para a aparência final do vídeo e as imagens secundárias (e como elas podem sobrepor na luminância, dependendo ainda, por exemplo, de outras propriedades geométricas como o quão grande as sub- regiões são etc.).
[0313] Nos exemplos anteriores, a tela 107 provê uma indicação da faixa dinâmica da tela que informa o dispositivo de processamento de imagem 103 de como a tela exibirá um sinal de exibição que entra. Especificamente, a indicação da faixa dinâmica da tela pode indicar o mapeamento entre valores de acionamento e luz emitida que é aplicado pela tela. Então, neste exemplo a indicação da faixa dinâmica da tela informa o dispositivo de processamento de imagem 103 da disponível faixa dinâmica e como isso é apresentado, e o dispositivo de processamento de imagem 103 é livre para adaptar a transformada de faixa dinâmica como se pode ver.
[0314] Entretanto, em alguns sistemas a tela pode também ser capaz de exercer alguns controles sobre a transformada de faixa dinâmica realizada pelo dispositivo de processamento de imagem 103. Especificamente, a indicação da faixa dinâmica da tela pode compreender a transformada de dados de controle da faixa dinâmica, e o processador de faixa dinâmica 203 pode ser disposto para realizar a transformada de faixa dinâmica em resposta a essa transformada de dados de controle da faixa dinâmica.
[0315] Os dados de controle podem, por exemplo, definir uma operação ou parâmetro da transformada de faixa dinâmica que deve ser aplicado, pode ser aplicado, ou que é recomendado para ser aplicado. Os dados de controle podem ainda ser diferenciados para diferentes características da imagem a ser codificadas. Por exemplo, dados de controle individuais podem ser providos para uma pluralidade de possíveis imagens iniciais, como um conjunto para uma imagem LDR de 500 nits, outra para uma imagem codificada de 1000 nits etc.
[0316] Como um exemplo, a tela pode especificar que o mapeamento do tom deve ser realizado pelo processador de faixa dinâmica 203 dependendo da faixa dinâmica da imagem recebida. Por exemplo, para uma tela de 2000 nits, os dados de controle podem especificar um mapeamento que deve ser utilizado ao mapear uma imagem LDR de 500 nits, e outro mapeamento que deve ser utilizado ao mapear imagem de 1000 nits etc.
[0317] Em alguns cenários, os dados de controle podem especificar os limites entre os mapeamentos com os mapeamentos sendo predeterminados dentro de cada intervalo (por exemplo, padronizados ou conhecidos tanto no lado do provedor de conteúdo quanto no lado de interpretação). Em alguns cenários, os dados de controle podem ainda definir os elementos dos diferentes mapeamentos ou pode ainda especificar os mapeamentos precisamente, por exemplo, utilizando um valor da gama ou especificando uma função de transformada específica.
[0318] Em algumas realizações, a transformada de dados de controle da faixa dinâmica pode diretamente e explicitamente especificar a transformada de faixa dinâmica que deve ser realizada para transformar a imagem recebida em uma imagem com uma faixa dinâmica correspondente à faixa dinâmica da tela. Por exemplo, os dados de controle podem especificar um mapeamento direto de valores da imagem de entrada em valores da imagem de saída para uma faixa dos pontos brancos da imagem recebida. O mapeamento pode ser provido como um simples parâmetro permitindo que a transformada apropriada seja realizada pelo processador de faixa dinâmica 203 ou dados detalhados podem ser providos como uma tabela de visualização específica ou função matemática.
[0319] Como um exemplo de baixa complexidade, a transformada de faixa dinâmica pode simplesmente aplicar a função linear em partes aos valores de entrada de uma imagem LDR para gerar os valores de HDR melhorados (ou nos valores de entrada de uma imagem HDR para gerar os valores LDR melhorados). De fato, em muitos cenários, um simples mapeamento que consiste em duas relações lineares conforme ilustrado na figura 20 pode ser utilizado.
[0320] Especificamente, conforme previamente descrito, tal abordagem pode prover uma transformada de faixa dinâmica que mantém as áreas escuras de uma imagem para permanecer escuro enquanto ao mesmo tempo permite que a faixa dinâmica substancialmente elevada seja utilizada para prover uma interpretação de áreas claras muito mais clara, bem como ainda uma faixa média da aparência mais viva e melhorada. Entretanto, a transformação exata depende da faixa dinâmica da imagem recebida bem como da faixa dinâmica da tela alvo final. Em alguns sistemas, a tela pode então especificar um mapeamento do tom a ser realizado pelo dispositivo de processamento de imagem 103 simplesmente sendo comunicado as coordenadas do joelho da função (ou seja, da intersecção entre os elementos lineares do mapeamento).
[0321] Uma vantagem desta simples relação é que o mapeamento do tom desejado pode ser comunicado com um custo muito baixo. De fato, um valor de dados simplesmente com dois componentes pode especificar o mapeamento do tom desejado a ser realizado pelo dispositivo de processamento de imagem 103 para diferentes telas. Diferentes coordenadas do ponto “joelho” podem ser comunicadas para diferentes imagens de entrada e o dispositivo de processamento de imagem 103 pode determinar os valores adequados para outras imagens de entrada interpolando entre os valores providos.
[0322] Será observado que a maioria dos comentários providos com relação à provisão de transformada de dados de controle da faixa dinâmica do aparelho provedor de conteúdo 101 aplicando igualmente bem (mutatis mutandis) na transformada de dados de controle da faixa dinâmica recebida da tela 107.
[0323] Então, em alguns cenários a tela 107 pode estar em controle da transformada de faixa dinâmica realizada pelo dispositivo de processamento de imagem 103. Uma vantagem desta abordagem é que pode, por exemplo, permitir que um usuário controle a imagem interpretada desejada controlando a tela e sem qualquer exigência para prover entradas ou ajustes do usuário ao dispositivo de processamento de imagem 103. Isso pode ser particularmente vantajoso em cenários onde uma pluralidade de dispositivos de processamento de imagem é utilizada com a mesma tela, e em particular pode auxiliar a prover homogeneidade entre as imagens de diferentes dispositivos de processamento de imagem.
[0324] Em muitas implementações, os dados de controle da tela 107 podem não especificar um mapeamento do tom específico que deve ser realizado, mas ainda prover dados que definem limites dentro desta transformada de faixa dinâmica/ mapeamento do tom pode ser livremente adaptado pelo dispositivo de processamento de imagem 103.
[0325] Por exemplo, ainda do que especificar um ponto de transição específico para a curva da figura 20, os dados de controle podem definir limites para o ponto de transição (com possivelmente diferentes limites sendo providos para diferentes níveis de claridade máxima). Então, o dispositivo de processamento de imagem 103 pode individualmente determinar os parâmetros desejados para a transformada de faixa dinâmica de modo que isso possa ser definido para prover a transição preferida para uma tela específica considerando, por exemplo, as preferências específicas do usuário. Entretanto, ao mesmo tempo a tela pode restringir essa liberdade em um nível aceitável.
[0326] Então, a transformada de dados de controle da faixa dinâmica pode incluir dados que definem os parâmetros de transformada que devem ser aplicados pela transformada de faixa dinâmica realizada pelo processador de faixa dinâmica 203 e/ou que define limites para os parâmetros de transformada. Os dados de controle podem prover esta informação para uma faixa de faixas dinâmicas da imagem de entrada então permitindo a adaptação da transformada de faixa dinâmica em diferentes imagens recebidas. Além disso, para as imagens de entrada com faixas dinâmicas não explicitamente incluídas nos dados de controle, valores de dados apropriados podem ser gerados dos valores de dados disponíveis, por exemplo, pela interpolação. Por exemplo, se um ponto do joelho entre duas peças lineares é indicado para uma imagem entrada de 500 nits e uma de 2000 nits, um valor adequado para uma imagem de entrada de 1000 nits pode ser encontrado pela simples interpolação (por exemplo, por uma simples variação no exemplo específico).
[0327] Será observado que muitas diferentes e variadas abordagens para a transformada de faixa dinâmica e para como restringir, adaptar e controlar o lado de exibição pelos dados de controle adicionais podem ser utilizadas em diferentes sistemas dependendo das preferências e exigências específicas da aplicação individual.
[0328] Em alguns cenários, os dados de controle podem meramente prover uma sugestão de mapeamento adequado que pode ser aplicado, por exemplo, na área de faixa média. Neste caso, o fabricante da tela pode certamente auxiliar o dispositivo de processamento de imagem 103 provendo os parâmetros sugeridos da transformada de faixa dinâmica que foi encontrada (por exemplo, através da otimização manual pelo fabricante da tela) para prover uma alta qualidade da imagem quando visualizada na tela específica. O dispositivo de processamento de imagem 103 pode vantajosamente utilizar isso, mas é livre para modificar o mapeamento, por exemplo, para acomodar as preferências individuais do usuário.
[0329] Em muitos cenários o mapeamento que é pelo menos parcialmente realizado nesta base dos dados de controle representarão uma relação funcional de complexidade relativamente baixa, como um mapeamento de gama, curva em S, mapeamento combinado definido pelas especificações parciais para faixas individuais, etc. Entretanto, em alguns cenários mapeamentos mais complexos podem certamente ser utilizados.
[0330] Conforme mencionado, os dados de controle podem prover dados de controle mandatórios ou voluntários. De fato, os dados recebidos podem incluir um ou mais campos que indicam se os parâmetros de mapeamento do tom providos são mandatórios, permitidos ou sugeridos.
[0331] Em alguns sistemas, a tela pode operar de acordo com diferentes faixas dinâmicas. Por exemplo, uma tela HDR muito clara com uma luminância de ponto branco de, digamos, 5000 nits pode também operar em um modo de exibição com uma luminância de ponto branco de 4000 nits, outro um com 3000 nits, um com 2000 nits, outro com 1000 nits e finalmente pode operar em um modo LDR tendo uma luminância branca de apenas 500 nits.
[0332] Neste cenário, o sinal de dados da tela pode indicar uma pluralidade de faixas dinâmicas de luminância. Então, cada uma destas diferentes faixas dinâmicas de luminância pode corresponder a um modo de faixa dinâmica para uma tela. Nesta disposição, o processador de faixa dinâmica 203 pode selecionar uma das faixas dinâmicas de luminância e proceder para realizar a transformada de faixa dinâmica em resposta à faixa dinâmica da tela selecionada. Por exemplo, o processador de faixa dinâmica 203 pode selecionar a faixa dinâmica de 2000 nits e então proceder para realizar a transformada de faixa dinâmica para otimizar a imagem gerada para essa luminância de ponto branco.
[0333] A seleção de uma faixa dinâmica de luminância adequada para uma tela pode ser dependente dos diferentes aspectos. Em alguns sistemas, o dispositivo de processamento de imagem 103 pode ser disposto para selecionar uma faixa dinâmica da tela adequada com base no tipo de imagem. Por exemplo, cada faixa pode ser associada com um dado tipo de imagem, e o dispositivo de processamento de imagem 103 pode selecionar o tipo de imagem que corresponde à imagem recebida, e então proceder para utilizar a faixa dinâmica associada com esse tipo de imagem.
[0334] Por exemplo, um número de tipos de imagem pode ser definido correspondente a diferentes tipos de conteúdo. Por exemplo, um tipo de imagem pode ser associado com desenhos, outro com partida de futebol, outro com um jornal, outro com um filme, etc. O dispositivo de processamento de imagem 103 pode então determinar o tipo apropriado para a imagem recebida (por exemplo, com base nos metadados explícitos ou em uma análise de conteúdo) e proceder para aplicar a faixa dinâmica correspondente. Isso pode, por exemplo, resultar em desenhos sendo apresentados de forma muito viva e com alto contraste e alta claridade, enquanto ao mesmo tempo permitindo, por exemplo, filmes escuros a não ser interpretados anormalmente.
[0335] O sistema pode então adaptar aos sinais específicos sendo interpretados. Por exemplo, um vídeo do consumidor mal feito, um jogo de futebol iluminado, um programa de notícias bem iluminado (por exemplo, cenas com contraste reduzido), etc., podem ser exibidos de forma diferente e especificamente a faixa dinâmica da imagem interpretada pode ser adaptada à especificamente adequada para a imagem específica.
[0336] Foi previamente mencionado que a tela pode prover dados de controle ao dispositivo de processamento de imagem 103. Entretanto, em alguns sistemas pode de forma adicional ou alternativa ser o dispositivo de processamento de imagem 103 que provê dados de controle à tela 107.
[0337] Então, conforme ilustrado na figura 22, o dispositivo de processamento de imagem 103 pode compreender um controlador 2201 que pode emitir um sinal de dados de controle de exibição à tela 107.
[0338] Um sinal de controle de exibição pode especificamente instruir a tela a operar no modo de faixa dinâmica específica que foi selecionado pelo dispositivo de processamento de imagem 103 para a imagem específica. Então, como um resultado, uma imagem amadora mal iluminada será interpretada com uma baixa faixa dinâmica então evitando a introdução de erros inaceitáveis devido à transformação em uma alta faixa dinâmica que não está realmente presente na imagem original. Ao mesmo tempo, o sistema pode automaticamente adaptar de modo que imagens de alta qualidade podem efetivamente ser transformadas em imagens de alta faixa dinâmica e ser apresentadas como tal. Como um exemplo específico, para uma sequência de vídeo amadora, o dispositivo de processamento de imagem 103 e tela podem automaticamente adaptar o presente vídeo com uma faixa dinâmica de 1000 nits. Entretanto, para uma imagem profissionalmente capturada de alta qualidade, o dispositivo de processamento de imagem 103 e a tela 107 podem automaticamente adaptar para apresentar o vídeo utilizando a faixa dinâmica total de 5000 nits que a tela 107 é capaz.
[0339] O sinal de controle de exibição pode então ser gerado para incluir comandos como “utilizar faixa dinâmica de 1000 nits”, “utilizar faixa de LDR”, “utilizar faixa dinâmica máxima” etc.
[0340] Os dados de controle da tela podem ser utilizados para prover um número de comandos na direção de avanço (do dispositivo de processamento de imagem 103 à tela). Por exemplo, os dados de controle podem incluir as instruções de processamento de imagem para a tela, e especificamente podem incluir a indicação de mapeamentos do tom para a tela.
[0341] Por exemplo, os dados de controle podem especificar um ajuste da claridade, ajuste de recorte, ou ajuste de contraste que deve ser aplicado pela tela 107. A instrução de processamento de imagem pode então definir uma operação mandatória, voluntária ou sugerida que deve ser realizada pela tela 107 no sinal de exibição recebido. Estes dados de controle podem então permitir que o dispositivo de processamento de imagem 103 controle algum processamento sendo realizado pela tela 107.
[0342] Os dados de controle podem, por exemplo, especificar que um filtro específico deve ser aplicado ou não deve ser aplicado. Como outro exemplo, os dados de controle podem especificar como as operações de luz de fundo devem ser realizadas. Por exemplo, a tela pode operar em um modo de baixa energia que utiliza escurecimento local agressivo de uma luz de fundo ou pode ser capaz de operar em um modo de alta energia onde o escurecimento local é apenas utilizado quando pode melhorar a interpretação das áreas escuras. Os dados de controle podem ser utilizados para comutar a tela entre estes modos de operação...
[0343] Os dados de controle podem em alguns exemplos especificar um mapeamento do tom específico que deve ser realizado pela tela, ou pode ainda especificar que a função do mapeamento do tom deve ser desligada (então permitindo que o dispositivo de processamento de imagem 103 controle completamente todo o mapeamento do tom).
[0344] Será observado que em algumas realizações, o sistema pode utilizar dados de controle em ambas as direções, ou seja, tanto em uma direção de avanço do dispositivo de processamento de imagem 103 na tela 107 quanto em uma direção de retrocesso da tela 107 ao dispositivo de processamento de imagem 103. Nestes casos, pode ser necessário introduzir as condições e regras operacionais que resolvem os conflitos potenciais. Por exemplo, pode ser disposto que o dispositivo de processamento de imagem 103 é o dispositivo mestre que controla a tela 107 e domina a tela 107 no caso de conflitos. Como outro exemplo, dados de controle podem ser restritos aos parâmetros específicos nas duas direções de modo que os conflitos não ocorram.
[0345] Como outro exemplo, as relações mestre e escravas podem ser ajustáveis pelo usuário. Por exemplo, um dispositivo de processamento de imagem 103 e uma tela 107 podem ser dispostos para prover dados de controle para outra entidade, e pode especificamente operar como o dispositivo mestre. O usuário pode nestes sistemas designar um dos dispositivos para ser o dispositivo mestre com o outro um se tornando um dispositivo escravo. O usuário pode especificamente selecionar isso com base em uma preferência para ele controlar o sistema do dispositivo de processamento de imagem 103 ou da tela 107.
[0346] O sistema descrito acima pode então permitir a comunicação entre o provedor de conteúdo e o dispositivo de processamento de imagem e/ou comunicação entre o dispositivo de processamento de imagem e a tela. Estas abordagens poderiam ser aplicadas em muitos sistemas que caracterizam um canal de comunicação entre um provedor de conteúdo e um dispositivo de processamento de imagem e/ou entre um dispositivo de processamento de imagem e uma tela. Exemplos incluem BDROM, ATSC e DVB, ou internet, etc.
[0347] O sistema pode utilizar um canal de comunicação entre um dispositivo de processamento de imagem e uma tela como um HDMI ou interface de comunicação da porta da tela. Essa comunicação pode ser em duas direções. Por exemplo, se uma tela inteligente estiver fazendo todo o vídeo e mapeamento de gráficos ideais, o dispositivo de processamento de imagem pode, por exemplo, ler os parâmetros de controle e reformatar e transmitir estes em uma estrutura de HDMI semelhante.
[0348] A abordagem pode particularmente ser aplicada em um sistema BDROM. Como esta abordagem pode aumentar as especificações BDROM para permitir a transmissão dos parâmetros e comandos de controle da tela alvo. Utilizando estes dados, em combinação com os parâmetros da tela do usuário final, pode permitir que o BDROM player, por exemplo: • realize o vídeo e/ou mapeamento do tom de gráficos adicional ou outro processamento no player dependendo das características da tela alvo e da tela do usuário final. • realize o vídeo e/ou mapeamento do tom de gráficos adicional ou outro processamento direcionado pelos comandos no fluxo de dados provido pelo provedor de conteúdo.
[0349] Em algumas realizações, o dispositivo de processamento de imagem 103 pode também compreender um transmissor para transmitir dados de controle da faixa dinâmica ao aparelho provedor de conteúdo 101. Então, o dispositivo de processamento de imagem 103 pode controlar ou pelo menos influenciar o processamento ou operação realizada no aparelho provedor de conteúdo 101.
[0350] Como um exemplo específico, os dados de controle podem incluir uma indicação de uma faixa dinâmica preferida para a imagem, e pode especificamente incluir uma indicação de uma faixa dinâmica (por exemplo, luminância de ponto branco e opcionalmente EOTF ou função de gama) para uma tela do usuário final.
[0351] Em algumas realizações, o aparelho provedor de conteúdo 101 pode ser disposto para considerar a indicação da faixa dinâmica preferida ao realizar um mapeamento do tom. Entretanto, em outras realizações, o aparelho provedor de conteúdo 101 pode prover um número de mapeamentos predeterminados do tom, por exemplo, envolvendo um mapeamento do tom manual por um especialista em mapeamento do tom. Por exemplo, uma imagem mapeada por tom pode ser gerada para uma tela de 500 nits, para uma tela de 1000 nits, e para uma tela de 2000 nits.
[0352] Neste cenário, o aparelho provedor de conteúdo 101 pode ser disposto para selecionar esta imagem para transmitir ao dispositivo de processamento de imagem 103 com base nos dados de controle recebidos. Especificamente, a imagem que está mais próxima à faixa dinâmica indicada pelos dados de controle pode ser selecionada e transmitida ao dispositivo de processamento de imagem 103.
[0353] Tal abordagem pode ser particularmente adequada para uma aplicação de transmissão onde o sinal transferido pode dinamicamente ser atualizado o mais longe possível para corresponder à faixa dinâmica da tela do usuário final.
[0354] A abordagem pode reduzir o grau da transformada de faixa dinâmica que deve ser aplicada no dispositivo de processamento de imagem 103 e pode especificamente para cenários onde o aparelho provedor de conteúdo 101 pode prover uma imagem mapeada por tom à mesma faixa dinâmica como a tela do usuário final permite que a transformada de faixa dinâmica seja uma operação simples nula (ou seja, pode permitir que a imagem recebida seja utilizada diretamente pelo dispositivo de processamento de imagem 103.
[0355] Há vários cenários de aplicação nas presentes realizações que podem ser úteis. Por exemplo, a codificação de um ponto branco particular, ou branco direcionado, ou valor semelhante com o conteúdo da imagem do pixel (por exemplo, uma codificação DCT das texturas do objeto local), permite que para uma alocação inteligente dos níveis de código necessários versus luminâncias de saída direcionada para vários possíveis sinais de saída. Um pode, por exemplo, codificar a textura de uma sala escura como se fosse bem iluminada (ou seja, até lumas de pixel de 255, ainda do que ter uma luma máxima de, por exemplo, 40 na imagem da cena escura), mas especificar que o “branco”, ou seja, o 255 tem que ser tratado de forma particular, ou seja, que tem que ser interpretado como escuro. Uma forma simples de utilizar isso é co-codificar, por exemplo, para ser interpretada a luminância de saída na tela, para este código de luma 255. O mesmo pode ser feito para codificar predominantemente valores muito claros, como, por exemplo, em uma cena nebulosa com fortes luzes nela.
[0356] Nós explicamos outro exemplo por meios da figura 23, a saber, o princípio de codificar qualquer cena HDR (aproximadamente) em uma imagem LDR (“HDR_encoded_as_LDR”), que poderiam, por exemplo, ser um padrão de imagem de 10 bits, mas nós explicaremos o interesse variante da codificação de uma imagem clássica de 8 bits, ou seja, uma imagem que é compatível com, por exemplo, um padrão MPEG2 ou AVC, e poderiam então ser diretamente utilizados por uma tecnologia de interpretação clássica. Embora um possa desejar muitos bits para um sinal HDR, por exemplo, 12, 16 ou 22, 8 bits para o canal de luma já conduzir muita informação (muitas possíveis cores, especialmente para aproximar as texturas complexas) para qualquer branco máximo de uma interpretação. Ainda, muitos sinais HDR podem permitir um grau significativo de aproximação, desde que, por exemplo, o sol não precise ser codificado exatamente com a claridade que realmente tem, pois será aproximado quando interpretado em uma tela de qualquer forma. Para as faixas de luminância LDR, mesmo uma quantidade menor de bits geralmente razoavelmente será suficiente, pois, por exemplo, 6 bits dão uma aproximação/qualidade razoável de uma imagem (como conhecido da impressão).
[0357] No exemplo nós assim codificamos uma imagem HDR exatamente dentro de uma estrutura de luma de 8- bits, aplicando os mapeamentos apropriados, ou seja, transformações matemáticas pelo menos nas lumas dos pixels, que são tipicamente simples. Os critérios são aqueles que por um lado (pela codificação das transformações) pode reconstruir a imagem HDR (ou seja, por exemplo, uma aproximação de interpolação de 8 ou 12 bits direcionada para uma interpretação da tela de 0,1-5000nit) da imagem LDR de 8 bits codificada, revertendo os co-codificados (sem precisar de qualquer correção pós-significativa), ou seja, a imagem HDR parecerá psicovisualmente (quase) indistinguível, ou pelo menos ainda será uma boa imagem HDR (ou seja, tipicamente mostra a aparência da cena HDR, aproximando como a HDR seria interpretada se fosse gerada diretamente da original, por exemplo, imagem de 12 bits HDR IM_HDR, com sua Faixa HDR HDR_Rng a ser luminâncias interpretadas). Mas por outro lado, nós desejamos uma imagem LDR, ou seja, se o sinal de 8 bits for diretamente aplicado em uma tela LDR de, por exemplo, 0,1-400 nit, que ainda permite cada boa interpretação visual. Por exemplo, um pode apenas linearmente comprimir a imagem HDR IM_HDR à faixa LDR LDR_Rng, por exemplo, por queda dos bits menos significativos, e assumindo o branco (valor de código máximo 255) é direcionado para ser interpretado a 400 nit. Entretanto, por causa destas imagens HDR tipicamente conter objetos muito claros na parte superior de sua faixa de luma, tal imagem de 8 bits parecerá muito escura em uma tela LDR, pois as partes relevantes mais escuras da imagem/cena agora terminarão nos códigos de luma muito baixa, ou seja, luminâncias de saída da tela. Entretanto, muita melhoria já pode ser obtida aplicando uma ideal gama antes de codificar a imagem HDR/12bit/5000nit em clássica LDR/8bit/400nit, por exemplo, representação AVC. Ou seja, essa gama mapeará os objetos claros nas partes mais claras (por exemplo, tornando- os com menos contraste e pastellish, mas ainda aceitável na tela LDR, ainda com informação suficiente para fazer um mapeamento reverso razoável em HDR novamente), otimamente coordenado ao mesmo tempo não apertando as partes mais escuras (por exemplo, árvore escura) muito, de modo que estes objetos escuros ainda pareçam razoavelmente claros na tela LDR (e também uma boa parte escura de HDR pode ser recriada para visualização circundante escura; ou dados de textura suficientes estão disponíveis para codificação mais clara destes na tela HDR).
[0358] No geral tal mapeamento pode ser uma transformação global genérica nas lumas (ou seja, um mapeamento que não considera o local geométrico específico, como onde um pixel reside na imagem, ou quais as lumas de seus pixels próximos são, ou qual tipo de objeto de cena pertence, mas ainda apenas considera como entrada o valor de luma do pixel). De alguma forma, mapeamentos mais complexos podem ser co-codificados, como uma transformação apenas para uma sub-região demarcada ou objeto na imagem (mapeamento local, neste caso tipicamente mais informação é co-codificada como definindo o limite do objeto). Mas no geral, embora um poderia prever qualquer transformação para trabalhar com nossas realizações reveladas, seria apenas para reduzir a quantidade de trabalho de tipicamente um graduador humano definindo estes mapeamentos ideais, eles tipicamente sendo poucos e simples (nenhum mapeamento local será codificado se uma função global geral como uma curva em S ou multiponto for suficiente).
[0359] Nós esclarecemos o exemplo com um aparelho de codificação da imagem do lado criador de conteúdo 510, com codificação otimizada por humano da imagem de saída sendo tipicamente uma imagem de 8 bits LDR Im_1 (como tipicamente englobava com as funções de transformação/mapeamento ou estratégias de algoritmo como metadados MET em alguma estrutura S do sinal de imagem estrutura como prescrito em AVC ou HEVC) em uma memória (como um disco blu-ray 511, ou uma memória temporária, para última codificação em um sinal a ser armazenado ou transmitido). Esse graduador pode verificar a imagem em uma ou mais telas 530, por exemplo, verificando se a imagem LDR e a imagem HDR recuperável parecem bem na respectiva referência LDR e telas HDR, antes de enviar suas instruções à unidade de codificação de imagem 550 (o que faz o mapeamento na luma de 8 bits) e o formatador 554, que finaliza a imagem e seus códigos de cor de acordo com o padrão de codificação da imagem atualmente utilizada, e co-codifica a imagem de textura com os metadados da transformação em uma saída 512.
[0360] Na parte superior nós vemos como a imagem HDR IM_HDR (que é inserida através de uma entrada 511 do aparelho de codificação da imagem 510) com sua Faixa HDR são mapeadas na imagem LDR com sua faixa LDR das luminâncias interpretadas se em uma tela LDR.
[0361] Embora nós esclarecemos o “HDR_encoded_as_LDR” com uma codificação em um lado de criação de conteúdo para a transmissão em um lado de utilização de conteúdo como a casa de um consumidor, as mesmas realizações de “HDR_encoded_as_LDR” podem ser utilizadas também obviamente ao transmitir (por exemplo, por transcodificação) entre diferentes aparelhos, como, por exemplo, dois aparelhos domésticos em uma rede doméstica. Então, por exemplo, uma análise da imagem automática e mapeamento incapaz de aplicar uma análise de imagem automática e um método de mapeamento da luma correspondente. Isso pode ser feito, por exemplo, por um conteúdo aparelho receptor ou armazenador tendo uma primeira representação da imagem, como, por exemplo, a imagem de 12 bits HDR, e enviando sobre um HDMI ou outra conexão de rede, a uma televisão. Ou a imagem de 8 bits LDR pode ser codificada de acordo com ou para um padrão sem fio, para transmitir em uma tela móvel, com capacidades de HDR, ainda da qualidade visual menor de qualquer forma.
[0362] Com a tela HDR nós queremos dizer uma tela de claridade máxima maior do que 750 nits, telas com claridade máxima inferior, e especialmente abaixo de 500 nits sendo telas LDR.
[0363] Os critérios de qualidade predeterminados para julgar se a interpretação LDR, e a interpretação HDR de um sinal de HDR recuperado da imagem LDR (tipicamente derivado apenas pela inversão dos mapeamentos co-codificados, mas algum processamento pode ser feito, como o lado receptor do aparelho pode aplicar um limite de quantização mitigando o processamento de imagem, por exemplo,), será tanto um algoritmo matemático, quanto o operador humano julgando que é bom suficiente ao codificar as codificações de imagem para distribuição. Ambos os estimadores aplicado por humano e codificado por software aplicarão estes critérios de análise da imagem como: há contraste (local) suficiente em várias regiões (ou seja, ainda retendo suficiente da visibilidade do original, por exemplo, varredura negativa de celuloide mestre da imagem HDR de 12 ou 14 bits), em particular as regiões centrais na imagem, há muitos artefatos como limites de quantização, e quão grande ou amplo são as etapas, há submodos espaciais suficientes do histograma de luminância (é a aparência cinemática original/intenção retida), em particular, têm objetos contraste da inter-região espacialmente separada suficiente, etc.. E em particular, se originais estão presentes, por exemplo, em um sistema em rede dos aparelhos conectados, o aparelho que envia (por exemplo, um settopbox) julgando se o sinal HDR recuperável é suficientemente próximo ao original, por exemplo, sinal HDR de 12 bits presente neste localização (que pode ser feito com base nestes critérios matemáticos como MSE ou PSNR, ou diferenças psicovisualmente ponderadas, etc.).
[0364] Este sinal tem a vantagem que qualquer sistema compatível com HDR sabe que nós realmente temos uma imagem HDR codificada como uma LDR, e pode de forma ideal recuperar a imagem HDR antes da interpretação, ainda compatível com o retrocesso, os sistemas LDR legados podem também utilizar diretamente a imagem LDR para interpretação.
[0365] Será observado que a descrição acima para esclarecimento descreveu realizações da invenção com referência aos diferentes circuitos funcionais, unidades e processadores. Entretanto, será evidente que qualquer distribuição adequada da funcionalidade entre diferentes circuitos funcionais, unidades ou processadores pode ser utilizada sem diminuir a invenção. Por exemplo, a funcionalidade ilustrada a ser realizada por processadores ou controladores separados pode ser realizada pelo mesmo processador ou controlador. Assim, as referências às unidades ou circuitos funcionais específicas devem apenas ser vistos como referências aos meios adequados para prover a funcionalidade descrita do que indicativa de uma estrutura ou organização lógica ou física rigorosa.
[0366] Todas as realizações e ensinamentos do método correspondem ao aparelho correspondente, e potencialmente outro produto como sinais de saída, realizações, e vice-versa. A invenção pode ser implementada de qualquer forma adequada incluindo hardware, software, firmware ou qualquer combinação destes. A invenção pode opcionalmente ser implementada pelo menos parcialmente como software de computador que executa em um ou mais processadores de dados e/ou processadores de sinal digital. Os elementos e componentes de uma realização da invenção podem ser fisicamente, funcionalmente e logicamente implementado de qualquer forma adequado. De fato, a funcionalidade pode ser implementada em uma única unidade, em uma pluralidade de unidades ou como parte de outras unidades funcionais. Assim, a invenção pode ser implementada em uma única unidade ou pode ser fisicamente e funcionalmente distribuída entre diferentes unidades, circuitos e processadores.
[0367] Embora a presente invenção foi descrita em conexão com algumas realizações, não é direcionada para ser limitada ao conjunto de forma específica aqui mencionado. Ainda, o escopo da presente invenção é limitado apenas pelas reivindicações anexas. Adicionalmente, embora uma característica possa parecer estar descrita em conexão com as realizações particulares, um técnico no assunto reconheceria que várias características das realizações descritas podem ser combinadas de acordo com a invenção. Nas reivindicações, o termo compreender não exclui a presença de outros elementos ou etapas.
[0368] Além disso, embora individualmente listado, uma pluralidade de meios, elementos, circuitos ou etapas do método possam ser implementados, por exemplo, por um circuito único, unidade ou processador. Adicionalmente, embora características individuais possam ser incluídas em diferentes reivindicações, estas podem possivelmente ser vantajosamente combinadas, e uma inclusão em diferentes reivindicações não significa que uma combinação de características não seja praticável e/ou vantajosa. Ainda a inclusão de uma característica em uma categoria, de acordo com as reivindicações não significam uma limitação a essa categoria, mas ainda indica que a característica é igualmente aplicável a outras categorias da reivindicação conforme apropriado. Além disso, a ordem das características nas reivindicações não significa qualquer ordem específica na qual as características devem ser trabalhadas e em particular 5 a ordem de etapas individuas em uma reivindicação do método não significam que as etapas devem ser realizadas nessa ordem. Ainda, as etapas podem ser realizadas em qualquer ordem adequada. Além disso, referências singulares não excluem uma pluralidade. Então referências a “um”, “uma”, 10 “primeiro”, “segundo” etc. não excluem uma pluralidade. Os sinais de referência nas reivindicações são providos meramente como um exemplo de esclarecimento não deve ser construído como limitativo do escopo das reivindicações de qualquer forma. 15

Claims (20)

1. APARELHO DE PROCESSAMENTO DE IMAGEM, caracterizado por compreender: um receptor (201) para receber um sinal de imagem, o sinal de imagem compreendendo pelo menos uma imagem codificada; um segundo receptor (1701) para receber um sinal de dados de uma tela (107), o sinal de dados compreendendo um campo de dados que compreende uma indicação da faixa dinâmica da tela da tela (107), a indicação da faixa dinâmica da tela compreendendo uma luminância de ponto branco, esta luminância de ponto branco podendo verificar se a tela é uma tela de alta faixa dinâmica, pela luminância de ponto branco podendo ter um valor de 1000 nits, ou acima; em que a indicação da faixa dinâmica compreende uma Função de Transferência Eletro- Óptica para a tela; um processador de faixa dinâmica (203) disposto para gerar uma imagem de saída aplicando uma transformada de faixa dinâmica na imagem codificada em resposta à indicação da faixa dinâmica da tela recebida, o processador de faixa dinâmica (203) sendo disposto para poder aplicar a transformada de faixa dinâmica ao sinal de imagem sendo um sinal de imagem de alta faixa dinâmica correspondente a uma luminância máxima absoluta da tela alvo acima de 500 nit; e uma saída (205) para emitir um sinal de imagem de saída compreendendo a imagem de saída na tela.
2. APARELHO DE PROCESSAMENTO DE IMAGEM, de acordo com a reivindicação 1, em que a indicação da faixa dinâmica da tela é ainda caracterizada por compreender uma luminância de ponto preto.
3. APARELHO DE PROCESSAMENTO DE IMAGEM, de acordo com qualquer uma das reivindicações 1 ou 2, em que a indicação da faixa dinâmica da tela é caracterizada por compreender dados de mapeamento que representam um mapeamento da tela dos valores de entrada da tela em uma faixa dinâmica de luminância da tela.
4. APARELHO DE PROCESSAMENTO DE IMAGEM, de acordo com qualquer uma das reivindicações 1 a 3, em que o sinal de dados é caracterizado por compreender uma pluralidade de faixas dinâmicas de luminância; e em que o processador de faixa dinâmica (203) está disposto para selecionar uma faixa dinâmica de luminância da pluralidade de faixas dinâmicas de luminância, e para realizar a transformada de faixa dinâmica em resposta à faixa dinâmica de luminância selecionada.
5. APARELHO DE PROCESSAMENTO DE IMAGEM, de acordo com a reivindicação 4, caracterizado pela pluralidade de faixas dinâmicas de luminância se referirem a diferentes tipos de imagem.
6. APARELHO DE PROCESSAMENTO DE IMAGEM, de acordo com qualquer uma das reivindicações 1 a 4, é ainda caracterizado por compreender uma saída de um controlador (2201) para emitir um sinal de dados de controle na tela, o sinal de dados de controle compreendendo uma indicação de uma faixa dinâmica de luminância para ser utilizada pela tela.
7. APARELHO DE PROCESSAMENTO DE IMAGEM, de acordo com a reivindicação 6, em que o sinal de dados de controle é caracterizado por compreender uma instrução de processamento de imagem para a tela.
8. APARELHO DE PROCESSAMENTO DE IMAGEM, de acordo com a reivindicação 7, em que a instrução de processamento de imagem é caracterizada por compreender uma indicação de mapeamento do tom para a tela.
9. APARELHO DE PROCESSAMENTO DE IMAGEM, de acordo com qualquer uma das reivindicações 1 a 4, em que a indicação da faixa dinâmica da tela é caracterizada por compreender uma indicação de luz ambiente, e em que o processador de faixa dinâmica (203) está disposto para adaptar a transformada de faixa dinâmica em resposta à indicação de luz ambiente.
10. APARELHO DE PROCESSAMENTO DE IMAGEM, de acordo com qualquer uma das reivindicações 1 a 4, caracterizada pela indicação da faixa dinâmica da tela ser dependente de um ajuste de tela selecionável pelo usuário.
11. APARELHO DE PROCESSAMENTO DE IMAGEM, de acordo com qualquer uma das reivindicações 1 a 4, em que a indicação da faixa dinâmica da tela é caracterizada por compreender transformada de dados de controle da faixa dinâmica; e em que o processador de faixa dinâmica (203) é ainda disposto para realizar a transformada de faixa dinâmica em resposta à transformada de dados de controle da faixa dinâmica.
12. APARELHO DE PROCESSAMENTO DE IMAGEM, de acordo com a reivindicação 1, caracterizado pelo receptor (201) ainda ser disposto para receber uma referência da tela alvo, a referência da tela alvo sendo indicativa de uma faixa dinâmica de uma tela alvo para a qual a imagem codificada é codificada; e em que o processador de faixa dinâmica (203) está disposto para aplicar a transformada de faixa dinâmica à imagem codificada em resposta à referência da tela alvo.
13. APARELHO DE PROCESSAMENTO DE IMAGEM, de acordo com qualquer uma das reivindicações 1 a 3, caracterizado pelo processador de faixa dinâmica (203) estar disposto para selecionar entre gerar uma imagem de saída como uma imagem codificada e gerar uma imagem de saída como uma imagem transformada da primeira imagem codificada em resposta à indicação da faixa dinâmica da tela.
14. APARELHO DE PROCESSAMENTO DE IMAGEM, de acordo com qualquer uma das reivindicações 1 a 3, em que a transformada de faixa dinâmica é caracterizada por compreender uma transformada em gama.
15. APARELHO DE PROCESSAMENTO DE IMAGEM, de acordo com qualquer uma das reivindicações 1 a 3, é ainda caracterizado por compreender um transmissor de dados de controle para transmitir os dados de controle da faixa dinâmica a uma fonte do sinal de imagem.
16. TELA, caracterizada por compreender: um receptor (2101) para receber um sinal de imagem que representa pelo menos uma imagem; um painel de exibição (2105); um acionador da tela (2103) para acionar o painel de exibição do sinal de imagem; e um transmissor (2107) para transmitir um sinal de dados a uma fonte do sinal de imagem, o sinal de dados compreendendo um campo de dados incluindo uma indicação da faixa dinâmica da tela (107), a indicação da faixa dinâmica da tela compreendendo uma luminância de ponto branco, esta luminância de ponto branco podendo indicar se a tela é uma tela de alta faixa dinâmica, a tela tendo uma luminância de ponto branco de pelo menos 1000 nits; em que a indicação de faixa dinâmica da tela também compreende uma Função de Transferência Eletro-Óptica para a tela.
17. TELA, de acordo com a reivindicação 16, em que a indicação da faixa dinâmica da tela é ainda caracterizada por compreender uma luminância de ponto preto.
18. TELA, de acordo com qualquer uma das reivindicações 16 ou 17, em que a indicação da faixa dinâmica da tela é caracterizada por compreender uma indicação de luz ambiente.
19. TELA, de acordo com a com qualquer uma das reivindicações 16 a 18, é ainda caracterizada por compreender um segundo receptor para receber um sinal de dados de controle de uma fonte do sinal de imagem, o sinal de dados de controle compreendendo uma indicação de uma faixa dinâmica de luminância para ser utilizada pela tela; e em que o acionador é disposto para adaptar o acionamento em resposta à faixa dinâmica de luminância.
20. MÉTODO DE PROCESSAMENTO DE IMAGEM, caracterizado por compreender: recepção de um sinal de imagem, o sinal de imagem compreendendo pelo menos uma imagem codificada; recepção de um sinal de dados de uma tela (107), o sinal de dados compreendendo um campo de dados que compreende uma indicação da faixa dinâmica da tela da tela (107), a indicação da faixa dinâmica da tela compreendendo pelo menos uma luminância de ponto branco, esta luminância de ponto branco podendo indicar se a tela é uma tela de alta faixa dinâmica, e a luminância de ponto branco possivelmente tendo um valor de 1000 nit ou acima em que a indicação da faixa dinâmica compreende uma Função de Transferência Eletro-Óptica para a tela; geração de uma imagem de saída aplicando uma transformada de faixa dinâmica na imagem codificada sendo um sinal de imagem de alta faixa dinâmica correspondente a uma luminância máxima absoluta da tela alvo acima de 500 nits em resposta à indicação da faixa dinâmica da tela; e emissão de um sinal de imagem de saída compreendendo a imagem de saída na tela.
BR112014006978-6A 2011-09-27 2012-09-20 Aparelho de processamento de imagem, tela e método de processamento de imagem. BR112014006978B1 (pt)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
EP11182922 2011-09-27
EP11182922.2 2011-09-27
US201261588719P 2012-01-20 2012-01-20
US61/588,719 2012-01-20
EP12160557.0 2012-03-21
EP12160557 2012-03-21
PCT/IB2012/054985 WO2013046096A1 (en) 2011-09-27 2012-09-20 Apparatus and method for dynamic range transforming of images

Publications (2)

Publication Number Publication Date
BR112014006978A2 BR112014006978A2 (pt) 2017-04-04
BR112014006978B1 true BR112014006978B1 (pt) 2021-08-31

Family

ID=47994354

Family Applications (2)

Application Number Title Priority Date Filing Date
BR112014006978-6A BR112014006978B1 (pt) 2011-09-27 2012-09-20 Aparelho de processamento de imagem, tela e método de processamento de imagem.
BR112014006977-8A BR112014006977B1 (pt) 2011-09-27 2012-09-20 Aparelho de processamento de imagem, aparelho codificador do sinal de imagem disposto para codificar uma imagem, método de processamento de imagem e método para transmitir um sinal de imagem disposto para codificar uma imagem

Family Applications After (1)

Application Number Title Priority Date Filing Date
BR112014006977-8A BR112014006977B1 (pt) 2011-09-27 2012-09-20 Aparelho de processamento de imagem, aparelho codificador do sinal de imagem disposto para codificar uma imagem, método de processamento de imagem e método para transmitir um sinal de imagem disposto para codificar uma imagem

Country Status (16)

Country Link
US (6) US11640656B2 (pt)
EP (2) EP2745290A1 (pt)
JP (4) JP6407717B2 (pt)
KR (1) KR101972748B1 (pt)
CN (3) CN103827956B (pt)
AU (4) AU2012313936B2 (pt)
BR (2) BR112014006978B1 (pt)
CA (2) CA2850037C (pt)
IN (1) IN2014CN01863A (pt)
MX (2) MX2014003556A (pt)
PE (1) PE20141864A1 (pt)
PH (1) PH12017502053A1 (pt)
RU (3) RU2643485C2 (pt)
UA (1) UA116082C2 (pt)
WO (2) WO2013046095A1 (pt)
ZA (2) ZA201403081B (pt)

Families Citing this family (321)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2638264B2 (ja) * 1990-07-30 1997-08-06 ヤマハ株式会社 電子楽器用コントローラ
US8988552B2 (en) 2011-09-26 2015-03-24 Dolby Laboratories Licensing Corporation Image formats and related methods and apparatuses
PT3800542T (pt) 2011-12-06 2021-11-09 Dolby Laboratories Licensing Corp Dispositivo e método de melhorar a troca de dados de imagem com base na não linearidade da luminância perceptual ao longo de diferentes capacidades de monitor
US10242650B2 (en) 2011-12-06 2019-03-26 Dolby Laboratories Licensing Corporation Perceptual luminance nonlinearity-based image data exchange across different display capabilities
TWI586150B (zh) * 2012-06-29 2017-06-01 新力股份有限公司 影像處理裝置及非暫態電腦可讀儲存媒體
KR102037716B1 (ko) * 2012-11-23 2019-10-30 삼성디스플레이 주식회사 디스플레이 장치의 감마 데이터 저장 방법, 디스플레이 장치 및 디스플레이 장치의 구동 방법
US9332215B1 (en) * 2013-01-23 2016-05-03 Rockwell Collins, Inc. System and method for displaying to airborne personnel mission critical high dynamic range video on a low resolution display
JP6420540B2 (ja) * 2013-02-04 2018-11-07 キヤノン株式会社 画像処理装置及びその制御方法、プログラム、記憶媒体
CN109064433B (zh) 2013-02-21 2022-09-13 皇家飞利浦有限公司 改进的hdr图像编码和解码方法及设备
KR101724312B1 (ko) 2013-02-21 2017-04-07 돌비 레버러토리즈 라이쎈싱 코오포레이션 오버레이 그래픽스를 합성하기 위한 어피어런스 매핑을 위한 시스템들 및 방법들
US10055866B2 (en) * 2013-02-21 2018-08-21 Dolby Laboratories Licensing Corporation Systems and methods for appearance mapping for compositing overlay graphics
CN105009580B (zh) 2013-02-21 2017-09-29 杜比实验室特许公司 高动态范围视频的显示管理
WO2014178286A1 (ja) * 2013-04-30 2014-11-06 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
EP3011741B1 (en) * 2013-06-17 2018-03-07 Dolby Laboratories Licensing Corporation Adaptive reshaping for layered coding of enhanced dynamic range signals
JP2015005878A (ja) 2013-06-20 2015-01-08 ソニー株式会社 再生装置、再生方法、および記録媒体
EP3896959A1 (en) * 2013-06-20 2021-10-20 Saturn Licensing LLC Device for displaying hdr video content
TWI684364B (zh) * 2013-06-21 2020-02-01 日商新力股份有限公司 送訊裝置、高動態範圍影像資料送訊方法、收訊裝置、高動態範圍影像資料收訊方法及程式
JP2015008361A (ja) * 2013-06-24 2015-01-15 ソニー株式会社 再生装置、再生方法、および記録媒体
WO2014208344A1 (ja) 2013-06-24 2014-12-31 ソニー株式会社 再生装置、再生方法、および記録媒体
JP2015008360A (ja) 2013-06-24 2015-01-15 ソニー株式会社 再生装置、再生方法、および記録媒体
CA2917212C (en) * 2013-07-12 2023-03-07 Sony Corporation Reproduction device, reproduction method, and recording medium
CN105379258A (zh) * 2013-07-14 2016-03-02 Lg电子株式会社 在数字广播***中发送和接收用于表达高质量色彩的超高清晰度广播信号的方法和设备
EP3022895B1 (en) * 2013-07-18 2019-03-13 Koninklijke Philips N.V. Methods and apparatuses for creating code mapping functions for encoding an hdr image, and methods and apparatuses for use of such encoded images
RU2654049C2 (ru) 2013-07-19 2018-05-16 Конинклейке Филипс Н.В. Транспортировка hdr метаданных
CA2920775A1 (en) * 2013-08-20 2015-02-26 Sony Corporation Reproduction device and method, and recording medium which convert between standard and extended high dynamic range luminance characteristics for devices able to display standard of extended luminance closed captions
US9264683B2 (en) 2013-09-03 2016-02-16 Sony Corporation Decoding device and decoding method, encoding device, and encoding method
CN105531992A (zh) 2013-09-06 2016-04-27 Lg电子株式会社 用于在数字广播***中发送和接收用于高动态范围呈现的超高清晰度广播信号的方法和装置
KR102113178B1 (ko) * 2013-09-12 2020-05-21 삼성디스플레이 주식회사 표시 장치 및 액정 표시 장치
WO2015045916A1 (ja) * 2013-09-27 2015-04-02 ソニー株式会社 再生装置、再生方法、および記録媒体
US9448771B2 (en) 2014-10-17 2016-09-20 Duelight Llc System, computer program product, and method for generating a lightweight source code for implementing an image processing pipeline
US9361319B2 (en) 2013-09-30 2016-06-07 Duelight Llc Systems, methods, and computer program products for digital photography
US20230061404A1 (en) * 2013-09-30 2023-03-02 Duelight Llc System, method, and computer program product for exchanging images
US9508133B2 (en) 2014-11-18 2016-11-29 Duelight Llc System and method for generating an image result based on availability of a network resource
US9460118B2 (en) 2014-09-30 2016-10-04 Duelight Llc System, method, and computer program product for exchanging images
ES2784691T3 (es) 2013-10-10 2020-09-29 Dolby Laboratories Licensing Corp Visualización de contenido DCI y otro en un proyector de rango dinámico mejorado
JP6202330B2 (ja) 2013-10-15 2017-09-27 ソニー株式会社 復号装置および復号方法、並びに符号化装置および符号化方法
US9679366B2 (en) 2013-10-22 2017-06-13 Dolby Laboratories Licensing Corporation Guided color grading for extended dynamic range
RU2767328C2 (ru) * 2013-11-04 2022-03-17 Долби Лэборетериз Лайсенсинг Корпорейшн Одно- и многомодуляторные проекционные системы с глобальным регулированием яркости
US9554020B2 (en) 2013-11-13 2017-01-24 Dolby Laboratories Licensing Corporation Workflow for content creation and guided display management of EDR video
WO2015076608A1 (ko) * 2013-11-21 2015-05-28 엘지전자 주식회사 비디오 처리 방법 및 비디오 처리 장치
US10291827B2 (en) 2013-11-22 2019-05-14 Futurewei Technologies, Inc. Advanced screen content coding solution
US9607364B2 (en) 2013-11-22 2017-03-28 Dolby Laboratories Licensing Corporation Methods and systems for inverse tone mapping
CN105981380B (zh) 2013-12-18 2019-08-20 寰发股份有限公司 利用调色板编码的编码视频数据区块的方法和装置
EP3087740A1 (en) * 2013-12-27 2016-11-02 Thomson Licensing Method and device for tone-mapping a high dynamic range image
WO2015096812A1 (en) 2013-12-27 2015-07-02 Mediatek Inc. Method and apparatus for palette coding with cross block prediction
CN105981388B (zh) 2013-12-27 2019-05-10 寰发股份有限公司 调色板编码中句法冗余移除的方法和装置
US10542271B2 (en) 2013-12-27 2020-01-21 Hfi Innovation Inc. Method and apparatus for major color index map coding
US10484696B2 (en) 2014-01-07 2019-11-19 Mediatek Inc. Method and apparatus for color index prediction
MX367832B (es) 2014-01-24 2019-09-09 Sony Corp Dispositivo de transmisión, método de transmisión, dispositivo de recepción y método de recepción.
CN105981391B (zh) 2014-02-07 2020-04-10 索尼公司 发送装置、发送方法、接收装置、接收方法、显示装置及显示方法
KR20150099672A (ko) * 2014-02-22 2015-09-01 삼성전자주식회사 전자 장치 및 그것의 디스플레이 제어 방법
KR102654563B1 (ko) 2014-02-25 2024-04-05 애플 인크. 비디오 인코딩 및 디코딩을 위한 적응형 전달 함수
EP3111635B1 (en) 2014-02-27 2018-06-27 Dolby Laboratories Licensing Corporation Systems and methods to control judder visibility
JP6439418B2 (ja) * 2014-03-05 2018-12-19 ソニー株式会社 画像処理装置及び画像処理方法、並びに画像表示装置
WO2015143351A1 (en) * 2014-03-21 2015-09-24 Futurewei Technologies, Inc. Advanced screen content coding with improved color table and index map coding methods
CN106464966B (zh) * 2014-05-12 2020-12-08 索尼公司 通信装置、通信方法和计算机可读存储介质
US10404937B2 (en) * 2014-05-15 2019-09-03 Sony Corporation Communication device and communication method
CN106416216B (zh) * 2014-05-16 2019-07-12 松下知识产权经营株式会社 变换方法及变换装置
JP6751901B2 (ja) * 2014-05-16 2020-09-09 パナソニックIpマネジメント株式会社 輝度変換方法、輝度変換装置および映像表示装置
JP6571073B2 (ja) * 2014-05-20 2019-09-04 エルジー エレクトロニクス インコーポレイティド ディスプレイ適応的映像再生のためのビデオデータ処理方法及び装置
US10091512B2 (en) 2014-05-23 2018-10-02 Futurewei Technologies, Inc. Advanced screen content coding with improved palette table and index map coding methods
US9786251B1 (en) * 2014-05-28 2017-10-10 Musco Corporation Apparatus, method, and system for visually indicating perceived glare thresholds
CN106464892B (zh) 2014-05-28 2019-07-02 皇家飞利浦有限公司 用于对hdr图像进行编码的方法和装置以及用于使用这样的编码图像的方法和装置
EP3157242B1 (en) * 2014-06-10 2019-07-03 Panasonic Intellectual Property Management Co., Ltd. Display system, display method, and display device
JP6643669B2 (ja) * 2014-06-10 2020-02-12 パナソニックIpマネジメント株式会社 表示装置および表示方法
EP3157243B1 (en) 2014-06-10 2024-07-03 Panasonic Intellectual Property Management Co., Ltd. Conversion method and conversion device
CN106416261B (zh) * 2014-06-13 2020-06-26 索尼公司 传输设备、传输方法、接收设备以及接收方法
EP3157251B1 (en) * 2014-06-16 2019-08-21 Panasonic Intellectual Property Management Co., Ltd. Playback method and playback apparatus
EP2958075A1 (en) * 2014-06-20 2015-12-23 Thomson Licensing Method and apparatus for dynamic range expansion of LDR video sequence
WO2015198554A1 (ja) * 2014-06-23 2015-12-30 パナソニックIpマネジメント株式会社 変換方法および変換装置
WO2015198552A1 (ja) * 2014-06-25 2015-12-30 パナソニックIpマネジメント株式会社 コンテンツデータ生成方法、映像ストリーム伝送方法及び映像表示方法
CN110708439A (zh) 2014-06-26 2020-01-17 松下知识产权经营株式会社 显示装置及数据输出方法
JP6566320B2 (ja) 2014-06-27 2019-08-28 パナソニックIpマネジメント株式会社 データ出力装置及びデータ出力方法
MX2019005231A (es) * 2014-06-27 2019-09-10 Panasonic Ip Man Co Ltd Dispositivo de salida de datos, metodo de salida de datos y metodo de generacion de datos.
CN111263096B (zh) * 2014-06-30 2021-06-01 松下知识产权经营株式会社 由再现装置执行的方法以及再现装置
MX2019008149A (es) * 2014-06-30 2019-09-05 Panasonic Ip Man Co Ltd Metodo de reproduccion de datos y dispositivo de reproduccion de datos.
US9613407B2 (en) 2014-07-03 2017-04-04 Dolby Laboratories Licensing Corporation Display management for high dynamic range video
JP6478499B2 (ja) * 2014-07-07 2019-03-06 キヤノン株式会社 画像処理装置、画像処理方法、及び、プログラム
JP6421504B2 (ja) * 2014-07-28 2018-11-14 ソニー株式会社 画像処理装置及び画像処理方法
JP6466258B2 (ja) * 2014-08-07 2019-02-06 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 再生装置、再生方法および記録媒体
WO2016021120A1 (ja) * 2014-08-07 2016-02-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 再生装置、再生方法および記録媒体
JP2016538745A (ja) * 2014-08-08 2016-12-08 エルジー エレクトロニクス インコーポレイティド ディスプレイ適応的映像再生のためのビデオデータ処理方法及び装置
KR102209563B1 (ko) * 2014-08-08 2021-02-02 코닌클리케 필립스 엔.브이. Hdr 이미지 인코딩 방법 및 장치
TWI539433B (zh) * 2014-08-13 2016-06-21 友達光電股份有限公司 曲面顯示裝置及其伽馬校正方法
MX2019008379A (es) * 2014-08-19 2019-09-09 Panasonic Ip Man Co Ltd Metodo de transmision, metodo de reproduccion y dispositivo de reproduccion.
WO2016027426A1 (ja) * 2014-08-19 2016-02-25 パナソニックIpマネジメント株式会社 映像ストリーム生成方法、再生装置及び記録媒体
CN110460792B (zh) * 2014-08-19 2022-03-08 松下知识产权经营株式会社 再现方法及再现装置
JP6331882B2 (ja) * 2014-08-28 2018-05-30 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
TWI683307B (zh) 2014-09-08 2020-01-21 日商新力股份有限公司 資訊處理裝置,資訊記錄媒體及資訊處理方法以及程式
JP2016058848A (ja) 2014-09-08 2016-04-21 ソニー株式会社 画像処理装置及び画像処理方法
WO2016039025A1 (ja) * 2014-09-08 2016-03-17 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
WO2016038791A1 (ja) * 2014-09-10 2016-03-17 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 記録媒体、再生装置および再生方法
EP3193326B1 (en) * 2014-09-11 2019-05-15 Sony Corporation Image-processing device, and image-processing method
US20170193638A1 (en) * 2014-09-11 2017-07-06 Kevin Patrick GRUNDY System and method for controlling dynamic range compression image processing
JP2016062637A (ja) 2014-09-12 2016-04-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 記録媒体、再生装置、および再生方法
JP6471915B2 (ja) * 2014-09-12 2019-02-20 ソニー株式会社 再生装置、再生方法、情報処理装置、情報処理方法、プログラム
US10910017B2 (en) 2014-09-12 2021-02-02 Sony Corporation Reproducing device, reproducing method, information processing device, information processing method, program, and recording medium
CN111933189B (zh) * 2014-09-12 2022-01-04 松下电器(美国)知识产权公司 再现装置以及再现方法
JPWO2016039170A1 (ja) * 2014-09-12 2017-06-22 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム、並びに記録媒体
MX367898B (es) * 2014-09-22 2019-09-11 Panasonic Ip Man Co Ltd Metodo de reproduccion y aparato de reproduccion.
CN105934939B (zh) * 2014-09-22 2018-10-19 松下知识产权经营株式会社 再现方法以及再现装置
US9729801B2 (en) * 2014-10-02 2017-08-08 Dolby Laboratories Licensing Corporation Blending images using mismatched source and display electro-optical transfer functions
JP6510039B2 (ja) 2014-10-02 2019-05-08 ドルビー ラボラトリーズ ライセンシング コーポレイション ジャダー可視性制御のためのデュアルエンドメタデータ
JP6539032B2 (ja) * 2014-10-06 2019-07-03 キヤノン株式会社 表示制御装置、表示制御方法、およびプログラム
WO2016055178A1 (en) * 2014-10-10 2016-04-14 Koninklijke Philips N.V. Saturation processing specification for dynamic range mappings
KR20160044954A (ko) * 2014-10-16 2016-04-26 삼성전자주식회사 정보 제공 방법 및 이를 구현하는 전자 장치
JP2016081553A (ja) * 2014-10-17 2016-05-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 記録媒体、再生方法、および再生装置
WO2016063474A1 (ja) * 2014-10-21 2016-04-28 パナソニックIpマネジメント株式会社 再生装置、表示装置および伝送方法
TWI685837B (zh) 2014-10-23 2020-02-21 日商新力股份有限公司 資訊處理裝置、資訊處理方法、及程式產品、以及記錄媒體
WO2016063475A1 (ja) * 2014-10-24 2016-04-28 パナソニックIpマネジメント株式会社 送信方法および再生装置
WO2016069459A1 (en) * 2014-10-27 2016-05-06 Dolby Laboratories Licensing Corporation Content mapping using extended color range
CN110971887B (zh) * 2014-11-04 2021-11-02 松下电器(美国)知识产权公司 再现方法、再现装置以及记录介质
HUE053609T2 (hu) * 2014-11-07 2021-07-28 Sony Corp Átviteli készülék, átviteli eljárás, vételi készülék és vételi eljárás
JP2016100039A (ja) * 2014-11-17 2016-05-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 記録媒体、再生方法、および再生装置
EP3029925A1 (en) 2014-12-01 2016-06-08 Thomson Licensing A method and device for estimating a color mapping between two different color-graded versions of a picture
CN112492317B (zh) * 2014-12-03 2021-12-28 松下知识产权经营株式会社 数据生成方法及解码装置
KR20160067275A (ko) * 2014-12-03 2016-06-14 삼성디스플레이 주식회사 표시 장치 및 이의 구동 방법
JP6601729B2 (ja) * 2014-12-03 2019-11-06 パナソニックIpマネジメント株式会社 データ生成方法、データ再生方法、データ生成装置及びデータ再生装置
WO2016092759A1 (ja) 2014-12-09 2016-06-16 パナソニックIpマネジメント株式会社 送信方法、受信方法、送信装置および受信装置
JP6741975B2 (ja) * 2014-12-09 2020-08-19 パナソニックIpマネジメント株式会社 送信方法および送信装置
WO2016091406A1 (en) * 2014-12-11 2016-06-16 Koninklijke Philips N.V. Optimizing high dynamic range images for particular displays
DK3231174T3 (da) 2014-12-11 2020-10-26 Koninklijke Philips Nv Optimering af billeder med højt dynamikområde til bestemte displays
TW201633779A (zh) * 2014-12-16 2016-09-16 湯姆生特許公司 將圖像之高動態範圍版本轉換至該圖像之標準動態範圍版本之方法及裝置
EP3035678A1 (en) * 2014-12-16 2016-06-22 Thomson Licensing Method and device of converting a high-dynamic-range version of a picture to a standard-dynamic-range version of said picture
WO2016103968A1 (ja) * 2014-12-22 2016-06-30 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
EP3242487B1 (en) * 2014-12-29 2021-10-13 Sony Group Corporation Transmitting device, transmitting method, receiving device and receiving method
MX359721B (es) 2015-01-19 2018-10-08 Dolby Laboratories Licensing Corp Gestión de pantalla para video de alta gama dinámica.
EP3251366B1 (en) 2015-01-27 2024-01-10 InterDigital Madison Patent Holdings, SAS Methods and apparatus for electro-optical and opto-electrical conversion of images and video
EP3251337A1 (en) * 2015-01-29 2017-12-06 Koninklijke Philips N.V. Local dynamic range adjustment color processing
BR112017015790A2 (pt) 2015-01-30 2018-03-27 Thomson Licensing método e aparelho de codificação e decodificação de uma imagem colorida
EP3051821A1 (en) * 2015-01-30 2016-08-03 Thomson Licensing Method and apparatus for encoding and decoding high dynamic range (HDR) videos
EP3051825A1 (en) * 2015-01-30 2016-08-03 Thomson Licensing A method and apparatus of encoding and decoding a color picture
KR102295970B1 (ko) * 2015-02-06 2021-08-30 엘지전자 주식회사 영상표시장치,
GB2534929A (en) * 2015-02-06 2016-08-10 British Broadcasting Corp Method and apparatus for conversion of HDR signals
CA2977204C (en) * 2015-03-05 2023-04-04 Sony Corporation Photoelectric conversion of video data having a predetermined photoelectric conversion characteristic
EP3067882A1 (en) 2015-03-10 2016-09-14 Thomson Licensing Adaptive color grade interpolation method and device
JP6463179B2 (ja) * 2015-03-17 2019-01-30 キヤノン株式会社 信号処理装置、信号処理方法および撮像装置
WO2016153896A1 (en) * 2015-03-20 2016-09-29 Dolby Laboratories Licensing Corporation Signal reshaping approximation
JP2016178595A (ja) * 2015-03-23 2016-10-06 シャープ株式会社 受信装置、受信方法、及びプログラム
MY192391A (en) * 2015-03-24 2022-08-18 Sony Corp Transmission device, transmission method, reception device, and reception method
JP6757890B2 (ja) * 2015-03-27 2020-09-23 パナソニックIpマネジメント株式会社 信号処理装置、表示装置、信号処理方法、およびプログラム
US10109228B2 (en) 2015-04-10 2018-10-23 Samsung Display Co., Ltd. Method and apparatus for HDR on-demand attenuation control
KR102322709B1 (ko) * 2015-04-29 2021-11-08 엘지디스플레이 주식회사 영상 처리 방법 및 영상 처리 회로와 그를 이용한 표시 장치
US10257526B2 (en) 2015-05-01 2019-04-09 Disney Enterprises, Inc. Perceptual color transformations for wide color gamut video coding
WO2016182307A1 (ko) 2015-05-11 2016-11-17 삼성전자 주식회사 메타데이터에 기초한 영상 처리 장치 및 영상 처리 방법
WO2016181819A1 (ja) * 2015-05-12 2016-11-17 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
WO2016181584A1 (ja) * 2015-05-12 2016-11-17 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 表示方法および表示装置
MX2019013303A (es) * 2015-05-12 2020-07-20 Panasonic Ip Corp America Metodo de presentacion visual y dispositivo de presentacion visual.
JP6731722B2 (ja) 2015-05-12 2020-07-29 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 表示方法および表示装置
KR102337159B1 (ko) * 2015-05-21 2021-12-08 삼성전자주식회사 컨텐츠 출력 장치 및 방법과, 디스플레이 장치
JP6663214B2 (ja) * 2015-05-26 2020-03-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 表示方法および表示装置
JP6666022B2 (ja) * 2015-06-04 2020-03-13 キヤノン株式会社 画像表示装置、画像出力装置、及び、それらの制御方法
US10249263B2 (en) * 2015-06-05 2019-04-02 Apple Inc. Rendering and displaying high dynamic range content
US10007412B2 (en) * 2015-06-24 2018-06-26 Samsung Electronics Co., Ltd. Tone mastering system with creative intent metadata
DE112016002868T5 (de) * 2015-06-25 2018-03-08 Mitsubishi Electric Corporation Videowiedergabevorrichtung und Videowiedergabeverfahren
US11245939B2 (en) * 2015-06-26 2022-02-08 Samsung Electronics Co., Ltd. Generating and transmitting metadata for virtual reality
EP3113496A1 (en) 2015-06-30 2017-01-04 Thomson Licensing Method and device for encoding both a hdr picture and a sdr picture obtained from said hdr picture using color mapping functions
EP3113495A1 (en) * 2015-06-30 2017-01-04 Thomson Licensing Methods and devices for encoding and decoding a hdr color picture
GB2539917B (en) * 2015-06-30 2021-04-07 British Broadcasting Corp Method and apparatus for conversion of HDR signals
US10701359B2 (en) * 2015-06-30 2020-06-30 Dolby Laboratories Licensing Corporation Real-time content-adaptive perceptual quantizer for high dynamic range images
JP6611494B2 (ja) * 2015-07-08 2019-11-27 キヤノン株式会社 画像表示装置及びその制御方法
KR102309676B1 (ko) 2015-07-24 2021-10-07 삼성전자주식회사 사용자 적응 이미지 보상기
EP3330959A4 (en) * 2015-07-31 2019-07-17 Sony Corporation VIDEO SIGNAL PROCESSING DEVICE, METHOD FOR PROCESSING A VIDEO SIGNAL AND DISPLAY DEVICE
WO2017030311A1 (ko) * 2015-08-19 2017-02-23 삼성전자 주식회사 이미지 변환을 수행하는 전자 장치 및 이의 방법
CN108352076B (zh) * 2015-08-24 2021-09-17 交互数字麦迪逊专利控股公司 编码和解码方法及对应设备
EP3341913B1 (en) 2015-08-25 2019-06-26 InterDigital VC Holdings, Inc. Inverse tone mapping based on luminance zones
KR20230066493A (ko) 2015-08-28 2023-05-15 애리스 엔터프라이지즈 엘엘씨 높은 동적 범위 및 넓은 컬러 영역 시퀀스들의 코딩에서의 컬러 볼륨 변환들
JP6803378B2 (ja) 2015-08-31 2020-12-23 インターデジタル ヴイシー ホールディングス, インコーポレイテッド 逆トーンマッピングの方法及び装置
WO2017037971A1 (ja) * 2015-09-01 2017-03-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 変換方法および変換装置
JP6820507B2 (ja) * 2015-09-14 2021-01-27 パナソニックIpマネジメント株式会社 映像受信方法、映像送信方法、映像受信装置及び映像送信装置
JP6579715B2 (ja) * 2015-09-18 2019-09-25 シャープ株式会社 受信装置、テレビジョン受信装置、受信方法、プログラム
US10679582B2 (en) 2015-09-21 2020-06-09 Dolby Laboratories Licensing Corporation Techniques for operating a display in the perceptual code space
WO2017051612A1 (ja) * 2015-09-25 2017-03-30 ソニー株式会社 画像処理装置及び画像処理方法
EP4258673A3 (en) * 2015-10-07 2023-12-13 Panasonic Intellectual Property Management Co., Ltd. Video transmission method, video reception method, video transmission device, and video reception device
JP6830190B2 (ja) * 2015-10-07 2021-02-17 パナソニックIpマネジメント株式会社 映像送信方法、映像受信方法、映像送信装置及び映像受信装置
US10140953B2 (en) * 2015-10-22 2018-11-27 Dolby Laboratories Licensing Corporation Ambient-light-corrected display management for high dynamic range images
RU2728766C2 (ru) * 2015-11-09 2020-07-31 Томсон Лайсенсинг Способ и устройство для адаптации видеоконтента, декодированного из элементарных потоков, под характеристики устройства отображения
JP6872098B2 (ja) * 2015-11-12 2021-05-19 ソニーグループ株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
EP3169071B1 (en) * 2015-11-16 2020-01-29 InterDigital VC Holdings, Inc. Backward-compatible encoding of a hdr picture
CN105336290B (zh) * 2015-11-18 2018-06-01 青岛海信电器股份有限公司 伽马Gamma校正方法及装置
JP6831389B2 (ja) * 2015-11-24 2021-02-17 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 複数のhdr画像ソースの処理
AU2015261734A1 (en) * 2015-11-30 2017-06-15 Canon Kabushiki Kaisha Method, apparatus and system for encoding and decoding video data according to local luminance intensity
AU2016373020B2 (en) * 2015-12-16 2021-11-18 Fondation B-Com Method of processing a digital image, device, terminal equipment and computer program associated therewith
CN108370405B (zh) * 2015-12-23 2019-11-26 华为技术有限公司 一种图像信号转换处理方法、装置及终端设备
WO2017110823A1 (ja) * 2015-12-25 2017-06-29 シャープ株式会社 表示装置、表示装置の制御方法、制御プログラム、および記録媒体
US9984446B2 (en) 2015-12-26 2018-05-29 Intel Corporation Video tone mapping for converting high dynamic range (HDR) content to standard dynamic range (SDR) content
JP6710970B2 (ja) 2015-12-28 2020-06-17 ソニー株式会社 送信装置および送信方法
JP6233424B2 (ja) * 2016-01-05 2017-11-22 ソニー株式会社 撮像システムおよび撮像方法
JP6237797B2 (ja) * 2016-01-05 2017-11-29 ソニー株式会社 ビデオシステム、ビデオ処理方法、プログラム、およびビデオコンバーター
KR20170088303A (ko) * 2016-01-22 2017-08-01 한국전자통신연구원 화질 열화 감소를 위한 영상 신호 변환 방법 및 장치
EP3408847A1 (en) * 2016-01-29 2018-12-05 Barco NV Digital image processing chain and processing blocks and a display including the same
MX2018009410A (es) 2016-02-09 2018-09-21 Sony Corp Dispositivo de transmision, metodo de transmision, dispositivo de recepcion y metodo de recepcion.
US10264196B2 (en) 2016-02-12 2019-04-16 Contrast, Inc. Systems and methods for HDR video capture with a mobile device
US10257393B2 (en) 2016-02-12 2019-04-09 Contrast, Inc. Devices and methods for high dynamic range video
WO2017138672A1 (ko) * 2016-02-12 2017-08-17 삼성전자 주식회사 디스플레이 장치 및 그 디스플레이 방법
JP2017151308A (ja) 2016-02-25 2017-08-31 キヤノン株式会社 情報処理装置および情報処理方法
CN108701471A (zh) * 2016-02-26 2018-10-23 索尼公司 信息处理装置、显示装置、信息记录介质、信息处理方法、以及程序
JP6824055B2 (ja) * 2016-03-02 2021-02-03 シャープ株式会社 受信装置および放送システム
JP6451669B2 (ja) 2016-03-04 2019-01-16 ソニー株式会社 評価装置、評価方法およびカメラシステム
JP6161222B1 (ja) * 2016-03-17 2017-07-12 シャープ株式会社 受信装置および放送システム
EP3220645A1 (en) * 2016-03-18 2017-09-20 Thomson Licensing A method and a device for encoding a high dynamic range picture, corresponding decoding method and decoding device
RU2728516C2 (ru) * 2016-03-18 2020-07-30 Конинклейке Филипс Н.В. Кодирование и декодирование hdr видео
JP6757157B2 (ja) * 2016-03-29 2020-09-16 キヤノン株式会社 投影装置およびその制御方法
JP6830244B2 (ja) * 2016-03-29 2021-02-17 パナソニックIpマネジメント株式会社 表示装置及びその制御方法
US20170289571A1 (en) * 2016-04-01 2017-10-05 Intel Corporation Temporal control for spatially adaptive tone mapping of high dynamic range video
GB2549521A (en) 2016-04-21 2017-10-25 British Broadcasting Corp Method and apparatus for conversion of dynamic range of video signals
JP6755701B2 (ja) * 2016-04-25 2020-09-16 キヤノン株式会社 撮像装置、表示装置及び画像処理装置
EP3244616A1 (en) * 2016-05-13 2017-11-15 Thomson Licensing A method for encoding an input video comprising a luma component and two chroma components, the method comprising reshaping of said input video based on reshaping functions
KR102488954B1 (ko) * 2016-05-16 2023-01-16 엘지전자 주식회사 영상 처리 장치 및 그의 영상 처리 방법
CN105979192A (zh) * 2016-05-16 2016-09-28 福州瑞芯微电子股份有限公司 一种视频显示方法和装置
WO2017203942A1 (ja) * 2016-05-25 2017-11-30 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
US10692465B2 (en) * 2016-05-27 2020-06-23 Dolby Laboratories Licensing Corporation Transitioning between video priority and graphics priority
US20170353704A1 (en) * 2016-06-01 2017-12-07 Apple Inc. Environment-Aware Supervised HDR Tone Mapping
US10032263B2 (en) * 2016-06-12 2018-07-24 Apple Inc. Rendering information into images
JP6729055B2 (ja) 2016-06-23 2020-07-22 セイコーエプソン株式会社 映像処理装置、表示装置および映像処理方法
US10638105B2 (en) 2016-06-27 2020-04-28 Intel Corporation Method and system of multi-dynamic range multi-layer video blending with alpha channel sideband for video playback
US9916638B2 (en) * 2016-07-20 2018-03-13 Dolby Laboratories Licensing Corporation Transformation of dynamic metadata to support alternate tone rendering
CA3033242A1 (en) 2016-08-09 2018-02-15 Contrast, Inc. Real-time hdr video for vehicle control
WO2018035696A1 (zh) * 2016-08-22 2018-03-01 华为技术有限公司 一种图像处理方法以及装置
TWI631505B (zh) * 2016-08-26 2018-08-01 晨星半導體股份有限公司 應用於播放裝置的影像處理方法及相關的電路
JP6276815B1 (ja) * 2016-09-02 2018-02-07 シャープ株式会社 画像処理装置、テレビジョン受像機、画像処理システム、画像処理プログラム、記録媒体、および映像提供装置
EP3511928B1 (en) * 2016-09-09 2022-01-12 Panasonic Intellectual Property Management Co., Ltd. Display device and signal processing method
JP7054851B2 (ja) 2016-09-09 2022-04-15 パナソニックIpマネジメント株式会社 表示装置および信号処理方法
JP6751233B2 (ja) * 2016-09-12 2020-09-02 オンキヨー株式会社 映像処理装置
KR102594201B1 (ko) 2016-09-22 2023-10-27 삼성디스플레이 주식회사 영상 처리 방법 및 이를 수행하는 표시 장치
CN109792504B (zh) * 2016-09-29 2021-08-03 松下知识产权经营株式会社 再生方法、生成方法、再生装置、生成装置以及记录介质
GB2554669B (en) * 2016-09-30 2022-04-06 Apical Ltd Image processing
WO2018070822A1 (ko) * 2016-10-14 2018-04-19 엘지전자 주식회사 적응적 영상 재생을 위한 데이터 처리 방법 및 장치
EP3470976A1 (en) * 2017-10-12 2019-04-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method and apparatus for efficient delivery and usage of audio messages for high quality of experience
US10218952B2 (en) 2016-11-28 2019-02-26 Microsoft Technology Licensing, Llc Architecture for rendering high dynamic range video on enhanced dynamic range display devices
JP2018091999A (ja) * 2016-12-02 2018-06-14 キヤノン株式会社 画像処理装置、表示装置及び画像処理方法
JP6845946B2 (ja) * 2016-12-12 2021-03-24 ドルビー ラボラトリーズ ライセンシング コーポレイション ハイダイナミックレンジ画像のための映像処理曲線を調整するためのシステムおよび方法
CN110178378B (zh) * 2017-01-16 2022-04-08 索尼公司 视频处理装置、视频处理方法和存储介质
US10104334B2 (en) * 2017-01-27 2018-10-16 Microsoft Technology Licensing, Llc Content-adaptive adjustment of display device brightness levels when rendering high dynamic range content
US10176561B2 (en) 2017-01-27 2019-01-08 Microsoft Technology Licensing, Llc Content-adaptive adjustments to tone mapping operations for high dynamic range content
WO2018147196A1 (ja) * 2017-02-09 2018-08-16 シャープ株式会社 表示装置、テレビジョン受像機、映像処理方法、バックライト制御方法、受信装置、映像信号生成装置、送信装置、映像信号伝送システム、受信方法、プログラム、制御プログラム、及び記録媒体
JP6466488B2 (ja) * 2017-02-09 2019-02-06 シャープ株式会社 表示装置、テレビジョン受像機、映像処理方法、制御プログラム、及び記録媒体
CN106713907B (zh) * 2017-02-21 2018-08-03 京东方科技集团股份有限公司 一种显示器的hdr图像显示性能评测方法及装置
JP7086587B2 (ja) * 2017-02-24 2022-06-20 インターデジタル ヴイシー ホールディングス, インコーポレイテッド 復号された画像データから画像データを再構成する方法および装置
JP6381704B1 (ja) * 2017-02-28 2018-08-29 シャープ株式会社 映像信号生成装置、受信装置、テレビジョン受像機、送受信システム、制御プログラム、及び記録媒体
KR102308192B1 (ko) 2017-03-09 2021-10-05 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
EP3566203B1 (en) 2017-03-20 2021-06-16 Dolby Laboratories Licensing Corporation Perceptually preserving scene-referred contrasts and chromaticities
JP2017143546A (ja) * 2017-03-21 2017-08-17 ソニー株式会社 再生装置、記録媒体、表示装置、および情報処理方法
WO2018190786A1 (en) * 2017-04-10 2018-10-18 Hewlett-Packard Development Company, L.P. Dynamically gamut adjustable displays
US10848646B2 (en) * 2017-04-21 2020-11-24 Panasonic Intellectual Property Management Co., Ltd. Reproduction device, reproduction method, display device, and display method
EP3399497A1 (en) * 2017-05-05 2018-11-07 Koninklijke Philips N.V. Optimizing decoded high dynamic range image saturation
US10403214B2 (en) * 2017-05-12 2019-09-03 Apple Inc. Electronic devices with tone mapping to accommodate simultaneous display of standard dynamic range and high dynamic range content
US11288781B2 (en) * 2017-06-16 2022-03-29 Dolby Laboratories Licensing Corporation Efficient end-to-end single layer inverse display management coding
CN109691119B (zh) * 2017-06-21 2022-04-19 松下知识产权经营株式会社 影像显示***及影像显示方法
EP3418972A1 (en) 2017-06-23 2018-12-26 Thomson Licensing Method for tone adapting an image to a target peak luminance lt of a target display device
WO2019008482A1 (ja) * 2017-07-07 2019-01-10 株式会社半導体エネルギー研究所 表示システム、および表示システムの動作方法
WO2019008818A1 (ja) * 2017-07-07 2019-01-10 パナソニックIpマネジメント株式会社 映像処理システム及び映像処理方法
US11265530B2 (en) 2017-07-10 2022-03-01 Contrast, Inc. Stereoscopic camera
CN109691118B (zh) 2017-07-14 2021-12-17 松下知识产权经营株式会社 影像显示***及影像显示方法
US10504263B2 (en) * 2017-08-01 2019-12-10 Samsung Electronics Co., Ltd. Adaptive high dynamic range (HDR) tone mapping with overlay indication
EP3684061B1 (en) 2017-09-13 2021-07-07 Panasonic Intellectual Property Management Co., Ltd. Video display device and video display method
US11065960B2 (en) 2017-09-13 2021-07-20 Corning Incorporated Curved vehicle displays
JP7207314B2 (ja) * 2017-09-21 2023-01-18 ソニーグループ株式会社 再生装置、再生方法、プログラム
CN111149346B (zh) * 2017-09-28 2021-07-13 杜比实验室特许公司 用于编码和解码高动态范围视频的方法、装置和介质
WO2019067469A1 (en) * 2017-09-29 2019-04-04 Zermatt Technologies Llc FILE FORMAT FOR SPACE
US10992877B2 (en) 2017-10-06 2021-04-27 Panasonic Intellectual Property Management Co., Ltd. Video display apparatus and video display method
JP6753386B2 (ja) * 2017-10-25 2020-09-09 ソニー株式会社 カメラシステム、ビデオ処理方法およびプログラム
KR102413839B1 (ko) * 2017-11-15 2022-06-28 삼성전자 주식회사 컨텐츠 제공장치, 그 제어방법 및 기록매체
KR102448497B1 (ko) * 2017-11-17 2022-09-28 삼성전자주식회사 디스플레이 장치, 디스플레이 장치의 제어 방법 및 영상 제공 장치
JP6821269B2 (ja) 2017-12-05 2021-01-27 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置および画像処理方法
JP7191649B2 (ja) * 2017-12-27 2022-12-19 キヤノン株式会社 電子機器
EP3734954B1 (en) * 2017-12-27 2023-03-22 Panasonic Intellectual Property Management Co., Ltd. Display device and display method
US10972674B2 (en) 2017-12-27 2021-04-06 Canon Kabushiki Kaisha Electronic apparatus
JP7180079B2 (ja) * 2018-02-28 2022-11-30 セイコーエプソン株式会社 回路装置及び電子機器
RU2675281C1 (ru) * 2018-03-28 2018-12-18 федеральное государственное бюджетное образовательное учреждение высшего образования "Национальный исследовательский университет "МЭИ" (ФГБОУ ВО "НИУ "МЭИ") Способ идентификации линейной динамической системы
CN108681991A (zh) * 2018-04-04 2018-10-19 上海交通大学 基于生成对抗网络的高动态范围反色调映射方法及***
KR102489265B1 (ko) * 2018-04-10 2023-01-17 엘지전자 주식회사 비디오 신호를 처리하는 멀티미디어 디바이스 및 그 제어 방법
JP6652153B2 (ja) * 2018-04-26 2020-02-19 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
TWI808970B (zh) * 2018-04-30 2023-07-21 圓剛科技股份有限公司 影像訊號轉換裝置
US10951888B2 (en) 2018-06-04 2021-03-16 Contrast, Inc. Compressed high dynamic range video
CN110620935B (zh) * 2018-06-19 2022-04-08 杭州海康慧影科技有限公司 图像处理方法及装置
WO2020018301A1 (en) * 2018-07-16 2020-01-23 Corning Incorporated Display with localized brightness adjustment and related methods
JP2020025176A (ja) * 2018-08-07 2020-02-13 キヤノン株式会社 表示制御装置、表示制御装置の制御方法、およびプログラム
JP2020024550A (ja) * 2018-08-07 2020-02-13 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
US11284134B2 (en) 2018-08-08 2022-03-22 Comcast Cable Communications, Llc Media content enhancement based on content importance
US11341624B2 (en) 2018-08-10 2022-05-24 Dolby Laboratories Licensing Corporation Reducing banding artifacts in HDR imaging via adaptive SDR-to-HDR reshaping functions
CN108986053B (zh) * 2018-08-21 2021-03-16 北京小米移动软件有限公司 屏幕显示方法及装置
JP6583501B2 (ja) * 2018-08-28 2019-10-02 ソニー株式会社 再生装置、表示装置、情報処理方法
CN111063319B (zh) * 2018-10-16 2021-05-18 深圳Tcl新技术有限公司 基于背光调整的图像动态增强方法、装置和计算机设备
US10957024B2 (en) 2018-10-30 2021-03-23 Microsoft Technology Licensing, Llc Real time tone mapping of high dynamic range image data at time of playback on a lower dynamic range display
US11503310B2 (en) * 2018-10-31 2022-11-15 Ati Technologies Ulc Method and apparatus for an HDR hardware processor inline to hardware encoder and decoder
CN109243383B (zh) * 2018-11-09 2021-12-17 珠海格力电器股份有限公司 一种显示屏的背光亮度调节方法及显示屏装置
RU190476U1 (ru) * 2018-11-19 2019-07-02 Федеральное государственное автономное образовательное учреждение высшего образования "Севастопольский государственный университет" Устройство преобразования яркости цифрового телевизионного изображения
US20200192548A1 (en) * 2018-12-13 2020-06-18 Ati Technologies Ulc Methods and apparatus for displaying a cursor on a high dynamic range display device
EP3672254A1 (en) 2018-12-21 2020-06-24 InterDigital VC Holdings, Inc. Decoding an image
KR102643588B1 (ko) * 2019-01-21 2024-03-04 엘지전자 주식회사 카메라 장치 및 이를 구비하는 전자 장치
WO2020155072A1 (zh) * 2019-01-31 2020-08-06 华为技术有限公司 一种混合图层处理方法及装置
KR20200095651A (ko) * 2019-02-01 2020-08-11 삼성전자주식회사 고 동적 범위 콘텐트를 재생하는 전자 장치 및 그 방법
JP7204514B2 (ja) * 2019-02-13 2023-01-16 キヤノン株式会社 画像出力装置およびその制御方法、プログラム
JP7301551B2 (ja) * 2019-02-21 2023-07-03 キヤノン株式会社 画像処理装置、画像処理方法、表示装置、制御方法、およびプログラム
JP2020141334A (ja) * 2019-02-28 2020-09-03 キヤノン株式会社 撮像装置及びその制御方法及びプログラム
CN111754412B (zh) * 2019-03-29 2024-04-19 Tcl科技集团股份有限公司 构建数据对的方法、装置及终端设备
CN110062160B (zh) * 2019-04-09 2021-07-02 Oppo广东移动通信有限公司 图像处理方法和装置
US11404025B2 (en) * 2019-04-10 2022-08-02 Mediatek Inc. Video processing system for performing artificial intelligence assisted picture quality enhancement and associated video processing method
JP6672505B2 (ja) * 2019-04-15 2020-03-25 マクセル株式会社 投射型映像表示装置
KR102575261B1 (ko) * 2019-05-16 2023-09-06 주식회사 엘엑스세미콘 주위조도에 따라 영상의 밝기를 조절하는 디스플레이 구동장치 및 구동방법
EP3748945A1 (en) * 2019-06-07 2020-12-09 Stereyo BV Method for optimizing the dynamic range of a led screen
US11405582B2 (en) * 2019-06-28 2022-08-02 Meta Platforms, Inc. Preprocessing of high-dynamic-range video using a hybrid lookup table scheme
JP6756396B2 (ja) * 2019-08-30 2020-09-16 ソニー株式会社 再生装置、表示装置、情報処理方法
JP6904470B2 (ja) * 2019-08-30 2021-07-14 ソニーグループ株式会社 再生装置、表示装置、情報処理方法
US11473971B2 (en) 2019-09-27 2022-10-18 Apple Inc. Ambient headroom adaptation
KR102641738B1 (ko) 2019-09-30 2024-02-29 삼성전자주식회사 영상 처리 방법 및 이를 지원하는 전자 장치
KR20210083840A (ko) * 2019-12-27 2021-07-07 삼성전자주식회사 다이나믹 톤 메타데이터를 포함하는 영상의 편집을 위한 전자 장치 및 그의 동작 방법
JP2020074571A (ja) * 2020-01-16 2020-05-14 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
US11270662B2 (en) * 2020-01-21 2022-03-08 Synaptics Incorporated Device and method for brightness control of display device based on display brightness value encoding parameters beyond brightness
GB2592656B (en) * 2020-03-05 2023-04-19 Canon Kk High level syntax for video coding and decoding
CN111489705B (zh) * 2020-04-14 2023-05-09 深圳市隆利科技股份有限公司 图像分区显示的方法
WO2021222310A1 (en) * 2020-04-28 2021-11-04 Dolby Laboratories Licensing Corporation Image-dependent contrast and brightness control for hdr displays
CN113630563B (zh) * 2020-05-08 2022-07-22 华为技术有限公司 一种高动态范围hdr视频的处理方法、编码设备和解码设备
CN113240578B (zh) * 2021-05-13 2024-05-21 北京达佳互联信息技术有限公司 图像特效的生成方法、装置、电子设备及存储介质
CN113658564B (zh) * 2021-08-30 2022-12-13 京东方科技集团股份有限公司 一种图像色深转换的方法、电子设备
US11734806B2 (en) * 2021-11-24 2023-08-22 Roku, Inc. Dynamic tone mapping
WO2023095718A1 (ja) * 2021-11-29 2023-06-01 パナソニックIpマネジメント株式会社 映像処理方法、映像処理装置、及び、プログラム
KR102564447B1 (ko) * 2021-11-30 2023-08-08 엘지전자 주식회사 디스플레이 장치
CN114972124B (zh) * 2022-07-29 2022-10-28 自然资源部第三地理信息制图院 一种遥感图像亮度自适应均衡方法及***
CN117133252B (zh) * 2023-02-27 2024-07-09 荣耀终端有限公司 图像处理方法和电子设备

Family Cites Families (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3271487B2 (ja) 1995-08-30 2002-04-02 凸版印刷株式会社 アプルーバル特性付画像データベースおよび画像処理装置
DE69842020D1 (de) * 1997-01-31 2011-01-05 Hitachi Ltd Bildanzeigesystem mit der Veranlagung zur Modifikation von Anzeigeeigenschaften in einem bestimmten Anzeigebereich
JP4834896B2 (ja) 1997-10-31 2011-12-14 ソニー株式会社 画像処理装置及び方法、画像送受信システム及び方法、並びに記録媒体
JP2002149149A (ja) 2000-11-13 2002-05-24 Sony Corp 色校正方法および装置
JP4155723B2 (ja) * 2001-04-16 2008-09-24 富士フイルム株式会社 画像管理システム及び画像管理方法、並びに画像表示装置
US20030081118A1 (en) * 2001-10-29 2003-05-01 Cirulli Robert J. Calibration of a telecine transfer device for a best light video setup
DE10213514C1 (de) 2002-03-26 2003-11-27 Michael Kaatze Kaffeebrüher
US20040061709A1 (en) 2002-09-17 2004-04-01 Lg Electronics Inc. Method and apparatus for driving plasma display panel
KR100712334B1 (ko) * 2002-09-30 2007-05-02 엘지전자 주식회사 액정 표시기의 밝기 레벨 조절방법
JP3661692B2 (ja) * 2003-05-30 2005-06-15 セイコーエプソン株式会社 照明装置、投射型表示装置及びその駆動方法
JP3975357B2 (ja) 2003-06-12 2007-09-12 船井電機株式会社 液晶テレビジョン装置
JP2005086226A (ja) * 2003-09-04 2005-03-31 Auto Network Gijutsu Kenkyusho:Kk 撮像装置
JP4617085B2 (ja) 2004-02-16 2011-01-19 キヤノン株式会社 画像表示装置および画像表示方法
US8218625B2 (en) * 2004-04-23 2012-07-10 Dolby Laboratories Licensing Corporation Encoding, decoding and representing high dynamic range images
US7085414B2 (en) * 2004-05-05 2006-08-01 Canon Kabushiki Kaisha Characterization of display devices by averaging chromaticity values
US8026953B2 (en) * 2004-05-11 2011-09-27 Samsung Electronics Co., Ltd. Method for processing color image data
US8050511B2 (en) * 2004-11-16 2011-11-01 Sharp Laboratories Of America, Inc. High dynamic range images from low dynamic range images
EP2988499B1 (en) * 2006-01-23 2017-03-22 Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V. High dynamic range codecs
US8014445B2 (en) * 2006-02-24 2011-09-06 Sharp Laboratories Of America, Inc. Methods and systems for high dynamic range video coding
JP4203081B2 (ja) * 2006-05-19 2008-12-24 株式会社東芝 画像表示装置および画像表示方法
US8872753B2 (en) * 2006-08-31 2014-10-28 Ati Technologies Ulc Adjusting brightness of a display image in a display having an adjustable intensity light source
US7978203B1 (en) * 2006-12-18 2011-07-12 Pixar Methods and apparatus for color grading with gamut match preview
CN101569171B (zh) * 2006-12-21 2013-05-15 汤姆森许可贸易公司 为显示器提供颜色分级的方法、装置和***
JP4687918B2 (ja) 2007-07-24 2011-05-25 富士ゼロックス株式会社 画像処理装置及びプログラム
US8330768B2 (en) * 2007-07-27 2012-12-11 Sharp Laboratories Of America, Inc. Apparatus and method for rendering high dynamic range images for standard dynamic range display
US8233738B2 (en) * 2007-07-30 2012-07-31 Dolby Laboratories Licensing Corporation Enhancing dynamic ranges of images
US8135230B2 (en) 2007-07-30 2012-03-13 Dolby Laboratories Licensing Corporation Enhancing dynamic ranges of images
US8223113B2 (en) * 2007-12-26 2012-07-17 Sharp Laboratories Of America, Inc. Methods and systems for display source light management with variable delay
KR101444834B1 (ko) * 2008-01-31 2014-09-26 톰슨 라이센싱 보기 데이터 정의 및 송신을 위한 방법 및 시스템
US8593476B2 (en) * 2008-02-13 2013-11-26 Gary Demos System for accurately and precisely representing image color information
JP4544319B2 (ja) * 2008-03-11 2010-09-15 富士フイルム株式会社 画像処理装置、方法及びプログラム
WO2009135358A1 (en) 2008-05-08 2009-11-12 Hong Kong Applied Science And Technology Research Institute Co., Ltd. Method and apparatus for enhancing the dynamic range of an image
KR101662696B1 (ko) 2008-08-22 2016-10-05 톰슨 라이센싱 콘텐츠 전달 방법 및 시스템
US8184112B2 (en) * 2008-09-24 2012-05-22 Global Oled Technology Llc Increasing dynamic range of display output
JP2010114839A (ja) 2008-11-10 2010-05-20 Canon Inc 画像処理装置および画像処理方法
WO2010083493A1 (en) * 2009-01-19 2010-07-22 Dolby Laboratories Licensing Corporation Image processing and displaying methods for devices that implement color appearance models
US8605083B2 (en) * 2009-03-06 2013-12-10 Koninklijke Philips N.V. Method for converting input image data into output image data, image conversion unit for converting input image data into output image data, image processing apparatus, display device
JP5589006B2 (ja) * 2009-03-13 2014-09-10 ドルビー ラボラトリーズ ライセンシング コーポレイション 高ダイナミックレンジ、視覚ダイナミックレンジ及び広色域のビデオの階層化圧縮
EP2230839A1 (en) 2009-03-17 2010-09-22 Koninklijke Philips Electronics N.V. Presentation of video content
US20120054664A1 (en) * 2009-05-06 2012-03-01 Thomson Licensing Method and systems for delivering multimedia content optimized in accordance with presentation device capabilities
KR101456874B1 (ko) * 2009-05-11 2014-10-31 돌비 레버러토리즈 라이쎈싱 코오포레이션 이미지 디스플레이에 대한 광 검출, 컬러 표현 모델들, 및 동적 범위의 수정
CN101930719A (zh) 2009-06-18 2010-12-29 辉达公司 自动切换显示器场景模式的方法及***
JP2011010108A (ja) 2009-06-26 2011-01-13 Seiko Epson Corp 撮像制御装置、撮像装置及び撮像制御方法
EP3467816A1 (en) 2010-02-24 2019-04-10 Dolby Laboratories Licensing Corp. Display management methods and apparatus
JP5899120B2 (ja) 2010-03-03 2016-04-06 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. カラーレジームを定義する装置及び方法
US20110242142A1 (en) 2010-03-30 2011-10-06 Ati Technologies Ulc Multiple display chrominance and luminance method and apparatus
CN101888487B (zh) * 2010-06-02 2012-03-14 中国科学院深圳先进技术研究院 高动态范围视频成像***和图像生成方法
EP2580748B1 (en) * 2010-06-14 2022-02-23 Barco NV Luminance boost method and system
KR101482542B1 (ko) * 2010-07-22 2015-01-14 돌비 레버러토리즈 라이쎈싱 코오포레이션 이미지 데이터와 디스플레이의 비디오 범위들 사이의 맵핑을 위한 시스템, 장치 및 방법들
WO2012012489A2 (en) * 2010-07-22 2012-01-26 Dolby Laboratories Licensing Corporation Display management server
US8525933B2 (en) * 2010-08-02 2013-09-03 Dolby Laboratories Licensing Corporation System and method of creating or approving multiple video streams
US9549197B2 (en) * 2010-08-16 2017-01-17 Dolby Laboratories Licensing Corporation Visual dynamic range timestamp to enhance data coherency and potential of metadata using delay information
TWI559779B (zh) * 2010-08-25 2016-11-21 杜比實驗室特許公司 擴展影像動態範圍
ES2899979T3 (es) 2011-05-10 2022-03-15 Koninklijke Philips Nv Generación y procesamiento de señales de imagen de rango dinámico alto
US9451292B2 (en) * 2011-09-15 2016-09-20 Dolby Laboratories Licensing Corporation Method and system for backward compatible, extended dynamic range encoding of video

Also Published As

Publication number Publication date
KR20140066771A (ko) 2014-06-02
EP2745507A1 (en) 2014-06-25
US11423523B2 (en) 2022-08-23
MX2014003556A (es) 2014-05-28
RU2761120C2 (ru) 2021-12-06
AU2012313935B2 (en) 2017-04-20
CA2850031C (en) 2023-07-11
JP6407717B2 (ja) 2018-10-17
BR112014006977B1 (pt) 2022-09-13
AU2012313936B2 (en) 2017-06-29
BR112014006978A2 (pt) 2017-04-04
IN2014CN01863A (pt) 2015-05-29
RU2014116969A (ru) 2015-11-10
CA2850031A1 (en) 2013-04-04
AU2017235969B2 (en) 2019-08-08
US10916000B2 (en) 2021-02-09
JP2014532195A (ja) 2014-12-04
JP6509262B2 (ja) 2019-05-08
US20220343477A1 (en) 2022-10-27
CN103827956A (zh) 2014-05-28
JP6133300B2 (ja) 2017-05-24
CN103843058A (zh) 2014-06-04
RU2640750C2 (ru) 2018-01-11
CA2850037C (en) 2022-10-04
RU2017137235A3 (pt) 2021-02-25
US20190172187A1 (en) 2019-06-06
RU2643485C2 (ru) 2018-02-01
ZA201403080B (en) 2015-11-25
JP2017117476A (ja) 2017-06-29
CN103827956B (zh) 2017-06-13
US11640656B2 (en) 2023-05-02
US11928803B2 (en) 2024-03-12
ZA201403081B (en) 2015-11-25
BR112014006977A2 (pt) 2017-04-04
JP2014531821A (ja) 2014-11-27
WO2013046095A1 (en) 2013-04-04
US20140225941A1 (en) 2014-08-14
AU2012313935B9 (en) 2017-05-04
CN107103588A (zh) 2017-08-29
AU2012313935A1 (en) 2014-05-15
US20190156471A1 (en) 2019-05-23
UA116082C2 (uk) 2018-02-12
JP2017184238A (ja) 2017-10-05
JP6430577B2 (ja) 2018-11-28
EP2745290A1 (en) 2014-06-25
US20140210847A1 (en) 2014-07-31
KR101972748B1 (ko) 2019-08-16
AU2017235969A1 (en) 2017-10-19
WO2013046096A1 (en) 2013-04-04
AU2012313936A1 (en) 2014-05-15
US20210142453A1 (en) 2021-05-13
AU2017235970A1 (en) 2017-10-19
PE20141864A1 (es) 2014-12-12
PH12017502053A1 (en) 2018-04-23
MX2014003554A (es) 2014-06-05
AU2017235970B2 (en) 2019-08-08
CN103843058B (zh) 2016-11-23
RU2014116971A (ru) 2015-11-10
CA2850037A1 (en) 2013-04-04
RU2017137235A (ru) 2019-02-11

Similar Documents

Publication Publication Date Title
US11423523B2 (en) Apparatus and method for dynamic range transforming of images
JP6596125B2 (ja) Hdrイメージの符号化のためのコードマッピング関数を作成するための方法及び装置、並びに、かかる符号化イメージの使用のための方法及び装置
US11183143B2 (en) Transitioning between video priority and graphics priority
JP6495552B2 (ja) 画像及びビデオのためのダイナミックレンジ符号化
KR102135841B1 (ko) 높은 다이내믹 레인지 이미지 신호의 생성 및 처리

Legal Events

Date Code Title Description
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 20/09/2012, OBSERVADAS AS CONDICOES LEGAIS.