ES2770426T3 - Métodos y dispositivos de codificación y decodificación de imágenes HDR mejorados - Google Patents

Métodos y dispositivos de codificación y decodificación de imágenes HDR mejorados Download PDF

Info

Publication number
ES2770426T3
ES2770426T3 ES14711309T ES14711309T ES2770426T3 ES 2770426 T3 ES2770426 T3 ES 2770426T3 ES 14711309 T ES14711309 T ES 14711309T ES 14711309 T ES14711309 T ES 14711309T ES 2770426 T3 ES2770426 T3 ES 2770426T3
Authority
ES
Spain
Prior art keywords
image
hdr
dynamic range
ldr
idr
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES14711309T
Other languages
English (en)
Inventor
Mark Jozef Willem Mertens
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Application granted granted Critical
Publication of ES2770426T3 publication Critical patent/ES2770426T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/98Adaptive-dynamic-range coding [ADRC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6058Reduction of colour to a range of reproducible colours, e.g. to ink- reproducible colour gamut
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/68Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/64Systems for the transmission or the storage of the colour picture signal; Details therefor, e.g. coding or decoding means therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Un codificador de imagen (202) que comprende: - una entrada (240) para una imagen de entrada de alto rango dinámico (M_HDR); - una unidad de gradación de imágenes (201, 301) dispuesta para permitir que un graduador de color humano especifique un mapeo de color desde una representación (HDR_REP) de la imagen de entrada de alto rango dinámico, a una imagen de bajo rango dinámico (Im_LDR) por medio de un algoritmo de mapeo de color determinado por un ser humano, y dispuesta para emitir datos que especifican el mapeo de color (Fi(MP_DH), Fi(MP_DL)); y caracterizado por que el codificador de imagen comprende - una unidad de gradación automática (203, 303) dispuesta para derivar una segunda imagen de bajo rango dinámico (GT_IDR) aplicando un algoritmo de mapeo de color automático Fi(MP_T) a la imagen de entrada de alto rango dinámico (M_HDR), con un algoritmo de mapeo de color que cumple una condición de que una imagen reconstruida HDR (REC_HDR), que se encuentra dentro de una segunda precisión predefinida de la imagen de entrada de alto rango dinámico (M_HDR), puede calcularse aplicando un segundo algoritmo de mapeo de color (CMAP_2), que es el inverso del algoritmo de mapeo de color automático Fi(MP_T), a la segunda imagen de bajo rango dinámico (GT_IDR), - un formateador de datos (220) dispuesto para emitir en una señal de imagen (TSIG) la segunda imagen de bajo rango dinámico (GT_IDR) y al menos uno de, o ambos de, datos que describen el mapeo de color (Fi(MP_T)) entre la imagen de entrada de alto rango dinámico (M_HDR) y la segunda imagen de bajo rango dinámico (GT_IDR) y datos que describen el mapeo de color (Fi(MP_DL)) entre la imagen de bajo rango dinámico (IM_LDR) y la segunda imagen de bajo rango dinámico (GT_IDR).

Description

DESCRIPCIÓN
Métodos y dispositivos de codificación y decodificación de imágenes HDR mejorados
Campo de la invención
La invención se refiere a aparatos y métodos y productos resultantes como productos de almacenamiento de datos o señales codificadas, por ejemplo, como almacenadas en memorias, para codificación mejorada de al menos una imagen o vídeo con un rango de luminancia dinámico aumentado en comparación con imágenes heredadas llamadas imágenes de bajo rango dinámico (LDR).
Antecedentes de la invención
El recientemente surgido campo de formación de imágenes de Alto Rango Dinámico (HDR) contrasta por sí mismo con sistemas heredados, que hoy en día por comparación podemos llamar formación de imágenes de bajo rango dinámico (LDR) (y que comprenden tales sistemas de codificación de imágenes o vídeo como PAL o MPEG2, AVC, HEVC u otro miembro de la familia MPEG o normas de vídeo similares como, por ejemplo, VC1, VC2, etc., o JPEG para imágenes fijas, etc.)
Cuando hablamos de HDR, necesitamos mirar los diversos componentes de la cadena. Ya que esta un área de tecnología muy reciente en la que quizás no todo el mundo está en la misma línea, queremos establecer rápidamente una mentalidad de referencia con un par de definiciones importantes, para evitar malentendidos. Finalmente, existe el rango dinámico de renderización, que el medio de visualización puede generar. El rango dinámico de renderización normalmente se define como RDR= brightest_white_luminance/darkest_black_luminance (luminancia de blanco más brillante/luminancia de negro más brillante) de todos los píxeles una imagen (RDR intra instantánea) o de píxeles en imágenes sucesivas (RDR inter instantánea, por ejemplo, cuando el visualizador está (casi) apagado, y se ve únicamente el reflejo del entorno circundante en el cristal frontal). Sin embargo, es más significativo cuando también se acopla a un valor de peak_white (cresta de blanco) (es decir, el valor de brightest_white_luminance). Renderizados de LDR normalmente se encuentran en o alrededor de un rango definido por blanco máximo de 100 nits y un rango dinámico de aproximadamente 100:1. Eso es lo que un visualizador CRT podría haber producido, en el que, por supuesto, la darkest_black_luminance depende fuertemente de la iluminación del entorno de visión, por tanto se puede ir a 40:1 para estar en el lado seguro, y también 2:1 puede ser un rango dinámico práctico cuando se ven imágenes en un visualizador bajo el sol. El entorno de visión que condiciona la adaptación de brillo del espectador humano se refiere a eso, por ejemplo, habitualmente 20 % de peak_white. Varias normas de EBU, SMPTE, etc. especifican como se debería graduar una señal de vídeo de modo que puede usarse de una forma normalizada, por ejemplo, es óptimo su se muestra en el entorno de visualización prescrito. Por graduar queremos decir producir una imagen con colores de píxeles cambiados, que se cambian/especifican de acuerdo con alguna preferencia. Por ejemplo, una cámara puede automáticamente graduar una instantánea de cámara RAW (que solo depende de las especificaciones de cámara como un instrumento de medición de luminancia lineal) dado un intento de renderización en una codificación de referencia de visualización utilizable, con la que se puede dirigir, por ejemplo, un visualizador de CRT de este tipo en condiciones de referencia de modo que mostrará una instantánea nítida al espectador.
A menudo, graduar por un ser humano implica más elecciones artísticas. Por ejemplo, el graduador quiere hacer que el color de una planta sea un bonito color púrpura, pero este necesita especificarse en condiciones de referencia (tanto de la tecnología de visualización como el entorno de visión, y en teoría también otras condiciones que afectan al estado del espectador como consumo de medicamentos, pero por supuesto habitualmente se ignoran estos en gran medida), porque un visualizador particular puede hacer este color más azulado, en cuyo caso el efecto artístico deseado (de creación de una instantánea bonita) puede desaparecer. No es típico que una cámara cree automáticamente la clase óptima de púrpura, por tanto, esto es por qué el graduador hace eso con software de procesamiento de imágenes. Un graduador de este tipo puede ser tanto un fotógrafo, o un artista visual trabajando en una película, o incluso alguien trabajando en un programa de televisión (potencialmente incluso en directo). Por supuesto diversas aplicaciones tendrán diversos grados de complejidad de gradación vinculados a la calidad técnica y/o artística deseada para esas aplicaciones. Habitualmente las normas anteriores prescriben que una gradación se hará en un monitor de referencia de aproximadamente 100 nits en un entorno de referencia. La cuestión es entonces cómo se renderizará y percibirá un color en la práctica. Artistas gráficos de publicaciones de prensa impresa también generan su trabajo en condiciones de referencia para tener algo en común, y evitar fuentes innecesarias de error, por ejemplo, en la impresora. Sin embargo, eso no significa, por supuesto, que cada lector del libro o revista leerá el libro bajo una lámpara D50 calibrada, sino que él puede percibir colores más apagados cuando lea en su cama con mala iluminación. Lo mismo sucede cuando se muestra una película o programa de televisión, o una fotografía del consumidor, en un visualizador no de referencia de entre los muchos diferentes visualizadores que están disponibles hoy en día. Por ejemplo, la imagen (gradación) puede mostrarse es un visualizador de 500 nits de peak_white. Lo que sucede entonces es que se iluminan todos los colores de píxeles por al menos estiramiento lineal, que se produce accionando el visualizador con la gradación, es decir, mapeando blanco máximo (por ejemplo, valor R=G=B=255) al cresta de blanco del visualizador (por supuesto puede haber deformación de brillo adicional para los diversos colores de píxeles de imagen si el visualizador tiene una función de transferencia electroóptica nativa especial EOTF, pero normalmente se maneja internamente para hacer que el visualizador se comporte como una versión más brillante un CRT de referencia, es decir, con una gamma de visualización de aproximadamente 2,5).
Ahora tales gradaciones LDR normalizadas (producidas en un entorno de referencia entre otros en un visualizador de referencia de 100 nits) pueden usarse (es decir, verse razonablemente bien, es decir, aún razonablemente similar a cómo se verían en condiciones de referencia) en un rango de condiciones de visualización y/o entorno alrededor del sistema de visualización de referencia (es decir, peak_white de 100 nits, etc.). Esto es porque la mayoría de los seres humanos no son tan supercríticos acerca de la apariencia exacta (absoluta) de los colores ya que el cerebro trabaja de forma relativa (por ejemplo, dependiendo de los criterios para permisibilidad, los colores de la cara que son uno de los colores más críticos pueden variar desde pálido casi blanco, a bastante anaranjado, etc., antes de que la mayor parte menos crítica de la población empiece a objetar), pero también porque para muchos objetos nadie sabe cuáles eran los colores originales en la escena. Parcialmente esto es también así porque escenas LDR se hacen con una estrategia de color de objetos "alrededor del promedio" (que se realiza entre otros con iluminación de estudio bien controlada, quizás ya no siempre sea así con los diversos contenidos sobre la marcha que tenemos ahora), que significa que todos los colores son vivos, se puede incluso iluminar la imagen levemente por encima del nivel del 18 %, con algunas sombras pero no demasiado profundas o importantes, etc., y que reproduce tanto física como psicológicamente bastante bien en diversos sistemas. Por ejemplo, es como pintores ingenuos trabajan antes de descubrir tales cuestiones completas como claroscuro, etc. Por tanto, dependiendo del criterio de calidad que define similitud aceptable, la gradación de LDR_100 nits puede usarse, por ejemplo, en visualizadores desde 30 nits hasta 600 nits, y entornos de visualización desde 3x menos brillante a 5x más brillante. La latitud para usar un grado puede aumentarse modificando el mismo con una así llamada transformada de visualizador. El brillo de un visualizador y alrededores (relacionados con el efecto de Stevens y efecto de Bartleson_Brenneman) puede corregirse en un grado razonable mucho más fácilmente que problemas relacionados con restricciones de gama de visualizador, y habitualmente se puede procesar la instantánea con funciones gamma o similares. Por ejemplo, cuando se mueve un visualizador desde un entorno sombrío a un entorno oscuro (o de hecho apagando las luces de visualización de la acogedora sala de estar), se cambia desde una gamma extra de 1,25 a 1,5, es decir, se usa la gamma residual para aumentar el contraste de las imágenes renderizadas, porque la visión humana es más sensible en la oscuridad, por lo tanto, percibe los negros de la imagen renderizada como más grisáceos, que equivale a una reducción en el contraste percibido que tiene que compensarse. Una tecnología LDR similar es la impresión. Por supuesto, no se tiene control a priori sobre la iluminación circundante que determina la cresta de blanco de la impresión, pero al menos, justo como con todos los objetos reflectantes, el RDR blanco-negro es aproximadamente 100:1 (dependiendo de la calidad del papel, por ejemplo, brillante frente a mate, tintas, etc.).
Surge una complicación cuando se necesita reproducir una imagen de una escena con un enorme rango dinámico, y habitualmente también condiciones de escena muy improbable condiciones de renderización. Por ejemplo, en una escena nocturna, el ojo puede estar mirando a un rango dinámico SDR de escena entre luces de coches de 100.000 nits (o, por ejemplo, incluso más para una lámpara de mercurio o sodio de alta presión en la escena) frente a regiones oscuras en sombras de fracciones de un nit. Incluso a la luz del día, donde puede ser más difícil crear sombras oscuras a partir de la iluminación generalizada, los interiores pueden habitualmente ser 100x más oscuros que los exteriores, y también nubes oscuras, cubierta forestal, etc. pueden influenciar en luminancias necesarias (si se capturan o tienen que renderizarse), si no es intra escena, entonces al menos en inter instantánea, es decir, reproducción sucesiva temporalmente. Estimaciones para el "rango dinámico nativo" de la visión humana varían entre 10.000:1 y 100.000:1 e incluso 1.000.000:1, porque esto depende por supuesto de las condiciones (por ejemplo, si se necesita mirar una región pequeña más oscura en los brillos, o viceversa si se puede ver algún objeto pequeño brillante en la oscuridad, quizá sea parcialmente blanqueamiento con rodopsina; si se considera una cantidad de deslumbramiento molesto, etc.; y entonces también existe por supuesto un factor psicológico [teniendo en cuenta tal cosa como la importancia de ciertos objetos, su visibilidad perfecta o suficiente, impacto emocional en el espectador, etc.], que conduce a la pregunta de cuánto de eso debería renderizarse en un visualizador [por ejemplo, un espectador puede descartar rápidamente un área como "solo negro" sin importar que negro exactamente], dado que el espectador está en una situación totalmente diferentes de todas formas [no realmente en vacaciones, o no realmente interrogado por un oficial de policía deslumbrando una luz en su cara], pero se quiere una cierta cantidad de realismo que puede ser adicionalmente una compensación con otros factores como, por ejemplo, consumo de potencia, se podría definir pragmáticamente de hecho varios rangos dinámicos de visión humana, por ejemplo, uno para cierto tipo de visualización de escena real y uno para visualización de televisión). Por ejemplo, si uno se adapta al cielo nocturno oscuro, pero ve la luna en el rabillo del ojo, que tiene menos influencia en cómo los bastones en otras partes de la retina pueden ver las estrellas tenues, es decir, rango dinámico visible "simultáneo" será alto. A la inversa cuando el ojo está bañado por la intensa luz del día (en una gran área de su campo de visión) es más difícil discriminar los colores más oscuros en un interior más oscuro visto e iluminado a través de un pequeño agujero o ventana, especialmente si una fuente brillante está adyacente a esa área oscura. Sistemas ópticos mostrarán a continuación varios fenómenos de deslumbramiento. Realmente, al cerebro normalmente ni si quiera puede importarle ese interior oscuro, y solo llamar a todos esos colores negros psicológicos. Como otro ejemplo de cómo la fuga de luz influencia y determina rango dinámico de escena desde la perspectiva de un espectador humano, considérese un arbusto oscuro mal iluminado en la noche detrás de una farola. La lámpara en la farola crea un perfil de dispersión de luz en las rayaduras de las gafas del espectador (o si no lleva gafas las irregularidades en la lente de su ojo, por ejemplo, partículas submicrónicas, agua entre células,...), en particular como un halo alrededor de la lámpara que reduce la posibilidad de discriminación de los colores oscuros del arbusto detrás de la misma. Pero cuando el espectador camina un par de segundos, la lámpara se mueve detrás del fuera de la zona de captura de la lente del ojo, y el ojo puede ajustarse rápidamente para encontrar al depredador acechando en la oscuridad.
Por tanto, sin embargo, se define el rango dinámico útil de una escena para codificación y renderización para consumo humano (se puede incluso considerar no únicamente codificar las luminancias de intra instantáneas con un factor de escalado de luminosidad global, pero las luminancias que se producen realmente desde un entorno tropical soleado hasta la noche encapotada más oscura), está claro que se necesita mucho más de 100:1 para una renderización fiel o al menos plausible de estos entornos. Por ejemplo, deseamos que nuestro objeto más brillante en un visualizador para entorno tenue sea aproximadamente de 10000 nits, y nuestro más oscuro 0,01 nits (o al menos 0,1 nits), al menos si pudiéramos, por ejemplo, atenuar las luces en caso de que tengamos escenas totalmente o casi oscuras en la película o imagen o imágenes.
Esto es donde entra HDR. Y también, cuando se captura una escena de este tipo, necesita un mapeo matemático muy complejo para aproximar el mismo (o incluso para poder renderizar la misma) en un visualizador LDR (a menudo no siendo esto realmente posible de hecho). Por ejemplo, algunos algoritmos de mapeo de HDR a LDR usan adaptación local para alguna clase de ecualización del campo de iluminación dejando en la renderización LDR una impresión de los reflejos del objeto, es decir, colores. En vista de la fuga (múltiple reflejo, dispersión, etc.) de luz desde partes más brillantes a más oscuras de una escena, no es fácil crear escenas de rango dinámico extremadamente alto, pero puede conseguirse fácilmente una diferencia de iluminación de 100:1 en muchas situaciones prácticas. Por ejemplo, una escena en interiores puede tener (por supuesto dependiendo de profundidad de la sala, tamaño y posición de las ventanas, reflexión de las paredes, etc.) una o múltiples fracciones de aproximadamente 1/100 de la luminancia o iluminancia de los exteriores (que es también como se define el factor de luz diurna de iluminación de edificios). Pueden obtenerse SDR mayores cuando se ven unos exteriores soleados desde dentro de una cueva a través de una pequeña grieta, etc. También en el lado de renderización de visualizador, un rango HDR comienza donde se comienzan a ver nuevos conceptos de apariencia. Por ejemplo, en visualizadores brillantes como un visualizador SIM2 de 5000 nits, se puede, dadas las instantáneas de entrada correctas (correctamente graduadas) renderizar de forma realista una impresión de lámparas encendidas reales o paisajes soleados reales. En distinción con el rango LDR anterior, podemos decir habitualmente que HDR comienza para condiciones de visualización de sala de estar de televisión normal desde aproximadamente un peak_white de 1000 nits y por encima, pero más precisamente esto también depende de las condiciones de visualización exactas (por ejemplo, renderización de cine, aunque con un peak_white de 50 nits, ya muestra bastantes apariciones de HDR). Para ser incluso más precisos en vista de la adaptación del ojo y el cerebro la apariencia como HDR en detalle numérico también dependería levemente no solo de las luminancias físicas, sino también del contenido de la imagen, es decir, la gradación elegida. Pero en cualquier caso existe una clara discriminación entre renderización LDR que principalmente muestra una versión opaca y sin luz de la escena, como si se iluminara de forma homogénea y solo se mostrasen las reflectancias de objetos, y HDR, en el que se superpone un aspecto de campo de iluminación completa. Si a continuación se pueden renderizar negros razonables, por ejemplo, 1 nit o por debajo, se puede conseguir, de hecho, un rango de contraste de LDR de kx100:1, donde k es habitualmente 2-3 (que bajo un paradigma particular de casi similar, es decir, con únicamente quizás un estiramiento de contraste pequeño, renderización relativa de las luminancias visualizadas en comparación con las luminancias de escena correspondería a un DR similar en la escena). En el extremo alto de brillo, es parcialmente una cuestión de gusto dónde debería finalizar el brillo, en particular dónde el brillo adicional únicamente se vuelve molesto. Encontramos que, para graduar varias clases de escenas de HDR, 5000 nits está aún levemente en el extremo bajo, en particular cuando tiene que ocuparse de limitaciones de visualización adicionales como resolución de luz de fondo. En experimentos encontramos que definitivamente se puede ir hasta 10000 nits en visualización oscura sin que el brillo se vuelva superfluo o irritante (al menos para algunos observadores). Más allá de cresta de blanco de 20000 nits puede ser una consideración de diseño técnico práctica de qué renderizar a luminancia verdadera, y qué aproximar, proporcionando al menos un aspecto de brillo. Obsérvese que habitualmente no se debería accionar un visualizador brillante de este tipo siempre al brillo máximo, en lugar de hacer una experiencia HDR óptima se debería usar únicamente la renderización más brillante en ciertos lugares y momentos, de forma conservadora, y también bien elegida en cuento a su evolución temporal. No se debería centrar únicamente en DR intra instantánea, sino también en cómo diferentes entornos brillantes tienen que renderizarse en sucesión, teniendo en cuenta la adaptación visual humana.
Otro rango dinámico es el rango dinámico de cámara CDR, que se determina simplemente (dados los ajustes de exposición) mediante la fuente completa del fotodiodo del píxel, y el ruido en el lado oscuro. Cuando se usan trucos como múltiple exposición o matrices de píxeles exponibles de forma diferente (por ejemplo, en cámaras de 3 chips), el CDR se vuelve limitado por la óptica (por ejemplo, dispersión de lente, reflejo en la lente o cuerpo de cámara, etc.), pero también esto puede mejorarse mediante técnicas de formación de imágenes computaciones adecuadas que intentan separar la iluminación real de regiones de escena oscuras de irradiación errónea debido a luz lateral. Por supuesto cuando la fuente de la imagen es una rutina gráfica por ordenador (como, por ejemplo, en efectos especiales o una aplicación de juegos) se puede crear fácilmente HDR más allá de esas limitaciones. Ignoraremos el CDR, y simplemente asumiremos que es o bien muy alto o bien quizás un factor limitante, pero en un sistema que se supone que maneja estas situaciones de originales muy altos. En particular, cuando introducimos recorte asumimos que no se debe a una captura de cámara de baja calidad, sino debido a tratamiento práctico de algunas otras limitaciones en toda la cadena de formación de imagen, como la incapacidad de un visualizador de renderizar colores muy brillantes.
Ahora, además del RDR de entorno de visualizador, que realmente genera la distribución correcta de fotones para estimular al espectador en la sensación correcta (sea que también dependiendo del estado de adaptación de ese espectador), cuando se habla acerca de tratamiento o codificación de HDR, existe otro aspecto interesante, que también puede resumirse en un rango dinámico, que llamaremos rango dinámico de codificación CODR. Un par de experimentos mentales deberían aclarar este concepto importante. Supóngase que fuéramos a dibujar en un panel blanco retroiluminado brillante con un rotulador negro altamente absorbente, de modo que conseguiríamos una transmisión de 1/16000 del blanco circundante del panel (y suponiendo que la sala y espectador circundantes fueran objetos totalmente absorbentes). En el mundo de los bits lineales (por lo que queremos decir que representamos linealmente todos los valores entre, digamos, 0 y 2AB, donde A es la operación de potencia y B el número de bits) de, por ejemplo, la captura de cámara (su ADC) necesitaríamos, por lo tanto, 14 bits para representar esta señal. Sin embargo, como este códec desperdiciaría muchos códigos para valores que no se producen de todos modos, podemos decir que para representar fielmente esa señal particular, teóricamente únicamente necesitamos una codificación de 1 bit. Daremos al negro el código 0 y al blanco un 1, y a continuación convertimos los mismos a la luminancia real que sea a la que corresponden. También obsérvese que un visualizador no necesita renderizar de hecho esos valores con exactamente las mismas luminancias que en la escena. De hecho, ya que esta señal puede no verse mejor (psicológica y semánticamente) que un DR inferior equivalente a la misma (realmente, un dibujo en blanco y negro con un contraste tan alto puede incluso verse raro), podríamos también renderizar la misma en un visualizador con valores 1 nit y 2000 nits. Vemos en este punto por primera vez una interesante distinción que es importante cuando se habla acerca de codificación HDR: la diferencia entre rango dinámico fisiológico y psicológico (o semántico). La visión humana consiste en dos partes, el ojo y el cerebro. El ojo puede necesitar como un precursor el rango dinámico fisiológico PDR apropiado para estimular apropiadamente conos y/o bastones (y de este modo células ganglionares etc.), pero es finalmente el cerebro que determina la apariencia final de la imagen o escena (rango dinámico psicológico PSDR). Aunque no proporciona la impresión exacta de una región muy luminosa, pintores como Petrus Van Schendel pueden jugar con los principios psicológicos de PSDR para emular en un LDR escenas de medio-alto rango dinámico como, por ejemplo, un fuego en un paisaje urbano nocturno oscuro. Esto también es lo que intentan hacer algoritmos de mapeo de gama cuando preacondicionan una imagen HDR para renderizar en un visualizador LDR. Pero el otro lado de este principio es que algunas escenas parecerán más como HDR incluso en un visualizador HDR que otras (por ejemplo, un paisaje de invierno soleado con matorrales secos pálidos y algunos árboles en la parte de atrás puede verse con brillo alto, pero no así HDR). Para acciones HDR, como, por ejemplo, girar una lámpara brillante hacia el espectador, emulaciones psicológicas normalmente no son tan convincentes como el renderizado de brillo real de las regiones.
Considérese a lo largo de las mismas líneas ahora un segundo ejemplo: tenemos una escena en interiores con luminancias de digamos entre 200 nits y 5 nits, y una escena en exteriores con luminancias de digamos entre 1500 y 20000 nits. Esto significa que de nuevo tenemos dos histogramas de luminancia separados por códigos no existentes. Podemos codificar nativamente los mismos en un rango de digamos 16 bits lineales (correspondiendo el código máximo, por ejemplo, a 32768 nits), aunque sería preferible usar alguna no linealidad para tener suficiente precisión en los negros si no hay demasiado ruido de captura. Pero podríamos también codificar esto de una forma diferente. Por ejemplo, podríamos sacrificar 1 bit de precisión, y dividir un rango de luma de JPEG no lineal de 8 bits en dos partes que se tocan adyacentemente, la inferior para la parte más oscura de la escena superior y la superior para la más brillante (se puede no querer cortar exactamente por la mitad en vista de una asignación JND no lineal). Si uno se preocupa acerca de pérdida de detalle preciso cuanto se tiene menos bits, se puede considerar que puede ser mejor a menudo usar bits disponibles en su lugar para efectos HDR. Una asignación de este tipo habitualmente correspondería a un desplazamiento y estiramiento (no lineal) de los valores de luminancia (L) de la captura RAW de entrada a los valore de luma (Y) de 8 bits. Ahora uno se puede preguntar de nuevo la pregunta de qué rango dinámico es de una escena de este tipo, si puede comprimirse "arbitrariamente" junto o estirarse de forma separada (haciendo el exterior más brillante incluso más brillante, al menos hasta que esto se vuelve, por ejemplo, no realista), al menos en posprocesamiento para renderizar. En este punto el concepto de diferentes apariencias puede ayudar. Tenemos en ambos histogramas un número de diferentes valores de luminancia para diferentes píxeles o regiones, que supuestamente son en su mayoría o todos relevantes (si no, no necesitamos decodificar los mismos y pueden, por ejemplo, descartarse uno o más bits de precisión). También la separación (por ejemplo, medirse como una diferencia en luminancia promedio) de los dos histogramas cuando finalmente se renderizan en un visualizador tiene algún significado de aspecto. Se sabe que la visión humana hasta cierto punto descuenta la iluminación, pero no en su totalidad (especialmente si hay dos regiones brillantes), por tanto se necesita renderizar/generar esas entradas oculares hasta al menos cierto extremo. Por tanto, trabajar con diferentes apariencias de color (o al menos, brillo y luminosidad) significativas de píxeles u objetos en una escena que se puede renderizar (por ejemplo, cuando se renderiza en el menor posible escenario de visualización) nos proporciona una percepción acerca del rango dinámico de codificación CODR y, por lo tanto, cómo necesitamos codificar imágenes HDR. Si la imagen tiene muchas apariencias diferentes, es HDR, y necesitan estar presente de alguna forma en cualquier codificación razonablemente fiel.
Ya que tecnologías de codificación vídeo o imagen clásicas (por ejemplo, PAL, JPEG, etc.) se preocuparon esencialmente de renderizar principalmente las luminosidades del objeto (reflejo) en un rango de 100:1 en condiciones de visualización relativamente fijas originalmente (un CRT en un ambiente doméstico, y no un OLED en el tren, o el mismo consumidor teniendo en su ático una sala de cine oscura dedicada con la iluminación controlable dinámicamente sobre la marcha, que puede ajustarse al contenido de vídeo), esos sistemas codificaban el vídeo de una forma bastante fija, en particular con una gamma de codificación maestra universal fija que imita la sensibilidad al brillo del ojo, como, por ejemplo, V_709=1,099LA0,45-0,099, que es aproximadamente una función de raíz cuadrada. Sin embargo, tales sistemas con están bien adaptados para tratar un gran rango de CODR. En el último par de años, ha habido intentos de codificar HDR, ya sea de una forma nativa de codificación linealmente de referencia de escena de todas las posibles luminancias de entrada, como en el sistema OpenEXR (F. Kainz y R. Bogart: http://www.openexr.com/TechnicalIntroduction.pdf). O, existen sistemas de 2 capas que se basan en la filosofía de escalabilidad clásica. Estos necesitan al menos dos imágenes: una imagen de base que habitualmente será una imagen LDR utilizable heredada y una imagen para reconstruir la imagen o imágenes h Dr maestras. Un ejemplo de esta es el documento US2012/0314944, que necesita la imagen LDR, un potenciador logarítmico o imagen de relación (obtenido dividiendo las luminancias HDR por las luminancias LDR obtenidas después de gradación adecuada de una imagen LDR para sistemas de renderización LDR), y una imagen de corrección de recorte de color por imagen a codificarse HDR. Con una imagen de potenciación se pueden potenciar todas las regiones (dependiendo de submuestreo) desde su limitado rango a cualquier posición de luminancia que deberían ocupar en el rango HDR. Obsérvese que por simplicidad describimos todas tales operaciones en una vista de luminancia, ya que el experto puede imaginar cómo estas deberían formularse en una vista de lima de una definición de codificación particular. Tales múltiples imágenes son al menos los próximos años en cierta medida complicadas ya que necesitan seriamente CI de codificación/decodificación mejorados en aparatos existentes, ya que se requiere el tratamiento de imágenes adicionales además de la imagen LDR.
Recientemente y como se describe en el documento W02013/046095 hemos desarrollado una forma de mejorar la codificación de vídeo clásica (preferentemente con modificaciones menores, preferentemente con principalmente metadatos para aplicar transformaciones relacionadas con dos gradaciones de la misma escena para dos condiciones de renderización muy diferentes, tal como, por ejemplo, permitiendo transformar una gradación de LDR codificada en una gradación de h Dr o viceversa, y quizás con algunas variantes que tienen espacio para almacenar los metadatos en un par de pequeñas instantáneas adicionales para hacer un ajuste final si se desea una modificación adicional de este tipo, por ejemplo, una corrección aditiva o multiplicativa en pequeñas regiones que contienen un objeto como, por ejemplo, una cara brillantemente iluminada en una toma o escena de la película, en la que los factores correctivos por píxeles pueden codificarse a continuación, por ejemplo, en 200 imágenes de 120x60 píxeles a mapear en las posiciones de píxel de la reconstrucción de h Dr actual mediante transformación de color, o incluso alguna representación submuestreada de esas pequeñas imágenes correctivas, a aplicarse como mapeos de ajuste grueso, descritas como imágenes) para ser capaz de codificar imágenes de alto rango dinámico. En este sistema habitualmente un graduador humano puede determinar una función de mapeo óptima de la imagen de HDR de entrada (gradación de HDR maestra) a, por ejemplo, una codificación de 8 o 10 bits (o 12 o en principio otro valor para al menos los códigos de luma, pero siendo este valor habitualmente lo que se reserva para codificación de imagen LDR "clásica") que puede codificarse a través de compresión de vídeo clásica (DCT, etc.), la función de mapeo óptima (por ejemplo, una función gamma o similar con coeficiente gamma óptimo, parte lineal, etc., o una función de múltiples segmentos como, por ejemplo, una curva S, etc.) habitualmente dependiendo de qué era el contenido en e1HDR maestro (por ejemplo, un fondo oscuro, con una región brillantemente iluminada), y cómo se renderizará en condiciones LDR. Llamamos a esto codificación simultánea de una gradación de LDR y HDR mediante el mapeo de la gradación de HDR en una imagen LDR utilizable heredada y codificación de contenedor de LDR de HDR. Queríamos asegurar en esta tecnología, que era compatible hacia atrás, en que la imagen LDR así generada proporciona resultados razonables cuando se renderiza en, por ejemplo, un sistema LDR heredado (es decir, la instantánea se ve razonablemente bonita, si no perfecta habitualmente no de modo que demasiada gente considerará los colores de algunos objetos todos erróneos). Si se acepta levemente una disminución de precisión, nuestro sistema puede incluso codificar escenas o efectos HDR en sistemas de 8 bits heredados. Con resultados razonables queremos decir que las imágenes renderizadas LDR, aunque quizás no la mejor teóricamente podría conseguir un aspecto artístico, serán aceptables para un creador de contenido y/o espectador, dependiendo esto por supuesto de la aplicación (por ejemplo, para una validad basada en internet más barata o de servicio móvil las restricciones podrían ser menos críticas). Al menos la gradación de LDR proporcionará buena visibilidad de la mayoría o todos los objetos (al menos los objetos de principal importancia para la historia de la imagen o vídeo) en la escena representada cuando se renderiza en un sistema LDR de propiedades que no se desvían mucho de la renderización LDR normalizada. Por otra parte, para visualizadores h Dr , el HDR maestro original puede aproximarse en una aproximación cercana mapeando con la inversa invertible de la función de mapeo cocodificada de la imagen LDR a la imagen HDR reconstruida. Se puede definir una aproximación de este tipo con tolerancia matemática, por ejemplo, en términos de diferencias mínimamente notables (JND) entre el HDR maestro original introducido, y su reconstrucción. Habitualmente se diseñará cualquier sistema de este tipo probando un número de escenas HDR típicas, acciones y situaciones adicionales cómo de diferente se ve el HDR reconstruido (si eso es aún aceptable para ciertas clases de usuarios, como, por ejemplo, creadores de contenido de televisión o películas) y validará una clase de operaciones como mapeos gamma particulares dentro de ciertos rangos de parámetros de los mismos. Esto garantiza que siempre se puede conseguirse una cierta calidad de la aproximación.
El documento WO2012/147018 describe una técnica con que una imagen HDR maestra original puede codificarse como una primera imagen de rango dinámico estándar (Im1), que puede visualizare en visualizadores SDR heredados, y una segunda imagen (Im2) que codifica objetos de efectos HDR. No existen contenidos acerca de una imagen SDR secundaria o una determinación técnica de una primera imagen SDR y una determinación artística hecha por seres humanos de una segunda imagen de SDR como en la presente solicitud.
El documento US8248486 da a conocer que una imagen HDR puede reconstruirse multiplicando una gradación Im_LDR con una imagen de potenciación, y a continuación corrigiendo la diferencia aún restante con una imagen de corrección (Im_LDR, potenciación e imagen de corrección transmitiéndose a receptores). No dan a conocer dos diferentes imágenes graduadas LDR.
El documento WO2005/104035 también da a conocer una manera de imagen de potenciación/imagen de corrección aditiva de este tipo de codificación de imágenes HDR de entrada.
El documento WO2012/153224 describe otro aspecto de codificación HDR. Da a conocer que cualquiera que sea la codificación (funciones de gradación de color) que se usa, el receptor aún necesita entender a partir de los metadatos apropiados qué clase de codificación HDR se recibe, es decir, cómo debería tratarse para que se accionen varios visualizadores. Por ejemplo, una codificación YCrCb HEVC de 10 bits heredada contiene también una imagen LDR de 100 nits clásica, como una imagen HDR que se gradúa y codifica óptimamente para digamos un visualizador de 2000 nits. El receptor entenderá qué tipo de señal codificada se recibe leyendo una cantidad de metadatos.
El documento de G. Ward, "Overcoming Gamut and Dynamic range limitations", Proc. Of the color imaging conference, color science, systems and applications, nov. 1998, páginas 214-219, da a conocer algunos aspectos generales de codificación HDR en particular que imágenes HDR pueden codificarse en un formato de Log-Luv. Este formato es muy diferente del formato desead típico para codificación de vídeo de televisión, a saber, habitualmente una codificación YCrCb de 10 o 12 bits. En cualquier caso no hay nada sobre derivación de imagen GT_IDR técnica además de una gradación artística secundaria.
El documento US2012/0113130 da a conocer que si se hace una (¡única!) conversión desde una imagen HDR maestra a Im_LDR, entonces una forma particular de hacer esto es categorizar objetos en zonas y asignar los mismos luma promedio de LDR basándose en qué zona se encuentran.
Es un objeto de las tecnologías presentadas a continuación para proporcionar al graduador incluso más versatilidad en la definición de al menos dos gradaciones, LDR y HDR.
Sumario de la invención
El objeto anterior se realiza teniendo un codificador de imagen (202) como se define en la reivindicación 1.
Habitualmente se hará la gradación de GT_IDR a partir de la imagen de alto rango dinámico (habitualmente gradación maestra) o la gradación de LDR, pero por supuesto también puede ser ventajoso para tener en cuenta con la misma las características de imagen, en particular la apariencia de brillo o luminosidad de diversos objetos, de la otra gradación (es decir, cómo debería verse la gradación de LDR como si mapeamos GT_IDR a partir de M_HDR, de modo que el GT_IDR puede ser alguna clase de equilibrio, pero por supuesto también puede formarse por toda clase de otras condiciones/factores secundarias). Asumimos que la imagen HDR maestra se codifica en cualquier formato que permite una codificación de este tipo (por ejemplo, esto puede ser OpenEXR, o un sistema como se ilustra con nuestra Figura 7, en general cualquier cosa preferida por, por ejemplo, el marcador del software de gradación). Es decir la codificación de M_HDR puede ser de un tipo de referencia de escena lineal o ya tener alguna función de asignación de código interesante aplicada a la misma, pero para nuestras explicaciones podríamos asumir con seguridad que es una codificación de luminancia lineal. Habitualmente una imagen HDR maestra de este tipo no será directa de cámara (ya que las cámaras son solo herramientas de captura automáticas, con características como, por ejemplo, filtros de color no como para el ojo humano, pero con mayor importancia sus circuitos no como el cerebro humano, lo que proviene de ellos por mera grabación puede ser bueno pero no necesariamente óptimo), pero una gradación optima artística (que, por ejemplo, oscurece un entorno de fondo de sótano para crear un ambiente óptimo para esa escena), sin embargo, la gradación humana podría ser un simple mapeo funcional de la imagen de una cámara en alguna parte (siendo esto entonces la entrada de HDR maestra), por ejemplo, solo para proporciona una primera vista en un cierto renderizador, después del cual se codifica una imagen h Dr de calidad alta (a través de una imagen LDR y parámetros de mapeo). Una unidad de gradación de imágenes es habitualmente software ejecutándose en un ordenador, que permite mapeo de color desde colores iniciales de píxeles hasta colores finales de píxeles, por ejemplo, cambiando un correlato de luminancia de esos píxeles desde un valor inicial a un valor final, por ejemplo, aplicando una función de mapeo de tono (por ejemplo, una curva S) en ese correlato de luminancia o, por ejemplo, curvas de definición de color (como R,G,B) simultáneamente. El experto debería entender por qué usamos el término correlato de luminancia para indicar cualquier codificación matemática correlacionada con una luminancia de un píxel (cuando se captura en una escena, o renderiza en una renderización de la misma), ya que dada la complejidad de tecnologías de color, existen varias variantes similares de las mismas, como lumas, valores (V), definiciones funcionales para correlatos llamados luminosidad, etc. De hecho, un componente línea o no lineal del color, como una cantidad de red, también puede usarse como un correlato de luminancia. Por tanto, correlato de luminancia debería entenderse como cualquier función de mapeo monótono entre el eje de luminancia (luminancia según se define por el CIE) y otro eje, de modo que cualquier valor en ese otro eje puede convertirse inmediatamente a un valor de luminancia y viceversa. Aunque las formulaciones para diversos correlatos varían en sus detalles precisos, el principio permanece el mismo. Pero introducimos el término también para indicar que aunque los principios de nuestras realizaciones pueden definirse en mapeos de luminancia, pueden realmente construirse físicamente haciendo cálculos matemáticos en otros correlatos de luminancia, o en general cualquier codificación de color. El graduador de color humano puede, por ejemplo, dirigirse parcialmente por el director de una película para producir una cierta apariencia para la película capturada.
El principio de la realización anterior es que, al contrario que sistemas heredados con una función de mapeo fija relacionada con un grado de LDR y HDR (por ejemplo, codificar cualquier imagen de entrada, si tiene un rango dinámico creciente o no, en una codificación de LDR), ahora tenemos un sistema dual. Esto habitualmente también creará dos conjuntos de parámetros de mapeo (por ejemplo, funciones de mapeo de correlato de luminancia, o en general datos que definen transformadas matemáticas realizadas por software para transformar los colores de entrada en los colores de salida) en lugar de únicamente una función reversible para crear la imagen a renderizar (en caso del documento PCT/2012/054984, una reconstrucción de HDR a usarse en un visualizador HDR para accionar la misma, directamente o después de procesamiento de color adicional).
En este sistema dual, existen también dos gradaciones reconocibles para e1HDR maestro. En primer lugar, existe una gradación automática, que crea una primera imagen LDR de buena calidad, que llamaremos la segunda imagen de bajo rango dinámico GT_IDR. Puede verse (parcialmente) influenciada por el graduador de color (por ejemplo, seleccionando uno preferido de entre un conjunto de función de mapeo que normalmente produciría buenos resultados en todas las imágenes de entrada), pero habitualmente es ventajoso si esta gradación automática aparece detrás de las escenas en el aparato, fuera de vista y la preocupación del graduador que puede a continuación centrarse en sus deseos artísticos. El punto de esta gradación técnica es para crear una imagen GT_IDR que, aunque quizás no completamente óptima de acuerdo con los deseos artísticos particulares del graduador, produce una imagen LDR bien visibles cuando se renderizan en un sistema LDR (bien visible de nuevo significando no solo que cualquier imagen se producirá, pero que el espectador puede seguir la mayoría de lo que está sucediendo en la película, porque la visibilidad de todos los objetos es buena, aunque debido a alguna decoloración en comparación con el óptimo el ambiente de la escena puede alterarse levemente). Pero principalmente define su derivación matemática de modo que esta segunda GT_IDR de imagen LDR es técnicamente óptima, en que es fácil reconstruir a partir de la misma una reconstrucción REC_HDR del HDR maestro con calidad óptima. Esto significa que la pérdida de información en GT_IDR debido a, por ejemplo, cuantificación después de usar el mapeo óptimo particular al mismo a partir de M_HDR debería ser mínimo, de modo que existe una cantidad aceptable mínima en e1HDR reconstruido para todas las posibles imágenes de entrada HDR típicas.
A continuación, por otra parte, existe una gradación artística del graduador humano. Él puede derivar cualquier instantánea que quiera de acuerdo con sus preferencias para ver para sistemas de renderización LDR. Por ejemplo, podemos tener una acción sucediendo en un sótano oscuro en una película de terror. El sistema de renderización HDR puede ser capaz de renderizar los alrededores oscuros muy oscuro mientras aún retiene la visibilidad de la mayoría de objetos (por ejemplo, equipo de tortura en estanterías en las sombras contra la pared, o el interior de una sala adyacente no iluminada detrás de una puerta abierta). Y al mismo tiempo puede ser capaz de renderizar objetos muy brillantes, como una única bombilla oscilando en el techo de esa sala oscura o una linterna en las manos de una persona andando a través de la misma. Sin embargo, el sistema de renderización LDR puede tener menos capacidades para renderizar los alrededores oscuros, en particular porque también necesita hacer espacio en su limitado rango de luminancia para los objetos más brillante como la bombilla y la cara de la persona que camina bajo la misma, y el graduador puede querer emular el brillo aumentando el contraste con las luminancias de los objetos circundantes, es decir, el fondo oscuro. El graduador puede, por ejemplo, decidir artísticamente hacer este fondo en su totalidad negro para la gradación de LDR Im_HDR. Debería estar claro que esta imagen de bajo rango dinámico Im_HDR puede no usarse a continuación para reconstruir una REC_HDR con suficiente información en el fondo para tener todos los objetos ahí visibles. Como una generalización de esto, puede observarse que la unidad de gradación automática debe asegurarse que no se producen ninguna pérdida de información relevante, de modo que puede aún derivarse una reconstrucción de HDR con buena precisión de aproximación a partir de la imagen LDR codificada de GT_IDR. Obsérvese que esta GT_IDR de imagen LDR no necesite por sí misma definirse con las mismas restricciones ambientales (por ejemplo, cresta de blanco de 100 nits de visualizador previsto), pero también puede ser, por ejemplo, para un visualizador de referencia de 200 nits.
Como el experto puede entender, existen dos formas para realizar un sistema de este tipo. O bien la unidad de gradación automática de gradación técnicamente hace su mapeo primero y a continuación el graduador humano trabaja en esa GT_IDR para crear su IM_LDR de gradación de LDR preferida, o el graduador humano primera hace su gradación Im_LDR, y a continuación la unidad de gradación automática deriva a partir de la misma una DT_IDR técnicamente más adecuada para codificar todos los datos de HDR en el formato LDR_container. Por tanto, de hecho esto, corresponde lógicamente a que el graduador humano trabajará en ambos casos en representación de1HDR maestro. En la gradación humana el primer caso será el propio HDR maestro (infinitamente preciso) que forma el punto de inicio. En el segundo caso la GT_IDR resultante de la gradación técnica automática será una buena representación del HDR maestro, ya que contiene la mayoría (al menos los relevantes) de los datos de1HDR maestro, sea esta en una representación de correlato de luminancia diferente y mapeada (por ejemplo, una luminancia de una lámpara de 10000 nits en el HDR maestro puede representarse como un código de luma 253 en la GT_IDR). De acuerdo con una precisión predefinida de nuevo significa que se ponen límites técnicos en cuánto puede desviarse una reconstrucción REC_HDR de la GT_IDR de la M_HDR introducida originalmente. Habitualmente el experto sabe que se puede (si no solamente definida de acuerdo con preferencia de panel del ser humano) caracterizar matemáticamente tales desviaciones, por ejemplo, por medio de diferencia ponderada entre los colores de píxeles de la REC_HDR y la M HDR. Por ejemplo, se pueden usar funciones matemáticas que caracterizan una diferencia siguiendo principios visuales humanos, por ejemplo, mirando a colores en regiones, y, por ejemplo, penalizando diferencias menos si se producen en áreas texturizadas, etc. Se pueden permitir mayores diferencias a algunos objetos semánticos como, por ejemplo, lámparas, ya que la luminancia renderizada real para esos objetos puede ser menos importante. En resumen el experto entenderá que habitualmente la gradación técnica hará cualquiera de un conjunto de mapeos preacordados, que para cualquiera o la mayoría de imágenes M_HDR de entrada que se producen habitualmente producirá errores de reconstrucción por debajo de un cierto umbral (que puede ser o bien un valor subjetivo acordado por el panel de evaluación humano o bien un valor matemático acordado). Habitualmente habrá, por ejemplo, un conjunto de funciones de tipo gamma (es decir, comenzando habitualmente con una parte lineal en los negros, y a continuación doblando para mostrar una inclinación cada vez menor de la salida frente a la entrada), o curvas de tres segmentos paramétricas para afectar a las oscuridades/sombras, subrangos medios y brillantes del eje de luminancia o correlato de luminancia, que se comportan todos razonablemente, y algunos pueden dar menos errores de reconstrucción en una región de luminancia particular de un tipo particular de M_HDR. El graduador humano puede seleccionar a continuación una curva de este tipo. O como alternativa, la unidad de gradación automática puede seleccionar una curva óptima de este tipo, por ejemplo, mirando al histograma de luminancia o color de la M_HDR, o haciendo un análisis más complicado en el mismo (por ejemplo, determinando dónde está o están las caras). Por tanto, representación HDR_REP de la M_HDR de acuerdo con una precisión predefinida significa que esta imagen contiene sustancialmente todos los datos de M_HDR, sea de una forma codificada de forma diferente, de modo que se puede obtener de nuevo de forma inversa la M_HDR introducida dentro de una precisión predefinida, es decir, con errores de reconstrucción en el peor de los casos no excediendo habitualmente de un nivel acordado.
Por tanto, el graduador humano, por lo tanto, trabaja o bien en la M_HDR, o bien en la GT_IDR para obtener su imagen de bajo rango dinámico Im_LDR preferida a usar para sistemas de renderización LDR. Puede usar cualquier mapeo de color de un conjunto de mapeos disponibles en el software de gradación que decida, por ejemplo, puede personalizar una función de mapeo de tono global específico (es decir, mapeo de luminancia) o mapeo de color a aplicar a todos los píxeles en cualquier posición espacial en la imagen basándose solamente en su valor de color de entrada. O puede usar mapeos ajustados localmente. Por ejemplo, puede seleccionar en una región geométrica particular de la imagen (por ejemplo, especificada dentro de una forma delimitadora rectangular o de otra manera definida) únicamente aquellos píxeles que son más brillantes que un valor de luminancia particular (o dentro de un rango de colores especificados) y transformar únicamente aquellos píxeles de acuerdo con una estrategia mapeo de color local, etc. A continuación, escribirá todas las cosas que hizo como metadatos, por ejemplo, la función de cambio de correlato de luminancia global puede escribirse en de una forma paramétrica (por ejemplo, coeficientes de función de potencia para tres regiones de una curva de tipo S, como y punto de extremo de las sombras, partes lineales en cada lado, un coeficiente de curvatura parabólica, etc.). Si estas funciones son reversibles (en gran parte), el lado de recepción puede usar a continuación las mismas para reconstruir de nuevo usando esta imagen de salida como una imagen de entrada y usando la estrategia de mapeo de color inversa, la imagen original de la que se obtuvo esta imagen de salida, al menos dentro de una cierta precisión (después de, por ejemplo, se hayan introducido cuantificación y/o artefactos DCT, etc.).
En las primeras realizaciones de gradación humana, el graduador humano producirá los parámetros de mapeo Fi(MP_DH) a partir del mapeo de M_HDR. Sin embargo, ya que la gradación automática modificará aún la gradación de LDR, estos no son los parámetros interesantes al final. La unidad de gradación automática derivará a partir de los mismos dos conjuntos de nuevos parámetros. Derivará un mapeo diferente desde HDR hasta la nueva gradación de LDR que es GT_IDR, con parámetros de mapeo Fi(MP_T). También derivará nuevos parámetros de mapeo Fi(MP _DL) para crear la gradación de LDR preferida por seres humanos Im_LDR a partir de la segunda imagen LDR técnicamente graduada GT_IDR. Cuando se almacenan los datos necesarios para que un lado de recepción trabaje en la imagen M_HDR codificada, es decir, permitiendo en particular que el receptor recree una reconstrucción REC_HDR, un formateador codificará habitualmente la GT_IDR (para la textura de los objetos), y dos conjuntos de datos de mapeo Fi(MP_T) y Fi(MP_DL), en una codificación adecuada definida en la especificación de cualquier norma de señales, es decir, habitualmente en metadatos de la señal de imagen (o vídeo) TSIG. En caso de la gradación automática primero, el graduador humano trabajará en GT_IDR para producir parámetros de mapeo Fi(MP _DL), y a continuación estos se escribirán en la señal (además de la imagen g T_IDR y Fi(MP_T)).
Dependiendo de qué variante es el sistema, la unidad de gradación automática aplicará a continuación o bien una especificación previa de la segunda imagen LDR GT_IDR directamente desde e1HDR maestro M HDR, o bien como una corrección posterior basándose en una Im_LDR graduada anteriormente por un ser humano como entrada. El término datos que especifica un mapeo de color debería estar claro para el experto para cualquiera e muchas posibles variantes de mapeo de color. Habitualmente el software de gradación puede almacenar los parámetros de las funciones que usa, y en particular puede usar funciones de mapeo que se preacondicionan para ser buenas para codificación. Por ejemplo, podemos diseñar un número de funciones locales o globales que son reversibles (dentro de una precisión especificada) cuando se usan de forma conservadora, es decir, con valores dentro de un rango, y pueden volverse (parcialmente) irreversibles cuando se usan agresivamente por el graduador. Un ejemplo de esto puede ser una función gamma. Coeficientes gamma hasta un valor de 3,0 pueden verse como reversibles para un sistema particular (es decir, yendo desde un rango dinámico inicial, por ejemplo, CODR, o, por ejemplo, con datos importantes significativos en varios subrangos de un rango de referencia definido de 5000 nits, hasta una situación de referencia de LDR particular, por ejemplo, una definición de sistema LDR heredado, por ejemplo, la especificación de entorno de visión de sRGB), pero gammas por encima de 3,0 pueden verse como demasiado severas para al menos un subrango del rango de luminancia de entrada (es decir, para reconstrucción reversible). O en un conjunto extendido para producir a posteriori gradaciones de LDR a partir de la GT_IDR automática, puede haber funciones que no existen en la gradación automática, y crear pérdida de información significativa en la información de HDR de entrada tras la creación de una imagen LDR graduada deseada con la misma. El sistema puede funcionar habitualmente en un modo o fase en la que el graduador tiene una libertad limitada para crear imágenes LDR, pero con buenas propiedades técnicas (es decir, cerca de una GT_IDR que funciona bien), y un modo o fase en el que el graduador tiene (casi) libertad ilimitada, o al menos mayor libertad en la determinación de su imagen graduada LDR óptima Im_LDR.
En realizaciones ventajosas la unidad de gradación automática (203) se dispone para determinar su algoritmo de mapeo de color automático cumpliendo con una condición de que una imagen reconstruida HDR (REC_HDR) que se encuentra dentro de una segunda precisión predefinida de la imagen de entrada de alto rango dinámico (M_HDR) puede calcularse aplicando un segundo algoritmo de mapeo de color (CMAP_2) a la segunda imagen de bajo rango dinámico (GT_IDR).
Por tanto, la unidad de gradación automática mantendrá la calidad de la segunda imagen LDR GT_IDR para habilitar buena reconstrucción del HDR maestro. Cumplirá con esta condición restringiendo las funciones que pueden usarse para relacionar la M_HDR con la GT_IDR. En particular, no deberían perderse demasiados datos (significativos) por tales actos como, por ejemplo, cuantificación de componentes de color como, por ejemplo, (R,G,B) o (Y,Cr,Cb), etc. Por tanto, seleccionará habitualmente sus funciones de mapeo basándose en una evaluación de este tipo, si esta fue un cálculo a priori (por ejemplo, mediante un algoritmo que se prueba previamente en el laboratorio de modo que cuando opera en imágenes HDR con, por ejemplo, ciertas propiedades de distribución de histograma de luminancia, producirá buena capacidad de reconstrucción para ciertas funciones de mapeo o algoritmos), o con un cálculo posterior, por ejemplo, en un bucle iterativo que selecciona la mejor de un número de posibles funciones de mapeo. La segunda precisión predeterminada es la precisión final conseguible mediante la reconstrucción de la REC_HDR a partir de los datos codificados con el algoritmo de mapeo elegido, es decir, aplicando la inversa de Fi(MP_T) en la GT_IDR, cuya inversa llamaremos segundo algoritmo de mapeo de color CMAp_2. Para las primeras realizaciones de gradación automática esto significará que la unidad de gradación automática determinará solamente el mapeo entre M_HDR y GT_IDR (y no debería molestarse de hecho al usuario con esa relación). A continuación seleccionará, por ejemplo, una función gamma apropiada, de modo que la GT_IDR aún tiene una aproximación razonable a la apariencia oscura en la M_HDR, incluso, ninguno de los valores de luminancia relevantes se agrupan juntos en una luma de GT_IDR demasiado. En la situación de la primera gradación humana, la unidad de gradación automática aún tiene que determinar un mapeo final Fi(MP_T) entre M_HDR y GT_IDR. Esto corresponde a determinar de nuevo una nueva segunda imagen graduada LDR GT_IDR después del graduador humano (pero esto no destruirá la gradación humana, ya que también se determinan parámetros de mapeo para reconstruir la misma a partir de GT_IDR). Pueden existir varias estrategias para eso. Por ejemplo, la unidad de gradación automática puede mirar la función de mapeo, y desviar la misma levemente en regiones que conducen a perdida de datos severa, por ejemplo, debido a cuantificación. Además, la unidad de gradación automática podría estudiar las imágenes obtenidas (Im_LDR frente a GT_IDR en comparación con M_HDR), pero también la propia curva de mapeo (viendo cuánto se desvía de curvas de mapeo genéricamente con buen rendimiento). Otra posibilidad es que la unidad de gradación automática seleccione una de un conjunto de funciones de mapeo que está cerca de la seleccionada por el graduador humano, pero con buen rendimiento. A partir de la misma, es cálculo matemático para obtener el sistema final. Por ejemplo, se obtendrá GT_IDR aplicando una función de desviación en la función de mapeo Fi(MP_DH) de M_HDR a Im_LDR de graduadores humanos. Realmente, la unidad de gradación automática puede aplicar a continuación esta función final directamente a M_HDR para obtener GT_IDR, directamente con error mínimo. Im_LDR puede derivarse a partir de la misma usando la función de desviación. El experto entiende cómo la unidad de gradación automática puede determinar, en otros marcos matemáticos, un mapeo óptimo Fi(MP_T) y correspondiendo con el mismo un mapeo desde la GT_IDR hasta la Im_LDR del graduador (es decir, Fi(MP_DL)). Hemos mostrado esto esquemáticamente en la Figura 6 como aplicando una deformación técnica DEF_TECH a la gradación del graduador humano, para obtener la imagen LDR técnicamente graduada GT_IDR. Es decir la unidad de gradación automática puede trabajar o bien comenzando desde la imagen LDR Im_LDR y trabajando en una filosofía de deformación, y derivar a partir de la misma Fi(MP_T), o bien puede directamente mirar la apariencia de la gradación humana Im_LDR, y hacer una aproximación de la misma comenzando desde M_HDR, dadas las limitaciones técnicas de su gradación técnica, conduciendo a una Fi(MP_T), y determinar a partir de la misma una Fi(MP_DL) para derivar la gradación humana a partir de GT_IDR (cuyo mapeo puede a continuación ser muy liberal técnicamente), etc. Por tanto, debería estar claro para el experto en qué formas puede o podrá cumplirse la condición. De nuevo la precisión puede predefinirse como cualquier medida, por ejemplo, para clase de calidad de tecnología (por ejemplo, película de alta calidad para usuarios superiores frente a codificación HDR de calidad baja que da mayor impresión, pero no la mejor calidad), por ejemplo, especificando que ciertos mapeos crearán, en imagen HDR de caso difícil, artefactos que no son mayores que artefactos de una magnitud acordada previamente. No deberían usarse, entonces, otras estrategias de mapeo que no se comporten de acuerdo con la especificación. En cualquier caso, aparte de detalles minuciosamente precisos en definiciones, debería estar claro para cualquier infractor si está usando el sistema de cadena técnica de gradación dual como se describe anteriormente.
Como ya se ha introducido anteriormente, puede ser ventajoso si al menos la unidad de gradación automática (203), y posiblemente también la unidad de gradación de imágenes (201), se disponen para aplicar una función de mapeo monótono en al menos un correlato de luminancia de píxeles en su respectiva imagen de entrada, en al menos una región geométrica de la respectiva imagen de entrada que corresponde a una misma región geométrica de la imagen de entrada de alto rango dinámico (M_HDR). Tener una definición funcional uno a uno de este tipo en regiones inequívocamente identificables de la imagen (por ejemplo, toda la imagen), significa que al menos en un eje de precisión infinito se puede invertir fácilmente estas funciones. Es especialmente ventajoso si también las derivadas o inclinaciones de estas funciones son de tal forma que no fusionan muchas de las luminancias de M_HDR en un único código de Im_LDR o al menos GT_IDR. También tales funciones monótonas son fáciles de calcular técnicamente, por ejemplo, con una tabla de consulta. Por ejemplo, esto puede tomar un correlato de luminancia tal como a luma Y como entrada y salida. Un ejemplo de una escena HDR que se produce a menudo que puede hacerse con dos regiones espaciales es una imagen dentro-fuera, por ejemplo, fotografiada desde dentro de un coche, o sala, etc. Con regiones geométricas que corresponden a, queremos decir que si la región se define en digamos la Im_LDR, a continuación los píxeles son identificables con píxeles en M HDR. Por ejemplo, si la imagen tiene la misma geometría (resolución y corte), las posiciones de píxel pueden asignarse, pero en caso de transformaciones geométricas como, por ejemplo, escalados, también debería estar claro lo que significa para el experto.
Aunque sistemas simples pueden, por ejemplo, usar funciones de mapeo Fi(MP_T) fijas, acordadas previamente y que siempre funcionan correctamente, es ventajoso si sistemas más avanzados pueden determinar óptimamente mapeos por sí mismos, en particular si la unidad de gradación automática (203) se dispone para determinar su algoritmo de mapeo de color automático de acuerdo con un criterio de calidad que estima una diferencia de una cantidad de información en los correlatos de luminancia de píxeles en la imagen de entrada de alto rango dinámico (M_HDR) y una cantidad de información en los correlatos de luminancia de píxeles en la segunda imagen de bajo rango dinámico (GT_IDR).
El experto entenderá existen diferentes formas de definir cantidades de información, pero todas implican medir cuántos datos existen en una representación (especialmente datos significativos). Puede haber métodos semánticamente ciegos, que únicamente miden los colores disponibles, pero no de qué región u objeto proceden. Por ejemplo, se puede medir cuántas de las luminancias de la M_HDR mapean a una única luma de GT_IDR. Si, por ejemplo, la mayoría luminancias mapean únicamente dos por dos, pero en una cierta región del eje de luminancia de M_HDR 5 valores digitales de la luminancia de la HDR (o en una representación flotante un espacio de luminancias que exceden un cierto tamaño) mapean a una única luma GT_IDR, esto puede verse como una pérdida de información demasiado grande. Por tanto, el tamaño de espacios, o cantidad de luminancias digitalizadas en M_HDR es un ejemplo de una posible cantidad de medidas de información. Por supuesto, estas mediciones pueden hacerse más inteligentes, mirando, por ejemplo, cómo se comportan en subregiones particularmente interesantes del rango de luminancia de M_HDR, o incluso objeto semántico como, por ejemplo, una cara. Puede prescribirse que, por ejemplo, cada cara debería representarse por al menos 50 códigos de luma en GT_IDR, o cada región de una cara teniendo N luminancias digitales en M_HDR (o un espacio continuo equivalente de las mismas) de se representará en GT_IDR por una cantidad M de lumas de menos de la mitad de esa cantidad N. Esto puede ajustarse basándose en sentido no lineal para humanos dada la función de mapeo no lineal. Por ejemplo, se puede especificar a cuántas diferencias mínimamente notables JND correspondería una cierta codificación GT_IDR cuando se reconstruye a REC_HDR en un entorno de visualización HDR de referencia. Y a continuación se puede especificar que la cara debería poderse reconstruir con al menos R JND discriminables. O una estructura en una cara como una arruga debería cambiar de un valor más oscuro dentro de la arruga a un valor más brillante fuera de la arruga por una etapa de reconstrucción de máximamente S (digamos 3) JND. También introducimos el concepto diferencias mínimamente cuidables JCD que pueden usarse para algunos objetos semánticos. Por ejemplo, en una lámpara, puede ser suficiente que la lámpara sea brillante, y aún algo de la estructura interior (como la forma de una bombilla) se pueda discernir, pero ni el valor exacto de la lámpara, ni el de la bombilla, ni sus luminancias relativas pueden ser críticos. En ese caso ambas regiones pueden codificarse como se considere preciso si dentro de, por ejemplo, 1 JCD, que puede ser, por ejemplo, 20 JND, o especificarse como una diferencia o fracción de luminancias (para luminancias que se encuentra en un subrango definido de luminancias brillantes a usar para renderizar luces). Por tanto, el criterio de información puede determinarse basándose únicamente en una agrupación de una o tres dimensiones (forma y/o tamaño) de datos de color en ambas imágenes, en criterios estadísticos como el histograma de luminancia o de color y en particular información semántica de qué regiones pueden deformarse más severamente (por ejemplo, el graduador humano puede dibujar rápidamente un garabato en regiones de imagen que tienen que codificarse con alta precisión como la región de acción principal, que puede iluminarse especialmente durante la captura, o una cara), información geométrica, como, por ejemplo, bordes o formas de estructuras en regiones de objeto y cómo se deforman (por ejemplo, visibilidad clara, o contraste) en ciertas clases de mapeos, o caracterizadores de textura (por ejemplo, en texturas complejas se permite una mayor cantidad de artefactos), o información semántica como detección automática de objetos particulares, o la caracterización humana de los mismos (por al menos marcando toscamente una región y clase de ac como "lámpara menos crítica"), etc. Por tanto, el experto puede entender que puede haber diversas formas de predefinir un sistema de funciones matemáticas que especifican cuándo se han perdido demasiados datos, por ejemplo, reduciendo la calidad de una iluminación variable sin textura sobre un objeto, etc. Puede haber un único criterio, o un conjunto de criterios que resulta en un análisis completo de la imagen GT_IDR, y marcan que una cierta región de la misma tiene que hacerse de nuevo. Con esta información la unidad de gradación de imágenes puede determinar si un mapeo satisface el requisito técnico, o puede determinar un nuevo mapeo, por ejemplo, ajustando ligeramente el antiguo. Por ejemplo, en caso de que una región de la GT_IDR aún reconstruye una región (por ejemplo, un objeto) de M_HDR muy bastamente, la unidad de gradación de imágenes puede o bien determinar de nuevo completamente, por ejemplo, un mapeo global (habitualmente por supuesto puede ajustar únicamente el mapeo para aquellas regiones de luminancia de M_HDR que plantean un problema, por ejemplo, puede aumentar la derivada de la función de mapeo hacia abajo de Fi(MP_T) para el subrango de luminancias problemático, que habitualmente corresponde desplazamiento hacia fuera -respectivamente a valores más oscuros respectivamente más brillantes- de los otros colores de píxeles, y ajustar al nuevo rango disponible para ellos mediante un doblado suave de esas partes de la función de mapeo). O la unidad de gradación de imágenes puede derivar una gradación local adicional a aplica en sucesión temporal, por ejemplo, una potenciación previa de esa región, y ahorrando en una imagen (de corrección) parcial cocodificada, etc. Habitualmente es ventajoso cuando la unidad de gradación de imágenes, incluso cuando crea GT_IDR con estrategia de mapeo de color confirmada previamente, determina posteriormente cuándo la imagen GT_IDR satisface de hecho la condición de que REC_HDR está en aproximación de suficiente calidad.
Ventajosamente, la unidad de gradación automática (203) se dispone para determinar la función de mapeo monótono (Fi(MP_T)) de correlatos de luminancia de píxeles de la imagen de entrada de alto rango dinámico (M_HDR) a correlatos de luminancia de píxeles de la segunda imagen de bajo rango dinámico (GT_IDR), de acuerdo con un criterio que determina respectivos rangos de correlatos de luminancia de píxeles de la imagen de entrada de alto rango dinámico (M_HDR) asignados a respectivos valores únicos de un correlato de luminancia de píxeles de la segunda imagen de bajo rango dinámico (GT_IDR), formando los respetivos rangos un conjunto de rangos de correlatos de luminancia que cubre el rango total de posibles valores de correlatos de luminancia para la imagen de entrada de alto rango dinámico (M_HDR). Esta es una simple forma para determinar perdida de información, por ejemplo, debido a excesiva cuantificación. Por ejemplo, puede definirse un tamaño predefinido de rango para mapear en un único valor frente a luminancia de entrada de M_HDR a lo largo del eje de luminancia de M_HDR de todos los valores posible, que permite especificar que los objetos más brillantes pueden cuantificarse más bastamente. Puede ser que ya se hayan aproximado con error significativo en comparación con la escena capturada original (por ejemplo, no es necesario renderizar las luces del coche exactamente con 100.000 nits en el visualizador HDR), se podría aceptar un error adicional en la REC_HDR. Este criterio puede a continuación convertirse fácilmente en, por ejemplo, determinar una forma de una función de mapeo, ya que no debería doblarse en ningún sitio tan fuerte como para mapear un mayor rango que permitido a un único valor cuantificado, dando los ajustes conocidos del codificador de GT_IDR (por ejemplo, cuantificación valores de MPEG2).
Lo anterior describe los funcionamientos internos de un codificador que puede usarse en diversos aparatos, como, por ejemplo, un sistema intermedio en una unidad de cálculo de imagen, pero es ventajoso si los datos codificados obtenidos se envían fuera, por ejemplo, como una señal que puede usarse por un receptor, es decir, el codificador de imagen (202) comprende un formateador de datos (220) dispuesto para emitir en una señal de imagen (TSIG) la segunda imagen de bajo rango dinámico (GT_IDR) y al menos uno de, o ambos de, datos que describen el mapeo de color (Fi(MP_T)) entre la imagen de entrada de alto rango dinámico (M_HDR) y la segunda imagen de bajo rango dinámico (GT_IDR) y datos que describen el mapeo de color (Fi(MP_DL)) entre la imagen de bajo rango dinámico (Im_LDR) y la segunda imagen de bajo rango dinámico (GT_IDR). En principio no todos los receptores necesitaría ambos conjuntos de parámetros, pero es ventajoso si un receptor consigue ambos, y puede a continuación, por ejemplo, óptimamente determinar cómo usar toda la información disponible para llegar a una señal de accionamiento final para un visualizador particular y entorno de visualización (por ejemplo, podría mezclar información de1HDR codificado y gradación de LDR, para llegar a una nueva gradación, que llamaremos capacidad de ajuste de visualizador). Obsérvese que aunque describimos nuestro sistema básico con únicamente dos gradaciones, en el mismo sistema puede haber adicionalmente gradaciones, por ejemplo, una segunda gradación de HDR para visualizador HDR ultrabrillante, o una tercera gradación de LDR, o una gradación para un visualizador MDR (de un peak_white intermedio entre digamos referencias de 100 nits y 5000 nits del LDR respectivamente grados de HDR), o una gradación para visualizadores sub_LDR, y estos pueden construirse como complementos diseñados independientemente, pero también de acuerdo con las filosofías inventivas presentadas, por ejemplo, se puede derivar una segunda gradación técnica GT_IDR2, que es una gradación técnicamente derivada de HDR de la M_HDR y sirve para definir las gradaciones ultra HDR. Por ejemplo, la GT_IDR2 puede derivarse mediante extensión matemática simple de regiones de luz más brillantes, pero el graduador puede corregir esto definiendo datos de mapeo adicionales Fi(MP_DHH), por ejemplo, para corregir mapeando desde GT_IDR2.
El codificador de imagen corresponde a un decodificador de imagen (401) dispuesto para recibir a través de una entrada de señal de imagen (405) una señal de imagen que comprende una segunda imagen de bajo rango dinámico (GT_IDR), y datos que describen un primer mapeo de color (Fi(MP_T)) que habilitan la reconstrucción de una reconstrucción (REC_HDR) de una imagen de alto rango dinámico (M_HDR) sobre la base de la segunda imagen de bajo rango dinámico (GT_IDR), y datos que describen un segundo mapeo de color (Fi(MP_DL)) que permiten el cálculo de una imagen de bajo rango dinámico (Im_LDR) sobre la base de la segunda imagen de bajo rango dinámico (GT_IDR), comprendiendo el decodificador de imagen una unidad de derivación de imagen (403) dispuesta para derivar al menos la imagen de bajo rango dinámico (Im_LDR) sobre la base de los datos que describen el segundo mapeo de color (Fi(MP_DL)) y los colores de píxeles codificados en la segunda imagen de bajo rango dinámico (GT_IDR). Se verá a partir de este decodificador que puede acceder parámetros de mapeo para mapa de color de imagen LDR tanto hacia arriba, a una REC_HDR, como "hacia abajo" para obtener una gradación de LDR deseable de creador de contenido Im_LDR. La unidad de derivación de imagen tendrá funcionalidad (por ejemplo, partes de software o hardware cargadas de un CI) para realizar los mapeos de color de decodificación (por ejemplo, acordados previamente). También se puede ver que el grado técnico GT_IDR es un grado técnico, ya que tendrá menos ambiente (incluso sin comparar con la Im_LDR óptima) ya que las luminancias de los objetos no están en el lugar óptimo a lo largo del eje de luminancia, habitualmente tendrá algo de menos contraste, oscuros levemente más brillante, etc., y por supuesto una cantidad limitada de códigos para las diversas regiones de objeto en la imagen.
Ventajosamente el decodificador de imagen (401) comprende una unidad de configuración de sistema (402), dispuesta para determinar si el decodificador se conecta a y/o se supone que deriva una imagen para al menos uno de un visualizador de alto rango dinámico (411) y un visualizador de bajo rango dinámico (416), y disponiéndose la unidad de configuración de sistema (402) para configurar la unidad de derivación de imagen (403) para determinar al menos la reconstrucción (REC_HDR) en caso de una conexión al visualizador de alto rango dinámico (411), y dispuesta para configurar la unidad de derivación de imagen (403) para determinar al menos la imagen de bajo rango dinámico (Im_LDR) en caso de una conexión al visualizador de bajo rango dinámico (416). Nuestro sistema (es decir, señal codificada, y diversos tipos de decodificador) debe ser capaz de trabajar con decodificadores simples que, por ejemplo, reciben un HDR codificado como nuestro LDR_container anterior en GT_IDR, pero necesita de este únicamente el LDR para un visualizador LDR. A continuación ignorarán la mayoría de la información, y únicamente extraerá GT_IDR y FI(Mp_DL), y calculará Im_LDR a partir de la misma. Decodificadores más complejos, por ejemplo, determinarán sobre la marcha con el visualizador al que están conectados, por ejemplo, inalámbricamente, y suministrarán diversas combinaciones de toda la información codificada recibida óptimamente a los diversos visualizadores conectados (por ejemplo, misma película a padres en sala de cine en ático y a hijos en la cama viendo en su LDR portátil).
Por tanto, ventajosamente el decodificador de imagen (401) de acuerdo con cualquiera de las reivindicaciones anteriores que tiene como una salida una conexión por cable (410) o una conexión inalámbrica (415) a cualquier visualizador conectable, y un formateador de señal (407) dispuesto para transmitir al menos una o ambas de la reconstrucción (REC_HDR) y la imagen de bajo rango dinámico (Im_LDR) a cualquier visualizador conectado.
También ventajosamente la unidad de derivación de imagen (403) se dispone para determinar una imagen adicional basándose en la reconstrucción (REC_HDR) y la imagen de bajo rango dinámico (Im_LDR), o la segunda imagen de bajo rango dinámico (GT_IDR) y datos que describen el primer mapeo de color (Fi(MP_T)) y datos que describen el segundo mapeo de color (Fi(MP_DL)). Esto permite determinar grados finales óptimos (por ejemplo, señales de accionamiento directas) para diversos visualizadores conectados (capacidad de ajuste de visualizador, por ejemplo, consiguiendo a través de una medición del visualizador un valor de iluminación ambiente, etc., y optimizando con la señal de accionamiento de visualizador).
El codificador de imagen puede comprenderse en diversos aparatos, por ejemplo, su entrada de señal de imagen (405) puede conectarse a una unidad de lectura (409) dispuesta para leer la señal de imagen de un objeto de memoria (102), tal como, por ejemplo, un disco blu-ray.
Breve descripción de los dibujos
Estos y otros aspectos del método y aparato de acuerdo con la invención serán evidentes a partir de y se aclararán con referencia a las implementaciones y realizaciones descritas en lo sucesivo, y con referencia a los dibujos adjuntos, que sirven simplemente como ilustraciones específicas no limitantes y que ilustran el concepto más general, y en el que las líneas discontinuas se usan para indicar que un componente es opcional, los componentes no en línea discontinua no son necesariamente esenciales. También pueden usarse guiones para indicar que elementos, que se han explicado que son esenciales, se ocultan en el interior de un objeto, o para cosas intangibles tal como, por ejemplo, selecciones de objetos/regiones (y cómo pueden mostrarse en un visualizador).
En los dibujos:
La Figura 1 ilustra esquemáticamente un sistema de codificación de vídeo o imágenes heredado, como se ilustra con una cámara con punto de inflexión ajustable;
La Figura 2 ilustra esquemáticamente una primera posible realización de nuestro sistema de codificación, en el que la unidad de gradación automática deriva la segunda imagen LDR graduada automáticamente GT_IDR sobre la base de una anterior gradación de LDR humana;
La Figura 3 ilustra esquemáticamente una segunda posible realización de nuestro sistema de codificación en el que una imagen LDR graduada automáticamente GT_IDR de una unidad de gradación automática sirve como una base para definir mediante gradación adicional una gradación de LDR final Im_LDR por un graduador humano; La Figura 4 ilustra esquemáticamente una posible variante de un sistema de decodificación de imagen, en el que un aparato de decodificación de gama alta lee los datos codificados de acuerdo con cualquiera de nuestras realizaciones de codificación, y deriva a partir de las mismas señales apropiadas para diversos diferentes visualizadores conectados;
La Figura 5 ilustra esquemáticamente una realización de codificador de acuerdo con los principios de nuestra invención incorporándose en una cámara;
La Figura 6 ilustra esquemáticamente un principio detrás de una variante de nuestra codificación, mostrada como un gráfico lógico de relaciones de mapeo de color entre gradaciones;
La Figura 7 ilustra esquemáticamente una forma de definir nuestra entrada de inicio que es una gradación de HDR maestra M_HDR, y muestra cómo pueden escribirse datos desde una cámara o sistema gráfico por ordenador en una especificación de color matemática de este tipo, en particular a lo largo del rango de su correlato de luminancia; La Figura 8 ilustra esquemáticamente un ejemplo de una estrategia de mapeo de color, a saber una parte de mapeo de luminancia de la misma;
La Figura 9 ilustra esquemáticamente un ejemplo de cómo determinar si cualquier función de mapeo o algoritmo tiene precisión adecuada para reconstrucción de la REC_HDR;
La Figura 10 ilustra esquemáticamente un ejemplo de cómo transformar una función no adecuada en una adecuada;
La Figura 11 ilustra esquemáticamente algunos ejemplos de cómo tratar el mapeo de color en espacio de color 3D; La Figura 12b ilustra esquemáticamente cómo un graduador puede interactuar con una curva de asignación de códigos para ajustar la misma, y en la Figura 12a se muestra esquemáticamente cómo regiones de la curva de asignación de código pueden seleccionarse mediante (co)interacción con los objetos en la imagen visualizada en la actualidad;
La Figura 13 ilustra esquemáticamente cómo se puede ir desde una gradación técnica, que en este ejemplo sería utilizable ya para renderización LDR, hasta una gradación de LDR con mejor apariencia, mediante una transformación paramétrica muy simple que realiza un estiramiento de contraste de contenido adaptativo de buena calidad;
La Figura 14 proporciona un ejemplo de cómo se pueden tratar adicionalmente limitaciones colorimétricas en la gradación técnica, que puede usarse, tras recepción a continuación, cuando se genera la imagen óptima para renderizar en un visualizador particular;
La Figura 15 ilustra esquemáticamente una nueva estrategia útil para procesamiento de saturación, que es especialmente interesante para gradación a representaciones de color que tienen una estructura de luminancia diferente, tal como, por ejemplo, debido a una renderización prevista en un visualizador de un rango dinámico de luminancia diferente;
La Figura 16 ilustra esquemáticamente un aparato de parte de creación y uso para tal novedoso procesamiento de saturación; y
La Figura 17 ilustra esquemáticamente solo dos posibles usos cuando se requieren gradaciones para una situación de renderización de mayor y menor rango dinámico.
Descripción detallada de los dibujos
La Figura 1 resume en breve las ideas detrás de todas las codificaciones de imagen y vídeo clásicas, que llamaremos codificación LDR. Supóngase que tenemos digamos una cámara de televisión profesional (aunque se aplican consideraciones similares a cámaras fijas de consumo) que captura luz con un sensor de imagen 104, por ejemplo, un sensor de CMOS. Esta luz estará, después de un ADC, en un espacio lineal que se correlaciona con luminancia (en principio siendo luminancia multiplicada por un factor de escala cuando se ignora ruido, no linealidades de ADC, etc.), y será, por ejemplo, una así llamada señal sin procesar R,G,B (o Cian, Magenta, Amarillo, Verde o similar para otros sensores, pero estos se formarán a continuación a RGB, por tanto podemos centrarnos en eso). El principio de esta captura de LDR es que una señal debería verse bien en una televisión doméstica (que solía ser una CRT de aproximadamente peak_white de 100 nits, o levemente más oscuro o más brillante). En un estudio un director, operador de cámara o persona similar observará directamente la salida de la cámara en un CRT de referencia, para comprobar si el programa capturado se ve de hecho bien. La captura de un programa de LDR de este tipo (de hecho la exposición automática como se determina esencialmente seleccionando un ajuste de apertura) se determina por el principio de tener un brillo renderizado apropiado para gris medio. Ya que este gris medio es a través de la no linealidad de visión humana directamente enlazó los blancos en partes iluminadas de forma similar de la escena (y suponiendo reproducción (casi) lineal, hasta un factor de escala habitualmente, en el CRT también), a saber corresponde a objetos que reflejan aproximadamente el 18 % de la luz que cae. El diseñador de iluminación establece su iluminación de escenario de modo que alrededor de la acción la iluminación es relativamente uniforme (por ejemplo, relación de contraste 3:1), y quizás también ilumina algunas esquinas de la escena para evitar "agujeros negros" en la renderización final. Ahora teniendo un visualizador 110 con una cresta de blanco alcanzable máxima (esto es especialmente verdadero con, por ejemplo, LCD con algunas retroiluminaciones TL fijas, pero también con un CRT en el que la intensidad de haz podría controlarse a través de un ajuste de contraste, para cualquier ajuste existe aún un brillo alcanzable máximo), no significa que esto tiene que corresponder exactamente al blanco de digamos un papel altamente reflectante en el punto ideal de la escena. Debido a la siempre existente variación en iluminación, especialmente para la acción en movimiento en el vídeo que no sería práctico, y cuando se mueve el papel en una zona de iluminancia levemente mayor, rápidamente podría producirse un corte indeseable. Se necesita un poco de salvaguardia en el lado brillante, aunque para escenas y programas LDR, que no necesita ser mucho. En el lado oscuro simplemente se deja que la señal desaparezca en el ruido de la cámara. Por tanto, en el lado brillante se renderizará el blanco en una posición W por debajo de peak_white PW. No muy preferentemente, de modo que aún se ve blanco y no gris claro (existe alguna latitud en eso para instantáneas naturales comprendidas de objeto). También el gris medio MG, y los colores de caras humanas que se encuentran alrededor de eso, a continuación serán razonablemente visibles, ya que serán razonablemente brillantes en la renderización. Por tanto, ese es el requisito mínimo de cualquier captura o gradación, que podemos ver muy bien la actuación de los actores en sus caras /y ojos que pueden estar levemente ensombrecidos debido a su ubicación sobresaliente en las cuencas), y más específicamente, los colores de cara de todos esos guapos actores que se verán atractivos (y no demasiado turbios o pálidos). El resto de los colores (por ejemplo, más oscuros) a continuación se vuelven razonables a lo largo de la curva automáticamente. Habitualmente se usa una curva que es aproximadamente una raíz cuadrada, históricamente debido al comportamiento del CRT (no linealidad de pistola de electrones modulada mediante iluminación de placa de cara), y aún usa esa curva muy útil porque pasa a modelar la caracterización de iluminación de visión humana (es decir, valor de luminancias son aproximadamente iluminaciones, siendo la primera el valor codificación matemático en, por ejemplo, un espacio Rec. 709, y la última la apariencia psicovisual para un ser humano). Ahora la televisión puede hacer algunas transformaciones simples en esa curva, por ejemplo, puede potenciar todos los valores por un factor multiplicativo. Tales operaciones, por ejemplo, para contar para un cambio en entorno de visualización, tienen un impacto en las propiedades de apariencia de imagen psicovisual como el contraste de imagen, y los contrastes de sus objetos. La cámara puede hacer operaciones similares. Ahora la pregunta es dónde colocar las luminancias como MG óptimamente, y cómo hacer eso fácilmente. En un sistema simple, un codificador 101 en la cámara puede transformar todos los valores entre la Max_Luminance de la señal sin procesar y lo que haya debajo, doblando los mismos con una función de raíz cuadrada definida a partir de esa Max_Luminance. A continuación todos los posibles valores capturados por cámara de escena se codificarán en una imagen Im_LDR (en este punto mostrada en una imagen codificada que comprende el medio 102, como un disco Blu-ray, pero podría ser también una señal por un cable o el aire) así generada (habitualmente se cuantifican los valores a, por ejemplo, 8 bits, y pueden realizar otras operaciones como operaciones de codificación de imagen como aproximación con descomposiciones de transformada de coseno discreta DCT). Al elevar al cuadrado los valores de las lumas codificadas, un decodificador 103 puede recuperar con el visualizador las luminancias originales de la escena según se capturan de nuevo como luminancias renderizadas en visualizador. Ahora en este sistema estrictamente controlado, existe un grado de libertad para acomodar para las mínimas variaciones en una escena de LDR típica. Usando esta asignación de raíz cuadrada de forma ciega, puede suceder (si se determina el máximo en la escena en objetos altamente iluminados, determinando la exposición para esos objetos para tener los mismos aún bien capturados) que el gris medio y colores de cara se encuentren demasiado oscuros en una curva de este tipo. Si existen muchos objetos brillantes que deberían capturarse razonablemente bien, gustaría una curva definida por código que va hacia abajo levemente más despacio comenzando desde el código RAW más brillante. Esto puede hacerse ofreciendo al cámara un punto de inflexión controlable. Puede, por ejemplo, seleccionar con la inflexión el nivel de luminancia de entrada que corresponde a su blanco de punto ideal de la acción, y poner ese, por ejemplo, en el 90 % de código de luma máximo (que corresponde a peak_white en el visualizador). A continuación tiene el 10 % de códigos restantes para codificar todos los valores por encima de ese, y puede ajustar la inclinación de la parte de la curva por encima de la inflexión, para incorporar, por ejemplo, luminancias hasta máximamente el 600 % de luminancia de blanco de punto ideal. De esta manera, puede ajustar su curva que corresponde a una escena de LDR que se ilumina más claramente o con contraste. Si es una escena de contraste bajo puede poner su punto de inflexión cerca de luma máxima, y codifica difícilmente cualquier luminancia por encima del blanco de punto ideal, y si desea tener mucha información de luminancia alta en, por ejemplo, en un programa de entrevistas en el que hablan acerca de platería de metal brillante, puede incorporar algunos de los destellos de brillo brillantes en la señal de luma codificada. El sistema simple, por tanto, se adapta automáticamente a la mejor gradación de una escena de LDR particular en el lado del visualizador, es decir, hace un poco de espacio adicional para los destellos de platería oscureciendo los colores más oscuros levemente, y empuja alguna estructura visible en los objetos más brillantes (mayormente deformados en comparación con las luminancias de escena originales para esos objetos brillantes, y a menudo con colores pastel debido a la forma de gama de sistemas RGB, pero, sin embargo, existiendo en algún grado). Sin embargo, un sistema LDR de este tipo rápidamente recorta los mayores brillos, y no es adecuado codificar, por ejemplo, el mundo exterior visible a través de las ventanas del estudio, cuyo mundo no importa. En ocasiones esto conduce a situaciones extrañas cuando un cámara trabajando en el terreno decide fotografiar a una persona en el extremo de su sala de estar donde está relativamente oscuro. A continuación la mitad de la imagen capturada que muestra las partes más claras de la sala se recortará a blanco cuando se exponga bien para la cara. Donde eso puede aún ser una molestia menor en una pantalla LDR en la que los blancos solo muestran como algunos "objetos coloreados en blanco", pero no realmente regiones luminosas, esto conduce a una situación bastante rara en un visualizador de 5000 nits en la que la mitad de la instantánea está resplandeciendo extremadamente brillante.
Por tanto, el sistema LDR, su filosofía, pero también las capacidades intrínsecas desde su construcción técnica, no es adecuada para captura de HDR, donde al mismo tiempo se quiere capturar una primera parte iluminada de una escena, y una segunda parte mucho más brillantemente iluminada (por ejemplo, 100 veces) de una escena, y puede ser simultáneamente incluso una parte muy oscura, etc.
Con la Figura 2 ilustramos ahora algunos de los principios detrás de variantes de nuestra invención, a saber una realización particular de un codificador de imagen 202 incorporado en un sistema de gradación. Se muestra nuestra unidad de gradación automática 203, como una parte de un sistema de gradación. Un sistema de este tipo puede ser, por ejemplo, un ordenador ejecutando software de gradación, pero podría también ser un sistema menos complejo en el que un ser humano, por ejemplo, únicamente a veces modifica algunos ajustes de un mapeo de color a partir de una ubicación remota. Un graduador humano puede especificar sus mapeos de color deseados a través de un sistema de interfaz de usuario 230, que puede, por ejemplo, comprender una consola de gradación especializada con bolas de mando, etc. Acoplado con el software, puede incrementar así, por ejemplo, la saturación de color de una región de imagen seleccionada, o arrastrar un punto marcado en una curva de mapeo de tono (por ejemplo, componente rojo de entrada frente a componente rojo de salida resultante para todos los píxeles) hacia arriba. Centraremos nuestra descripción sobre lo que sucede en habitualmente una imagen HDR maestra ya graduada previamente óptimamente (por ejemplo, recibida a través de una entrada 240 conectable a, por ejemplo, un servidor de datos, o conexión de internet, etc.), aunque esa podría también proceder directa desde una cámara, que puede, por ejemplo, haber hecho internamente alguna gradación. Con la Figura 7 describimos un sistema ilustrativo de cómo se pueden definir tales gradaciones o imágenes HDR maestras. Cualquier captura de cámara o gradación es, de hecho, solo una representación de una escena del mundo, que necesita estimular a un ser humano para conseguir una impresión razonable de esa escena del mundo, de forma que no necesita ser necesariamente una representación exactamente precisa. De hecho, siempre se necesita cruzar el límite de dificultad de referencia de escena, en el que la cámara solo actúa como un dispositivo de medición lineal, para referencia de visualizador, en el que un visualizador necesita emular a un ser humano la escena original en un ajuste muy diferente (aunque alguna de esa complejidad no necesita tratarse en la codificación maestra, pero puede diferirse a las transformadas de visualizador). Se puede analizar si una codificación maestra debería ser capaz de codificar con precisión, por ejemplo, el sol, en el que un visualizador nunca renderizará con precisión el sol (que incluso cuando con posible y sensible consumo de potencia, sería muy irritante para el espectador en pantallas más pequeñas). Por tanto, por qué no asignar al mismo, por ejemplo, un código de luminancia alto fijo (por ejemplo, un pseudo sol de 20000 nits en lugar de 1 billón de nits). Adicionalmente, un problema con sistema de referencia de escena que son capaces de codificar todas las clases de valores que no son fáciles de ser visibles, es que no es fácil trabajar con estos espacios de color. Por ejemplo, si un graduador fuera a ajustar las saturaciones de algunas flores saturadas que él no puede percibir en su visualizador de gradiente actual, puede estar haciendo colores desagradables para siempre que esa imagen se muestre en un visualizador mejor que puede mostrar esos colores. Quizás eso es una operación reparable más adelante, pero se podría preguntar por qué se hace en primer lugar, al menos en esos colores. En la realización de codificación HDR de la Figura 7, damos mucho valor a un gran rango de luminancias, que puede codificarse (/graduarse) con precisión razonablemente en un rango de luminancias de un visualizador de referencia HDR de alta calidad, por ejemplo, de peak_white de 10000 nits (correspondiendo a un valor de luminancia MAX_REF en una representación de HDR tota1HDR_FREP). La idea es que se podrían tener al menos los colores más interesantes caracterizados en una especificación de alto rango dinámico de este tipo, y el graduador puede realmente ver los mismos, y óptimamente coloca las luminancias de diversos objetos de escena comparados entre sí (por ejemplo, oscureciendo las nubles). Este rango de, por ejemplo, 0,01 nits (que podemos simplemente llamar 0) a 10000 nits de colores visualizables será nuestro grado maestro M_HDR*, ya que podemos graduar el mismo óptimamente. La idea es que cualquier visualización de menor rango dinámico puede derivar sus colores a renderizar comenzando desde la especificación de los colores dentro de M_HDR* (habitualmente extraeremos desde la representación de imagen de HDR tota1HDR_FREP, este rango como M_HDR de entrada para nuestro sistema de, por ejemplo, la Figura 2). Esta especificación probablemente también funcione razonablemente bien para visualizadores con mayor rango dinámico. Por ejemplo, el graduador puede graduar aproximadamente algunas luces brillantes de la escena, de modo que mostrarán al menos brillo en cualquier renderización de visualización. Puede codificar en el grado de referencia M_HDR* para el visualizador de referencia HDR la luz más brillante a digamos el 99 % (lineal) de MAX_REF, y puede codificar otra luz brillante para ser aún brillante, pero en contraste definitivamente menos brillante en digamos el 80 % de MAX_REF. Un visualizador real de 20000 nits puede usar escalado simple en los códigos de esas luces, por ejemplo, potenciando ambas con un factor 2, que meramente corresponde similarmente (porcentual) referenciando los mismos a su mayor peak_white. En este caso ambas luces pueden ser levemente más brillantes -ya que podrían haber estado en la escena original-, pero en gran parte la apariencia de esa renderización HDR es aún similar a la apariencia de referencia en el monitor de referencia de 10000 nits del graduador. Realmente si se quieren codificar con más precisión valores mayores que lo que puede codificarse aproximadamente en la M_HDR* (por ejemplo, oscureciendo adecuadamente una luz de modo que se encuentra dentro de rango, aún con una apariencia similar, es decir, siendo irrelevante la luminancia de escena exacta de esa luz) se puede hacer así en la definición de espacio de color de la Figura 7, independientemente de si se quisiera usar esos valores más adelante para un visualizador de mayor rango dinámico para renderizar con más precisión esos colores brillantes que con un estiramiento de los valores codificados en M_HDR*. Se pueden aún añadir algunos colores realmente brillantes (o realmente oscuros) fuera del rango M_HDR* de lo que habitualmente daría una renderización realmente buena de una escena HDR, y habitualmente se pueden comprimir fuertemente esos colores, es decir, representar los mismos con únicamente un par de valores, siendo los códigos en HDR_FREP relacionados altamente no linealmente a las luminancias de escena real. Por ejemplo, cuando se mira a una escena de contraste muy alto como, por ejemplo, una escena de soldadura por la noche, puede no haber nada durante mucho tiempo por encima del rango M_HDR* codificando los objetos útiles, y a continuación existen las luminancias del arco. Podemos representar estos con una forma posterizada fuertemente del arco (es decir, unos pocos códigos) y poner los mismos justo por encima de MAX_REF. Esto ya sería una forma de tener una representación razonable de ese arco (ya mapeados en gama a colores que están cerca de esos que habitualmente se pueden renderizar en un visualizador HDR), pero si se quiere, también se puede desplazar en metadatos una función de cómo desplazar los mismos a luminancias más cerca de las luminancias reales en la escena (por ejemplo, una constante de compensación de luminancia). Mostramos un rango de luminancias que se pueden capturar CAM_1 de una cámara HDR que puede hacer esta captura, y una parte de la misma se codifica dentro de M_HDR*, por ejemplo, directamente (posiblemente con un multiplicador de contraste lineal) asignando los relativos valores de luminancia a valores de luminancia dentro de M_HDR*, o se puede usar ya alguna función de mapeo que hace automáticamente una primera clase de gradación (por ejemplo, empujando las luminancias más brillantes o más oscuras levemente más juntas). Las luminancias más brillantes capturadas por la cámara se almacenan a continuación en el rango de exceso Rw _STR_HI hasta el máximo MAX_REP de la codificación de color. Hemos mostrado un ejemplo en el que codificamos un cierto nivel de oscuros en el código 0, y puede almacenar con algún mapeo incluso luminancias más oscuras en valores negativos hasta MIN_REP. También mostramos cómo, por ejemplo, la gente de efectos especiales puede dibujar en los gráficos por ordenador CG de codificación de color HDR, como explosiones brillantes.
Volviendo a la Figura 2, el graduador humano usa la unidad de gradación de imágenes 201 que se dispone para hacer cualquiera de un conjunto de transformaciones de color. Este puede ser un conjunto limitado de funciones de transformación de color que permiten criterios matemáticos como, por ejemplo, reversibilidad (con reversibilidad normalmente queremos decir que en una codificación de color suficientemente precisa, como con flotantes, se puede invertir la función para derivar de nuevo una imagen de entrada a partir de su imagen de salida después de aplicar la transformación; con color queremos decir al menos un correlato de luminancia de un píxel, región o especificación de color de objeto), o preferentemente es un conjunto amplio de funciones que permite que el graduador gradúe la imagen de cualquier manera que le guste. Ejemplos de funciones típicas son las soportadas por, por ejemplo, Da Vinci Resolve o Adobe Photoshop. Internamente en esta etapa podemos suponer que todo el procesamiento aún sucede en codificaciones flotantes [0,0, 1,0] de los coeficientes de color, con la definición precisa que incluye cuantificación que viene en una etapa posterior en la unidad de gradación de imágenes 201. Sin embargo la imagen LDR de salida Im_LDR se codificará ya habitualmente de acuerdo con la norma de codificación de imagen o vídeo, por ejemplo, para señales no comprimidas puede cuantificarse en un espacio de color YCrCb, o puede comprimirse por ondícula, etc. El formateo real de esta imagen, por ejemplo, el troceo en bloques de datos, mientras que se insertan encabezamientos y otros metadatos se tratará habitualmente por un formateador 220, que emite una señal de imagen TSIG, por ejemplo, hacia una memoria para imágenes 102. Esta señal puede almacenarse en esa memoria de acuerdo con, por ejemplo, las especificaciones de disco blu-ray, o de acuerdo con alguna definición para almacenar en una tarjeta flash, o disco duro, etc. El experto entenderá que de forma similar la señal de imagen TSIG puede enviarse a través de alguna conexión de datos, por ejemplo, inalámbricamente a un servidor doméstico con memoria permanente o temporal para almacenar la TSIG o la imagen o imágenes.
En la Figura 8 proporcionamos un ejemplo de cómo un graduador puede graduar comenzando desde una imagen de entrada para crear una imagen de salida. Nos centraremos en la relación de los brillos de subrangos, y más adelante proporcionaremos unos pocos ejemplos de cómo tratar los componentes cromáticos de los colores de píxeles. Supóngase que los píxeles de imagen HDR de entrada (In) se codifican con sus luminancias L_HDR, y los valores de salida en LDR son codificaciones, de forma que las llamaremos lumas Y_LDR. Aunque nuestros métodos no se limitan por ningún medio a profundidades de bit particulares, supóngase el rango de lumas en [0,255]. Ahora el graduador estudiará la imagen de entrada particular para procesar (para vídeo esta será una imagen clave en una toma de imágenes a mapearse en color de forma similar) y diseñar un mapeo de color óptimo, en el ejemplo, un mapeo de múltiples segmentos de acuerdo con su preferencia. Supóngase que tenemos una parte cubierta (por ejemplo, bajo la sombra de árboles, en la que reside el actor principal) por debajo de luminancia de HDR Lt_1, y algunas casas en el fondo que son más brillantes. Por tanto, sus luminancias de píxel HDR se encontrarán por encima de Lt_1, pero no es necesario que la más oscura se encuentre directamente por encima de Lt_1. Además puede haber una lámpara muy brillante con luminancias por encima de Lt_3. Ahora esta escena es diferente de nuestra escena LDR clásica anterior. Tenemos dos escenas interesantes, la sombra alrededor del actor (en la que deseamos hacer al actor bien visible, aunque claramente más oscuro que la mayoría de la escena) y las casas iluminadas por el sol en el fondo circundante. El graduador puede, por ejemplo, elegir hacer la región entre Lt_11 y Lt_12 que contiene los colores de cara suficientemente brillantes y con contraste, para hacer la cara claramente visible. Puede hacer eso a expensas de colores más oscuros, que necesitan codificarse con menos valores de código Y_LDR, y por encima de Lt_13 se recortarán incluso a Y_LDR=0. También codificará/graduará con menor contraste/precisión las luminancias entre Lt_12 y Lt_1 disminuyendo la inclinación de ese segmento. Esto crea espacio en el rango de Y_LDR para las casas iluminadas por el sol, que escribe con curva definida arrastrando un punto de control CP. Los colores de lámpara después de una discontinuidad de luminancia de colores no oscurecidos, pueden modificarse justo por encima del final de la luma de las casas Y_H, o comenzando un par de códigos (por ejemplo, 10) por encima de eso.
Ahora en nuestra filosofía de contenedor LDR, esta curva de mapeo de color puede ambas funcionar como una curva de optimización de apariencia de color para la instantánea de salida, es decir, por ejemplo, habitualmente una gradación de LDR derivada a partir de una gradación de HDR, pero también como una curva de definición de código. Análogas a las curvas gamma de 0,45 de, por ejemplo, MPEG, que definen una codificación de luma para cada luminancia de entrada o renderizada, nuestra curva óptima define la asignación de valores de código particulares a las diversas luminancias en la imagen HDR de entrada. Pero por lo tanto simultáneamente los diversos objetos de imagen o sus subrangos de luminancia también están ya correctamente colocados a lo largo del eje de luma para directamente (o quizás con menos transformación, que puede implicar corrección previa de característica de visualización física como tratamiento EOTF, o menor ajuste hacia, por ejemplo, un entorno de visualización oscurecido particular a través de una transformada de visualización simple) el accionamiento de un visualizador LDR.
Por tanto, hemos cambiado o generalizado un par de verdades fundamentales de la tecnología de codificación LDR. En particular, preguntando la pregunta de qué es blanco en HDR (el papel blanco en la iluminación de punto ideal en interiores donde se produce la acción, o la pintura blanca de las casas iluminadas por el sol del exterior; con la visión humana también capaz de tratar muy inteligentemente todo eso semánticamente), hemos abandonado la visión de relacionar todo a un blanco particular, o un correlato del mismo como "el" gris medio de la escena/imagen. Como una alternativa a la misma, se nos ocurrieron regímenes de colores, que pueden funcionar en ellos mismos, cualquiera que sea la relación de luminancia con colores particulares como algún blanco. Por ejemplo, puede haber el régimen para las casas iluminadas por el sol o la lámpara, que pueden tener su propio tratamiento, que ahora sin referencia necesariamente con precisión puede ser relacional semántica en lugar de numérica precisa. Ya hemos proporcionado el ejemplo de un exterior brillante, o una luz muy brillante. En lugar de con una relación de luminancia fija haciendo (por ejemplo, promedio, o menor) el brillo exterior, por ejemplo, 5x más brillante, podemos hacerlos simplemente "una cantidad justa más brillante". La cantidad justa puede determinarse a continuación finalmente en el lado de visualizador. Por ejemplo, un visualizador HDR de 15000 nits muy brillante puede hacer el exterior 20x más brillante, pero puede necesitarse uno limitado para meter todos los colores de casas iluminadas por el sol en un rango superior que es simplemente en promedio 1,5x más brillante que los colores de interiores, simplemente proporcionando una simulación inicial del hecho de que fuera hace sol. De manera similar, una región oscura puede renderizarse no tan exactamente con luminancias Lx, Ly, etc., pero como "apenas discriminable". Sistemas de optimización y codificación HDR inteligentes pueden tener en cuenta las especificidades del visualizador y entorno, y pueden optimizar adicionalmente, comenzando desde el ajuste de gradación definido, las señales de accionamiento finales.
Por tanto, en segundo lugar esto significa que abandonamos el concepto de una única curva de definición de código fijo como una gamma general maestra 0,45 que estando cerca a la visión humana se considera que es adecuada al menos en todo el rango LDR de luminancias. Si usamos cualquier gradación de color como estricto (es decir, el visualizador debería intentar renderizar el mismo tan cerca como sea posible a como se vería, por ejemplo, en un monitor de referencia LDR, es decir, con mínimo auto ajuste) o como liberal (donde la gradación es solo una guía relativa, indicando aproximadamente cómo se pueden deformar los colores para mantener algo de la intención artística en, por ejemplo, un rango de luminancias físico más limitado), permitiremos que el graduador cree en algunas realizaciones incluso funciones de definición de código arbitrarias, que pueden incluso ser funciones discontinuas.
Y en tercer lugar, indicamos que ya no debería ser una única imagen graduada, sino que las gradaciones necesitan optimizarse para cada situación de renderizado. Y siendo la visión humana compleja, especialmente cuanto más varíen los sistemas de renderización en sus propiedades, menos correctamente puede hacerse con mapeos de color automáticos (especialmente simples), y más deberían hacerse óptimamente varias gradaciones por gradaciones humanas. Pero en práctica vemos que, para muchos escenarios dados instrumentos necesarios, será suficiente tener únicamente dos gradaciones (una clásica para LDR y una gradación de HDR para los sistemas HDR), y donde se necesita ajuste más preciso, los sistemas pueden aproximar más a continuación buenas gradaciones interpolando o extrapolando técnicamente las mismas sobre la base de estas dos gradaciones a partir de su información artística comprendida.
Detenerse después de la gradación de Im_LDR, y escribir esa imagen de contenedor LDR en una memoria de imágenes junto con una función de predicción para reconstruir de forma reversible una aproximación de1HDR maestro M_HDR a partir de la misma (quizás para algunos sistemas no es necesario un graduador usando mapeos de color estrictamente reversibles, ya que para sistemas de menor calidad puede ser suficiente reconstruir una REC_HDR con desviaciones significativas de M_HDR, siempre que los efectos HDR derivados a partir de los datos de Im_LDR aún produzcan una apariencia HDR razonablemente, en cuyo caso se pueden cocodificar tales funciones de mapeo de color de reconstrucción de HDR, que tienen inversa, que a continuación son aproximaciones de los mapeos de color reales usados por el graduador humano), sería bueno para sistemas con, por ejemplo, 12 o 14 bits (no lineales) definiendo la codificación de Im_LDR (dependiendo de los requisitos de las diversas aplicaciones). Cuando vamos a especificaciones más estrictas, como, por ejemplo, 8 o 10 bits (de que la mayoría de las personas dirían que son difíciles para codificar imágenes HDR, pero ya que los seres humanos únicamente discriminan únicamente un par de millones de colores, y dependiendo de la aplicación como un vídeo de movimiento rápido con ruido considerable, la cantidad de colores necesarios puede ser incluso menor, así que si quisiéramos codificar los colores más importantes requeridos en los 8 bits de forma correcta, eso debería ser posible), puede ser útil hacer las etapas adicionales de nuestra invención para garantizar una calidad mejorada de tanto la gradación LDR como HDR, mientras que permite al graduador máxima flexibilidad en cuanto a cómo deberían verse esas gradaciones (es decir, en cuyos subrangos de (correlato de) luminancia deberían encontrarse todos los objetos).
Ahora suponemos en la continuación de nuestro ejemplo de la Figura 2 que el graduador gradúa cada liberal con una función de mapeo de luminancia arbitraría y las lumas LDR se cuantifican a únicamente 8 bits. La inclinación de la curva de mapeo entre Lt12 y Lt_1 puede ser tan baja, que existen muy pocos códigos para representar fielmente esos colores, por ejemplo, de vegetación en la sombra. En una renderización LDR que puede no ser tan objetable (de hecho no lo es o el graduador no habría especificado la curva de esa forma), sin embargo, tras la reconstrucción de las luminancias HDR para estos objetos, la posterización puede dar una calidad de textura objetablemente baja a esos objetos en una renderización de calidad alta de este tipo.
Por lo tanto, la unidad de gradación automática 203 analizará la gradación de LDR Im_LDR del graduador humano, e identificará y resolverá tales problemas. Existen varias formas en que la unidad 203 puede hacer esto. Puede, por ejemplo, mirar de forma pura las propias imágenes y comparar regiones espaciales de las mismas. Por ejemplo, puede mirar una región en Im_LDR (tal como una cara oscura) y contar el número de códigos de luma que representan la misma. Las reglas internas de la unidad pueden especificar que cualquier región, o especialmente una región de cara, no debería representarse con menos de MB (por ejemplo, 10) diferentes valores de código (o en general un número de colores, habitualmente basándose en el número de lumas de la misma, pero pueden tenerse en cuenta restricciones similares sobre el número de diferentes saturaciones representables, por ejemplo). O la unidad 203 puede comparar la cantidad de códigos en la región en Im_LDR con la cantidad de diferentes códigos (habitualmente luminancias, pero M_HDR podría codificarse también con diferentes correlatos de luminancia) en la imagen HDR. Si existen muchos valores diferentes en M_HDR, debería haber también un número razonable de lumas en Im_LDR para esa región. Por ejemplo, la regla puede ser que la fracción de las lumas de Im_LDR frente a las luminancias HDR no debería ser menor de 1/5, o 1/10 etc. Se pueden definir de forma similar relaciones basándose en rangos en espacio de luminancia de punto flotante para M_h Dr . Puede hacerse un análisis de imagen más complejo, por ejemplo, estudiando formas geométricas y estimando cómo se desvían tales formas cuando se representan por menos colores. Por ejemplo, un detector puede identificar manchas en formas. Esto es una generalización de un detector de banda, que comprueba si existen series de un número de píxeles que tienen el mismo valor posterizado en Im_LDR o de hecho REC_HDR, donde no existen, y son de hecho transiciones funcionales suaves en M_HDR. Puede obtenerse información adicional a partir de estimadores de textura, que pueden determinar, por ejemplo, la complejidad local de regiones de imágenes, etc. Incluso si la determinación de la gradación automática GT_IDR no se va a basar solamente en el análisis de cualquiera de las propias imágenes (gradaciones) obtenibles, es útil si la unidad de gradación automática 203 comprende una unidad de análisis de imagen 213 capaz de hacer cualquier de los análisis anteriores, ya que los datos resultantes son útiles incluso cuando especifican una curva de plantilla, en un sistema que trabaja en las curvas de mapeo de color de las gradaciones.
Además, se comprende una unidad de determinación de curva 211, e ilustraremos algunas de las posibles realizaciones de la misma con las Figuras 9 y 10. En cualquier caso, si la determinación de la gradación automática se realiza basándose en el análisis de imágenes, algoritmos de mapeo como funciones de mapeo de luminancia o ambos o cualquier otro análisis o prescripción, habitualmente la unidad de análisis de curva 211 tendrá una unidad que determina y emite un algoritmo de mapeo de color final o función Fi(MP_T) (y posiblemente también una unidad que realiza uno o más de varios algoritmos de curva de mapeo de color o análisis de algoritmo, con lo que el algoritmo puede analizarse en sí mismo, o cómo se comporta en colores cuando se representa mediante curva o curvas). Este mapeo automático es ahora cómo se puede derivar GT_IDR a partir de M_HDR, por tanto, una unidad de mapeo de color 215 derivará GT_IDR aplicando el mapeo Fi(MP_T) a M_HDR. Por supuesto se necesita tener en cuenta en esta nueva formulación cuál era la gradación humana Im_LDR, ahora que se referenciará todo a GT_IDR. Por tanto, una unidad de mapeo LDR 217 analizará cómo puede obtenerse la Im_LDR a partir de GT_IDR, y derivar los parámetros a partir de la misma. Si una luminancia de píxel mapea desde L_HDR = 2000 hasta Y_lm_LDR = 180, y hasta Y_GT_IDR = 200, a continuación se puede derivar un mapeo entre estos últimos. En una forma funcional de este tipo, los valores Y_lm_LDR a lo largo del rango pueden derivarse aplicando una función por luma que multiplica Y_GT_IDR por (Y_lm_LDR/Y_GT_IDR). Pueden derivarse estrategias similares para otros mapeos.
Con la Figura 9 ilustramos una forma computacionalmente simple para determinar de nuevo la gradación humana en una gradación técnica estudiando la curva de gradación del graduador humano (ya sea solamente, o ayudado por análisis de imagen, o potencialmente incluso mediante interacción de graduador humano). Miraremos un ejemplo de deformación de curva, pero el experto puede entender que puede usarse un análisis similar para seleccionar una de un conjunto de curvas que funcionan bien (una o más curvas CRV_i en la Figura 2). Si el graduador desea un comportamiento sin contraste suave en una región media, y comportamiento estirado en regiones exteriores (por ejemplo, en el HDR, las regiones predominantes en las que se produce la acción principal pueden necesitar ser suaves como la seda, pero lámparas en el fondo pueden renderizarse más bastamente, incluso las bandas pueden no ser perceptibles o al menos importantes, al menos en algunas situaciones), se puede seleccionar (basándose, por ejemplo, en un cálculo de una correlación funcional) una de entre un conjunto de curvas preacordadas que coinciden mejor que un comportamiento de este tipo, pero no tiene una cuantificación demasiado alta para la parte media. Una selección de este tipo puede guiarse mediante análisis de imagen adicional, como determinando a qué clase pertenece una imagen (exterior soleado, o paisaje nocturno con algunas luces brillantes), mirando la distribución de histograma y sus parámetros (por ejemplo, ubicaciones y tamaños de lóbulos estimados, etc., o bien (semi)automáticamente, o bien por la experiencia del graduador de color humano). Es decir puede haber un par de curvas predefinidas 901, que proporcionan comportamiento razonable, al menos desde un punto de vista de la precisión. Una imagen real tiene que coordinarse alrededor de tal comportamiento, teniendo en cuenta los deseos de apariencia de gradación del graduador. Por supuesto si una cuantificación real es buena frente a una situación de trabajo teórica óptima o razonablemente también depende de cuántos píxeles de color particular existen en una imagen particular. Por ejemplo, si la parte oscura es solo un pequeño parche de mirar a través de una rejilla en una alcantarilla, digamos 50x50 píxeles en el ángulo inferior derecho de una imagen, a continuación puede ser bastante permisible para el graduador alguna cuantificación, al menos para esa imagen, toma o escena. Es decir las diversas curvas pueden ambas funcionar como una selección final para la gradación técnica (en caso de que haya una, o un par curvas de guía maestras -por ejemplo dependiendo de punto blanco de visualizador objetivo si la imagen se concibe esencialmente para visualizadores de 1000 nits o 10000 nits, o características adicionales de entorno de renderización o propiedades de imagendeterminando precisión de cuantificación en el rango de luminancia o luma), o pueden funcionar como puntos de inicio desde los cuales puede ajustarse la curva de gradación técnica, hasta que estira máximamente sus deformaciones de precisión de código para las gradaciones de imagen más críticas (habitualmente e1HDR a reconstruirse), y de ahí en adelante podemos codificar los requisitos adicionales en la otra apariencia de gradación (habitualmente un LDR) meramente mediante funciones de transformación a aplicar a esa gradación técnica GT_IDR.
Pero ahora describiremos un algoritmo de deformación de curva ilustrativo. Calcularemos una realización específica de una cantidad de información, que es una cantidad de códigos usados NC por subrango de luminancia (y podemos digitalizar un rango continuo en M_HDR también distribuyendo habitualmente de forma uniforme algunos códigos enteros a lo largo de ese rango). Miraremos un rango de prueba específico en estudio (entre L3 y L4), pero, aunque algunas realizaciones pueden probar únicamente algunos rangos, como los rangos oscuros, es ventajoso si todos rangos de luminancia de M_HDR se prueban de esta forma. Se puede formular de forma similar si algún rango de M_HDR se mapea a digamos 5 códigos Y_LDR, o si un subrango del mismo se mapea a un único valor Y_LDR.
El método comienza desde una función de codificación de referencia 901 (REF_CODF en la Figura 2), que especifica cuántos códigos se necesitan para que cada rango se puede reconstruir bien en REC_HDR. El experto debería entender esto depende de, y puede calcularse a partir de, parámetros técnicos como el rango dinámico del visualizador de referencia que pertenece a M_HDR, las especificidades prevista de la gradación de Im_LDR, etc. Tales una o más funciones de codificación de referencia, aunque podrían calcularse en cualquier codificador sobre la marcha (y pueden emitirse a continuación opcionalmente en la señal TSIG como metadatos), habitualmente pueden calcularse previamente en un laboratorio de diseño de, por ejemplo, un fabricante de software de gradación y, por lo tanto, almacenarse de una forma acordada en una memoria de al menos el codificador (en principio el decodificador no necesita esta información, pero también puede tenerla, por ejemplo, en caso de que funciones como Fi(MP_T) se definan como relaciones con una función de referencia de este tipo, pero que habitualmente no será el caso por simplicidad). El codificador puede, si tiene varias variantes, elegir una, dependiendo de cómo tienen que renderizarse Im_LDR y REC_HDR finales, y esto puede suceder con algunas selecciones de software del graduador humano. La función 901 especifica cuántos códigos se necesitan para cada intervalo de luminancias. Por ejemplo, en el ejemplo se decidió que únicamente tres códigos del Y_LDR_min de 8 bits (el número mínimo de códigos requeridos, dado un error de reconstrucción o representación permitido), es decir, de hecho de la Im_LDR, se usará para todas las luminancias HDR más oscuras que L1. Por tanto, estas regiones oscuras se cuantificarán bastamente, pero sin embargo tendrán alguna estructura. Si se iluminan estas regiones, puede producirse posterización severa de los objetos de imagen locales (ya sea en una renderización reconstruida HDR o una renderización LDR modificada a través de una transformación de visualización brillante), pero esto puede haber sido una decisión final para ser capaz de codificar suficientes imágenes HDR en este código de 8 bits (si el conjunto de imágenes codificables contiene imágenes de regímenes múltiples de contraste alto crítico, habitualmente al menos se debe sacrificar algo de calidad). Sin embargo, a menudo las regiones oscuras se renderizarán tan oscuras, que en cualquier caso no se podrá ver mucho detalle en los reflejos del panel frontal del visualizador del entorno de visión. Para ser capaz de renderizar razonablemente fiel (dado el ojo humano sensible cuando se muestra la REC_HDR reconstruida en un entorno de visualización oscuro) los colores oscuros en el intervalo hasta L2, la curva prescribe que se requieren códigos de luma C2-3 como mínimo (se pueden usar más códigos por supuesto). Definir una curva de este tipo significa que se pueden codificar imágenes HDR hasta una luma de LDR máxima Cmax igual a, por ejemplo, 255 (si el contenedor LDR tiene 8 bits disponibles para su luma; nota importante, esto puede verse simplemente como el diamante de gama hasta 1,0 estando fijo, y cuantificarse con contenedores equidistantes, pero la distribución de los píxeles de imagen variando dependiendo de las transformaciones aplicadas, imágenes HDR, por ejemplo, teniendo a menudo un gran porcentaje de los píxeles por debajo de 0,1), que corresponde, si este contenedor de 8 bits está codificando realmente una imagen HDR, a una luminancia máxima L_HDR de, por ejemplo, 10000 nits, dependiendo de la curva. Obsérvese que la curva puede ajustarse para tener en cuenta la relativa naturaleza escalada de luminancias renderizadas, y en esta descripción queremos decir que podemos representar luminancias de visualizador de referencia HDR entre, por ejemplo, L1/10 (como un negro razonable aún cuantificable en la luma 0) y 10000 nits, pero se puede adaptar siempre por supuesto escalando de modo que se representan algunas otras luminancias. Por simplicidad se puede suponer seguramente que tanto L_HDR como Y_h Dr tienen ejes entre 0,0 y 1,0, y a continuación se cuantifican a alguna precisión.
El experto entenderá que esta función de codificación de referencia 901 puede especificarse mediante varios factores. Por ejemplo, cuando el graduador humano garabatea sobre una región de la imagen (por ejemplo, M_HDR), que puede ser, por ejemplo, una región de cara, la unidad de análisis de imagen 213 puede determinar a partir de la misma un rango de luminancias HDR en el que se encuentran esos colores de cara. A continuación puede especificarse de nuevo la curva, de modo que se requieren más lumas para representar la misma. Puede saber que, por ejemplo, si el graduador teclea un botón de indicación de "cara", cuántos códigos (es decir, contenedores de cuantificación) se necesitan habitualmente para cualquier situación (es decir, por ejemplo, una cara no bien iluminada de acuerdo con el 36 % de especificación, pero, por ejemplo, que se encuentra en un área de sombra más oscura de la escena haciendo su luminancia promedio, por ejemplo, el 10 %, y siendo el contenedor LDR, por ejemplo, de 10 bits y una renderización HDR requerida óptima para, por ejemplo, 4000-5000 nits). Esto conduciría a una prescripción de un número de contenedores (habitualmente en el eje de HDR, pero también podría estar en el eje de Y_LDR) alrededor del punto de color de cara actual promedio. Esto puede ser automático (por ejemplo, duplicando o modificando la cantidad de JND para renderización de referencia HDR cubiertas por este rango), o el graduador puede directamente influenciar o especificar la forma de la función 901 en esa región. La curva puede especificarse o especificarse de nuevo (si se necesita) en muchas propiedades, como, por ejemplo, mediciones de la HDR_image. Ahora mirando la curva de mapeo de luminancia 902 real de la gradación que produce Im_LDR (es decir, el graduador en la actualidad no tiene en cuenta nada acerca de pérdida de datos y cuantificación y similares, pero simplemente definiendo artísticamente dónde quiere que estén sus colores de objeto en la gama normalizada para esta imagen, para realizar, por ejemplo, una apariencia atractiva con muchos brillos altos llamada clave alta), encontramos que en el intervalo [L3,l4] la cantidad de códigos reales que se producen dada esta curva de mapeo desde la gradación maestra HDR hasta la apariencia LDR elegida LDR es menor que la cantidad mínima requerida NC para esa región (hemos desplazado la curva para superposición clara, pero por supuesto la determinación de lumas usadas puede hacerse simplemente para cualquier curva). Obsérvese que hemos asumido que las lumas se determinan equidistantemente en los rangos, pero se pueden tener en cuenta no linealidades de manera similar, por ejemplo, centrándose en mapeos (no)permitidos a luirías individuales. Pero normalmente en el eje de Y_LDR tendremos contenedores equidistantes, por tanto, podemos analizar de esa forma sin perder generalidad de enseñanza.
Por tanto, usamos en la actualidad muy pocos códigos en ese intervalo (que podría mostrarse como un contraste bajo en renderización LDR, pero probablemente no ya que el graduador acaba de optimizar su curva, pero habitualmente aparecerá como para cuantificación basta para imágenes HDR reconstruidas), y necesitan estirar la inclinación local de la curva 902. Existen varias formas de hacer esto, por ejemplo, con funciones de error elásticas que penalizan errores de cuantificación en cualquier intervalo. En general podríamos tener en cuenta cualquier matemática, teniendo en cuenta, por una parte, tamaño de intervalos particulares y, por otra parte, posiciones de luminancia/luma promedio de esos intervalos, es decir, cuánto se desvía la curva de la gradación prevista. Por supuesto, si la gradación técnica lo demanda, se necesita una forma de curva de mapeo particular que está lejos de la forma que el graduador desea para la apariencia LDR (es decir, requisitos de datos de HDR técnicos o estando el propósito de asignación de código de la función de mapeo lejos de los requisitos de "LDR" o el propósito de apariencia de renderización del mapeo), a continuación el graduador continuará definiendo su apariencia de otra forma adicional a través de funciones de mapeo adicionales. Por tanto, en principio no se necesita ninguna especificación estricta o matemática crítica para este método, pero por supuesto algunos métodos tendrán cálculos menos complejos y serán más intuitivos en cómo de rápidamente llega el graduador al resultado deseado de codificación+gradación (ya que el tiempo del graduador es caro, al menos para algunas clases de programas).
Ilustramos una curva de transformación simple con la Figura 10. Si Nc1 es la cantidad actual de lumas asignadas al intervalo, y Nc2 es la cantidad necesitada de códigos (si se necesitan mínimamente, o levemente mayores), se puede extender esa parte de la curva, por ejemplo, multiplicando alrededor del punto medio con Nc2/Nc1. El resto de la curva tiene que modificarse, y asumimos que redistribuir la cuantificación para encajar en la cantidad total de códigos ya proporcionará un resultado satisfactorio. Se puede, por ejemplo, derivar la parte de la curva por encima de L4, tomando esa curva, compensándola con OFF_1 y escalando la misma de modo que el máximo aún se encuentra en la luma máxima. Haciendo esto en todas partes, se obtiene la curva de gradación técnica 903, que es la curva de mapeo de color Fi(MP_T). Las lumas en el eje de Y_LDR_min formarán a continuación la imagen GT_IDR. El sistema puede comprobar si existe otro rango que a continuación se vuelve crítico, y a continuación, por ejemplo, equilibra el error entre las dos regiones. Por ejemplo, idealmente Nc2 debería ser de 10 códigos, y Nc2* en otro rango de L_HDR (es decir, también Y_LDR) puede necesitar ser idealmente 8, pero si existe únicamente espacio para un total de 16 códigos, se puede distribuir el error mínimo de cuantificación como 9 códigos y 7 códigos. Por supuesto, esto puede ponderarse por tales factores como rango de las dos regiones, significado semántico (hay colores de cara), etc. Si es necesario, el sistema puede avisar al graduador para que elija cuál de las dos áreas debería ser mejor, por ejemplo, con una interfaz de usuario que le permite aumentar el número de códigos Nc2 (es decir, la inclinación local) en las etapas, que a continuación significa menos códigos para Nc2*, que el graduador puede pensar que visualmente es aceptable. Por supuesto algunas realizaciones pueden trabajar totalmente automáticamente detrás de la escena cuando se selecciona la curva de mapeo técnica y gradación Gt_IDR, y en ese caso el sistema puede, por ejemplo, simplemente abandonar el ajuste alrededor de una curva de gradación de LDR preferida e inmediatamente saltar a una de las curvas técnicas predefinidas que funcionan bien (por ejemplo, una que tiene al menos deformación en comparación con la apariencia LDR que define la curva (902), como calculada como SUM(wi*[FT(L_HDR)-FL(L_HDR]), en la que los corchetes indican alguna función como un valor absoluto o cuadrado, la FT es la función técnica seleccionada en la actualidad por valor L HDR, y FL es el mapeo de apariencia LDR preferido de la gradación, y las ponderaciones wi pueden ser uniformes, pero también ponderar más ciertas áreas de L_HDR, como, por ejemplo, donde residen las caras), en cuyo caso la apariencia se define a continuación mediante la función de mapeo adicional Fi(MP_DL). Medidas de error también pueden tener en cuenta inclinaciones, ya que inclinación local identifica la cantidad de códigos disponibles en la representación LDR frente a códigos requeridos en la región HDR. Obsérvese que incluso cambiar un intervalo, de hecho, distribuye un error por todo el rango en comparación con lo que le gustaría ver el graduador, pero eso no necesita ser necesariamente un gran error, ya que se distribuye y ve relativamente ya que el ojo no está realmente diseñado para funcionar como un medidor de luminancia absoluta de todas formas, y en cualquier caso puede calcularse de nuevo, para sistemas más prácticos, en el lado de recepción con Fi(MP_DL). El experto entiende que puede haber muchas otras formas para realizar funciones similares. Por ejemplo, puede ser de modo que existen suficientes códigos (porque la imagen M_HDR no llega hasta L_HDR_MAX correspondiendo con Y_LDR_MAX), y se puede tener mucha libertad en especificar de nuevo al menos algunas partes de la función 903, incluso la curva 902 estaba aún demasiado cuantificada en intervalo [L3,L4], y tiene que corregirse. En un escenario de este tipo se puede desplazar más libremente la luma de punto medio del intervalo [L3,L4], y las otras regiones de curva. Tales escenarios corresponden al brillo de algunos objetos, etc. El otro escenario es donde el sistema es realmente crítico, y redistribuir la cuantificación fuera del intervalo [L3,L4] puede conducir a cuantificación inapropiada allí. En ese caso pueden usarse estrategias de mitigación para determinar una curva final. Un ejemplo de una estrategia de mitigación es dividir los errores restantes sobre los rangos más crítico, como [L3,L4] y [Lx,Ly], fuera de donde el mayor error de cuantificación se produce para la curva de gradación actual, o cualquier curva que intenta mantener una aproximación razonablemente cercana a la curva del graduador humano actual. También se puede decidir asignar los errores fuertemente a algunas regiones. Por ejemplo, se pueden recortar luminancias a incluso levemente por encima de L1 al único valor de luminancia 0, o se puede decidir recortar en el extremo brillante, incluso en la gradación técnica GT_IDR. La imagen REC_HDR a continuación no se puede reconstruir perfectamente, pero tales escenarios pueden usarse en sistemas que tienen una corrección de exceso. Por ejemplo, los valores recortados pueden codificarse en una segunda imagen, separada de la GT_IDR, que contiene únicamente los datos para una región brillante y recortada en GT_IDR. Cuando se compara la curva de mapeo real con una que tiene buenas propiedades técnicas (caracterizado por que tiene al menos una cantidad mínima de códigos por intervalo) por supuesto la unidad de gradación automática comprobará si existen realmente algún color de píxeles en ese intervalo, de otra manera puede distorsionar seriamente la función en ese rango.
La Figura 12 (Figura 12b) muestra un ejemplo de cómo un graduador puede influenciar la curva técnica que asigna los códigos usados para la gradación técnica GT_IDR. Como se ha dicho, todo esto puede suceder en algunas realizaciones detrás de la pantalla sin que el graduador lo sepa, pero en este punto proporcionamos un ejemplo de cómo un graduador puede especificar o influenciar la cantidad de códigos asignados a una región particular en el rango de luminancia HDR 1210, supongamos que contiene colores faciales. Supongamos que en este ejemplo la asignación automática de zonas de color fue muy buena (posiblemente teniendo en cuenta que tenemos únicamente disponible luma de 8 bits en lugar de 10 bits, o quizás para 10 bits un espacio de colores menos apropiado que introduce cuantificación muy severa al menos para algunos colores como, por ejemplo, azul saturado), pero el graduador que mira su visualizador de referencia de calidad quiere levemente más precisión, por ejemplo, para tener una cara menos enrojecida. Puede a continuación considerar que la inclinación local en rango de luminancia 1210 es muy baja, y puede querer aumentar la misma a través de medios de cambio de inclinación de interfaz de usuario 1203, que puede ser, por ejemplo, una flecha que aumenta si se clica, la flecha superior aumenta la inclinación con X %, o un cursor arrastrable, etc. Puede especificar el rango 1210 directamente en su ventana de visualización de herramienta de curva y arrastrar uno o más establecedor o establecedores de límites 1202. La interfaz de usuario también puede ayudar la selección rápida, por ejemplo, permitiendo dibujar un garabato 1215 en la instantánea representativa graduada de una escena (véase la Figura 12a).
Todo este tiempo el graduador está mirando la renderización de imagen HDR reconstruida. Si ahora quiere trabajar en la imagen LDR de nuevo, conmuta a esa visualización y especifica su gradación de LDR adicionalmente de nuevo comenzando desde esta curva técnica, a una curva de mapeo o estrategia adicional. Medios de rastreo de movimiento para rastrear la cara y ajustar sus propiedades si camina debajo de iluminación variable pueden ayudar en la determinación si es necesario, pero en general no necesitaremos tal complejidad para la presente invención, ya que la curva técnica se supone que es únicamente en general en gran parte buena, y no finalmente específica. Pero en cualquier caso puede ofrecerse al graduador ajuste, en cualquier momento, de la película que considera interesante, tanto de la curva técnica como la curva de mapeo para obtener las imágenes LDR óptimas. Ahora el software puede configurarse para cambiar la inclinación en comparación al punto medio (curva 1204). Sin embargo, el graduador puede considerar que esto introduce problemas de color de gradación que puede querer abordar ahora (en lugar de en las segundas funciones de mapeo de LDR). Por ejemplo, cuando el algoritmo o hardware calcula la nueva curva, reasignará, en sus versiones más simples, el error, que puede hacer, por ejemplo, estirando la forma restante de la curva al máximo valor de 1,0, comenzando desde el nuevo punto alto del intervalo estirado localmente. Pero el graduador puede considerar que esto proporciona colores demasiado brillantes en las regiones 1205. Por lo tanto, el software puede tener medios de ajuste de posición 1206, que permiten que el graduador desplace la curva local en el rango 1210 hacia arriba o hacia abajo un poco, resultando en la curva razonable final 1207. El graduador también puede especificar de forma similar regiones en las que considera que los errores de cuantificación pueden ser más severos, por ejemplo, en este caso el control deslizable 1201 puede permitirle establecer un nuevo límite inferior para un rango de colores brillantes que pueden cuantificarse un poco más cuando se necesite. Si se necesita equilibrar las propiedades de color dadas todas las limitaciones técnicas, esto puede ser una buena forma de llegar a un óptimo razonable, especialmente si el material original no se capturó perfectamente en los brillos de todas formas, pero, por ejemplo, con colores algo más pastel. Los controles deslizables a continuación, por ejemplo, proporcionan la posición de luminancia de HDR de referencia sobre los que hay, por ejemplo, códigos de 20 m, distribuidos a través de, por ejemplo, una gamma 2,2, o curva basada en JND psicovisual, etc. En este caso las matemáticas del algoritmo pueden tener en cuenta cuándo redistribuir los errores, por ejemplo, penalizando una diferencia de los 20 códigos de una manera ponderada con los códigos restantes entre el punto alto del rango 1201 y que el valor inferior del rango superior establecido por 1201. Por supuesto el graduador, si considera que el problema es lo suficientemente crítico para emplear más tiempo, también puede seleccionar uno o más de tales rangos para ajustar y, por ejemplo, añadir una resistencia de fijación a las curvas ya determinadas, indicando que pueden no perder ningún código o como máximo el 20 % de los códigos, o perder códigos a una tasa 10x inferior que el intervalo actual, etc. Esto proporciona alguna inercia en la especificación de nuevo de otro intervalo. Pero normalmente el graduador no tendrá que codificar de nuevo muchas regiones críticas, de otra manera puede dejar que el hardware venga con una propuesta automática.
La Figura 3 muestra una posible realización de un sistema de codificación que sigue los principios de nuestra invención, en la que el humano deriva su gradación a partir de una gradación técnica GT_IDR. El lector entenderá que variantes técnicas que damos a conocer en este punto (por ejemplo, con respecto a mapeos de color técnicos adecuados, etc.) también serán aplicables a la clase de realizaciones de la Figura 2 u otras realizaciones, y viceversa.
Una unidad de derivación de mapeo de color 214 determina un mapeo de color adecuado (por ejemplo, curva de mapeo de luminancia, y correspondiente estrategia de tratamiento de coordenadas de color cromático) para mapear M_HDR a GT_IDR. El propósito principal de esto es determinar una gradación GT_IDR que es más adecuada desde un punto de vista técnico. En particular, se debería ser capaz de reconstruir una REC_HDR (aplicando CMAP_2 que es el mapeo de color inverso de Fi(MP_T)) que será una aproximación cercana a M_HDR (de acuerdo con algunos criterios de desviación de imagen), o al menos se encontrará dentro de una segunda precisión predefinida de M_HDR. El experto entiende que se definen varias formas de medir desviaciones entre imágenes. Por ejemplo, una medida popular es PSNR, pero que una medida ciega bastante simple, que en ocasiones puede dar altas contribuciones a diferencias en ruido que son psicovisualmente difícilmente visibles mientras que miden algunas desviaciones de objeto reales en un grado menor. Por tanto, nos gustaría usar medidas que miden más estrictamente lo que sucede a los diversos objetos, especialmente en un marco matemático correlacionado con principios psicovisuales. Por ejemplo, la unidad de análisis de imagen 213 puede hacer alguna segmentación aproximada de la REC_HDR y M_h Dr en segmentos (pseudo-objetos). Puede, por ejemplo, buscar segmentos relativamente suaves, y medir ahí una cantidad de posterización. Una cantidad puede ser, por ejemplo, la cantidad de colores usados frente al área de la región de gradiente suave, que resultará en medida de precisión que es similar a contar longitudes de series de series de píxeles con un mismo color cuantificado. También se pueden calcular correlaciones funcionales o diferencias acumuladas entre la forma de luminancia de M_HDR original sobre el espacio, y la función de escalonamiento en REC_HDR. El experto entenderá que se puede introducir información (pre)semántica en nuestra evaluación de la precisión y la elección o elecciones resultantes de algoritmos de mapeo. Por ejemplo, si existe únicamente un pequeño objeto, especialmente si está en el fondo cerca del lado de la imagen, el objeto es probablemente menos importante y podemos codificar el mismo con menos códigos de luma, haciendo más códigos disponibles para otros códigos. El experto entenderá que una precisión o error total (por ejemplo, como una imagen de precisión) puede formarse a partir de un conjunto preacordado de algoritmos de medición (por ejemplo, cargados en la unidad de gradación automática 303 a través de una actualización de software), que puede tener en cuenta propiedades geométricas como tamaño o posición de un segmento u objeto, propiedades estadísticas como de qué clase de textura o color es el segmento/objeto, propiedades semánticas como si estamos mirando una cara o cielo (con un detector de cara o cielo), etc. La matemática de precisión también puede tener mediciones especiales para analizar los efectos HDR, por ejemplo, una explosión puede caracterizarse no como una diferencia absoluta de los colores de píxeles entre REC_HDR y M_HDR, sino con una medida relativa que se basa en tales parámetros como una diferencia entre el color promedio en la bola de fuego y los alrededores, una variación de colores en la bola de fuego etc. La REC_HDR se verá continuación como suficientemente precisa si una medida de la misma está por debajo o por encima de un umbral, es decir, incluso si la bola de fuego es un poco menos brillante o con menos contraste en la reconstrucción, siempre que tenga impacto suficiente porque es aún mucho más brillante que los alrededores, la reconstrucción se ve como una buena reconstrucción de h Dr . Tales variantes son especialmente útiles para sistemas que son más críticos debido a la opresión de recursos físicos como la cantidad de bits en la codificación de GT_IDR. Efectos HDR pueden caracterizarse de una forma compleja, o seleccionarse simplemente como regiones de brillo alto, por ejemplo, por encima de un umbral relativo LT. El experto también entenderá que en, por ejemplo, una estrategia recursiva que vendrá en etapas al mapeo de color óptimo Fi(MP_T), la unidad de derivación de mapeo de color 214 puede no determinar simplemente su mapeo basándose en una precisión total agregada, sino ajustar basándose en las precisiones parciales. De forma similar a nuestro ejemplo de ajuste local de la Figura 9 y 10, la unidad 214 puede curar una cara que se representa bastamente, porque identifica parches en la cara, y a continuación asigna más códigos cambiando esa parte de la función. Los criterios de precisión no necesitan cumplirse calculando los mismos per se. En su lugar, podemos usar un conjunto de funciones preacordadas o algoritmos de mapeo de color ALG(CRV_i), que se consideran que cumplen razonablemente con los criterios de precisión para una aplicación particular desde un punto de vista práctico. Incluso si una curva de mapeo óptima seleccionada aún introduce un error un poco más severo en alguna parte de alguna imagen M_HDR inconveniente, que se considera a continuación como aceptable. La determinación en cualquiera de esos escenarios puede ser tanto automática dentro de la unidad 303 sin ninguna intervención manual molestando al graduador artístico, o puede guiarse parcialmente o determinarse totalmente por el graduador, por ejemplo, dejando a este graduador seleccionar uno de entre un número de posibles algoritmos de mapeo o curvas. Habitualmente la unidad 303 conocerá, y el graduador habrá establecido, algunos parámetros genéricos con respecto a la situación de mapeo y codificación, por ejemplo, el rango dinámico (por ejemplo, CODR o CDR) de la imagen M_HDR, y el graduador puede haber seleccionado de una lista de menú que está graduando en la actualidad una "imagen nocturna", etc.
Por ejemplo, la unidad de análisis de imagen 213 puede mirar la imagen M_HDR, y encontrar que existen dos lóbulos bien separados en el histograma de luminancia. Puede a continuación derivarse una función de mapeo (al menos inicial) que los mapea a subrangos apropiados del código de luma de 8 bits, teniendo en cuenta que el sistema visual humano es más sensible para las partes más oscuras, que necesitarán, por lo tanto, un mayor subrango. Por tanto, en una escala basta el mapeo podría ir a, por ejemplo, [0,170] y [180, 255], es decir, cualquier función que realiza tal es un candidato viable. Dentro de estos rangos, puede hacerse doblamiento adicional del mapeo curvas de Fi(MP_T), por ejemplo, proporcionando a caras un número de códigos algo mayor (que para ser claros no necesita per se corresponder a un mayor contraste en la cara en la renderización definitiva, ya que la transformación de visualizador aún puede reducir el contraste sobre la cara, pero entonces al menos tenemos una buena precisión de la textura facial e iluminación).
Las versiones más simples pueden ser, por ejemplo, un conjunto de curvas de tipo gamma paramétricas Y_LDR=k*L_HDR por debajo de L1 y 1*potencia(L_HDR, gamma)+compensación por debajo L1. En este caso el mapeo técnico automático que determina algoritmos puede habitualmente evaluar que la estructura de imagen está en las regiones oscuras, y determinar una parte lineal lo suficientemente bien caracterizada con la misma. Si existen muchos objetos, especialmente con una estructura geométrica complicada (como un cobertizo que contiene muchos objetos, como tableros de madera para posterior construcción, marcos de metal, herramientas, etc. todos apilados entre sí en la oscuridad), a continuación la unidad/algoritmo puede decidir asignar más códigos a esta, ajustando la primera parte (por ejemplo, lineal) de la curva de tipo gamma. De manera similar, si existen actores en la oscuridad, el sistema puede querer caracterizar los mismos con suficientes códigos, incluso si se renderizan finalmente de forma muy oscura, y el espectador no vería demasiado detalle en los cuerpos de todas formas (pero obsérvese que un espectador podría siempre, a través de su control remoto, aplicar una transformada de visualizador de brillo, y una buena codificación debería satisfacer eso).
De forma similar, la imagen M_HDR puede analizarse y segmentarse en una parte media (por ejemplo, algoritmos de análisis de imagen adicionales como un analizador de movimiento puede ayudar en la determinación de una región de acción principal), una parte brillante, y una parte oscura, y a continuación puede determinarse una curva de tres segmentos o sigmoidal para eso, etc.
Alternativamente, puede avisarse al graduador humano para seleccionar una curva técnica óptima a través de su interfaz de usuario 230. Por ejemplo, puede elegir la óptima de un número de curvas de tipo gamma, pero el experto entiende que esto podría ser otras curvas preacordadas fijas, y en una optimización técnica recursiva el graduador podría incluso comenzar a ajustar curvas, por ejemplo, arrastrando puntos de control CP. Las curvas pueden a continuación, por ejemplo, tener algún mecanismo de elasticidad interna, prohibiendo al graduador elegir segmentos con una inclinación demasiado baja, u otras características inapropiadas como inversiones, doble asignación (que no puede invertirse como una CMAP_2), etc. Habitualmente el algoritmo aparecerá por sí mismo en un estado estable (inicial o momentáneo), por ejemplo, haciendo sonar un aviso si la curva se deforma de forma inservible, y a continuación restablece la misma a una similar con buenas propiedades de reconstrucción. Habitualmente el sistema generará a continuación la REC_HDR, y permitirá el graduador alterne con M_HDR en su visualizador HDR de referencia, para ver la precisión o errores. El sistema enviará la GT_IDR a un visualizador LDR de referencia, de forma que el graduador también puede comprobar eso. Esta imagen puede ya ser suficiente en algunos escenarios y a continuación el graduador ya no necesita hacer una segunda Im_LDR, pero incluso si es una gradación de LDR de menor calidad, algunos sistemas de recepción aún quieren o necesitan usar la misma (por ejemplo, debido a una implementación compatible hacia atrás en la TSIG, para un reproductor de DB heredado que ignora los datos de mapeo de color y solo reproduce GT_IDR; Pero también, por ejemplo, GT_IDR puede contener información útil para ajustar/interpolar a una gradación a usar final para un visualización de medio rango dinámico display, etc.). En caso de que se satisfaga al graduador, continuará con la siguiente imagen o toma de imágenes, y de otra manera cambiará parte de la curva o algoritmo adicionalmente. El codificador puede tener medios para ayudarle con eso. Por ejemplo, cuando garabatea dentro de una región con grandes errores, el codificador puede dibujar en la curva en cuyo intervalo de luminancia se encuentran estos colores. Puede incluso ya haber análisis de los artefactos, y sugerencias (por ejemplo, "se sugiere la duplicación de la cantidad de códigos" y ya aplicando la nueva curva para obtener una segunda REC_HDR_2 (por la unidad de mapeo de color 215), ya que la unidad/algoritmos deben hacer tanto por sí mismos para ahorrar a un artista ocupado tanto como sea posible de este grado técnico- aunque es importante ya que es una gradación aproximada para la apariencia final).
Ahora en la case de la Figura 3 de realizaciones, el graduador continuará ajustando en la imagen GT_IDR usando la unidad de gradación de color 301, para obtener su apariencia máxima como gradación Im_LDR. En principio, podría aplicar de forma liberal ahora cualquier transformación de color, ya que no se usa IM_LDR para reconstruir REC_HDR. Sin embargo en un sistema práctico es útil si se soporta un conjunto limitado de algoritmos de mapeo de color, que permite la mayoría o todos los cambios de color que un graduador puede habitualmente querer hacer, ya que sus datos de definición Fi(MP_DL) necesitan codificarse en la señal TSIG. Podrían diseñarse algunas normas de señal, preferentemente que se puedan mejorar, de modo que datos de nuevos mapeos de color posteriores pueden escribirse en los metadatos (con un nuevo indicador de tipo, que se puede ignorar por sistemas antiguos). Esto es útil para futuros decodificadores que se pueden mejorar fácilmente, tal como software ejecutándose en un ordenador para decodificar películas compradas de una base de datos de películas por internet. Para sistemas con una renovación más corta, para los que únicamente en ciertos momentos (caro en relación con el coste del sistema total) se diseñará un nuevo chip de procesamiento, es mejor acordar a priori un conjunto fijo de mapeos de color (por ejemplo, funciones realizadas como LUT, etc.). Finalmente todos los datos GT_IDR, Fi(MP_T) y Fi(MP_DL) (o derivaciones de los mismos) se formatean por el formateador 220 a las especificidades de uno o más formatos de señales elegidas, y envían hacia fuera a través de algunos medios de comunicaciones de señales.
La Figura 4 muestra una posible realización de un sistema de recepción, y el experto entenderá que puede haber muchos de tales sistemas. Por ejemplo, el decodificador de imagen 401 puede comprenderse en una unidad separada (como un reproductor de BD o STB), puede comprenderse en un visualizador o un propio aparato que comprende un visualizador (por ejemplo, una televisión, o teléfono móvil (nota importante, el teléfono móvil aunque puede no tener un visualizador HDR, puede aún necesitar leer la codificación HDR, y extraer la gradación Im_LDR de la misma)), un ordenador, etc. Puede haber sistemas profesionales que comprenden también el codificador, por ejemplo, un transcodificador en las instalaciones de un proveedor de contenido, que, por ejemplo, crea, a partir de una primera variante de codificación HDR de acuerdo con los presentes principios, una codificación de imagen en una segunda variante, a distribuirse, por ejemplo, a lo largo de un sistema de pago por visión, etc.
El decodificador de imagen 401 comprende una unidad de derivación de imagen 403 que se dispone para hacer la construcción de todas las imágenes requeridas. Por ejemplo, puede extraer los datos de mapeo de color Fi(MP_DL) y hacer una decodificación MPEG_HEVC en GT_IDR. Y a continuación aplica el mapeo de color para derivar REC_LDR. También tenemos en esta realización una unidad de configuración de sistema 402, que puede disponerse para comprobar, por ejemplo, qué clases de visualizadores están conectados en la actualidad, o qué clase de dispositivos de almacenamiento necesitan formas particulares de imágenes reconstruidas (por ejemplo, una REC_HDR, o una gradación interpolada RFC_MDR, etc.), y puede controlar adecuadamente la unidad de derivación de imagen 403 para hacer el procesamiento requerido. En este ejemplo podemos enviar datos (si una imagen HDR ya optimizada, por ejemplo, para el visualizador conectado, y/o datos intermediarios, como, por ejemplo, mapeo de color datos, que permitirían que la televisión hiciera un ajuste adicional en la imagen HDR recibida) en una conexión de red por cable 410, como, por ejemplo, una conexión de interfaz HDMI, a una televisión con retroiluminación LED 2D (u OLED, etc.) 411. Pueden hacerse visualizadores de alto rango dinámico de varias maneras. Por ejemplo, se puede intercalar entre la estructura de material LC que en RGB bloquea mucha luz, células que transmiten la mayoría de la luz si se accionan totalmente abiertas. O se puede tener un visualizador iluminado por LED láser, por ejemplo, en un proyector en el que se puede proyectar localmente más LED a una región de CI de DMD si se necesita repentinamente brillo excesivo, o en cines se podría tener una estructura de proyector adicional para crear reflejos, etc. O podemos enviar inalámbricamente a través de una antena 415 datos a un visualizador LDR 416, como, por ejemplo, un visualizador de tableta, etc. También mostramos simbólicamente otra señal de imagen graduada que se proporciona por el formateador 407, por ejemplo, una imagen de medio rango dinámico óptima para un visualizador de, por ejemplo, cresta de blanco de 1800 nits, y envía a un visualizador de este tipo, o a una memoria de almacenamiento para su uso posterior, o a través de una red a otro ligar del usuario, residiendo su teléfono móvil en algún sitio en el mundo exterior, o uno de sus amigos, etc.
La Figura 5 muestra nuestro conocimiento de componentes dentro de una cámara 501, que consigue una imagen RAW de un sensor de imagen 504 a través de una lente 502. Un motor de conocimiento 520 puede configurarse de diversas formas para obtener conocimiento estructural, estadístico y/o semántico estudiando instantáneas RAW capturadas, y guiar la derivación de mapeo técnica mediante a unidad de derivación de mapeo de color 214 como se ilustra anteriormente. La cámara puede tener su propia interfaz de usuario 550 (conectada o remota, por ejemplo, de un aparato de visualizador para el director y/o DOP para seguir la captura, y dirigir a través de la antena de comunicación 580) para influenciar los algoritmos de mapeo técnico, como, por ejemplo, cambiar el contraste local de algún intervalo de luminancia. El mapeo a GT_IDR puede usarse para tener una imagen de previsualización rápida, donde a continuación se envía una codificación de imagen HDR, por ejemplo, para grabación intermedia o final (en algunos casos la cámara dirigida puede ya hacer una gradación de contenedor de LDR suficiente, es decir, codificar M_HDR y Im_LDR, pero en otros casos una primera codificación HDR forma una base para gradación de ajuste adicional). Esta cámara ilustrativa puede difundir a un lado de recepción, por ejemplo, a través de una comunicación por la antena por satélite 599, o medios de comunicación alternativos.
Con la Figura 11 proporcionamos un par de ejemplos de cómo pueden realizarse los diversos métodos de correlación en espacio de color de 3 (o N) dimensiones. La Figura 11 muestra esquemáticamente las gamas del visualizador de referencia HDR (para la gradación de M_HDR) y el visualizador de referencia LDR (para, por ejemplo, GT_IDR, o Im_LDR), en un segmento con luminancia en el eje y, y en de las coordinadas cromáticas a saber una saturación S en el eje x (estos pueden definirse, por ejemplo, como en una definición de CIE, y de nuevo son posibles varias opciones, por ejemplo, espacio de CIE_Lab, etc.). Mostramos cómo un color definido en M_HDR a saber Col_HDR se mapea a su color correspondiente de contenedor LDR Col_LDR. La parte superior en la Figura 11a es una forma de gama que conforma algoritmo de mapeo de color como se describe en el documento (no publicado aún) EP12187572 (PCT/EP2013/069203). El principio es que primero definimos una función para transformar luminancias, por ejemplo, a lo largo del eje neutral. A continuación para cada color con coordenadas cromáticas (por ejemplo, tonalidad h y saturación S) tomamos la luminancia máxima posible Lmax(h, S) para ese color cromático, y escalamos la función de mapeo de luminancia por ese valor. Esto garantiza un valor en gama de LDR para todos los colores HDR. La Figura 11b muestra otra posible categoría de mapeos de color. En este punto solo aplicamos cualquier transformación en Col_HDR, de forma que puede finalizar en Col_LDRI, fuera de la gama de LDR. A continuación habitualmente seguimos con un algoritmo de mapeo de gama, que trae el color, por ejemplo, desaturando dentro de la gama de LDR en Col_LDR2. En lugar de una proyección de dos etapas, también podemos determinar para cada luminancia que es la peor situación, es decir, qué píxel estará más alejado de la saturación máxima para esa luminancia de la gama de LDR. Podemos derivar una función de desaturación DESATPR a partir de la misma, y mapear de nuevo todos los colores teniendo en cuenta esta desaturación. Existen también otras formas para determinar un algoritmo de desaturación. Una tercera categoría de mapeos de color trabajará en espacio RGB, y a continuación aplicar funciones de mapeo en ellos significa que los colores también permanecen en ambas gamas. Puede usarse cualquier función para tratar colores, por ejemplo, remapeo funcional local de un correlato de saturación, únicamente a lo largo de esas regiones del eje de luma en las que es deseable, finalizan especialmente en una gradación técnica, los valores reales importan menos, siempre que para usarse gradaciones colores razonables pueden derivarse de los mismos mediante estrategias de mapeo adicionales apropiadas.
Ahora desarrollaremos adicionalmente sobre mapeos de saturación útil en un marco HDR, que puede verse separado de otros contenidos en esta solicitud. Brillo y luminosidad se deriva a partir de respuestas de conos humanos, que tienen un estado de activación de moléculas cono-opsina, y muestran cuánta luz procede de los diversos colores siendo una función de tanto las características de reflexión de objeto como su iluminación (luminosidad siendo una estimada grisácea en comparación con un blanco de referencia por el cerebro analizando todas las señales de cono espaciales desde una imagen de escena compleja extendida geométricamente). Tonalidad es una función de las proporciones de activación espectral (por activación monocromática o policromática) de los diferentes conos, y puede estimarse a partir de diferencias en estas activaciones de cono. Sirve la determinación de colores dominantes, por ejemplo, la naturaleza de banda ancha de diversas moléculas permite identificación de contenido químico particular como, por ejemplo, la madurez roja de una manzana. Bajo iluminantes relativamente fáciles de estimar que varían lentamente como sol+claraboya, las diversas tonalidades que se pueden discriminar pueden servir bien para muchas tareas visuales. La saturación o puridad es una medida de cómo los canales de color de las células ganglionares y adicionalmente partes del sistema visual se excitan en comparación con estimulación (gris) neutral. Es decir, es la cantidad de color puro (por ejemplo, un color de espectro de banda estrecha) añadido a un color neutral o viceversa. Con las tonalidades ordenadas topológicamente en un círculo en espacio de color, se necesitaba una dimensión radial que es una saturación. Pintores usan el principio añadiendo un color blanco a un color puro como rojo, produciendo una secuencia de tintes. En naturaleza, saturación se determina mediante dos importantes principios. En primer lugar en medios especulares/brillantes, el iluminante blanco se añade fuertemente a la luz de objeto coloreado a de interacciones más profundos, conduciendo a fuerte desaturación, pero alta saturación en direcciones no especulares. Más importante, la saturación se refiere a una cantidad de pigmento, y esto puede, por ejemplo, usarse por un animal para evaluar la salud de una pareja potencial. La saturación existe en dos "variantes". En primer lugar existe la dependiente de brillo que puede modelarse con colorido o croma, ya que colores más brillantes parecen más saturados. Este puede modelarse en espacios de color en forma de cono en que un plano de color (por ejemplo, uv) se vuelve progresivamente más ancho a lo largo del eje de brillo. El cerebro humano puede de nuevo descontar la iluminación y evaluar cómo de intrínsicamente saturado está un objeto, siendo reflejos monocromáticos la situación teóricamente más saturados. Esto puede modelarse en espacios cilíndricos, en los que la forma de plano de color permanece igual a lo largo del eje de brillo.
Físicamente un cono o cilindro de este tipo podría extenderse hacia infinito, ya que se puede hacer colores incluso más brillantes, pero tecnológicamente esto tiene poco sentido, ya que cualquier sistema de reproducción o grabación actual tiene límites. Ya los conos del ojo en un cierto estado de adaptación (una cantidad de cono-opsinas preparadas en el cono, y estando las moléculas intermedias en un estado para multiplicas cualquier sensación de activación de conos, hasta que se obtiene últimamente una señal "digital" de una cantidad de impulsos a lo largo de las neuronas) blanqueará en cierto momento de modo que se han activado tantas moléculas cono-opsinas que ya no es posible una detección de color precisa durante algún tiempo, que se produce cuando uno mira una lámpara brillante. Algo similar sucede con, por ejemplo, una grabación fotográfica (digamos diapositiva). En cierto momento debe grabarse algún blanco máximo (y reproducirse más tarde), y luminancias de objeto de escena por encima del mismo recortarán a cresta de blanco. Los mismo sucede para cualquier espacio RGB aditivo, si es solo un espacio de codificación que puede relacionarse con un monitor de referencia para hacer el mismo absoluto, o un espacio de señal de accionamiento real para un visualizador real. Tales espacios pueden equipararse topológicamente con doble espacios de cono. Por ejemplo, pintores lo saben ya que puede hacer sombras con croma decreciente, pero la misma saturación añadiendo negro a colores puros, y hacen tintes hacia blanco puro en la parte superior del cono superior. Es decir, en la parte superior de un espacio de este tipo puede haber únicamente colores no saturados (croma cero), que es inconveniente en relación con otros colores que pueden existir en naturaleza, como, por ejemplo, aquellos en una gama más amplia de, por ejemplo, un visualizador de mayor rango dinámico. Por ejemplo, ¿qué hacer con un color que se ha atenuado el brillo al LDR (menor rango dinámico), pero que aún reside en el cono superior? ¿Cambiamos profundamente su saturación, o quizá atenuamos adicionalmente? ¿Y qué si ese color está solo en un espacio intermediario que sirve aún para mapearse con potenciación a un mayor espacio de nuevo?
Por tanto, para tales situaciones, además de saturaciones teóricas de cualquier color, se puede necesitar mirar a saturación y modificaciones de saturación en cualquier espacio limitado de colores permisibles. Tener cualquier transformación matemática dentro de un espacio de este tipo (habitualmente en forma de cilindro), especialmente útil si se mapean entre espacios que pueden al menos recolocarse en gran parte (tal como, por ejemplo, un espacio RGB de HDR [0,1] escalado en un espacio RGB de LDR) tiene la ventaja de producir colores existentes, en contraste a transformaciones que van fuera y aún necesitan trasladarse en colores realizables, sin embargo la naturaleza no lineal de las matemáticas puede distorsionar otros correlatos de aspecto como luminosidad o tonalidad. Si podemos diseñar gama/espacio de inicio y fin en 3D en cualquier forma, en principio no necesitamos preocuparnos mucho acerca de eso ya que podemos diseñar cualquier estrategia de mapeo.
Podemos tratar muchas de estas complicaciones teniendo un graduador de color que haga las transformaciones deseables, siempre que tenga un conjunto mínimo (aunque habitualmente simple, también teniendo en cuenta que estas transformaciones habitualmente indican mapeos necesarios para determinar suficientemente fiel, o al menos mejorados en comparación a renderización ciega, colores correspondientes dependientes de situación de renderización para diversos visualizadores, es decir, los CI de hardware o software en esos visualizadores o cajas de procesamiento de vídeo deberían usar preferentemente únicamente funciones matemáticas simples, con la complejidad de tratarse muestreando todos los escenarios de renderización de color a relacionar por el graduador definiendo unas pocas situaciones de gradación importantes entre las que pueden a continuación interpolarse para otras situaciones de renderización intermedias) de funciones de determinación de saturación matemáticas que pueda especificar.
Se conoce que el mapeo entre diferentes rangos dinámicos puede conducir a colores que se saturan o bien a pastel o bien caricaturescamente, y la situación puede ser compleja con algunos graduadores teniendo potencialmente deseos críticos (por ejemplo, se puede ser crítico para caras, pero también para los azules en agua, o incluso la apariencia de color de nubes oscuras).
Nuestro novedoso procesamiento de saturación puede usarse no únicamente en gradaciones técnicas, sino de hecho en cualquier imagen graduada (por ejemplo, HDR maestro, o una gradación de LDR; para obtener cualquier otra gradación de imagen, de un rango dinámico diferente o similar; es decir, pareciendo óptimamente cuando se renderiza en, por ejemplo, un visualizador HDR de 2000 nits), e incluso en captura de cámaras sin procesar, si se introducen en otro aparato tal como un ordenador de gradación, o incluso aún en la cámara. Para describir el procesamiento en principio no necesitamos ningún espacio de color de entrada (que puede ser el mismo que el espacio de salida, o cualquier otro, por ejemplo, un mayor espacio), por tanto describiremos el mismo con el espacio de salida de cualquier codificación de color (ya sea como intermedio, o dependiente de dispositivo directamente usable para renderizar). Describiremos el principio con un espacio Luv del tipo cilíndrico, es decir, las direcciones planas de las que mostramos únicamente el eje u (rojo-verde) en la Figura 15a de triángulos del mismo tamaño a lo largo del eje de luminancia normalizado L, hasta que la carpa comienza a encogerse a blanco. Por supuesto, pueden implementarse otras posibilidades de forma similar, y en lugar de una luminancia física pueden usar una cantidad más psicológica como, por ejemplo, una luminosidad como el tercer eje. La gama de todos los colores realmente realizables es 1501. Ahora se puede aplicar una transformación matemática que mueve colores (o bien dentro de o bien fuera de la gama) en una dirección de saturación creciente o decreciente, que se representa mediante la curva 1503. Aunque esto ilustra el principio matemático, la Figura 15a puede habitualmente también ser la vista de interfaz de usuario que ve un graduador de color en una de sus subventanas, mostrando por supuesto una ventana principal el efecto de aspecto de color de las transformaciones en una imagen a graduarse o graduarse de nuevo. En principio podríamos usar cualquier matemática para la saturación, pero preferentemente será una función que en gran parte desacopla las coordenadas, es decir, tiene principalmente un efecto en saturación, ninguno o poco cambio de tonalidad o luminancia o luminosidad. En práctica (aunque por supuesto el espacio siendo únicamente un modelo simplista de aspecto de color real, al final puede haber aún algún efecto secundario visible en aspectos de no saturación de los colores) la matemática puede ser ortogonal, por tanto aunque mostramos una variante genérica con una curva de cambio de saturación ligeramente doblada (es decir, también colores ligeramente luminosos cuando se saturan), a menudo esto simplemente será una línea en el plano ortogonal al eje L. Para tener un control potente pero fácil sobre las saturaciones de objetos o regiones que proporcionan una apariencia total a una imagen, el graduador tiene ahora una posibilidad para no definir únicamente un multiplicador de saturación global, pero un multiplicador que depende de la luminancia de colores a procesar. Esta función a_s=f(L) puede grabarse como una función paramétrica o una tabla de consulta. La luminancia Li relevante que define qué colores tienen que seleccionarse para procesamiento se determina por el color acromático en la curva 1503. Ahora la única cosa necesaria en algún nivel de saturación de referencia S ref (1502), que podría equipararse con un valor normalizado 1. Asumimos en esta realización ilustrativa que la saturación se define como la longitud euclidiana, es decir, raíz cuadrada de (u*u+v*v) y, por ejemplo, en un espacio de laboratorio que sería raíz cuadrada de (a*a+b*b), pero por supuesto serían posibles otras definiciones. Una elección práctica para este nivel de referencia sería poner el mismo en la posición (u,v) de la más saturada de los tres (R,G,B) o más primarios que definen el espacio de color. Ahora una forma normalmente suficientemente precisa y simple y rápida de definir la curva de saturación a_s=f(L) sería para que el graduador determine puntos de muestra para un número de luminancias (nivel 1504, etc.) en el eje de luminancia. La marca con los puntos 1505. La posición de esos puntos determina la saturación, y si es una potenciación o reducción. La distancia euclidiana del punto 1505 al eje L se compara con la distancia de la manga cilíndrica de referencia S_ref, y si es, por ejemplo, 0,3 con S_ref=1, a continuación que significa que todos colores con que luminancia debería atenuarse multiplicando su saturación por 0,3 (nota importante, operaciones multiplicativas deberían ser suficientes para procesamiento de saturación, aunque también podrían usarse otras funciones de forma similar por supuesto). En el punto de región más oscuro 1513 especifica una potenciación de saturación para esos rojos.
Por tanto, digamos, por ejemplo, que -sin embargo la imagen de entrada se generó, por ejemplo, mapeando hacia abajo desde un HDR maestro- el graduador considera que los colores más claros son de suficiente calidad, pero los colores más oscuros podrían hacer con una potenciación de saturación, puede determinar un nivel de luminancia (por ejemplo, 0,25) y para esa posición especifican un punto en digamos 1,8. Para ahorrar tiempo, el algoritmo determinará una curva completa abarcando todo el rango de luminancia 0,0-1,0 desde ese, por ejemplo, puede aplicar una interpolación lineal que 1,8 disminuye a los negros, y aplicar un multiplicador 1,0 a colores por encima del nivel L-0,25 (por supuesto pueden usarse otras estrategias de interpolación por el software como, por ejemplo, splines, y el graduador puede añadir puntos adicionales si quiere ajustar adicionalmente la apariencia de color). Aunque no necesariamente, puede ser ventajoso si el graduador también ve el volumen de colores que se producen realmente en la imagen 1506. En la Figura 1506 únicamente hemos mostrado la situación inicial antes de procesamiento de saturación, pero habitualmente la situación final (o un volumen cambiante continuamente) también se mostrará, que además de mirar en la imagen de procesamiento real (intermedia o de salida) proporciona al graduador una idea de donde se mueven los colores cerca del límite de gama y puede producirse recorte o recorte suave (puede haber una estrategia incorporada para cambiar no linealmente el multiplicador cuando dentro de una cierta región desde el límite de gama; y tal comportamiento definiendo opciones habitualmente se activará y desactivará en software por el graduador antes de comenzar su gradación). Aunque tales dependencias de únicamente luminancia serán suficiente para muchas situaciones, y pueden ser ventajosas si el graduador puede definir diferentes comportamientos para diferentes tonalidades. Por ejemplo, puede especificar 4 LUT para 4 sectores de tonalidad. Como se ha explicado anteriormente, la misma potenciación o atenuación de saturación se aplicaría al rojo y la dirección de verde desde el eje L, pero como se ve el volumen de colores 1506 puede estar más cerca del límite de gama en la dirección de verde que en la dirección de rojo, por ejemplo, porque la toma actual de la película, o la instantánea fija actual, es de una escena boscosa (y en una saturación de gradación previa puede haberse establecido alta para emular una apariencia soleada en una codificación LDR). A continuación el graduador puede demarcar sectores de tonalidad, y especificar el procesamiento de saturación de manera similar como se describe anteriormente. Un ejemplo más complejo se proporciona también donde un único comportamiento multiplicativo no es suficiente para al menos un nivel de luminancia (y quizás sector de tonalidad) en la imagen. Por ejemplo, los rojos oscuros pueden potenciarse para hacer que un Ferrari parado en una parte de la imagen más oscura (digamos un garaje) parezca más bonito, pero cuando estos colores también se producen en caras, esas caras pueden volverse demasiado rojizas. Además, el graduador puede definir una segunda referencia de saturación S_ref2 (1510), que doblará ahora habitualmente también como una demarcación de región de color que determina qué colores de "cara" se procesarán. Comparado con ese nivel, el pentágono 1511 ahora muestra que las saturaciones deberían atenuarse, por ejemplo, por 0,75. La Figura 15b a continuación muestra cómo tal comportamiento modificará a continuación la saturación de colores de luminancias similares a la del nivel L que corresponde al pentágono 1511. En varias situaciones un comportamiento discontinuo puede ser suficiente, ya que la cara puede ocupar una parte de espacio de color, y a continuación puede no haber otros colores hasta el Ferrari, pero también pueden aplicarse transiciones suaves 1520, o bien automáticamente mediante el software, o bien ajustando en un gráfico de este tipo en una subventana por el graduador. También en las otras direcciones, al menos luminancia y si se necesita también tonalidad, el graduador puede determinar en qué rango debería aplicarse este comportamiento, por ejemplo, un nivel de luminancia superior 1512 (y de forma similar podría especificarse un nivel de luminancia inferior). Fuera de este rango el procesamiento de saturación puede conmutar discontinuamente al otro comportamiento especificado, o que puede ser más gradual si es necesario.
Aunque tal procesamiento podría en principio aplicarse a cualquier situación de procesamiento de saturación de cualquier imagen, es particularmente útil cuando se cambia entre gradaciones para renderizar escenarios con diferente rango dinámico (es decir, por ejemplo, determinar una codificación graduada óptimamente adecuada para accionar un visualizador HDR de 4000 nits en un entorno de visualización tenue sobre la base de una codificación LDR, o viceversa). El espacio de HDR puede a continuación normalizarse al mismo rango [0,0, 1,0] que el espacio LDR, aunque eso no es necesario. Si esto se hace en un escenario de ajuste (en el que las gradaciones se definen para ser capaces de realizar una buena renderización de calidad en diversos escenarios de renderización, habitualmente visualizan peak_white y entorno, en el que estas gradaciones realmente constituyen una muestra aprobada por creador de contenido de cómo debería parecerse la escena en diversas situaciones, evitando el problema de modelado de aspecto de color complejo y convirtiendo el mismo en interpolación simple entre gradaciones representativas), el procesamiento se cocodificará habitualmente como metadatos a una codificación de la imagen de entrada, para cualquier sistema de renderización para aplicar el mismo adecuadamente (por ejemplo, si una televisión tiene un brillo intermedio a las dos gradaciones, por ejemplo, siendo la original una gradación l Dr de 100 o 500 nits, y siendo el procesamiento de saturación parte de una estrategia de mapeo para obtener una gradación de 4000 nits, un visualizador de 2000 nits puede decidir hacer, por ejemplo, la mitad de la cantidad sugerida de potenciación, o determinar una estrategia no lineal que comienza desde la información de comportamiento de saturación cocodificada).
La Figura 16 a muestra una realización ilustrativa de un aparato de gradación 1600, dispuesto para ser capaz de aplicar un procesamiento de saturación a una imagen de entrada Im_i (digamos, por ejemplo, una gradación de LDR que necesita convertirse en una imagen de medio rango dinámico MDR para un visualizador de 1200 nits; teniendo el graduador (al menos) un visualizador de 1200 nits 1602 de este tipo conectado para ver el resultado de sus especificaciones), y adicionalmente también codificación de la especificación en una señal de vídeo S_o, que habitualmente codifica los píxeles de vídeo de acuerdo con una norma como una norma MPEG, y la función de procesamiento de saturación como metadatos para la misma, por ejemplo, en partes de la señal, o paquetes de transporte separados que pueden asociarse con el vídeo por medios como un PMT y un tiempo de presentación u otros medios para definir un número de imágenes particular en el vídeo con el que corresponde el procesamiento (por ejemplo, todas las imágenes hasta el tiempo de presentación de los siguientes datos de función de procesamiento de saturación). El aparato de gradación comprende al menos a unidad de procesamiento de saturación 1601, que se dispone para aplicar el cambio de saturación a una imagen de entrada, de acuerdo con cualquiera de los métodos anteriormente ilustrados. Como salida puede dar una imagen de salida Im_o (por ejemplo, con saturación potenciada), pero también una codificación P_s de la función de procesamiento, tal como, por ejemplo, una LUT a=ai(Li). Un codificador 1610 formateará esta de acuerdo con los requisitos de una codificación de señal de vídeo normalizada (actual o futura) acordada. Puede ser ventajoso facilitar la interacción de usuario si existe una unidad de análisis de imagen 1603. Esta unida al menos mirará la definición de cómo se codifica la imagen, por ejemplo, para determinar los puntos triangulares R, G y B de la gama 1501, pero también puede generar, por ejemplo, el volumen 1506. Una unidad de interacción de usuario 1605 implementa (habitualmente en software) todas las funciones que permiten al usuario especificar un comportamiento de modificación de saturación, y en general interactuar con la imagen (por ejemplo, definir límites de tonalidad para un procesamiento particular). Por tanto, permitirá que se sitúen, basándose en entrada de usuario usr inp (por ejemplo, desde un teclado o teclado de gradación especial), por ejemplo, los puntos que indican la cantidad de potenciación o atenuación de saturación.
Cualquier aparato de recepción, por ejemplo, aparato de procesamiento de vídeo 1650 puede recibir una señal codificada de este tipo S_o, y aplicar el procesamiento de saturación especificado o bien directamente, o bien derivar su propio procesamiento de saturación óptimo sobre la base del mismo. El aparato de procesamiento de vídeo comprende al menos una unidad de procesamiento de saturación 1651, dispuesta para aplicar una estrategia de este tipo de saturación dependiente de luminancia como se describe anteriormente en la imagen de entrada Im_i. La imagen de entrada puede obtenerse de diversas formas, pero habitualmente el aparato de procesamiento de vídeo 1650 puede comprender un decodificador 1653, dispuesto para hacer, por ejemplo, decodificación de vídeo AVC o HEVC para obtener una imagen de color pixelizada Im_i, y la decodificación de metadatos de las funciones de procesamiento de saturación, convirtiendo la misma a un formato utilizable internamente (por ejemplo, esta información podría codificarse de diversas maneras, como codificación de longitud de serie, o el decodificador puede querer convertir la especificación en otra de diferente precisión, etc.). En general el procesamiento de saturación formará parte de un procesamiento/mapeo de color general realizado por una unidad de procesamiento de color 1652, que también puede mapear las luminancias de los colores de lm_1 a valores nuevos (por ejemplo, si la imagen de entrada es una imagen HDR codificada en [0,0-1,0], las partes más oscuras pueden ser demasiado oscuras para usarse para renderización LDR y pueden necesitar iluminarse, o bien antes (preferentemente) o bien después de procesamiento de saturación). El aparato de procesamiento de vídeo 1650 emite una imagen de salida Im_o, que puede, por ejemplo, ser directamente adecuada en un visualizador particular (puede por supuesto haber conversión adicional tal como para tener en cuenta aspectos de visualizador como su EOTF interna, pero que no es importante para la presente descripción), o la Im_o puede emitirse para otro uso, por ejemplo, almacenar en una memoria como un disco Blu-ray, o en un servidor de vídeo, etc. Un aparato de procesamiento de vídeo 1650 de este tipo puede, por ejemplo, incorporarse en una televisión, ordenador o decodificador de salón, o un aparato profesional como, por ejemplo, un controlador de vídeo de cine digital para el cine, o un sistema informático de un departamento de análisis de imagen, etc.
Para ilustración adicional proporcionamos dos ejemplos de posible uso en un escenario de ajuste en la Figura 17. En la Figura 17a queremos derivar LDR colores a partir de una gradación maestra de HDR, de acuerdo con criterios del graduador como buen contraste local, aspecto simulado de fuentes de luz o áreas brillantes, etc. Para el mapeo de tono en la dirección de luminancia asumimos que usamos un mapeo de conservación de cromaticidad (u,v), pero no queremos escalar todo al máximo de la gama de salida como en el documento EP12187572. Los riesgos para que algunos colores se encuentren fuera de la gama de salida G_LDR, incluso si traemos todas luminancias dentro del rango coronado por L_LDRm. El graduador puede resolver este problema técnico mediante un equilibrio óptimo artístico de brillo frente a saturación, haciendo, antes de mapeo descendente de luminancia, una disminución de saturación en el espacio de color de entrada HDR (flecha 1701). La Figura 17b proporciona otro ejemplo, esta vez con una codificación intermedia. Lo que vemos es el espacio (y gama) de entrada y salida definiéndose de una forma similarmente normalizada, por tanto, colocada. Tenemos una codificación de imagen intermedia de una imagen HDR (es decir, una imagen de suficiente información de luminancia que se puede usar para renderización HDR), que sin embargo se ha codificado (ajustado) levemente para poderse renderizar también aún razonablemente en un visualizador de menor rango dinámico (o bien directamente o bien con algún mapeo de color de optimización final habitualmente implementado por una unidad de mapeo de color de lado de visualizador, por ejemplo, dentro del visualizador). Esto significa que, por ejemplo, una región de exteriores brillante se ha codificado con valores de luminancia donde comienza la flecha de mapeo de luminancia TM_L2H. La compensación era dar un toque de brillo en estas regiones de imagen y sus colores (cuando se usan, por ejemplo, directamente en una renderización de menor rango dinámico), a continuación la saturación necesita reducirse debido a la forma matemática de la gama. Para renderización HDR se quiere estas regiones brillantes, pero no cerca al máximo de la gama, ya que esas luminancias se reservan para lámparas y explosiones, es decir, en la grama de salida HDR normalizada G HDR, se necesita para transformar los colores proporcionando a las mismas menores luminancias (en regiones de luminancia L_os). Ahora estos colores parecen más pálidos que lo que deberían (podrían) ser, de forma que el graduador coespecificará una potenciación de saturación para obtener la renderización final, pero para esas luminancias (al menos), porque otras regiones de espacio de color pueden estar bien.
Habitualmente lo anterior se realizará como diversas realizaciones de un aparato de gradación de color de imagen (1600) que comprende:
- una entrada (240) para una imagen de entrada de color (Im_i), y
- unidad de interacción de usuario (1605) dispuesta para permitir que un graduador de color especifique una estrategia de procesamiento de saturación que comprende al menos un primer factor de cambio de saturación para un primer rango de luminancias de colores a procesar, y un segundo factor de cambio de saturación diferente para un segundo rango de luminancias de los colores a procesar, siendo el primer y segundo factores de cambio de saturación preferentemente multiplicativos.
La caracterización de al menos un factor para el cambio de saturación dependiente de luminancia podría ser diversa, por ejemplo, un coeficiente podría especificar comportamiento de cambio de saturación parabólica o sigmoidal a lo largo de al menos una línea de luminancia constante (o aproximadamente constante) (por ejemplo, el comportamiento sigmoidal en un gráfico como en la Figura 15b puede comenzar con una pequeña atenuación de saturación, y a continuación sigmoidal crece a un gran potenciamiento para valores mayores hasta que algún máximo que comenzaría recortando una considerable cantidad de colores altamente saturados en la imagen de entrada, pero por supuesto podría codificarse un parámetro adicional para ese nivel de luminancia, para disminuir la potenciación de saturación de nuevo en esas áreas a 1,0 o incluso por debajo, para hacer que esos colores encajen mejor en la gama disponible), pero en muchas situaciones un factor multiplicativo que cambia una saturación de entrada s_in a saturación de salida s_out=a*s_in será de suficiente complejidad de control y precisión visual.
Aunque algunas realizaciones pueden especificar únicamente, para una o una pequeña región de luminancias, un factor de caracterización de procesamiento de saturación (el resto de los colores, por ejemplo, por defecto permaneciendo iguales que sería idéntico a multiplicar con un factor 1,0), puede ser ventajoso especificar factores para todo el posible rango de luminancia de colores en la imagen de entrada (por ejemplo, 0,0-1,0) o algún otro rango de luminancia, de los cuales algunos colores pueden tener procesamiento de saturación definido incluso si no se producen en la imagen de entrada. Esto puede hacerse o bien especificando realmente los mismos (por ejemplo, creando el algoritmo una interpolación continua y el graduador o bien aceptándola o corrigiéndola), que puede cocodificarse en la señal de imagen S_o as, por ejemplo, una LUT de suficiente precisión (que podría interpolarse aún adicionalmente en un lado de receptor), pero es suficiente si el procesamiento requerido para cada posible color con luminancia Li es derivable, es decir, los metadatos que especifican la estrategia de procesamiento de saturación para un receptor pueden solo comprender parámetros funcionales, o posiciones de puntos como 1505, etc.
Si se requiere más precisión, puede ser ventajoso si esa unidad de interacción de usuario (1605) permite especificación de procesamiento de saturación basándose en propiedades adicionales de colores en espacio de color, tal como, por ejemplo, una dependencia de tonalidad, como, por ejemplo, s_out=fi(L, h_i), en la que existe un conjunto de h_i que son tonalidades centroides para sectores de tonalidad, y se procesa un color (u,v) mediante un mapeo de saturación basándose en proximidad más cercana a todas esas tonalidades centroides, u otra definición dependiente de tonalidad s_out=fi(L, f_hi()) en la que f_hi() es alguna función o estrategia algorítmica que mapea la tonalidad de un color de entrada a algún coeficiente i, que define una estrategia procesamiento de saturación particular. De manera similar, puede haber diversas estrategias para diferente subrangos de saturación de al menos un rango de luminancia (en o alrededor de Li), y se podrían tratar las tonalidades complementarias como si fueran de saturación negativa. Esto puede definirse matemáticamente como, por ejemplo, s_out=fi(L, f_si()) en la que ahora existe una asignación categórica (por ejemplo, booleana si están implicadas dos regiones) basándose en la saturación de colores (u,v) de la imagen de entrada a procesar. Aunque esta precisión normalmente será suficiente, se pueden definir en general estrategias que difieren basándose tanto en tonalidad como saturación de colores en subrangos de luminancia seleccionada.
Por tanto, describimos un método de especificación de una estrategia procesamiento de saturación para una imagen de entrada (Im_i), que comprende especificar al menos primer factor de cambio de saturación para un primer rango de luminancias de colores de la imagen de entrada a procesar, y un segundo factor de cambio de saturación diferente para un segundo rango de luminancias de otros colores de la imagen de entrada a procesar, y preferentemente que comprende una codificación de esta estrategia como metadatos asociados con la imagen de entrada, y variantes de la misma.
Un aparado complementario a las mismas será un aparato de procesamiento de vídeo (1650) que comprende;
- una entrada para una imagen de entrada (Im_i), y
- un unidad de procesamiento de saturación (1651) dispuesta para aplicar un primer cambio de saturación a colores de la imagen de entrada que se encuentran en un primer rango de luminancias, y un segundo cambio saturación diferencia a colores de la imagen de entrada que se encuentran en un segundo rango de luminancias, comprendiendo el aparato de procesamiento de vídeo medios para obtener un primer y segundo factor de cambio de saturación que caracterizan el primer respectivamente segundo cambio de saturación, en el que estos medios preferentemente comprenden un decodificador para decodificar el primer y un segundo factor de cambio de saturación a partir de metadatos en una señal de imagen (S_o). Aunque este aparato puede ser parte de un sistema en una única ubicación o en único uso, habitualmente un graduador o regraduador para contenido existente especificará las gradaciones una vez, y a continuación, en una ocasión posterior y diferente, el uso de estas gradaciones sucederá por el aparato de procesamiento de vídeo. Esto puede, por ejemplo, ser habitualmente un aparato de consumidor. El consumidor puede haber comprado una película en la internet, que ha visto, por ejemplo, hace 5 años en su visualizador LDR. Ahora, aún teniendo los derechos para ver el contenido, indica al módulo de gestión en el servidor que se ha comprado un visualizador HDR, y que desea recibir los metadatos para las imágenes del programa de vídeo, especificando entre otros esta saturación. Por supuesto el usuario también puede comprar la codificación de vídeo (colores de imagen pixelizados) los metadatos de procesamiento de color (saturación) en un único producto de memoria, tal como, por ejemplo, un disco blu-ray, lápiz de memoria de estado sólido, o preinstalado en, por ejemplo, un dispositivo de reproductor de vídeo como un reproductor portátil, etc.
Esto corresponde con un método de procesamiento de vídeo que comprende aplicar un primer cambio de saturación a colores de una imagen de entrada que se encuentran en un primer rango de luminancias, y un segundo cambio de saturación diferente a colores de la imagen de entrada que se encuentran en un segundo rango de luminancias, y las diversas realizaciones del mismo de acuerdo con los principios ilustrativos explicados anteriormente.
La Figura 13 muestra un ejemplo de cómo pueden obtenerse diferentes imágenes LDR para renderizar. En este ejemplo hemos elegido una curva suave 1301 para gradación técnica, que permite recuperar todos los rangos de luminancia de la imagen HDR maestra a codificarse original (cualquier rango que puede haber tenido) a una precisión razonable. Cuando guardamos esto en la imagen LDR graduada técnicamente GT_IDR, un sistema heredado "mudo", aunque la instantánea se podrá renderizar, renderizará una instantánea un poco sosa en un visualizador LDR, con contraste no preferido en las principales regiones como el actor. Cualquiera tal sistema podría usar procesamiento automático para aumentar ese contraste o de otra manera intentar optimizar la instantánea, pero necesitaría hacerlo de forma ciega. Sería mucho mejor si el proveedor de contenido puede codificar los que el lado de recepción puede hacer para hacer una mejor gradación de LDR que la gradación técnica. Los datos requeridos para especificar tal segundo mapeo de tono a partir del grado técnico GT_IDR, puede ser tan simple como especificar dos límites gt_Mh y gt_MI que indican donde reside la información principal en espacio de código, y que otros colores pueden deteriorarse (seriamente) a costa de otros. El sistema de lado de recepción necesita a continuación únicamente estirar las lumas teniendo en cuenta estos valores importantes. Hemos mostrado esto en un gráfico 1302, que cuando se aplican directamente al visualizador (con propiedades calibradas conocidas, por ejemplo, gamma estándar y comportamiento de entorno de visualización) resultará en luminancias renderizadas en el x-como de acuerdo con ese gráfico. En este ejemplo el mapeador de color de lado de recepción ha decidido estirar principalmente los negros, reteniendo un poco de información posterizada de la HDR fija, sin embargo esa puede renderizarse en un entorno circundante dado, y ha decidido usar una estrategia de recorte dura, mapeando gt_Mh a blanco (es decir, definiendo la misma como el blanco LDR en el espacio de color HDR total). Todos colores anteriores pueden a continuación no renderizarse en este, por ejemplo, visualizador de 700 nits. Por supuesto especificaciones más complejas pueden cocodificarse acerca de lo que debería hacer un mapeo de color de lado de recepción con la imagen codificada GT_IDR recibida, para obtener apariencias óptimas en uno o más visualizadores previstos (por ejemplo, 700 nits hacen procesamiento X, 1500 nits hacen Y), y todo esto puede definirse en funciones de mapeo de color y aplicarse sobre la base de la imagen recibida GT_IDR (por ejemplo, valores de gris característicos adicionales pueden ayudar en mejora especificada paramétricamente adicional de la gradación LDR a obtener, o 1 estrategia de mapeo explícita puede especificarse para todo el rango, por recibir categoría de visualizador, y esto puede hacerse, por ejemplo, con una LUT de factores de potenciación [entre 1/X y Y] por valor de luminancia). Por tanto, sistemas de decodificación simples renderizarán una instantánea LDR razonable, y decodificadores capaces de tratar todas las presentes posibilidades proporcionarán un LDR o HDR óptimo o cualquier MDR (medio rango dinámico), o imágenes ODR (fuera de típico rango dinámico, como subLDR con contraste extremadamente bajo). Aunque nuestro marco permite especificar gradaciones exactas para N LDR (y otros) escenarios de visualización (por ejemplo, tv de 100 nits y 500 nits en escenarios de visualización brillantes y tenues y oscuros = 6 gradaciones), por supuesto no siempre es necesario renderizar una gradación óptima, sino que una imagen de buena calidad también hará en algunos escenarios. Ilustramos esto con la Figura 13 como un mero ejemplo. Supongamos que tenemos un reparto de prensa con iluminación HDR que se supone que se ven muy bien, pero el LDR que es una aproximación debería solo verse bien, y el graduador debería ser capaz de definir su sistema en un par de segundos antes de comenzar el programa de noticias de estudio. Además, se pueden definir dos umbrales de demarcación adicional gt_H2 y gt_L2, de modo que el extremo de recepción puede decidir cómo mapear en color la GT_IDR para obtener su imagen de accionamiento de visualizador. Por ejemplo, puede definirse (mediante cocodificación de estos valores en códigos reservados específicamente como MINim Al_LDR_Low y MINIMAL_LDR_High, o BROAD_LDR_Low y BROAD_LDR_High, o incluso más delimitadores de subrango LDR) que gt_ML y gt_Mh son los delimitadores "definitivos" del subrango de acción principal LDR de la escena HDR, que aún contiene alguna de la información HDR (como ya algunas partes más brillantes en el estudio), y gt_L2 y gt_L2 contienen el "mínimo absoluto" requerido para renderización LDR (por ejemplo, sin recorte (severo) de reflejos en las caras). El mapeo de color de lado de recepción puede a continuación seleccionar su estrategia para hacer una imagen LDR. Por ejemplo, puede definir una estrategia de recorte suave propietaria a las regiones entre gt_ML y gt_L2 y gt_H2 y gt_H2, después de haber definido una estrategia de estiramiento para el rango medio de colores necesariamente bien renderizados absolutamente entre gt_L2 y gt_H2 (por ejemplo, mapeando estos a valores 20 y 220). Pero si el sistema de recepción decide hacer un estiramiento duro que mapea el rango [gt_L2, gt_H2] a [0,255] y recorte fuera, la renderización LDR también se verá razonable. El extremo de recepción podría decidir elegir una opción, por ejemplo, sobre la base de la cantidad de luz circundante disponible. Por tanto, vemos que el sistema deja muchas posibilidades, desde sistemas de definición de gradación compleja controlada estrechamente, hasta sistemas realmente simples que tiene únicamente unos pocos parámetros de guiado cocodificados. La apariencia de rango dinámico de una gradación técnica puede, por ejemplo, ser LDR, o MDR (es decir, que se ve bien en un visualizador de referencia de, por ejemplo, 1200 nits). Pero el principio es siempre desacoplar los requisitos técnicos (tal como reversibilidad, que se trata en la relación HDR-GT_IDR) desde la libertad artística (haciendo un recoloramiento arbitrario de todos los objetos de imagen LDR tanto como se desee por el graduador desde GT-IDR, y tan complejo como una función de mapeo según se necesite, aunque habitualmente con un número de funciones de bases soportadas (que el decodificador necesita soportar), como, por ejemplo, mapeo de color y luma de múltiples subfunciones (por ejemplo, con LUT), definición de segmentos de objetos locales y funciones de mapeo por lo tanto, etc.). Las interfaces de usuario pueden ser muy simples para el graduador, por ejemplo, como para muchos sistemas la posición ajustada precisa de gt_Mh, gt_H2 etc. puede no ser crítica, puede definir los mismos garabateando rápidamente en un par de regiones de la imagen capturada en la actualidad de una escena, como, por ejemplo, la cara de la presentadora de noticias, el escritorio detrás del que está sentada, y si se requiere con otro bolígrafo (definiendo las regiones exteriores, como brillos por encima de gt_Mh) la pantalla luminosa detrás de ella. Por supuesto puede introducirse más información -por ejemplo con más puntos característicos gt-como, por ejemplo, sombras o reflejos en la iluminación HDR de su cara, o la mesa, y todo esto puede usarse para estrategias de mapeo de color más complejas. Y pueden hacerse especificaciones adicionales de estas regiones, por ejemplo, una función geométrica a través de su cara definiendo una trayectoria de contraste, y funciones para redefinir/remapear las mismas en diversas condiciones (por ejemplo, dejar los extremos brillantes de la curva, pero iluminando los oscuros un poco), etc. Todo esto puede añadirse a los metadatos si se requiere, pero en general se preferirán sistemas simples con la cantidad mínima de datos requeridos, y al menos un rango LDR puede ser útil (pero también puede ser útil en algunos escenarios un segundo rango alrededor de los colores de una persona).
La Figura 14 muestra un ejemplo de cómo gradaciones técnicas también pueden trabajar en principios colorimétricos. Supóngase que tenemos un espacio de color matemático 1401 con definición de primarios de modo que menos colores saturados pueden hacerse que se puede necesitar para algunos visualizadores ideados (quizás futuros), con la gama física 1402. Eso puede no ser un problema para los colores más oscuros, ya que el visualizador puede hacer alguna potenciación de la saturación, y puede haber suficiente información grabada para que trabaje bien (quizás aplicando un filtro de eliminación posbanda si se necesita). Sin embargo en la carpa de la gama podría haber un problema, y este es dónde nos puede gustar tener algunos colores de alto brillo saturados en lugar de unos más tipo pastel. Si esto es un problema, el graduador puede decidir definir su gradación hasta un nuevo punto blanco W* (culminando la carpa, dejando una posibilidad de definir más colores saturados cerca de los colores máximamente brillantes), pero a continuación para confusión, este punto blanco W* (que es el color más brillante posible de acuerdo con esta definición de color) puede cocodificarse (para indicar que no es simplemente una escena "sin blanco"). Por supuesto el extremo de recepción también puede considerar simplemente que la codificación más brillante está en la imagen de entrada, y hacer una renderización con la misma, ya que el sistema visual se adapta con un gris que parece un blanco para visualizadores brillantes de todas formas, pero a continuación un sistema LDR puede usar el mismo para potenciar algunas partes de la instantánea a su brillo máximo.
El experto entenderá que son posibles muchas variantes para los conceptos anteriores. Por ejemplo, aunque en los ejemplos ilustrativos particulares en las figuras suponemos que los datos de los mapeos de color se cocodificaron con los datos de píxeles de imagen (GTI DR), por ejemplo, como metadatos dentro de marcadores de posición definidos en la norma de codificación de imagen como, por ejemplo, mensajes de SEI o similar, o dentro de una sección reservada de la memoria, por ejemplo, una sección de la BD, por supuesto otros ejemplos pueden transmitir los datos de mapeo de color a través de otro canal de comunicación que la GT_IDR. Por ejemplo, el creador de contenido puede poner restricciones adicionales en las propiedades de los mapeos de color o g T_IDR resultantes, por ejemplo, puede dar al mismo una apariencia totalmente diferente de M_HDR y Im-LDR, o incluso una instantánea fea, y suministrar al mapeo de color datos a través de un canal seguro tras verificación del receptor, o pago, etc.
Los componentes algorítmicos desvelados en este texto pueden realizarse (completamente o en parte) en la práctica como hardware (por ejemplo, partes de un CI específico de aplicación) o como software que se ejecuta en un procesador de señales digitales especial, o un procesador genérico, etc. Pueden ser semiautomáticos en el sentido que al menos alguna entrada de usuario puede estar/haber estado (por ejemplo, en fábrica, o introducida por consumidor, u otra entrada humana) presente.
Debería ser entendible para el experto en la materia a partir de nuestra presentación qué componentes pueden ser mejoras opcionales y pueden realizarse en combinación con otros componentes, y cómo las etapas (opcionales) de los métodos se corresponden con medios respectivos de aparatos, y viceversa. El hecho de que algunos componentes se desvelan en la invención en una cierta relación (por ejemplo en una única figura en una cierta configuración) no significa que no sean posibles otras configuraciones como realizaciones bajo el mismo pensamiento inventivo según se desvelan para patentar en el presente documento. También, el hecho de que por razones pragmáticas únicamente se haya descrito un espectro limitado de ejemplos, no significa que otras variantes no puedan caer bajo el alcance de las reivindicaciones. De hecho, los componentes de la invención pueden realizarse en diferentes variantes junto con cualquier cadena de uso, por ejemplo, todas las variantes de un lado de creación como un codificador pueden ser similares como, o corresponder a aparatos correspondientes en un lado de consumo de un sistema descompuesto, por ejemplo, un decodificador y viceversa. Varios componentes de las realizaciones pueden codificarse como datos de señal específicos en una señal para transmisión, o uso adicional tal como coordinación, en cualquier tecnología de transmisión entre codificador y decodificador, etc. La palabra "aparato" en esta solicitud se usa en su sentido más amplio, en concreto un grupo de medios que permiten la realización de un objetivo particular, y puede ser, por ejemplo, (una pequeña parte de) un CI, o un dispositivo especializado (tal como un dispositivo con una pantalla), o parte de un sistema en red, etc. "Disposición" o "sistema" también se pretende que se use en el sentido más amplio, por lo que puede comprender entre otros, un único aparato comprable físico único, una parte de un aparato, una colección de (partes de) aparatos cooperativos, etc.
La indicación de producto de programa informático debería entenderse que abarca cualquier realización física de una colección de comandos que posibilitan que un procesador genérico o de fin especial, después de una serie de etapas de carga (que pueden incluir etapas de conversión intermedias, tales como traducción a un lenguaje intermedio, y un lenguaje de procesador final) introduzca los comandos en el procesador, para ejecutar cualquiera de las funciones características de una invención. En particular, el producto de programa informático puede realizarse como datos en un soporte tal como, por ejemplo, un disco o cinta, datos presentes en una memoria, datos que viajan mediante una conexión de red -alámbrica o inalámbrica-, o código de programa en papel. Aparte del código de programa, los datos característicos requeridos por el programa pueden materializarse también como un producto de programa informático. Tales datos pueden suministrarse (parcialmente) de cualquier manera.
La invención o cualquier dato usable de acuerdo con cualquier filosofía de las presentes realizaciones como datos de vídeo, puede usarse como señales en soportes de datos, que pueden ser memorias extraíbles como discos ópticos, memorias flash, discos duros extraíbles, dispositivos portátiles escribibles mediante medios inalámbricos, etc.
Algunas de las etapas requeridas para la operación de cualquier método presentado pueden estar ya presentes en la funcionalidad del procesador o cualesquiera realizaciones del aparato de la invención en lugar estar descritas en el producto de programa informático o cualesquiera unidades, aparatos o métodos descritos en el presente documento (con detalles específicos de las realizaciones de la invención), tales como etapas de entrada y salida de datos, habitualmente etapas de procesamiento bien conocidas incorporadas tales como control de visualización convencional, etc. También deseamos protección de los productos resultantes y similares resultantes, como, por ejemplo, las señales novedosas específicas implicadas en cualquier etapa de los métodos o en cualquier subparte de los aparatos, así como cualesquiera nuevos usos de tales señales, o cualesquiera métodos relacionados.
Por señal de imagen habitualmente queremos decir cualquiera de las formas existentes o similares para empaquetar datos de imagen. Aparte de una estructura pixelizada de tuplas, que llamaremos una imagen (o instantánea), una señal de este tipo puede contener metadatos como descriptores para el significado de los datos como, por ejemplo, la relación de aspecto de imagen, y adicionalmente metadatos que contienen información útil relacionada con la imagen codificada, tal como para modificar la misma en un lado de recepción, etc. Señales pueden tener diversas formas físicas/técnicas de realizaciones, por ejemplo, pueden definirse como modulaciones eléctricas de una onda portadora, o bits representados como depresiones mecánicas, o modificaciones materiales como, por ejemplo, un estado de magnetización local, etc.
Debería observarse que las realizaciones anteriormente mencionadas ilustran en lugar de limitar la invención. Donde el experto en la materia pueda realizar fácilmente un mapeo de los ejemplos presentados a otras regiones de las reivindicaciones, no hemos mencionado por concisión todas estas opciones en profundidad. Aparte de las combinaciones de elementos de la invención según se combinan en las reivindicaciones, son posibles otras combinaciones de los elementos.
Cualquier signo de referencia entre paréntesis en la reivindicación no se pretende para limitar la reivindicación, ni es algún símbolo particular en los dibujos. La expresión "comprendiendo/que comprende" no excluye la presencia de elementos o aspectos no enumerados en una reivindicación. La palabra "un" o "una" precediendo a un elemento no excluye la presencia de una pluralidad de tales elementos.

Claims (12)

REIVINDICACIONES
1. Un codificador de imagen (202) que comprende:
- una entrada (240) para una imagen de entrada de alto rango dinámico (M_HDR);
- una unidad de gradación de imágenes (201, 301) dispuesta para permitir que un graduador de color humano especifique un mapeo de color desde una representación (HDR_REP) de la imagen de entrada de alto rango dinámico, a una imagen de bajo rango dinámico (Im_LDR) por medio de un algoritmo de mapeo de color determinado por un ser humano, y dispuesta para emitir datos que especifican el mapeo de color (Fi(MP_DH), Fi(MP_DL)); y caracterizado por que el codificador de imagen comprende
- una unidad de gradación automática (203, 303) dispuesta para derivar una segunda imagen de bajo rango dinámico (GT_IDR) aplicando un algoritmo de mapeo de color automático Fi(MP_T) a la imagen de entrada de alto rango dinámico (M_HDR), con un algoritmo de mapeo de color que cumple una condición de que una imagen reconstruida HDR (REC_HDR), que se encuentra dentro de una segunda precisión predefinida de la imagen de entrada de alto rango dinámico (M_HDR), puede calcularse aplicando un segundo algoritmo de mapeo de color (CMAP_2), que es el inverso del algoritmo de mapeo de color automático Fi(MP_T), a la segunda imagen de bajo rango dinámico (GT_IDR),
- un formateador de datos (220) dispuesto para emitir en una señal de imagen (TSIG) la segunda imagen de bajo rango dinámico (GT_IDR) y al menos uno de, o ambos de, datos que describen el mapeo de color (Fi(MP_T)) entre la imagen de entrada de alto rango dinámico (M_HDR) y la segunda imagen de bajo rango dinámico (GT_IDR) y datos que describen el mapeo de color (Fi(MP_DL)) entre la imagen de bajo rango dinámico (IM_LDR) y la segunda imagen de bajo rango dinámico (GT_IDR).
2. Un codificador de imagen (202) de acuerdo con la reivindicación 1, dispuesto para usar, como la representación (HDR_REP), la imagen de entrada de alto rango dinámico (M_HDR) o la segunda imagen de bajo rango dinámico (GT_IDR).
3. Un codificador de imagen (202) de acuerdo con la reivindicación 1, en el que la unidad de gradación de imágenes (201) y la unidad de gradación automática (203) se disponen para aplicar una función de mapeo monótono en un correlato de luminancia de píxeles en su respectiva imagen de entrada, en al menos una región geométrica de la respectiva imagen de entrada que corresponde a una misma región geométrica de la imagen de entrada de alto rango dinámico (M_HDR).
4. Un codificador de imagen (202) de acuerdo con la reivindicación 3, en el que la unidad de gradación automática (203) se dispone para determinar la función de mapeo monótono (Fi(MP_T)) de correlatos de luminancia de píxeles de la imagen de entrada de alto rango dinámico (M_HDR) a correlatos de luminancia de píxeles de la segunda imagen de bajo rango dinámico (GT_IDR) de acuerdo con un criterio que determina respectivos rangos de correlatos de luminancia de píxeles de la imagen de entrada de alto rango dinámico (M_HDR) asignados a respectivos valores únicos de un correlato de luminancia de píxeles de la segunda imagen de bajo rango dinámico (GT_IDR), formando los respetivos rangos un conjunto de rangos de correlatos de luminancia que cubre el rango total de posibles valores de correlatos de luminancia para la imagen de entrada de alto rango dinámico (M_HDR).
5. Un decodificador de imagen (401) dispuesto para recibir, a través de una entrada de señal de imagen (405), una señal de imagen que comprende una segunda imagen de bajo rango dinámico (GT_IDR), y datos que describen un primer mapeo de color (Fi(MP_T)) que habilitan la reconstrucción de una reconstrucción (REC_HDR) de una imagen de alto rango dinámico (M_HDR) sobre la base de la segunda imagen de bajo rango dinámico (GT_IDR), y datos que describen un segundo mapeo de color (Fi(MP_DL)) que permiten el cálculo de una imagen de bajo rango dinámico (Im_LDR) sobre la base de la segunda imagen de bajo rango dinámico (GT_IDR), comprendiendo el decodificador de imagen una unidad de derivación de imagen (403) dispuesta para derivar al menos la imagen de bajo rango dinámico (Im_LDR) sobre la base de los datos que describen el segundo mapeo de color (Fi(MP_DL)) y los colores de píxeles codificados en la segunda imagen de bajo rango dinámico (GT_IDR).
6. Un decodificador de imagen (401) de acuerdo con la reivindicación 5, que comprende una unidad de configuración de sistema (402), dispuesta para determinar si el decodificador se conecta a al menos uno de un visualizador de alto rango dinámico (411) y un visualizador de bajo rango dinámico (416), y disponiéndose la unidad de configuración de sistema (402) para configurar la unidad de derivación de imagen (403) para determinar al menos la reconstrucción (REC_HDR) en caso de una conexión al visualizador de alto rango dinámico (411), y dispuesta para configurar la unidad de derivación de imagen (403) para determinar al menos la imagen de bajo rango dinámico (Im_LDR) en caso de una conexión al visualizador de bajo rango dinámico (416).
7. Un decodificador de imagen (401) de acuerdo con las reivindicaciones 5 o 6, que tiene como una salida una conexión por cable (410) o una conexión inalámbrica (415) a cualquier visualizador conectable, y un formateador de señal (407) dispuesto para transmitir al menos una o ambas de la reconstrucción (REC_HDR) y la imagen de bajo rango dinámico (Im_LDR) a cualquier visualizador conectado.
8. Un decodificador de imagen (401) de acuerdo con las reivindicaciones 5 o 6, en el que la unidad de derivación de imagen (403) se dispone para determinar una imagen adicional (FURTHGR) basándose en la reconstrucción (REC_HDR) y la imagen de bajo rango dinámico (Im_LDR), o la segunda imagen de bajo rango dinámico (GT_IDR) y datos que describen el primer mapeo de color (Fi(MP_T)) y datos que describen el segundo mapeo de color (Fi(MP_DL)).
9. Un decodificador de imagen (401) de acuerdo con las reivindicaciones 5 o 6, en el que la entrada de señal de imagen (405) se conecta a una unidad de lectura (409) dispuesta para leer la señal de imagen de un objeto de memoria (102), tal como, por ejemplo, un disco blu-ray.
10. Un decodificador de imagen (401) de acuerdo con las reivindicaciones 5 o 6, en el que la entrada de señal de imagen (405) es conectable a una conexión de red (408) a una fuente de una señal de imagen.
11. Un método de codificación de imágenes que comprende:
- acceder a una imagen de entrada de alto rango dinámico (M_HDR);
- especificar, por un graduador de color humano, un mapeo de color desde una representación (HDR_REP) de la imagen de entrada de alto rango dinámico a una imagen de bajo rango dinámico (Im_LDR), como un algoritmo de mapeo de color determinado por un ser humano, y emitir datos que especifican el mapeo de color determinado por un ser humano (Fi(MP_DH)); y caracterizado por que el método de codificación de imágenes comprende - derivar automáticamente, por medio de software y/o hardware de procesamiento de imágenes, una segunda imagen de bajo rango dinámico (GT_IDR) aplicando un algoritmo de mapeo de color automático a la imagen de entrada de alto rango dinámico (M_HDR), cumpliendo un algoritmo de mapeo de color una condición de que una imagen reconstruida HDR (REC_HDR) que se encuentra dentro de una segunda precisión predefinida de la imagen de entrada de alto rango dinámico (M_HDR) puede calcularse aplicando un segundo algoritmo de mapeo de color (CMAP_2), que es el inverso del algoritmo de mapeo de color automático Fi(MP_T), a la segunda imagen de bajo rango dinámico (GT_IDR;)
- formatear, por medio de un formateador de datos (220) dispuesto para emitir en una señal de imagen (TSIG), la segunda imagen de bajo rango dinámico (GT_IDR) y al menos uno de, o ambos de, datos que describen el mapeo de color (Fi(MP_T)) entre la imagen de entrada de alto rango dinámico (M_HDR) y la segunda imagen de bajo rango dinámico (GT_IDR) y datos que describen el mapeo de color (Fi(MP_DL)) entre la imagen de bajo rango dinámico (IM_LDR) y la segunda imagen de bajo rango dinámico (GT_IDR).
12. Un método de decodificación de imágenes que comprende:
- recibir una señal de imagen que comprende una segunda imagen de bajo rango dinámico (GT_IDR), y datos que describen un primer mapeo de color (Fi(MP_T)) que habilitan la reconstrucción de una reconstrucción (REC_HDR) de un alto rango dinámico (M_HDR) sobre la base de la segunda imagen de bajo rango dinámico (GT_IDR), y datos que describen un segundo mapeo de color (Fi(MP_DL)) que permiten el cálculo de una imagen de bajo rango dinámico (Im_LDR) sobre la base de la segunda imagen de bajo rango dinámico (GT_IDR), y
- derivar al menos la imagen de bajo rango dinámico (Im_LDR) sobre la base de los datos que describen el segundo mapeo de color (Fi(MP_DL)) y los colores de píxeles codificados en la segunda imagen de bajo rango dinámico (GT_IDR).
ES14711309T 2013-02-21 2014-02-07 Métodos y dispositivos de codificación y decodificación de imágenes HDR mejorados Active ES2770426T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361767314P 2013-02-21 2013-02-21
US201361868111P 2013-08-21 2013-08-21
PCT/IB2014/058848 WO2014128586A1 (en) 2013-02-21 2014-02-07 Improved hdr image encoding and decoding methods and devices

Publications (1)

Publication Number Publication Date
ES2770426T3 true ES2770426T3 (es) 2020-07-01

Family

ID=50336365

Family Applications (1)

Application Number Title Priority Date Filing Date
ES14711309T Active ES2770426T3 (es) 2013-02-21 2014-02-07 Métodos y dispositivos de codificación y decodificación de imágenes HDR mejorados

Country Status (9)

Country Link
US (2) US9699482B2 (es)
EP (1) EP2959672B1 (es)
JP (2) JP6309978B2 (es)
CN (2) CN109064433B (es)
ES (1) ES2770426T3 (es)
MX (1) MX350910B (es)
PL (1) PL2959672T3 (es)
RU (1) RU2633128C2 (es)
WO (1) WO2014128586A1 (es)

Families Citing this family (118)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2633128C2 (ru) * 2013-02-21 2017-10-11 Конинклейке Филипс Н.В. Улучшенные способы и устройства кодирования и декодирования hdr изображения
JP6202330B2 (ja) * 2013-10-15 2017-09-27 ソニー株式会社 復号装置および復号方法、並びに符号化装置および符号化方法
WO2015061335A2 (en) * 2013-10-22 2015-04-30 Dolby Laboratories Licensing Corporation Guided color grading for extended dynamic range
EP2989793B1 (en) * 2013-11-13 2017-04-05 Dolby Laboratories Licensing Corporation Workflow for content creation and guided display management of enhanced dynamic range video
US10701403B2 (en) * 2014-01-24 2020-06-30 Sony Corporation Transmission device, transmission method, reception device, and reception method
EP3829171A1 (en) 2014-02-25 2021-06-02 Apple Inc. Adaptive transfer function for video encoding and decoding
JP5948618B2 (ja) * 2014-05-16 2016-07-06 パナソニックIpマネジメント株式会社 変換方法および変換装置
PL3324629T3 (pl) 2014-05-28 2019-11-29 Koninklijke Philips Nv Sposoby i urządzenia do kodowania obrazów hdr oraz sposoby i urządzenia do wykorzystania tak zakodowanych obrazów
US9786251B1 (en) * 2014-05-28 2017-10-10 Musco Corporation Apparatus, method, and system for visually indicating perceived glare thresholds
US9532019B2 (en) * 2014-06-20 2016-12-27 Sz Zunzheng Digital Video Co., Ltd Color grading monitor, color grading system and color grading method thereof
EP3174280A1 (en) * 2014-06-23 2017-05-31 Panasonic Intellectual Property Management Co., Ltd. Conversion method and conversion apparatus
EP3739894A1 (en) * 2014-06-27 2020-11-18 Panasonic Intellectual Property Management Co., Ltd. Data output device, data output method, and data generation method
JP2016058848A (ja) * 2014-09-08 2016-04-21 ソニー株式会社 画像処理装置及び画像処理方法
US20160277743A1 (en) * 2014-10-06 2016-09-22 Telefonaktiebolaget L M Ericsson (Publ) Evaluation Measure for HDR Video Frames
JP6539032B2 (ja) * 2014-10-06 2019-07-03 キヤノン株式会社 表示制御装置、表示制御方法、およびプログラム
TR201808347T4 (tr) * 2014-10-10 2018-07-23 Koninklijke Philips Nv Dinamik erim eşleştirmelerine yönelik doyma işleminin belirtimi.
US9369739B2 (en) * 2014-10-28 2016-06-14 Avid Technology, Inc. Preserving dynamic range precision in integer image formats
US10271057B2 (en) * 2014-11-04 2019-04-23 Vahagn Nurijanyan System and methods for image/video compression
US10277783B2 (en) 2014-11-14 2019-04-30 Samsung Electronics Co., Ltd. Method and device for image display based on metadata, and recording medium therefor
TW201633779A (zh) * 2014-12-16 2016-09-16 湯姆生特許公司 將圖像之高動態範圍版本轉換至該圖像之標準動態範圍版本之方法及裝置
US9697175B2 (en) * 2014-12-22 2017-07-04 Here Global B.V. Method and apparatus for providing curvature transformation for comparison, computation and aggregation
HUE056171T2 (hu) * 2014-12-29 2022-01-28 Sony Group Corp Adókészülék, adási eljárás, vevõkészülék és vételi eljárás
US9860504B2 (en) 2015-01-09 2018-01-02 Vixs Systems, Inc. Color gamut mapper for dynamic range conversion and methods for use therewith
US9560330B2 (en) * 2015-01-09 2017-01-31 Vixs Systems, Inc. Dynamic range converter with reconfigurable architecture and methods for use therewith
US9544560B2 (en) * 2015-01-09 2017-01-10 Vixs Systems, Inc. Dynamic range converter with generic architecture and methods for use therewith
US9589313B2 (en) * 2015-01-09 2017-03-07 Vixs Systems, Inc. Dynamic range converter with pipelined architecture and methods for use therewith
US9558538B2 (en) * 2015-01-09 2017-01-31 Vixs Systems, Inc. Dynamic range converter with frame by frame adaptation and methods for use therewith
WO2016121346A1 (en) * 2015-01-30 2016-08-04 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and appearance reproduction apparatus
CA2975172C (en) 2015-01-30 2023-04-04 Thomson Licensing A method and apparatus of encoding and decoding a color picture
CN107409210B (zh) 2015-01-30 2021-01-12 交互数字Vc控股公司 匹配不同动态范围的彩色图片之间的色彩的方法和设备
EP3051792A1 (en) * 2015-01-30 2016-08-03 Thomson Licensing Method and device for matching colors between color pictures of different dynamic range
CN107258078B (zh) * 2015-01-30 2019-09-24 皇家飞利浦有限公司 简单但通用的动态范围编码
WO2016171508A1 (ko) * 2015-04-23 2016-10-27 엘지전자 주식회사 방송 신호 송수신 방법 및 장치
JP6731722B2 (ja) * 2015-05-12 2020-07-29 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 表示方法および表示装置
JP6663214B2 (ja) * 2015-05-26 2020-03-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 表示方法および表示装置
US9942489B2 (en) * 2015-06-02 2018-04-10 Samsung Electronics Co., Ltd. Adaptive tone mapping based on local contrast
KR102059256B1 (ko) 2015-06-05 2019-12-24 애플 인크. Hdr 콘텐츠의 렌더링 및 디스플레이
US10880557B2 (en) * 2015-06-05 2020-12-29 Fastvdo Llc High dynamic range image/video coding
EP3107300A1 (en) * 2015-06-15 2016-12-21 Thomson Licensing Method and device for encoding both a high-dynamic range frame and an imposed low-dynamic range frame
EP3113496A1 (en) * 2015-06-30 2017-01-04 Thomson Licensing Method and device for encoding both a hdr picture and a sdr picture obtained from said hdr picture using color mapping functions
GB2539917B (en) 2015-06-30 2021-04-07 British Broadcasting Corp Method and apparatus for conversion of HDR signals
JP2017024285A (ja) * 2015-07-23 2017-02-02 株式会社Jvcケンウッド 印刷装置,印刷システム,印刷方法,及びカードの製造方法
CN113660521A (zh) 2015-09-25 2021-11-16 麦克赛尔株式会社 接收装置
JP6616212B2 (ja) * 2015-09-28 2019-12-04 マクセル株式会社 表示制御方法
WO2017051808A1 (ja) 2015-09-25 2017-03-30 日立マクセル株式会社 放送受信装置
US10283032B2 (en) 2015-10-07 2019-05-07 Samsung Display Co., Ltd. Integrated circuit for nonlinear data encoding
EP3169071B1 (en) * 2015-11-16 2020-01-29 InterDigital VC Holdings, Inc. Backward-compatible encoding of a hdr picture
CN106878694B (zh) * 2015-12-10 2018-12-18 瑞昱半导体股份有限公司 高动态范围信号处理***与方法
CN108370442B (zh) * 2015-12-15 2020-02-14 华为技术有限公司 一种高动态范围图像的处理方法、装置及计算机可读存储介质
ES2684432T3 (es) * 2015-12-17 2018-10-02 Koninklijke Philips N.V. Codificación de rango dinámico para imágenes y vídeo
US9984446B2 (en) * 2015-12-26 2018-05-29 Intel Corporation Video tone mapping for converting high dynamic range (HDR) content to standard dynamic range (SDR) content
JP6233424B2 (ja) * 2016-01-05 2017-11-22 ソニー株式会社 撮像システムおよび撮像方法
JP6237797B2 (ja) * 2016-01-05 2017-11-29 ソニー株式会社 ビデオシステム、ビデオ処理方法、プログラム、およびビデオコンバーター
CN108781290B (zh) * 2016-03-07 2023-07-04 皇家飞利浦有限公司 一种hdr视频编码器及其编码方法、hdr视频解码器及其解码方法
JP2019512953A (ja) 2016-03-14 2019-05-16 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ダイナミックレンジマッピングのための飽和処理仕様
BR112018068603A2 (pt) * 2016-03-18 2019-02-05 Koninklijke Philips Nv decodificador e codificador de vídeo e método de decodificação e de codificação vídeo
JP6824619B2 (ja) * 2016-03-31 2021-02-03 キヤノン株式会社 画像処理装置、およびその制御方法
US10699391B2 (en) 2016-04-29 2020-06-30 Disney Enterprises, Inc. Dynamic range expansion highlight information restoration
EP3242482A1 (en) * 2016-05-04 2017-11-08 Thomson Licensing Method and apparatus for encoding/decoding a high dynamic range picture into a coded bitstream
JP6891882B2 (ja) * 2016-05-25 2021-06-18 ソニーグループ株式会社 画像処理装置、および画像処理方法、並びにプログラム
US9916638B2 (en) * 2016-07-20 2018-03-13 Dolby Laboratories Licensing Corporation Transformation of dynamic metadata to support alternate tone rendering
US10834400B1 (en) 2016-08-19 2020-11-10 Fastvdo Llc Enhancements of the AV1 video codec
US10242435B2 (en) * 2016-09-07 2019-03-26 Gvbb Holdings S.A.R.L. High dynamic range processing
KR102594201B1 (ko) * 2016-09-22 2023-10-27 삼성디스플레이 주식회사 영상 처리 방법 및 이를 수행하는 표시 장치
GB2554669B (en) * 2016-09-30 2022-04-06 Apical Ltd Image processing
US11202050B2 (en) * 2016-10-14 2021-12-14 Lg Electronics Inc. Data processing method and device for adaptive image playing
US20180152686A1 (en) * 2016-11-28 2018-05-31 Microsoft Technology Licensing, Llc Tone mapping functions for rendering high dynamic range video on enhanced dynamic range display devices
US10218952B2 (en) 2016-11-28 2019-02-26 Microsoft Technology Licensing, Llc Architecture for rendering high dynamic range video on enhanced dynamic range display devices
US10366674B1 (en) * 2016-12-27 2019-07-30 Facebook Technologies, Llc Display calibration in electronic displays
US10104334B2 (en) 2017-01-27 2018-10-16 Microsoft Technology Licensing, Llc Content-adaptive adjustment of display device brightness levels when rendering high dynamic range content
US10176561B2 (en) * 2017-01-27 2019-01-08 Microsoft Technology Licensing, Llc Content-adaptive adjustments to tone mapping operations for high dynamic range content
JP6738972B2 (ja) * 2017-02-15 2020-08-12 ドルビー ラボラトリーズ ライセンシング コーポレイション ハイダイナミックレンジ画像のためのトーン曲線マッピング
JP7086587B2 (ja) * 2017-02-24 2022-06-20 インターデジタル ヴイシー ホールディングス, インコーポレイテッド 復号された画像データから画像データを再構成する方法および装置
EP3566430B1 (en) 2017-03-03 2022-10-12 Dolby Laboratories Licensing Corporation Color saturation adjustment in non-uniform color space
EP3373585A1 (en) * 2017-03-09 2018-09-12 Thomson Licensing Method for inverse tone mapping of an image with visual effects
RU2730435C1 (ru) 2017-04-21 2020-08-21 Зенимакс Медиа Инк. Системы и способы рендеринга с адаптируемым качеством под управлением кодировщика
EP3399497A1 (en) * 2017-05-05 2018-11-07 Koninklijke Philips N.V. Optimizing decoded high dynamic range image saturation
CN107197235B (zh) * 2017-06-26 2018-10-12 杭州当虹科技股份有限公司 一种hdr视频预处理方法
WO2019050972A2 (en) * 2017-09-06 2019-03-14 Dolby Laboratories Licensing Corporation TONAL CURVE OPTIMIZATION METHOD AND VIDEO ENCODER AND VIDEO DECODER THEREOF
US10609372B2 (en) * 2017-09-29 2020-03-31 Dolby Laboratories Licensing Corporation Up-conversion to content adaptive perceptual quantization video signals
US10497104B2 (en) 2017-10-24 2019-12-03 Adobe Inc. Empirical exposure normalization
US10498971B2 (en) 2017-11-03 2019-12-03 Qualcomm Incorporated Systems and methods for high-dynamic range imaging
KR102448497B1 (ko) * 2017-11-17 2022-09-28 삼성전자주식회사 디스플레이 장치, 디스플레이 장치의 제어 방법 및 영상 제공 장치
CN116030771A (zh) * 2018-02-14 2023-04-28 Eizo株式会社 显示***以及计算机可读记录介质
US10713997B2 (en) * 2018-03-23 2020-07-14 Valve Corporation Controlling image display via mapping of pixel values to pixels
EP3744095A1 (en) * 2018-05-17 2020-12-02 Google LLC Image compression and decompression using triangulation
CN108933933B (zh) * 2018-07-05 2019-08-20 华为技术有限公司 一种视频信号处理方法及装置
CN110691277B (zh) * 2018-07-05 2024-03-05 华为技术有限公司 视频信号的处理方法及装置
FR3083633B1 (fr) * 2018-07-05 2020-05-29 Thales Procede et dispositif d'affichage de donnees sonar ou radar a haute dynamique
US10957024B2 (en) 2018-10-30 2021-03-23 Microsoft Technology Licensing, Llc Real time tone mapping of high dynamic range image data at time of playback on a lower dynamic range display
GB2575134B (en) 2018-12-20 2021-03-31 Imagination Tech Ltd ASTC interpolation
GB2575135B (en) * 2018-12-20 2021-03-24 Imagination Tech Ltd ASTC interpolation
JP7304153B2 (ja) * 2018-12-27 2023-07-06 Kddi株式会社 動画像復号装置、動画像復号方法及びプログラム
JP7301551B2 (ja) * 2019-02-21 2023-07-03 キヤノン株式会社 画像処理装置、画像処理方法、表示装置、制御方法、およびプログラム
CN111754412B (zh) * 2019-03-29 2024-04-19 Tcl科技集团股份有限公司 构建数据对的方法、装置及终端设备
CN110163816B (zh) * 2019-04-24 2021-08-31 Oppo广东移动通信有限公司 图像信息的处理方法、装置、存储介质及电子设备
CN110162567B (zh) * 2019-05-21 2020-07-31 山东大学 基于颜色表优化的二维标量场数据可视化方法及***
US11182884B2 (en) * 2019-07-30 2021-11-23 Nvidia Corporation Enhanced high-dynamic-range imaging and tone mapping
US11436242B2 (en) 2019-09-20 2022-09-06 Fisher-Rosemount Systems, Inc. Edge gateway system with contextualized process plant knowledge repository
US10915081B1 (en) * 2019-09-20 2021-02-09 Fisher-Rosemount Systems, Inc. Edge gateway system for secured, exposable process plant data delivery
US11165839B2 (en) 2019-09-20 2021-11-02 Fisher-Rosemount Systems, Inc. Edge gateway system with data typing for secured process plant data delivery
US11473971B2 (en) * 2019-09-27 2022-10-18 Apple Inc. Ambient headroom adaptation
CN111161234B (zh) * 2019-12-25 2023-02-28 北京航天控制仪器研究所 一种离散余弦变换测量基排序方法
CN113255709A (zh) 2020-02-11 2021-08-13 阿里巴巴集团控股有限公司 图像元素搭配方法及装置和模型训练方法及装置和数据处理方法
CN111784598B (zh) * 2020-06-18 2023-06-02 Oppo(重庆)智能科技有限公司 色调映射模型的训练方法、色调映射方法及电子设备
US11315291B1 (en) * 2021-01-29 2022-04-26 International Business Machines Corporation Shine visualization
US11810274B2 (en) 2021-03-04 2023-11-07 Nvidia Corporation Tone management using tone gain functions for high dynamic range imaging applications
US20220358627A1 (en) * 2021-05-05 2022-11-10 Nvidia Corporation High dynamic range image processing with fixed calibration settings
CN113411533B (zh) * 2021-06-15 2023-03-31 三星电子(中国)研发中心 一种高动态范围制式的转换方法和装置
CN113470156B (zh) * 2021-06-23 2024-07-19 网易(杭州)网络有限公司 纹理贴图的混合处理方法、装置、电子设备及存储介质
CN113542744A (zh) * 2021-07-09 2021-10-22 杭州当虹科技股份有限公司 基于动态hdr场景切换的编码方法
CN115797152A (zh) * 2021-09-10 2023-03-14 北京字跳网络技术有限公司 一种颜色映射色卡生成方法及装置
US20230186612A1 (en) * 2021-12-15 2023-06-15 7 Sensing Software Image processing methods and systems for generating a training dataset for low-light image enhancement using machine learning models
US20230252874A1 (en) * 2022-02-08 2023-08-10 Alarm.Com Incorporated Shadow-based fall detection
CN114820373B (zh) * 2022-04-28 2023-04-25 电子科技大学 基于知识启发的单张图像重构hdr方法
EP4277281A1 (en) * 2022-05-12 2023-11-15 Koninklijke Philips N.V. Hdr video reconstruction by converted tone mapping
WO2024020356A1 (en) * 2022-07-18 2024-01-25 Dolby Laboratories Licensing Corporation Multiple-intent composite image encoding and rendering
CN115828353B (zh) * 2023-02-10 2023-05-23 武汉智图科技有限责任公司 一种基于制图方案集的应急地图制图方法

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1023279A (ja) * 1996-06-28 1998-01-23 Fuji Xerox Co Ltd 画像処理装置
US6864916B1 (en) * 1999-06-04 2005-03-08 The Trustees Of Columbia University In The City Of New York Apparatus and method for high dynamic range imaging using spatially varying exposures
US8218625B2 (en) * 2004-04-23 2012-07-10 Dolby Laboratories Licensing Corporation Encoding, decoding and representing high dynamic range images
RU2370815C2 (ru) * 2005-08-19 2009-10-20 Самсунг Электроникс Ко., Лтд. Способ и система для выделения и классификации дефектов экспозиции цифровых изображений
CN100473128C (zh) * 2006-03-17 2009-03-25 广达电脑股份有限公司 图像处理装置及其方法
JP4860551B2 (ja) * 2007-06-01 2012-01-25 株式会社キーエンス 拡大観察装置、高階調画像ファイル作成方法、高階調画像ファイル作成方法、高階調画像ファイル作成プログラム及びコンピュータで読み取り可能な記録媒体
US20090220151A1 (en) * 2008-02-29 2009-09-03 Himax Technologies Limited Device for adjusting image color difference value and adjusting method thereof
US8831343B2 (en) * 2009-01-19 2014-09-09 Dolby Laboratories Licensing Corporation Image processing and displaying methods for devices that implement color appearance models
US9087382B2 (en) * 2009-06-29 2015-07-21 Thomson Licensing Zone-based tone mapping
US9020257B2 (en) * 2009-10-08 2015-04-28 International Business Machines Corporation Transforming a digital image from a low dynamic range (LDR) image to a high dynamic range (HDR) image
JP2011160183A (ja) * 2010-02-01 2011-08-18 Olympus Imaging Corp 撮像装置および撮像方法
US8766999B2 (en) * 2010-05-20 2014-07-01 Aptina Imaging Corporation Systems and methods for local tone mapping of high dynamic range images
EP2591602A1 (en) * 2010-07-06 2013-05-15 Koninklijke Philips Electronics N.V. Generation of high dynamic range images from low dynamic range images
JP5153857B2 (ja) * 2010-11-25 2013-02-27 シャープ株式会社 画像処理装置、画像形成装置、画像処理方法、コンピュータプログラム及び記録媒体
US8731287B2 (en) * 2011-04-14 2014-05-20 Dolby Laboratories Licensing Corporation Image prediction based on primary color grading model
US8334911B2 (en) * 2011-04-15 2012-12-18 Dolby Laboratories Licensing Corporation Encoding, decoding, and representing high dynamic range images
TWI513327B (zh) * 2011-04-15 2015-12-11 Dolby Lab Licensing Corp 高動態範圍影像的編碼、解碼及表示
JP5992997B2 (ja) * 2011-04-28 2016-09-14 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 映像符号化信号を発生する方法及び装置
EP2702766B1 (en) * 2011-04-28 2017-06-14 Koninklijke Philips N.V. Apparatuses and methods for hdr image encoding and decoding
US10097822B2 (en) * 2011-05-10 2018-10-09 Koninklijke Philips N.V. High dynamic range image signal generation and processing
US8891863B2 (en) 2011-06-13 2014-11-18 Dolby Laboratories Licensing Corporation High dynamic range, backwards-compatible, digital cinema
EP2557789B1 (en) * 2011-08-09 2017-09-27 Dolby Laboratories Licensing Corporation Guided image up-sampling in video coding
CN103827956B (zh) 2011-09-27 2017-06-13 皇家飞利浦有限公司 用于图像的动态范围变换的装置和方法
US9129445B2 (en) * 2012-03-14 2015-09-08 Dolby Laboratories Licensing Corporation Efficient tone-mapping of high-bit-depth video to low-bit-depth display
US9516351B2 (en) * 2012-07-13 2016-12-06 Koninklijke Philips N.V. HDR image encoding and decoding methods and devices
US8965141B2 (en) * 2012-08-17 2015-02-24 Thomson Licensing Image filtering based on structural information
MX338258B (es) * 2012-10-08 2016-04-11 Koninkl Philips Nv Procesamiento de imagenes por cambio de luminancia con restricciones de color.
RU2633128C2 (ru) * 2013-02-21 2017-10-11 Конинклейке Филипс Н.В. Улучшенные способы и устройства кодирования и декодирования hdr изображения

Also Published As

Publication number Publication date
JP2018110403A (ja) 2018-07-12
EP2959672A1 (en) 2015-12-30
JP6309978B2 (ja) 2018-04-11
US9699482B2 (en) 2017-07-04
US10182247B2 (en) 2019-01-15
CN109064433A (zh) 2018-12-21
EP2959672B1 (en) 2019-12-04
US20150358646A1 (en) 2015-12-10
US20170339433A1 (en) 2017-11-23
RU2633128C2 (ru) 2017-10-11
JP2016517637A (ja) 2016-06-16
MX350910B (es) 2017-09-25
PL2959672T3 (pl) 2020-06-01
WO2014128586A1 (en) 2014-08-28
CN104995903A (zh) 2015-10-21
JP6700322B2 (ja) 2020-05-27
BR112015019787A2 (pt) 2017-07-18
RU2015139690A (ru) 2017-03-24
MX2015010673A (es) 2015-12-16
CN104995903B (zh) 2019-07-09
CN109064433B (zh) 2022-09-13

Similar Documents

Publication Publication Date Title
ES2770426T3 (es) Métodos y dispositivos de codificación y decodificación de imágenes HDR mejorados
ES2737993T3 (es) Aparatos y métodos basados en región de brillo para codificación y decodificación de imágenes HDR
JP6596125B2 (ja) Hdrイメージの符号化のためのコードマッピング関数を作成するための方法及び装置、並びに、かかる符号化イメージの使用のための方法及び装置
ES2744795T3 (es) Métodos y aparatos para codificar unas imágenes HDR, y métodos y aparatos para usar tales imágenes codificadas
ES2808177T3 (es) Optimización de imágenes de alto rango dinámico para pantallas particulares
US9754629B2 (en) Methods and apparatuses for processing or defining luminance/color regimes
EP3381179B1 (en) Handling multiple hdr image sources
ES2641371T3 (es) Procesamiento de imágenes con cambio de luminancia con restricciones de color
ES2825699T3 (es) Optimización e imágenes de alto rango dinámico para pantallas particulares
RU2589871C2 (ru) Устройства и способы кодирования и декодирования изображения hdr
ES2550782T3 (es) Aparato y método para analizar gradaciones de imágenes
ES2556383T3 (es) Aparatos y procedimientos para definir regímenes de color
RU2723676C2 (ru) Обработка множественных источников изображения hdr
JP2022541884A (ja) Hdr画像のための表示最適化挙動の調節
ES2728053T3 (es) Métodos y aparatos para crear funciones de mapeo de códigos para codificar una imagen HDR, y métodos y aparatos para el uso de tales imágenes codificadas
BR112015019787B1 (pt) Codificador de imagem, decodificador de imagem, método de codificação de imagem, método de decodificação de imagem, sinal de imagem, e, objeto de memória
JP2024519606A (ja) ディスプレイに最適化されたhdrビデオコントラスト適応
JP2024517241A (ja) ディスプレイに最適化されたhdrビデオコントラスト適応
ES2787827T3 (es) Aparatos y procedimientos para la codificación y decodificación de imágenes HDR
BR112018010367B1 (pt) Aparelho para combinar duas imagens ou dois vídeos de imagens, e método para combinar duas imagens ou dois vídeos de imagens
BR112017002313B1 (pt) Codificador para codificar um vídeo de entrada de alto alcance dinâmico, método para codificar um vídeo de entrada de alto alcance dinâmico, decodificador de vídeo para decodificar um vídeo de alto alcance dinâmico, decodificador de vídeo para decodificar um conjunto de imagens de vídeo de alto alcance dinâmico e método de decodificação de vídeo de um conjunto de imagens de vídeo de alto alcance dinâmico
BR112016027461B1 (pt) Método de codificação de uma imagem de alta faixa dinâmica, codificador de imagem disposto para codificar uma imagem de alta faixa dinâmica, decodificador de imagem disposto para receber um sinal de imagem de alta faixa dinâmica, e, método de decodificação de um sinal de imagem de alta faixa dinâmica