ES2282429T3 - Procedimiento y sistema para producir informaciones formateadas relacionadas con las distorsiones geometricas. - Google Patents

Procedimiento y sistema para producir informaciones formateadas relacionadas con las distorsiones geometricas. Download PDF

Info

Publication number
ES2282429T3
ES2282429T3 ES02743348T ES02743348T ES2282429T3 ES 2282429 T3 ES2282429 T3 ES 2282429T3 ES 02743348 T ES02743348 T ES 02743348T ES 02743348 T ES02743348 T ES 02743348T ES 2282429 T3 ES2282429 T3 ES 2282429T3
Authority
ES
Spain
Prior art keywords
image
point
characteristic
formatted information
formatted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES02743348T
Other languages
English (en)
Inventor
Benoit Chauville
Frederic Guichard
Jean-Marc Lavest
Bruno Liege
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DO Labs SA
Original Assignee
DO Labs SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from FR0109291A external-priority patent/FR2827459B1/fr
Priority claimed from FR0109292A external-priority patent/FR2827460B1/fr
Priority claimed from FR0112664A external-priority patent/FR2830401B1/fr
Application filed by DO Labs SA filed Critical DO Labs SA
Application granted granted Critical
Publication of ES2282429T3 publication Critical patent/ES2282429T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/58Edge or detail enhancement; Noise or error suppression, e.g. colour misregistration correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)
  • Facsimiles In General (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)

Abstract

Procedimiento para producir informaciones formateadas (IF) relacionadas con los aparatos (App1, App2, App3) de una cadena de aparatos (APP1); dicha cadena de aparatos incluye, en especial, como mínimo, un aparato de captura de imagen (App1) o, al menos, un aparato de restitución de imagen (APP2); dicho aparato permite capturar o restituir una imagen (I) en un soporte (SC); dicho aparato incluye, al menos, una característica fija o una característica variable según la imagen (I); dicha característica fija o característica variable es susceptible de estar asociada a uno o varios valores de características, especialmente la focal o la puesta a punto y sus valores de características asociadas; dicho procedimiento incluye la etapa de: - producir informaciones formateadas (IF) relacionadas con las distorsiones geométricas de, al menos, un aparato de dicha cadena. - producir informaciones formateadas medidas (IFM1 a IFMm) relacionadas con las distorsiones geométricas de dicho aparato a partir de un campo medido (D(H)); dichas informaciones formateadas (IF) pueden incluir dichas informaciones formateadas medidas. - producir informaciones formateadas extendidas (IFE1 a IFEm) relacionadas con las distorsiones geométricas de dicho aparato a partir de dichas informaciones formateadas medidas (IFM1 a IFMm); dichas informaciones formateadas pueden incluir dichas informaciones formateadas extendidas; dichas informaciones formateadas extendidas presentan una desviación (14) en relación con dichas informaciones formateadas medidas, y dicho procedimiento incluye un primer algoritmo de cálculo (AC1) que permite obtener dicho campo medido D(H) a partir de un sistema de referencia(M)que consta de puntos característicos (PP1, PPi, PPj, PPm) y una referencia virtual (R) compuesta por puntos de referencia (PR1, PRi, PRj, PRm) sobre una superficie de referencia (SR); dicho primer algoritmo de cálculo (AC1) incluye la etapa de capturar o restituir dicho sistema de referencia (M) por medio de dicho aparato para producir una imagen (I) de dichos puntos característicos en dicho soporte (SC); la imagen de un punto característico (PP1, PPi, PPj, PPm) se denominará en adelante el punto característico de imagen (PT1, PTi, PTj, PTm); dicho primer algoritmo de cálculo (AC2) incluye además: - la etapa de establecer una biyección entre dichos puntos característicos de imágenes (PT1, Pti, PTj, PTm) y dichos puntos de referencia. - la etapa de seleccionar cero, una o varias características variables entre el conjunto de dichas características variables, en adelante llamadas las características variables seleccionadas. dicho campo medido (D(H)) está compuesto por: - el conjunto de pares constituidos por uno de dichos puntos de referencia (PRm) y por un punto característico de imagen (PTm) asociado por dicha biyección. - el valor, para dicha imagen (I), de cada una de dichas características variables seleccionadas.

Description

Procedimiento y sistema para producir informaciones formateadas relacionadas con las distorsiones geométricas.
La presente invención se refiere a un procedimiento y un sistema para producir informaciones formateadas relacionadas con las distorsiones geométricas.
El documento WO 01/35052 A (ARMSTRONG BRIAN S; SCHMIDT KARL B (US)) del 17 de mayo de 2001 (17-05-2001) divulga un procedimiento para producir informaciones relativas a las distorsiones geométricas en fotogrametría. Su sistema de lentes consta de características fijas y características variables susceptibles de estar asociadas a uno o varios valores de características. Su método produce informaciones medidas relacionadas con las distorsiones geométricas a partir de un campo medido y también otras informaciones que presentan una desviación en relación con las informaciones medidas. Las informaciones producidas a partir de las informaciones medidas se representan mediante los parámetros de un modelo configurable. El campo medido se obtiene midiendo los puntos de la imagen que presentan un interés particular, por ejemplo, por detección de un marcado de referencia.
Solución Procedimiento
La invención se refiere a un procedimiento para producir informaciones formateadas relacionadas con los aparatos de una cadena de aparatos tal y como se define en la reivindicación 1. La cadena de aparatos consta, especialmente, de al menos un aparato de restitución de imagen. El procedimiento incluye la etapa de producción de informaciones formateadas relacionadas con las distorsiones geométricas de, al menos, un aparato de la cadena.
Preferentemente, según la invención, el aparato permite capturar o restituir una imagen sobre un soporte. El aparato incluye, al menos, una característica fija o una característica variable según la imagen. La característica fija o característica variable es susceptible de estar asociada a uno o varios valores de características, en concreto, la focal o la puesta a punto y sus valores de características asociadas. El procedimiento incluye la etapa de producción de informaciones formateadas medidas relacionadas con las distorsiones geométricas del aparato a partir del campo medido. Las informaciones formateadas pueden incluir las informaciones formateadas medidas.
Informaciones formateadas extendidas y desviación
Preferentemente, según la invención, el método incluye además la etapa de producción de informaciones formateadas extendidas relacionadas con las distorsiones geométricas del aparato a partir de informaciones formateadas medidas. Las informaciones formateadas pueden constar de informaciones formateadas extendidas. Las informaciones formateadas extendidas presentan una desviación en relación con dichas informaciones formateadas medidas.
Preferentemente, según la invención, el procedimiento es tal que las informaciones formateadas, producidas a partir de informaciones formateadas medidas, se representan mediante los parámetros de un modelo configurable seleccionado entre un conjunto de modelos configurables, especialmente un conjunto de polinomios. El procedimiento incluye además la etapa de selección del modelo configurable en el conjunto de modelos configurables:
- definiendo una desviación máxima.
- ordenando los modelos configurables del conjunto de modelos configurables según su grado de complejidad de uso.
- seleccionando el primero de los modelos configurables del conjunto de modelos configurables ordenado para el que la desviación sea inferior a la desviación máxima.
Según una variante de realización de la invención, las informaciones formateadas extendidas pueden ser las informaciones formateadas medidas.
Preferentemente, según la invención, el procedimiento incluye un primer algoritmo de cálculo que permite obtener el campo medido a partir de un sistema de referencia que incluye puntos característicos y una referencia virtual compuesta por puntos de referencia sobre una superficie de referencia. El primer algoritmo de cálculo incluye la etapa de capturar o restituir el sistema de referencia por medio del aparato para producir una imagen de puntos característicos sobre el soporte. La imagen de un punto característico se denomina en adelante el punto característico de imagen.
El primer algoritmo de cálculo incluye además:
- la etapa de establecer una biyección entre los puntos característicos de imágenes y los puntos de referencia.
- la etapa de seleccionar cero, una o varias características variables entre el conjunto de características variables, en lo sucesivo denominadas las características variables seleccionadas.
El campo medido está compuesto por:
- el conjunto de pares constituidos por uno de los puntos de referencia y por el punto característico de imagen asociado por la biyección.
- el valor, para la imagen en cuestión, de cada una de las características variables seleccionadas.
Preferentemente, según la invención, el procedimiento incluye además la etapa de selección de una proyección matemática, en concreto una homografía, entre el soporte y la superficie de referencia. El campo medido está compuesto por el valor, para la imagen, de cada una de las características variables seleccionadas y para cada punto de referencia por:
- el par constituido por el punto de referencia y la proyección matemática, sobre la superficie de referencia, por el punto característico de imagen asociado por la biyección al punto de referencia, o
- el par constituido por el punto característico de imagen asociado por la biyección al punto de referencia y de la proyección matemática sobre el soporte del punto de referencia.
Interpolación para formatear en un punto cualquiera
Preferentemente, según la invención, el procedimiento incluye además la etapa de obtención de informaciones formateadas extendidas relativas a un punto de referencia cualquiera sobre la superficie o a un punto de referencia característico de imagen cualquiera del soporte, deduciendo las informaciones formateadas, relativas a un punto de referencia cualquiera o a un punto característico de imagen cualquiera, a partir de informaciones formateadas medidas.
Focal variable
Preferentemente, según la invención, el procedimiento es tal que el aparato de la cadena presenta, al menos, una característica variable según la imagen, en especial la focal o la puesta a punto. Cada característica variable es susceptible de estar asociada a un valor para formar una combinación constituida por el conjunto de características variables y valores. El procedimiento incluye además las etapas siguientes:
- la etapa de selección de combinaciones predeterminadas.
- la etapa de cálculo de informaciones formateadas medidas, en concreto usando el primer algoritmo de cálculo para cada una de las combinaciones predeterminadas así seleccionadas.
Focal variable - Formateo en un punto cualquiera
Se denomina argumento, según el caso:
- a un punto de referencia cualquiera sobre la superficie de referencia y una combinación, o
- a un punto característico de imagen cualquiera del soporte y a una combinación.
Preferentemente, según la invención, el procedimiento incluye además la etapa de deducción de las informaciones formateadas extendidas relativas a un argumento cualquiera a partir de las informaciones formateadas medidas. De la combinación de rasgos técnicos se deriva el hecho de que las informaciones formateadas sean más compactas y robustas respecto a los errores de medición.
Selección de un umbral de referencia y formateo según este umbral
Preferentemente, según la invención, el procedimiento es tal que para deducir las informaciones formateadas extendidas a partir de informaciones formateadas medidas:
- se define un primer umbral.
- se seleccionan las informaciones formateadas extendidas de forma que la desviación sea inferior al primer umbral.
Añadido de desviaciones a las informaciones formateadas
Preferentemente, según la invención, el procedimiento incluye además la etapa de asociación de las desviaciones a las informaciones formateadas. De la combinación de rasgos técnicos se deriva el hecho de que las informaciones formateadas puedan utilizarse por programas de tratamiento de imágenes cuya distorsión geométrica residual sea conocida. De la combinación de rasgos técnicos se deriva el hecho de que las informaciones formateadas puedan utilizarse por programas de tratamiento de imágenes para obtener imágenes destinadas a ser restituidas por un aparato de restitución de imágenes con una distorsión geométrica residual conocida.
Selección de la homografía
Preferentemente, según la invención, el procedimiento incluye además la etapa de selección sobre el soporte de cuatro puntos característicos de imágenes tales como el cuadrilátero definido por los cuatro puntos característicos de imágenes, que tiene una superficie máxima y un centro de gravedad situado cerca del centro geométrico de la imagen. La proyección matemática es la homografía que transforma los cuatro puntos característicos de imágenes en los puntos de referencia asociados por la biyección en los cuatro puntos característicos de imágenes. De la combinación de rasgos técnicos se deriva el hecho de que sea posible, así, obtener simplemente informaciones formateadas que pueden utilizarse en los programas de tratamiento de imágenes para capturar o restituir imágenes con un pequeño cambio de perspectiva.
Caso de la imagen en color distorsiones
Preferentemente, según la invención, la imagen es una imagen en color compuesta por varios planos de color. El método incluye además la etapa de producción de informaciones formateadas medidas utilizando el primer algoritmo de cálculo para, al menos, dos de los planos de color, usando la misma proyección matemática para cada uno de los planos de color. Así, es posible utilizar las informaciones formateadas o informaciones formateadas medidas para corregir las distorsiones o las aberraciones cromáticas del aparato.
Preferentemente, según la invención, la imagen es una imagen en color compuesta por varios planos de color. El método incluye además la etapa de producción de informaciones formateadas medidas utilizando el primer algoritmo de cálculo para, al menos, uno de los planos de color, usando la misma referencia virtual para cada uno de los planos de color. Así, es posible utilizar las informaciones formateadas o informaciones formateadas medidas para corregir las aberraciones cromáticas del aparato.
Sistema
La invención se refiere a un sistema para producir informaciones 7 formateadas relacionadas con los aparatos de una cadena de aparatos tal y como se define en la reivindicación 11. La cadena de aparatos incluye, en particular, al menos un aparato de captura de imagen o al menos un aparato de restitución de imagen. El sistema incluye medios de cálculo para producir informaciones formateadas relacionadas con las distorsiones geométricas de, al menos, un aparato de la cadena.
El aparato permite capturar o restituir una imagen sobre un soporte. El aparato consta de, al menos, una característica fija o una característica variable, según la imagen. La característica fija o característica variable es susceptible de estar asociada a uno o varios valores de características, en concreto, la focal o la puesta a punto y sus valores de características asociadas. Preferentemente, según la invención, el sistema incluye medios de cálculo para producir informaciones formateadas medidas relacionadas con las distorsiones geométricas del aparato a partir de un campo medido. Las informaciones formateadas pueden incluir las informaciones formateadas medidas.
Informaciones formateadas extendidas y desviación
Preferentemente, según la invención, el sistema incluye además medios de cálculo para producir informaciones formateadas extendidas relacionadas con las distorsiones geométricas del aparato a partir de informaciones formateadas medidas. Las informaciones formateadas pueden incluir las informaciones formateadas extendidas. Las informaciones formateadas extendidas presentan una desviación en relación con las informaciones formateadas medidas.
Noción de modelo - Interpolación - Selección de un umbral y selección del modelo más sencillo para alcanzar el umbral
Preferentemente, según la invención, el sistema es tal que las informaciones formateadas, producidas a partir de informaciones formateadas medidas, se representan mediante los parámetros de un modelo configurable elegido entre un conjunto de modelos configurables, en concreto, un conjunto de polinomios. El sistema incluye además medios de selección para seleccionar el modelo configurable en el conjunto de modelos configurables. Los medios de selección incluyen medios de tratamiento informático para:
- definir una desviación máxima.
- ordenar los modelos configurables del conjunto de modelos configurables según su grado de complejidad de uso.
- seleccionar el primero de los modelos configurables del conjunto de modelos configurables ordenado para el que la desviación sea inferior a la desviación máxima.
Según una variante de realización de la invención, las informaciones formateadas extendidas pueden ser las informaciones formateadas medidas.
Preferentemente, según la invención, el sistema incluye medios de cálculo que usan un primer algoritmo de cálculo, que permite obtener el campo medido a partir de un sistema de referencia que consta de puntos característicos y de una referencia virtual compuesta por puntos de referencia sobre una superficie de referencia. El aparato de captura de imagen o el aparato de restitución de imagen incluye medios de captura o medios de restitución del sistema de referencia que permiten producir una imagen de puntos característicos sobre el soporte. La imagen de un punto característico se denomina en adelante el punto característico de imagen.
Los medios de cálculo del primer algoritmo de cálculo incluyen además medios de tratamiento informático para:
- establecer una biyección entre los puntos característicos de imágenes y los puntos de referencia.
- seleccionar cero, una o varias características variables entre el conjunto de características variables, en adelante denominadas las características variables seleccionadas.
El campo medido está compuesto por:
- el conjunto de pares constituidos por uno de los puntos de referencia y por el punto característico de imagen asociado por la biyección y
- el valor, para la imagen, de cada una de las características variables seleccionadas.
Preferentemente, según la invención, el sistema incluye además medios de análisis para elegir una proyección matemática, en concreto una homografía, entre el soporte y la superficie de referencia. El campo medido está compuesto por
el valor, para la imagen, de cada una de las características variables seleccionadas y para cada punto de referencia por:
- el par constituido por el punto de referencia y la proyección matemática, en la superficie de referencia, por el punto característico de imagen asociado por la biyección al punto de referencia o
- el par constituido por el punto característico de imagen asociado por la biyección al punto de referencia y por la proyección matemática, sobre el soporte, del punto de referencia.
Interpolación para formatear en un punto cualquiera
Preferentemente, según la invención, el sistema incluye además medios de tratamiento informático para obtener las informaciones formateadas extendidas relativas a un punto de referencia cualquiera sobre la superficie de referencia o a un punto característico de imagen cualquiera del soporte, deduciendo las informaciones formateadas, relativas a un punto de referencia cualquiera o a un punto característico de imagen cualquiera, a partir de informaciones formateadas medidas.
Focal variable
Preferentemente, según la invención, el sistema es tal que el aparato de la cadena de aparato presenta, al menos, una característica variable según la imagen, en concreto la focal o la puesta a punto. Cada característica variable es susceptible de estar asociada a un valor para formar una combinación constituida por el conjunto de características variables y valores. El sistema incluye también:
- medios de selección para seleccionar combinaciones predeterminadas.
- medios de cálculo para calcular informaciones formateadas medidas, en concreto utilizando el primer algoritmo de cálculo para cada una de las combinaciones predeterminadas así seleccionadas.
Focal variable - Formateo en un punto cualquiera
Un argumento designa, según el caso:
- un punto de referencia cualquiera sobre la superficie de referencia y una combinación o
- un punto característico de imagen cualquiera del soporte y una combinación.
Preferentemente, según la invención, el sistema incluye además medios de tratamiento informático para deducir las informaciones formateadas extendidas relativas a un argumento cualquiera a partir de informaciones formateadas medidas. De la combinación de rasgos técnicos se deriva el hecho de que las informaciones formateadas sean más compactas y robustas respecto a los errores de medición.
Selección de un umbral en la desviación y formateo según este umbral
Preferentemente, según la invención, el sistema es tal que los medios de tratamiento informático para deducir las informaciones formateadas extendidas a partir de informaciones formateadas medidas incluyen medios de selección para seleccionar las informaciones formateadas extendidas de manera que la desviación sea inferior a un primer umbral.
Añadido de desviaciones a las informaciones formateadas
Preferentemente, según la invención, las desviaciones están asociadas a dichas informaciones formateadas. De la combinación de rasgos técnicos se deriva el hecho de que las informaciones formateadas puedan ser utilizadas por programas de tratamiento de imágenes capturadas con el aparato, para obtener imágenes cuya distorsión geométrica residual sea conocida.
Selección de la homografía
Preferentemente, según la invención, el sistema incluye además medios de selección para seleccionar en el soporte cuatro puntos característicos de imágenes como el cuadrilátero definido por los cuatro puntos característicos de imágenes, que tiene una superficie máxima y un centro de gravedad situado cerca del centro geométrico de la imagen. La proyección matemática es la homografía que transforma los cuatro puntos característicos de imágenes en los puntos de referencia asociados por la biyección a los cuatro puntos característicos de imágenes. De la combinación de rasgos técnicos se deriva el hecho de que, de esta forma, es posible obtener simplemente informaciones formateadas que puedan ser utilizadas por programas de tratamiento de imágenes para capturar o restituir imágenes con un pequeño cambio de perspectiva.
Caso de la imagen en color distorsiones
La imagen es una imagen en color compuesta por varios planos de color. Preferentemente, según la invención, el sistema incluye además medios de tratamiento informático para producir las informaciones formateadas medidas empleando el primer algoritmo de cálculo para, al menos, dos de los planos de color, utilizando la misma proyección matemática para cada uno de los planos de color. Así, es posible utilizar las informaciones formateadas o informaciones formateadas medidas para corregir las distorsiones o las aberraciones cromáticas del aparato.
Preferentemente, según la invención, la imagen es una imagen en color compuesta por varios planos de color. El sistema incluye además medios de tratamiento informático para producir las informaciones medidas empleando el primer algoritmo de cálculo para, al menos, uno de los planos de color, utilizando la misma referencia virtual para cada uno de los planos de color. Así, es posible utilizar las informaciones formateadas o las informaciones formateadas medidas para corregir las aberraciones cromáticas del aparato.
Descripción detallada
Aparecerán otras características y ventajas de la invención en la lectura de la descripción de las variantes de realización de la invención, ofrecidas a modo de ejemplo indicativo y no limitativo, así como figuras que representan respectivamente:
- figura 1: esquema de una captura de imagen.
- figura 2: esquema de una restitución de imagen.
- figura 3: esquema de píxeles de una imagen.
- figura 4a y 4b: dos esquemas de una escena de referencia.
- figura 5: organigrama del método que permite calcular la diferencia entre la imagen matemática y la imagen corregida.
- figura 6: organigrama del método que permite obtener la mejor transformación de restitución para un medio de restitución de imagen.
- figura 7: esquema de los elementos que componen el sistema según la invención.
- figura 8: esquema de los campos de informaciones formateadas.
- figura 9a: esquema de frente de un punto matemático.
- figura 9b: esquema de frente de un punto real de una imagen.
- figura 9c: esquema de perfil de un punto matemático.
- figura 9d: esquema de perfil de un punto real de una imagen.
- figura 10: esquema de una tabla de puntos característicos.
- figura 11: organigrama del método que permite obtener las informaciones formateadas.
- figura 12: organigrama del método que permite obtener la mejor transformación para un aparato de captura de imagen.
- figuras 13a y 13b: diagramas que permiten explicar la producción de un campo medido utilizando biyecciones.
- figuras 14a y 14b: diagramas que permiten explicar la producción de un campo medido utilizando biyecciones y proyecciones matemáticas.
- figuras 15a y 15b: procedimiento en el que el campo medido se produce en forma de polinomio.
- figuras 16a y 16b: variante de un procedimiento de cálculo de un campo medido.
- figuras 17 y 18: procedimientos de interpolación de la información formateada de un punto a partir de informaciones formateadas conocidas.
- figuras 19a a 19c: variantes del procedimiento que permite minimizar el número de puntos de cálculo del campo medido.
- figuras 20a a 20d: procedimiento que permite calcular las informaciones formateadas relativas a una imagen en color.
- figura 21: procedimiento relativo a la corrección de una imagen deformada por una proyección.
- figura 22: variante del procedimiento que permite minimizar el número de puntos de cálculo en los casos de la corrección de una distorsión geométrica.
- figura 23a a 23c: procedimiento que permite eliminar zonas no tratadas de una imagen corregida.
- figura 24: informaciones formateadas relacionadas con las distorsiones geométricas de un aparato AP1 de una cadena de aparatos P3.
- figura 25: ejemplo de realización de un sistema según la invención.
En la figura 1 se han representado: una escena 3 que incluye un objeto 107, un capturador 101 y la superficie del capturador 110, un centro óptico 111, un punto de observación 105 en una superficie del capturador 110, una dirección de observación 106 pasando por el punto de observación 105, el centro óptico 111, la escena 3, una superficie 10 geométricamente asociada a la superficie del capturador 110.
En la figura 2 se han representado una imagen 103, un medio de restitución de imagen 19 y una imagen restituida 191 obtenida sobre el soporte de restitución 190.
En la figura 3 se han representado una escena 3, un aparato de captura de imagen 1 y una imagen 103 constituida por píxeles 104.
En las figuras 4a y 4b se han representado dos variantes de una escena de referencia 9.
En la figura 5 se ha representado un organigrama en el que se pone en práctica una escena 3, una proyección matemática 8 que proporciona una imagen matemática 70 de la escena 3, una proyección real 72 que proporciona una imagen matemática 103 de la escena 3 para las características utilizadas 74, un modelo de transformación configurable 12 que proporciona una imagen corregida 71 de la imagen 103, la imagen corregida 71 que presenta una diferencia 73 con la imagen matemática 70.
En la figura 6 se ha representado un organigrama en el que se pone en práctica una imagen 103, una proyección real de restitución 90 que proporciona una imagen restituida 191 de la imagen 103 para las características de restitución utilizadas 95, un modelo de transformación configurable de restitución 97 que proporciona una imagen corregida de restitución 94 de la imagen 103, una proyección matemática de restitución 96 que proporciona una imagen matemática de restitución 92 de la imagen corregida de restitución 94 y que presenta una diferencia de restitución 93 con la imagen restituida 191.
En la figura 7 se ha representado un sistema que incluye un aparato de captura de imagen 1 constituido por una óptica 100, un capturador 101 y una electrónica 102. En la figura 7 también se han representado una zona de memoria 16 que contiene una imagen 103, una base de datos 22 que contiene informaciones formateadas 15, medios de transmisión 18 de la imagen completada 120 constituida por la imagen 103 e informaciones formateadas 15 hacia medios de cálculo 17 que contienen programas de tratamiento de imagen 4.
En la figura 8 se han representado informaciones formateadas 15 constituidas por campos 90.
\newpage
En las figuras 9a a 9d se han representado una imagen matemática 70, una imagen 103, la posición matemática 40 de un punto, la forma matemática 41 de un punto, comparadas con la posición real 50 y la forma real 51 del punto correspondiente de la imagen.
En la figura 10 se ha representado una tabla 80 de puntos característicos.
En la figura 11 se ha representado un organigrama en el que se pone en práctica una imagen 103, las características utilizadas 74, una base de datos de características 22. Las informaciones formateadas 15 se obtienen a partir de características utilizadas 74 y almacenadas en la base de datos 22. La imagen completada 120 se obtiene a partir de la imagen 103 y de las informaciones formateadas 15.
En la figura 12 se ha representado un organigrama en el que se pone en práctica una escena de referencia 9, una proyección matemática 8 que proporciona una clase de imagen de síntesis 7 de la escena de referencia 9, una proyección real 72 que proporciona una imagen de referencia 11 de la escena de referencia 9 para las características utilizadas 74. Este organigrama también emplea un modelo de transformación configurable 12 que proporciona una imagen transformada 13 de la imagen de referencia 11. La imagen transformada 13 presenta una desviación residual 1 con la clase de imagen de síntesis 7.
Aparato
Haciendo referencia en especial a las figuras 2, 3, 13a, 13b y 24, se describirá la noción de aparato APP1. En el sentido de la invención, un aparato APP1 puede ser, especialmente:
- un aparato de captura de imagen 1 tal y como se presenta en la figura 3 o un aparato de captura de imagen tal y como se presenta en la figura 13a, como, por ejemplo, un aparato de fotografía desechable, un aparato de fotografía numérico, un aparato réflex, un escáner, un fax, un endoscopio, un camescopio, una cámara de vigilancia, una webcam, una cámara integrada o conectada a un teléfono, un asistente personal o un ordenador, una cámara térmica, un aparato de ecografía.
- un aparato de restitución de imagen APP2, tal y como se representa en la figura 13b o medio de restitución de imagen 19 tal y como se representa en la figura 2, como, por ejemplo, una pantalla, un proyector, un televisor, gafas de realidad virtual o una impresora.
- un ser humano que tenga defectos en la vista, por ejemplo, astigmatismo.
- un aparato parecido al usado para producir imágenes que tengan, por ejemplo, un aspecto similar a las producidas por un aparato de la marca Leica.
- un dispositivo de tratamiento de imágenes, por ejemplo, un programa de zoom que tenga como efecto de borde añadir un efecto borroso.
- un aparato virtual equivalente a varios aparatos APP1.
Un aparato APP1 más complejo como un escáner/fax/impresora, un Minilab de impresión de fotografía, un aparato de videoconferencias pueden considerarse un aparato APP1 o varios aparatos APP1.
Cadena de aparatos
En referencia a la figura 24 especialmente, se describirá a continuación la noción de cadena de aparatos P3. Se denomina cadena de aparatos P3 a un conjunto de aparatos APP1. La noción de cadena de aparatos P3 puede incluir además una noción de orden.
Los ejemplos siguientes constituyen cadenas de aparatos P3:
- un solo aparato APP1.
- un aparato de captura de imagen y un aparato de restitución de imagen.
- un aparato de fotografía, un escáner, una impresora, por ejemplo un Minilab de revelado de fotografías.
- un aparato fotonumérico, una impresora, por ejemplo en un Minilab de revelado de fotografías.
- un escáner, una pantalla o una impresora, por ejemplo en un ordenador.
- una pantalla o proyector y el ojo de un ser humano.
- un aparato u otro aparato parecido.
- un aparato de fotografías y un escáner.
- un aparato de captura de imagen, un programa de tratamiento de imágenes.
- un programa de tratamiento de imágenes, un aparato de restitución de imágenes.
- una combinación de los ejemplos anteriores.
- otro conjunto de aparatos APP1.
Defecto
En referencia a la figura 24 especialmente, se describirá a continuación la noción de defecto P5. Se denomina defecto P5 del aparato APP1 a un defecto relacionado con características de la óptica o del capturador o de la electrónica o del programa integrado en un aparato APP1; ejemplos de defectos P5 son, por ejemplo, la distorsión geométrica, el efecto borroso, la formación de viñetas, las aberraciones cromáticas, la calidad de los colores, la uniformidad del flash, el ruido del capturador, el granulado, el astigmatismo, la aberración esférica.
Imagen
En referencia a la figura 13a especialmente, se describirá a continuación la noción de imagen I. Se denomina imagen I a una imagen capturada o modificada o restituida por un aparato APP1. La imagen I puede proceder de un aparato APP1 de la cadena de aparatos P3. La imagen I puede estar destinada a un aparato APP1 de la cadena de aparatos P3. En los casos de imágenes animadas, por ejemplo, de vídeo, constituidas por una secuencia en el tiempo de imágenes fijas, se denomina imagen I a una imagen fija de la secuencia de imágenes.
Informaciones formateadas
En referencia a la figura 24 especialmente, se describirá a continuación la noción de informaciones formateadas IF. Se denomina informaciones formateadas IF a las informaciones relacionadas con defectos P5 de uno o varios aparatos APP1 de la cadena de aparatos P3 y que permiten calcular una imagen transformada teniendo en cuenta defectos P5 del aparato APP1. Para producir las informaciones formateadas IF, se pueden utilizar diversos procedimientos basados en medidas o capturas o restitución de referencia o simulaciones.
Para producir las informaciones formateadas IF, se puede utilizar, por ejemplo, el procedimiento descrito en la solicitud de patente internacional presentada en la misma fecha que la presente patente a nombre de la sociedad Vision IQ, bajo el título: "Procedimiento y sistema para reducir la frecuencia de las actualizaciones de medios de tratamiento de imágenes". En esta solicitud, se describe un procedimiento para reducir la frecuencia de actualizaciones de medios de tratamiento de imágenes, especialmente un programa o un componente. Los medios de tratamiento de imágenes que permiten modificar la calidad de las imágenes numéricas proceden de una cadena de aparatos o están destinadas a la misma. La cadena de aparato consta, al menos, de un aparato de captura de imagen o al menos, de un aparato de restitución de imagen. Los medios de tratamiento de imagen emplean informaciones formateadas relacionadas con los defectos de, al menos, un aparato de la cadena de aparatos. Las informaciones formateadas IF dependen, al menos, de una variable. Las informaciones formateadas permiten establecer una correspondencia entre una parte de las variables y los identificadores. Los identificadores permiten determinar el valor de la variable correspondiente al identificador teniendo en cuenta el identificador y la imagen. De la combinación de rasgos característicos se deriva el hecho de que sea posible determinar el valor de una variable, especialmente en el caso en que la significación física o el contenido de la variable sólo se conozcan con posterioridad a la difusión de los medios de tratamiento de imagen. Asimismo, de la combinación de rasgos característicos se deriva el hecho de que el tiempo entre dos actualizaciones del programa de corrección puede estar espaciado. De la combinación de rasgos característicos también se deriva el hecho de que los diversos actores económicos que producen aparatos o medios de tratamiento de imagen pueden actualizar sus productos independientemente de otros actores económicos, incluso si estos últimos cambian radicalmente las características de sus productos o no pueden forzar a su cliente a actualizar sus productos. De la combinación de rasgos característicos también se deriva el hecho de que puede lanzarse progresivamente una nueva funcionalidad comenzando por un número limitado de actores económicos y de usuarios pioneros.
Para producir las informaciones formateadas IF, podemos utilizar, por ejemplo, el procedimiento descrito en la solicitud de patente internacional presentada en la misma fecha que la presente solicitud a nombre de la sociedad Vision IQ bajo el título: "Procedimiento y sistema que hay que proporcionar, según un formato estándar, de las informaciones formateadas con medios de tratamiento de imágenes". En esta solicitud se describe un procedimiento para proporcionar, según un formato estándar, informaciones formateadas IF con medios de tratamiento de imágenes, especialmente programas o componentes. Las informaciones formateadas IF están relacionadas con los defectos de una cadena de aparatos P3. La cadena de aparatos P3 incluye, en concreto, al menos un aparato de captura de imagen 1 o un aparato de restitución de imagen 19. Los medios de tratamiento de imágenes utilizan las informaciones formateadas IF para modificar la calidad de, al menos, una imagen procedente de la cadena de aparatos P3 o destinada a la misma. Las informaciones formateadas IF incluyen datos característicos de defectos P5 del aparato de captura de imagen 1 o un aparato de restitución de imágenes 19, especialmente las características de distorsión.
El procedimiento incluye la etapa en que se debe rellenar el campo del formato estándar con las informaciones formateadas IF. El campo se designa mediante un nombre de campo. El campo contiene al menos un valor de campo.
Para utilizar las informaciones formateadas IF, podemos utilizar, por ejemplo, el procedimiento descrito en la solicitud de patente internacional presentada en la misma fecha que la presente solicitud a nombre de la sociedad Vision IQ, bajo el título: "Procedimiento y sistema para modificar la calidad de, al menos, una imagen destinada a una cadena de aparatos predeterminada o procedente de la misma". En esta solicitud, se describe un procedimiento para modificar la calidad de, al menos, una imagen destinada a una cadena de aparatos predeterminada o procedente de la misma. La cadena de aparatos predeterminada incluye, al menos, un aparato de captura de imagen 1 o, al menos, un aparato de restitución de imagen 19. Los aparatos de captura de imagen 1 o los aparatos de restitución de imagen 19, progresivamente introducidos en el mercado por distintos actores económicos, pertenecen a un conjunto indeterminado de aparatos. Los aparatos APP1 del conjunto de aparatos presentan defectos P5 que pueden estar caracterizados por informaciones formateadas. El procedimiento incluye, para la imagen en cuestión, las etapas siguientes:
- la etapa de catalogación de fuentes de informaciones formateadas relativas a los aparatos del conjunto de aparatos.
- la etapa de búsqueda de manera automática, entre las informaciones formateadas así catalogadas, de informaciones formateadas específicas relativas a la cadena de aparatos determinada.
- la etapa de modificación de manera automática de la imagen I por medio de programas de tratamiento de imágenes o componentes de tratamiento de imágenes teniendo en cuenta informaciones formateadas específicas así obtenidas.
Para utilizar las informaciones formateadas IF, se puede utilizar, por ejemplo, el procedimiento descrito en la solicitud de patente internacional presentada en la misma fecha que la presente solicitud en nombre de la sociedad Vision IQ, bajo el título: "Procedimiento y sistema para calcular una imagen transformada a partir de una imagen numérica y de informaciones formateadas relativas a una transformación geométrica". En esta solicitud, se describe un procedimiento para calcular una imagen transformada a partir de una imagen numérica y de informaciones formateadas IF relativas a una transformación geométrica, especialmente informaciones formateadas IF relativas a las distorsiones o aberraciones cromáticas de una cadena de aparatos. El procedimiento incluye la etapa de calcular la imagen transformada a partir de una aproximación de la transformación geométrica. De ello se deriva el hecho de que el cálculo sea parco en recursos de memoria, ancho de banda de memoria, potencia de cálculo y consumo eléctrico. También se deriva el hecho de que la imagen transformada no presente defecto visible o molesto para su posterior
uso.
Para utilizar las informaciones formateadas IF, se puede utilizar, por ejemplo, el procedimiento descrito en la solicitud de patente internacional presentada en la misma fecha que la solicitud de patente internacional de la presente invención con el número a nombre de la sociedad Vision IQ, con el título: ``Procedimiento y sistema para corregir las aberraciones cromáticas de una imagen en color realizada por medio de un sistema óptico. En esta patente, se describe un procedimiento para corregir las aberraciones cromáticas de una imagen en color compuesta por varios planos de color numerados. La imagen en color se ha realizado por medio de un sistema óptico. El procedimiento abarca las etapas siguientes:
- la etapa de modelar y corregir, al menos en parte, anomalías de geometría de los planos de colores numerados, de manera que se obtengan planos de colores numerados corregidos.
- la etapa de combinar los planos de colores numerados corregidos, de manera que se obtenga una imagen de color corregida, total o parcialmente, de aberraciones cromáticas.
Característica variable
Se describirá a continuación la noción de característica variable. Según la invención, se denomina característica variable a un factor que pueda medirse y sea variable de una imagen I a otra capturada, modificada o restituida por un mismo aparato APP1, que tenga una influencia en el defecto P5 de la imagen capturada, modificada o restituida por el aparato APP1, en concreto:
- una variable global, fija para una imagen I dada, por ejemplo, una característica del aparato APP1 en el momento de la captura o de restitución de la imagen relacionada con un ajuste del usuario o relacionada con un automatismo del aparato APP1.
- una variable local, variable en una imagen I dada, por ejemplo, coordenadas X, Y o RO, theta en la imagen, que permita aplicar llegado el caso un tratamiento local diferente según la zona de la imagen I.
En general, no se considera una característica variable un factor que pueda medirse y sea variable de un aparato APP1 al otro pero fijo de una imagen I a la otra capturada, modificada o restituida por un mismo aparato APP1, por ejemplo, la focal para un aparato APP1 de focal fija.
Las informaciones formateadas IF pueden depender, al menos, de una característica variable.
Se entiende por característica variable, especialmente:
- la focal de la óptica.
- el redimensionamiento aplicado a la imagen (factor de zoom numérico: aumento de una parte de la imagen o el submuestreo: disminución del número de píxeles de la imagen).
- la corrección no lineal de luminancia, por ejemplo, la corrección de gamma.
- el realce del contorno, por ejemplo, el nivel de eliminación de efecto borroso aplicado por el aparato APP1.
- el ruido del capturador y de la electrónica.
- la apertura de la óptica.
- la distancia de puesta a punto.
- el número de la vista en una película.
- la sobreexposición o subexposición.
- la sensibilidad de la película o del capturador.
- el tipo de papel utilizado en una impresora.
- la posición del centro del capturador en la imagen.
- la rotación de la imagen en relación con el capturador.
- la posición de un proyector en relación con la pantalla.
- el equilibrio de blancos utilizado.
- la activación del flash o su potencia.
- el tiempo de exposición.
- el rendimiento del capturador.
- la compresión.
- el contraste.
- otro ajuste aplicado por el usuario del aparato APP1, por ejemplo, un modo de funcionamiento.
- otro ajuste automático del aparato APP1.
- otra medida realizada por el aparato APP1.
Valor de característica variable
Se describirá a continuación la noción de valor de característica variable. Se denomina valor de característica variable al valor de la característica variable en el momento de la captura, modificación o restitución de una imagen determinada.
Modelo configurable
En el sentido de la invención, se denomina modelo configurable o modelo de transformación configurable o transformación configurable a un modelo matemático que puede depender de características variables y relativo a uno o varios defectos P5 de uno o varios aparatos APP1. Las informaciones formateadas IF relativas a un defecto P5 de un aparato pueden presentarse en forma de parámetros de un modelo configurable en función de características variables.
Informaciones formateadas relacionadas con las distorsiones geométricas
La figura 13a representa un organigrama en el que se pone en práctica:
- un sistema de referencia M que puede ser la escena de referencia 9 anterior.
- un soporte SC que incluye una imagen. En el caso de un sistema de captura de imágenes, la superficie SC puede ser la de un capturador (CCD por ejemplo), o en el caso de un sistema de restitución de imágenes, esta superficie puede ser la de una pantalla de proyección o la de una hoja de papel de una impresora.
- una superficie de referencia virtual SR (equivalente a la superficie 10 anterior) que incluye una referencia virtual R o una imagen de referencia virtual que puede ser una imagen de síntesis de la clase de imágenes de síntesis 7
anterior.
La imagen I (denominada anteriormente imagen de referencia 11) se obtiene a partir del sistema de referencia M con ayuda de un aparato APP1 o de una cadena de aparatos P3 sobre un soporte SC que puede ser una superficie de capturador. Una cadena de aparatos es un conjunto de aparatos que permite obtener una imagen. Por ejemplo, una cadena de aparatos App1/App2/App3 podrá incluir un aparato de captura de imágenes, un escáner, un aparato de impresión, etc.
La imagen I incluye defectos P5 y especialmente distorsiones geométricas relacionadas con estos aparatos APP1.
La referencia virtual R se deduce directamente de M y debe considerarse perfecta o casi perfecta. Puede ser idéntica o casi idéntica a M o, por el contrario, presentar diferencias como se verá posteriormente.
A modo de ejemplo, podemos explicitar la relación entre el sistema de referencia M y la superficie de referencia R de la manera siguiente: a los puntos PP1 a PPm del sistema de referencia M corresponden los puntos de referencia PR1 a PRm en la referencia virtual R de la superficie de referencia SR, así como puntos característicos de imágenes PT1 a PTm de la imagen I del soporte SC.
Según un ejemplo de realización de la invención, se prevé una etapa de realización de la imagen I con ayuda del aparato APP1 o de la cadena de aparatos P3.
En el transcurso de una etapa siguiente, se elige cierto número de puntos PTi, PRi. Estos puntos se eligen en números limitados y se sitúan en zonas características del sistema de referencia M, de la imagen I y de la referencia virtual R. Después, se establece una biyección entre los puntos PTi de la imagen y los puntos PRi de la referencia virtual. Así, en cada punto PTi elegido se crea la correspondencia con un punto PRi correspondiente y recíproca-
mente.
En el transcurso de otra etapa, es posible sin ser obligatorio elegir características variables del aparato (o de la cadena de aparatos) APP1 entre las utilizadas para obtener la imagen I con el aparato APP1. Las características variables de un aparato o de una cadena de aparatos pueden incluir la focal de la óptica de un aparato, la puesta a punto, la abertura, el número de la foto en un conjunto de fotos, el zoom numérico, las características de una captura parcial de imagen ("crop" en la terminología anglosajona), etc.
El conjunto de los siguientes datos constituye un campo medido DH que podrá utilizarse, en lo sucesivo, para corregir una imagen:
- la biyección, es decir, el conjunto de pares de puntos PTi y PRi elegidos y que se corresponden por la biyección anterior.
- el conjunto de características variables elegidas.
Estos datos, que constituyen un campo de medida, permitirán obtener informaciones formateadas medidas.
En una variante de realización, se puede utilizar un programa de simulación del aparato, en concreto un programa de simulación óptica o un banco de medida óptica para calcular los puntos PTi a partir de los puntos PPi del sistema de referencia M o a partir de los puntos PPi de un modelo del sistema de referencia M.
La figura 14a representa otra forma de obtención de un campo medido.
En esta figura 14a se encuentra el sistema de referencia M, la superficie de referencia SR y el soporte SC.
Como se ha hecho anteriormente, se procede a la realización de la imagen I sobre el soporte SC con ayuda de un aparato APP3. Después, se realiza la biyección descrita anteriormente.
A continuación, se establece una proyección matemática y preferentemente una homografía entre un punto del soporte SC y un punto de la superficie de referencia SR.
En la figura 14b, puede verse que, para cada punto PRj de la superficie de referencia, puede obtenerse un punto H (PRj) de la imagen por proyección matemática. Preferentemente, para dos puntos PRj y PTj de un par relacionados por biyección, tenemos un punto H(PRj), proyección matemática de PRj sobre el soporte SC.
\newpage
En estas condiciones, se obtiene un campo medido más completo añadiendo a los datos del campo las fórmulas de proyección matemática establecidas. Así, un campo medido DH incluye:
- las características variables posiblemente elegidas.
- para diferentes puntos de referencia PR, la proyección matemática H(PRj) del punto de referencia PRj sobre el soporte SC que proporciona, de esta forma, un nuevo punto H (PRj) asociado al punto PTj correspondiente por biyección. De esta manera, tenemos en el campo medido una serie de pares relacionados por biyección, en cada par, y un punto que es la proyección matemática del otro punto del par.
El campo medido DH puede estar constituido igualmente por:
- características variables elegidas.
- pares constituidos cada uno de ellos por un punto PT de la superficie de referencia y un punto H(PR) que representa la proyección matemática del punto PR relacionado por biyección con el punto PT del soporte SC.
El campo medido DH de una imagen obtenida de esta manera puede incluir como factor las características variables para el conjunto de pares de puntos obtenidos de forma que se consiga un aumento de espacio en memoria.
Según otra variante de la invención, el campo medido DH puede estar constituido por:
- características variables elegidas.
- pares de puntos PT y proyecciones matemáticas de puntos PR (relacionadas por biyección con los puntos PT) sobre el soporte SC.
- pares de puntos PR y proyecciones matemáticas de puntos PT (relacionados por biyección con los puntos PR) sobre la superficie de referencia SR.
Como se ha dicho anteriormente, el campo medido DH permite obtener informaciones formateadas medidas.
Los ejemplos de procedimientos y sistemas anteriores representados por las figuras 13a a 14b permiten obtener un campo de medidas denominado campo medido DH y constituido por tantos conjuntos de datos como puntos de imagen I y de referencia virtual R se hayan elegido.
Con este campo medido para la imagen I, se constituye un conjunto de informaciones formateadas medidas IFM. Una información formateada medida de un punto PTj incluirá, por ejemplo:
- las características fijas del aparato o de los aparatos utilizados.
- las características variables elegidas.
- la posición en X e Y del punto en la imagen PTj.
- la proyección matemática del punto PRj correspondiente por biyección.
Se observará que una proyección matemática particular que puede utilizarse, por ejemplo, en los escáneres, es la identidad.
El uso del sistema llevará a tratar un gran número de puntos y un gran número de datos en consecuencia. Para hacer más manejable el funcionamiento del sistema, acelerar el tratamiento o ser robusto respecto a los errores de medición, el procedimiento y el sistema representado por las figuras 15a y 15b prevén deducir, a partir de informaciones formateadas medidas IFM1 a IFMm, informaciones formateadas extendidas IFE1 a IFEm que pertenecen a una superficie que puede estar representada por una función elegida en un espacio de dimensión limitado, como, por ejemplo, un polinomio de orden limitado, elegido entre la clase de polinomios de grado finito o una función spline de grados apropiada.
Las figuras 15a y 15b representan ejemplos simplificados correspondientes a casos en que la información formateada depende de una sola variable. La invención se aplica de la misma forma cuando la información formateada depende de diversas variables, que suele ser el caso.
Las figuras 15a y 15b representan ejemplos simplificados correspondientes a casos en que la información formateada medida es una instrucción única y sólo depende de dos variables (X, Y). La invención se aplica de la misma forma cuando la información formateada es vectorial y depende de más de dos variables, que suele ser el caso.
En la figura 15b, se han representado en el plano IM las diferentes coordenadas de los puntos de una imagen. En el punto de las coordenadas X1, Y1, se encuentra la información medida IFM1. En cada punto de plano IM hay una información formateada de valor particular. La invención consiste en calcular un modelo configurable, como una superficie polinomial SP. Una forma particular de calcular SP puede ser calcular esta superficie, pasando por todos los extremos de las informaciones formateadas medidas o acercándose. Otra forma de proceder podría ser preservar las características geométricas (no forzosamente euclídeas) de un subconjunto de puntos de M como la alineación de puntos según una línea recta o cualquier curva de configuración predeterminada. En estas condiciones, cuando se trata una imagen, en lugar de recurrir a un gran número de informaciones formateadas medidas, el sistema podrá utilizar un modelo configurable.
La dificultad radica en encontrar una superficie SP que pase por todos los puntos o cerca de todos estos puntos. Se prevé admitir que pueda existir una desviación EC entre una información formateada medida IFM y una información formateada extendida IFE. Además, se determina que dicha EC no debe superar cierto umbral dS. En estas condiciones, convendrá que una superficie polinomial pase por todos los puntos de informaciones formateadas medidas IFM \pm dS.
La elección de este umbral se hará de acuerdo con los errores de fotografía, los errores de medición, el nivel de precisión requerido para la corrección, etc.
El procedimiento y el sistema empleado podrán prever utilizar un número determinado de modelos configurables que puedan escribirse, por ejemplo, en forma de polinomios. Se prevé clasificar estos modelos por orden de complejidad creciente.
A continuación, con un conjunto de informaciones medidas, se prueba cada modelo partiendo preferentemente del modelo más simple (el polinomio de orden más reducido) hasta obtener un modelo que defina, en la intersección de la superficie polinomial y de la dirección de cada información formateada medida, un información formateada extendida cuya desviación EC con la información formateada medida sea inferior al umbral dS.
El procedimiento y el sistema esquematizados en las figuras 15a y 15b están destinados a obtener informaciones formateadas medidas extendidas. No obstante, la invención podría limitarse a usar sólo como informaciones formateadas las informaciones formateadas medidas. También se puede prever utilizar, para las informaciones formateadas, las informaciones formateadas medidas y las informaciones formateadas medidas extendidas.
Independientemente, se puede prever también asociar a las informaciones formateadas las desviaciones EC encontradas entre las informaciones formateadas medidas y las informaciones formateadas extendidas. Las informaciones formateadas pueden utilizarse, así, por programas de tratamiento de imágenes para obtener imágenes cuya distorsión geométrica residual se conozca independientemente de que se trate de imágenes capturadas por un aparato de captura de imágenes o de imágenes restituidas por un aparato de restitución de imágenes.
Refiriéndose a las figuras 16a y 16b, se describirá a continuación una variante de cálculo del campo medido D(H) de una imagen I.
Según el organigrama del algoritmo AC2 de la figura 16a, que dispone de un sistema de referencia M, como el de la figura 14a, se procede en el transcurso de una primera etapa ET2.1 a la captura de este sistema de referencia M con ayuda del aparato APP3. Se obtiene la imagen I sobre el soporte SC. Por otra parte, se dispone de una referencia virtual R sobre una superficie de referencia SR. Esta referencia virtual R representa, en principio, de forma exacta o casi exacta, el sistema de referencia M.
En el transcurso de la etapa ET2.2, se establece una biyección entre los puntos característicos de imagen PT de la imagen I del soporte SC y los puntos de referencia PR de la referencia virtual R de la superficie de referencia SR (véase también la figura 14a).
En el transcurso de la etapa ET2.3, se elige una proyección matemática, como una homografía entre diferentes puntos del soporte SC (o de la imagen I) y diferentes puntos de superficie de referencia SR (o de la referencia virtual R).
En el transcurso de la etapa ET2.4, se calcula, para cada punto característico de imagen PT o para cada punto de referencia PR, un vector que caracteriza el defecto de distorsión geométrica. La figura 16b ilustra, con un ejemplo de implementación realizable, esta etapa del procedimiento. En esta figura se encuentran diferentes valores de puntos de referencia PR repartidos en la superficie de referencia SR. A cada punto PR se asocia la proyección matemática H(PT) del punto PT asociado por biyección PR. Para cada punto, se calcula el vector VM que tiene como origen PR y como extremo H(PT).
En el transcurso de la etapa ET2.5, se calcula el campo medido.
Este campo DH, que puede denominarse también campo de vectores medidos, está constituido por:
- pares de puntos PT y PR seleccionados asociados por biyección.
- el vector calculado para cada punto.
El campo DH puede estar constituido también sencillamente por:
- el punto de referencia PR de SR o el punto característico de imagen PT de SC o la proyección matemática del punto de referencia PR en SC (o al contrario, por la proyección del punto característico de imagen PT en SR).
- el vector calculado anteriormente asociado a este punto.
El campo medido DH puede incluir también características variables del aparato APP1 (APP2).
El campo DH puede estar constituido también por una aproximación de informaciones medidas. De esta manera, para obtener más espacio o tiempo de cálculo, se puede cuantificar la información formateada con ayuda de un número limitado de bits (3 bits, por ejemplo).
Debe destacarse que durante la etapa ET2.4, el vector Vm calculado puede ser el que tenga por origen la proyección matemática H(PT) del punto PT sobre la superficie SR y para el extremo el punto PR.
O bien el vector VM puede ser el que tenga por origen el punto característico PT y por extremo la proyección matemática del punto PR asociado por biyección. Por el contrario, el vector VM puede ser el que tenga por origen la proyección matemática de un punto PR asociado por biyección a un punto PT y, por extremo, este punto PT o cualquier otra combinación que emplee dichos puntos.
Tal y como hemos visto anteriormente, una información formateada podía contener características variables. De hecho, podrá tratarse de una combinación de características variables como, por ejemplo, una combinación de la focal, de la puesta a punto, de la abertura del diafragma, de la velocidad de captura, de la abertura, etc. Es difícil pensar en calcular las informaciones formateadas relativas a las diferentes combinaciones dado que ciertas características de la combinación pueden variar de forma continua como la focal y la distancia especialmente.
La invención prevé, como se representa en la figura 17, calcular por interpolación las informaciones formateadas a partir de informaciones formateadas medidas para combinaciones de características variables conocidas.
Por ejemplo, en la representación simplificada de la figura 17, cada plano contiene las informaciones formateadas medidas de una imagen para un valor de combinaciones determinado. Por ejemplo, el plano f=2 corresponde a la combinación "focal=2, distancia=7, velocidad de captura=1/100". El plano f=10 corresponde a la combinación "focal=10, distancia=7, velocidad de captura=1/100". El plano f=50 corresponde a la combinación " focal=50, distancia=7, velocidad de captura=1/100".
Para un punto PQT cualquiera del soporte o PQR cualquiera de la superficie de referencia, cuyas características variables contienen entre otros elementos la combinación: "focal=25, distancia=7 y velocidad de captura=1/100", se interpola un valor de información formateada extendida entre los dos planos f=10 y f=50 de la figura 17 y especialmente, si suponemos que los planos de la figura 17 representan las informaciones formateadas medidas de puntos PT de la imagen, entre los dos puntos PT(10) y PT(50) de los planos f=10 y f=50.
Un ejemplo de realización de la invención empleará el cálculo de un campo medido tal y como se ha descrito en relación con las figuras 13 ó 14, después el cálculo de informaciones formateadas como se ha descrito en relación con las figuras 15a a 16b. Estos diferentes cálculos se efectuarán para diferentes combinaciones de características variables o para diferentes combinaciones con un valor asociado. A continuación, para un punto cualquiera (PQT o PQR) o un conjunto de puntos cualesquiera de una imagen I capturada con ayuda de una combinación cualquiera pero conocida, se interpolan informaciones formateadas extendidas entre dos planos de informaciones formateadas medidas.
En la figura 17, se considera un caso en que el punto del que se quiere calcular la información formateada tenía las mismas coordenadas X e Y que los puntos de los que se conocían las informaciones formateadas medidas.
La figura 18 representa un caso en que se busca la información formateada medida de un punto cualquiera PQRi o PQTi situado entre los planos f=10 y f=50 y cuyas coordenadas no corresponden a las coordenadas de los puntos de los planos f=10 y f=50.
En cada punto, se asigna un argumento Ai que contenga, al menos, las coordenadas Xi e Yi del punto, así como las características de una combinación de características variables.
El plano f=2 corresponde a una combinación C1.0 de características variables. El plano f=10 corresponde a una combinación C2.0 y el plano f=50 corresponde a una combinación Cm.O.
Cada punto del plano f=2 tiene por argumento:
"coordenadas X, Y; combinación C1.0".
\newpage
El punto PQRi o PQTi del que se busca la información formateada tiene por argumento:
"coordenadas Xi, Yi; combinación Ci".
En estas condiciones, el procedimiento y sistema realizarán, por ejemplo, una interpolación entre las informaciones formateadas medidas de los planos f=10 y f=50.
Para un punto cualquiera PQT/PQR, basta con volver a introducir, por ejemplo, el argumento (X, Y, focal, distancia, apertura, escala iso, velocidad, flash, etc.) relativo a este punto dentro del modelo configurable para encontrar las informaciones formateadas relativas a este punto.
Una forma eficaz de calcular la homografía entre la superficie de referencia SR y la superficie de soporte SC puede realizarse eligiendo en el soporte SC y en la superficie de referencia SR cuatro puntos PTm1 a PTm4 y PRm1 a PRm4 que se correspondan por biyección y que se encuentren en los límites periféricos del soporte SC y de la superficie de referencia SR. Las posiciones de estos puntos se eligen, por ejemplo, de forma que se maximicen las superficies comprendidas entre estos puntos.
Además, tal y como se representa en la figura 19c, las posiciones de estos puntos son tales que la intersección de las diagonales de los cuadriláteros definidos por estos puntos se encuentra en el centro o cerca del centro de los cuadriláteros.
A continuación se calcula una proyección matemática (homografía, por ejemplo) que permite transformar los cuatro puntos característicos PTm.1 a PTm.4 en los cuatro puntos de referencia PRm.1 a PRm.4.
Esta proyección matemática se asociará a las informaciones formateadas de la imagen.
Estas informaciones formateadas podrán utilizarse en un programa de tratamiento de imágenes para corregir las distorsiones geométricas de perspectivas o para restituir imágenes con un reducido cambio de perspectiva.
Otra forma de elegir los cuatro puntos PTm.1 a 4 y PRm.1 a 4 consiste en tomar en la imagen I cuatro puntos PTm.1 a 4 de manera que formen un cuadrilátero lo más cercano posible, en un factor de escala próximo, al cuadrilátero formado por los puntos H (PRm.1 a 4) proyecciones matemáticas de los puntos PRm. 1 a 4 correspondientes por biyecciones a los puntos PTm. 1 a 4.
Refiriéndose a las figuras 20a a 20d, se describirán los procedimientos de cálculo de informaciones formateadas relativas a imágenes en color. Una imagen en color puede considerarse que está constituida por varias imágenes monocromáticas. Clásicamente, se puede considerar que una imagen en color es una imagen tricromática constituida por tres imágenes monocromáticas (rojo, verde, azul). Se sabe que en óptica las distorsiones inducidas por las ópticas y los lugares de transmisión de la luz inducen efectos diferentes en las diferentes longitudes de onda. En una imagen tricromática, el mismo defecto físico de un aparato inducirá distorsiones diferentes sobre la imagen vehiculada por la luz en la longitud de onda del rojo, sobre la vehiculada en la longitud de onda del verde y en la vehiculada en la longitud de onda del azul.
Tal y como se representa en la figura 20a, a partir de un sistema de referencia M tricromático, al que corresponde una referencia virtual R casi idéntica, corresponderán en la imagen I tres imágenes R, V y B superpuestas que se han representado por separado en los planos SCR, SCV y SCB. Las tres imágenes IR, IV e IB presentan distorsiones diferentes, lo que da una imagen tricromática que presenta al mismo tiempo la distorsión geométrica y las aberraciones cromáticas.
La figura 20b representa el principio del procedimiento y sistema que permiten obtener informaciones formateadas que permitirán a un programa de tratamiento de imágenes corregir las distorsiones o las aberraciones cromáticas.
Según este procedimiento y sistema para cada punto tricromático de la imagen, se calculará un información formateada por color. Así, vamos a considerar que conviene corregir tantas imágenes monocromáticas como colores haya. En el ejemplo tricromático, los cálculos se harán como si tuviésemos que corregir tres imágenes.
Para el cálculo de informaciones formateadas de las tres imágenes IR, IV e IB, se utilizan los mismos procedimientos y sistemas que los descritos en relación con las figuras 13a a 19c.
Según la figura 20b, se ha representado la superficie SR con una referencia virtual R que incluye puntos tricromáticos PR(RVB) así como la descomposición de la imagen I en tres imágenes monocromáticas IR, IV, IB, cada una de las cuales incluye puntos de un solo color PTR, PTV, PTB.
Una forma de calcular las informaciones formateadas relativas a un punto tricromático es utilizar la misma referencia virtual R para los tres planos de colores. Entonces se utilizan tres proyecciones matemáticas: una proyección matemática HR para el punto rojo PTR, una proyección HV para el punto verde PTV y una proyección HB para el punto azul PTB, tal y como se representa en la figura 20b.
Una segunda forma de proceder para el cálculo de informaciones formateadas relativas a un punto tricromático es elegir una sola imagen monocromática IR o IV o IB a partir de la que se calcule una sola proyección matemática HR o HB o HV. Por ejemplo, las informaciones formateadas se extraen exclusivamente de la imagen IR y estas informaciones formateadas se guardarán para las imágenes verde y azul. Esta forma de proceder es una forma de ahorrar tiempo de cálculo y espacio en memoria.
Las informaciones formateadas así obtenidas permitirán corregir las distorsiones geométricas.
Otra forma de proceder, según la figura 20c, es utilizar la misma referencia virtual R y calcular, para cada plano de color, las informaciones formateadas utilizando una misma proyección matemática definida eligiéndola en uno de los planos monocromáticos. Por ejemplo, sólo se calcula la proyección matemática HR relativa al punto rojo. A continuación, se aplica esta proyección matemática a los tres puntos rojo, verde y azul para calcular las informaciones formateadas de estos tres puntos. En este caso, se permitirá que un programa de tratamiento de imagen corrija al mismo tiempo las distorsiones geométricas y las aberraciones cromáticas de la imagen.
Otra forma de proceder representada en la figura 20d consiste en lo siguiente:
- para la imagen de un color determinado, la imagen roja IR por ejemplo, se trata de calcular las informaciones formateadas utilizando una referencia virtual R supuestamente perfecta y una proyección matemática H(R) de los puntos de la referencia virtual sobre la superficie de la imagen roja IR, lo que permitirá corregir las distorsiones de la imagen roja.
- para las imágenes de otros colores, las imágenes verde y azul, IV e IB, por ejemplo, se trata de utilizar como referencia virtual R', la imagen de color anterior, la imagen roja IR según el ejemplo tomado y realizar una misma proyección matemática H(IRd) de los puntos de esta imagen roja sobre las superficies de las imágenes verde IV, después azul IB. Preferentemente, esta proyección matemática será una identidad (o proyección por identidad) de los puntos de la imagen roja sobre las imágenes verde y azul. De esta forma, se podrán suprimir las diferencias (aberraciones cromáticas) entre las imágenes roja, verde y azul. Las informaciones formateadas de los puntos de imágenes verde y azul podrán incluir la proyección matemática de los puntos de la referencia virtual R en la imagen roja así como la proyección matemática (identidad) de la imagen roja sobre las imágenes verde y azul respectivamente. Esta forma de proceder puede permitir, llegado el caso, corregir sólo las distorsiones si se utilizan únicamente las informaciones formateadas extraídas de la imagen roja que el cromatismo únicamente si sólo se usan las informaciones formateadas relativas a las imágenes verde y azul,
o los dos fenómenos simultáneamente si se utiliza el conjunto de informaciones formateadas.
También hay que destacar en la descripción anterior que la elección de umbrales para cada modelo configurable relativo a las aberraciones cromáticas podrá hacerse de forma diferente al relativo a la distorsión geométrica de manera que se obtenga más o menos precisión sobre la compensación de este defecto.
Hay que destacar que la elección de proyecciones matemáticas sólo puede hacerse para una parte de la imagen. Por ejemplo, si la imagen I y la referencia virtual R tienen formas tal y como se representa en la figura 22 y se quiere restituir a la imagen un efecto de perspectiva, la proyección matemática de los puntos PR sobre el soporte SC sólo podrá utilizar cuatro puntos PT1 a PT4 y PR1 a PR4 que basten para definir una homografía. Los otros puntos de la imagen seguirán, a continuación, esta proyección matemática con miras a obtener una imagen que presente un efecto de perspectiva como la imagen IC1 representada en la figura 22. Esta elección de la proyección matemática puede generalizarse de manera que se obtenga un efecto particular sobre la imagen que corregirán los programas de tratamiento de imagen con ayuda de las informaciones formateadas así calculados.
Hay que destacar que para la corrección de distorsiones, se utilizan los datos cromáticos, pero se podrían utilizar igualmente los datos de luminancia.
En virtud de lo anterior, se ha considerado que la referencia virtual R era casi idéntica al sistema de referencia M. Si se considera la referencia virtual R exactamente idéntica al sistema de referencia M, se podrán calcular las informaciones formateadas que permitirán corregir la imagen I para que sea la réplica exacta del sistema de referencia M.
Se puede prever, tal y como se representa en la figura 21, que la referencia virtual R esté deformada en relación con el sistema de referencia M. Por ejemplo, la referencia virtual tiene una forma trapezoidal mientras que el sistema de referencia M tiene una forma rectangular. Las informaciones formateadas que se obtendrán permitirán corregir la imagen I para inducir una deformación en forma de trapecio en la imagen corregida. Un ejemplo de aplicación de dicha disposición se encuentra en los proyectores donde se podrá corregir la deformación bien conocida inducida por estos aparatos durante las proyecciones, debido a que el eje del haz de proyección no es perpendicular al plano de la pantalla.
También se puede deformar la referencia virtual por distorsiones para inducir características, incluso defectos obtenidos con otros aparatos, salvo los obtenidos por los aparatos que hayan permitido la imagen I. Por ejemplo, se podrán inducir en la referencia virtual características de aparatos perfeccionados o, por el contrario, aparatos antiguos para dar un aspecto particular a la imagen corregida. Las informaciones formateadas, las informaciones formateadas medidas o las informaciones formateadas medidas extendidas y obtenidas con dicha referencia virtual integran las distorsiones que se han inducido en la referencia virtual, de manera que las informaciones formateadas o las informaciones formateadas medidas puedan utilizarse por los programas de tratamiento de imágenes capturadas por un primer aparato de captura de imagen, para obtener imágenes de calidad comparable en relación con las distorsiones, a una de un segundo aparato de captura de imagen. Esta técnica también se aplica a la restitución de imagen considerando que un programa de tratamiento de imágenes puede restituir una imagen por medio de un primer aparato de restitución de calidad comparable en relación con la distorsión con la proporcionada por un segundo aparato de restitución.
Por otro lado, se puede prever que las informaciones formateadas obtenidas, cuando se utilicen por un programa de tratamiento de imagen, lleven a tener en el contorno de la imagen corregida zonas no tratadas. Por ejemplo, una imagen no corregida I representada en la figura 23a podrá dar una imagen corregida Ic tal y como se representa en la figura 23b y poseerá zonas no tratadas ZN representadas en negro en la figura 23b.
Las informaciones formateadas podrán modificarse previamente para obtener un efecto de aumento Ic' tal y como se representa en la figura 23c de forma que se eliminen las zonas no tratadas.
De manera práctica durante el calibrado y el cálculo de informaciones formateadas, se preverá por anticipado realizar cálculos y apoyar los procedimientos descritos en varias imágenes, después hacer una media de los resultados obtenidos eliminando previamente, en caso necesario, los resultados que parezcan aberrantes.
Además, en el caso de combinaciones en las que intervengan características variables que puedan tomar un gran número de valores, se puede prever limitar el número de combinaciones. Para ello, para estas características variables, se prevé proceder a un análisis del componente principal. Se trata de buscar una o varias direcciones particulares de componentes que correspondan a estas características variables para las que se tienen distorsiones sensibles. Para otras direcciones, independientemente de cuáles sean las demás características variables, se constatará probablemente que hay poca o ninguna variación de distorsión. No se tendrán en cuenta estas otras direcciones.
En la dirección favorecida o en las direcciones favorecidas, se selecciona el número de imágenes de referencia según diferentes criterios, como, por ejemplo, el hecho de poder predecir con la precisión deseada la n+1 combinación en función de las n primeras combinaciones.
En la descripción anterior, se ha considerado que la imagen está constituida por puntos y que los tratamientos de procedimientos y sistemas descritos se apoyan en puntos. No obstante, sin salir del marco de la invención, los procedimientos y sistemas descritos podrían tratar los conjuntos de puntos que forman elementos y representan motivos (pastillas, etc.).
En el caso de que el aparato o la cadena de aparatos posea una característica variable que sólo pueda poseer un número reducido de valores discretos (tres valores discretos de focal, por ejemplo), existe interés en cuanto a la precisión de emplear, según el ejemplo tomado, tres veces el proceso en la focal fija más que en utilizar una superficie polinomial aproximada que incluiría la focal como parámetro.
El campo de aplicación puede abarcar el campo de aplicación relativo a la calidad de las imágenes, entendiéndose que la calidad de las imágenes puede medirse, entre otras cosas, en relación con la distorsión residual que incluyen. La invención se aplica igualmente al ámbito de la medida a partir de la visión por ordenador conocida con la expresión "metrología por visión".
Por otro lado, la invención puede utilizarse para calcular el valor de la focal que se ha utilizado para capturar una imagen. En efecto, el experto, a partir de una imagen exenta de distorsiones radiales porque está corregida, puede utilizar las propiedades geométricas de los puntos de fuga tal y como se describe en el artículo G.-Q. WEI et al. "Camera Calibration by Vanishing Point and Cross Ratio", publicado en IEEE International Conference on Accoustic Speech and Signal Processing, páginas 1630-1633, Glasgow, Gran Bretaña, mayo de 1989. Esto permitirá obtener la distancia focal del dispositivo de captura o de restitución de imagen, así como la posición sobre el soporte SC de imagen de la intersección del eje óptico con este soporte. Estos datos pueden emplearse, por ejemplo, en las aplicaciones como la metrología por visión.
Por otro lado, hay que destacar que el conocimiento del sistema de referencia M se define en una homografía cerca, que el dispositivo de captura o de restitución de imagen no requiere ninguna limitación de ortogonalidad en el momento de la fotografía. Las posiciones de los puntos PT no se encuentran necesariamente colocadas sobre formas regulares (línea o círculo) y pueden tener perfectamente una distribución aleatoria. Además, su posición relativa puede que sólo sea conocida por un factor de escala cercano.
Si la invención se emplea en el caso de una cadena de aparatos que incluyan varios aparatos, por ejemplo, un proyector y un aparato de fotografía, o por ejemplo una impresora y un escáner, y uno de los aparatos, por ejemplo, el aparato de fotografía o el escáner presenta pocos defectos o no presenta ningún defecto de distorsión, el procedimiento y el sistema producen informaciones formateadas relativas al otro aparato únicamente. Se trata de un método práctico para producir informaciones formateadas relativas a un aparato de restitución de imagen, utilizando un aparato de captura de imagen sin defectos o cuyos defectos se han medido y corregido previamente.
Si la invención se emplea en el caso de una cadena de aparatos que incluya varios aparatos, por ejemplo, un aparato de fotografía y un escáner, el procedimiento y el sistema producen informaciones formateadas relativas a los dos aparatos. Se trata de un método práctico para permitir la corrección de defectos de un aparato de fotografía sin tener por ello que conocer los defectos del escáner, en el caso en que las imágenes utilizadas por el presente procedimiento y sistema y por los medios de tratamiento de imagen se hayan escaneado con el mismo aparato.
Variante de realización
En la lectura aparecerán otras características y ventajas de la invención:
- definiciones, a continuación explicitadas, de los términos técnicos empleados ilustrados refiriéndose a los ejemplos indicativos y no limitativos de las figuras 1 a 12.
- la descripción de las figuras 1 a 12.
Escena
Se denomina escena 3 a un lugar en el espacio en tres dimensiones, que corresponde a los objetos 107 iluminados mediante fuentes luminosas.
Aparato de captura de imagen, imagen, captura de imagen
Se describirá a continuación, haciendo referencia a las figuras 3 y 7, lo que se entiende por aparato de captura de imagen 1 e imagen 103. Se denomina aparato de captura de imagen 1 a un aparato constituido por una óptica 100, un capturador o varios capturadores 101, una electrónica 102 y una zona de memoria 16. Dicho aparato de captura de imagen 1 permite, a partir de una escena 3, obtener imágenes numéricas fijas 103 o animadas grabadas en la zona de memoria 16 o transmitidas a un dispositivo externo. Las imágenes animadas están constituidas por una sucesión en el tiempo de imágenes fijas 103. Dicho aparato de captura de imagen 1 puede tomar la forma, en especial, de un aparato de fotografía, un camescopio, una cámara conectada a un PC o integrada en el mismo, una cámara conectada a un asistente personal o integrada en el mismo, una cámara conectada a un teléfono o integrada en el mismo, un aparato de videoconferencia o una cámara o aparato de medida sensible a otras longitudes de onda distintas de la luz visible, como por ejemplo, una cámara térmica.
Se denomina captura de imagen al procedimiento que consiste en el cálculo de la imagen 103 mediante el aparato de captura de imagen 1.
En caso de que un aparato incluya varios subconjuntos intercambiables, en particular, una óptica 100, se denomina aparato de captura de imagen 1 a una configuración particular del aparato.
Medio de restitución de imagen, imagen restituida, restitución de imagen
Se describirá a continuación, haciendo referencia a la figura 2, qué se entiende por medio de restitución de imagen 19. Dicho medio de restitución de imagen 19 puede tomar la forma, especialmente, de una pantalla de visualización, un televisor, una pantalla plana, un proyector, gafas de realidad virtual, una impresora.
Dicho modelo de restitución de imagen 19 consta de:
- una electrónica.
- una o varias fuentes de luz, electrones o tinta.
- uno o varios moduladores: dispositivos de modulación de luz, electrones o tinta.
- un dispositivo de focalización, que se presenta en particular en forma de una óptica en el caso de un proyector luminoso o en forma de bobinas de focalización de haz electrónico en el caso de una pantalla de tubo catódico, o en forma de filtros en el caso de una pantalla plana.
- un soporte de restitución 190 que se presenta en particular en forma de una pantalla en el caso de una pantalla de tubo catódico, una pantalla plana o un proyector, en forma de un soporte de impresión sobre el que se efectúa la impresión en el caso de una impresora, o en forma de una superficie virtual en el espacio en el caso de un proyector de imagen virtual.
Dicho medio de restitución de imagen 19 permite, a partir de una imagen 103, obtener una imagen restituida 191 sobre el soporte de restitución 190.
Las imágenes animadas están constituidas por una sucesión en el tiempo de imágenes fijas.
\newpage
Se denomina restitución de imagen al procedimiento que consiste en la visualización o la impresión de la imagen por medio de la restitución de imagen 19.
En el caso de que un medio de restitución 19 incluya varios subconjuntos intercambiables o que puedan desplazarse relativamente uno en relación con el otro, en particular, el soporte de restitución 190, se denomina medio de restitución de imagen 19 a una configuración particular.
Superficie de capturador, centro óptico, distancia focal
Se describirá a continuación, haciendo referencia a la figura 1, qué se entiende por superficie del capturador 110.
Se denomina superficie del capturador 110 a la forma en el espacio dibujado por la superficie sensible del capturador 101 del aparato de captura de imagen 1 en el momento de la captura de imagen. Esta superficie es generalmente plana.
Se denomina centro óptico 111 a un punto en el espacio asociado a la imagen 103 en el momento de la captura de imagen. Se denomina distancia focal a la distancia entre este punto 111 y el plano 110, en el caso de que la superficie del capturador 110 sea plana.
Píxel, valor de píxel, tiempo de exposición
Se describirá a continuación, haciendo referencia a la figura 3, lo que se entiende por píxel 104 y valor de píxel.
Se denomina píxel 104 a una zona elemental de la superficie del capturador 110 obtenida creando un pavimento generalmente regular de dicha superficie del capturador 110. Se denomina valor de píxel a un número asociado a este píxel 104.
Una captura de imagen consiste en determinar el valor de cada píxel 104. El conjunto de estos valores constituye la imagen 103.
Durante una captura de imagen, el valor de píxel se obtiene por la integración de la superficie del píxel 104, durante un periodo de tiempo denominado tiempo de exposición, de una parte del flujo luminoso procedente de la escena 3 a través de la óptica 100 por conversión del resultado de esta integración en valor numérico. La integración del flujo luminoso o la conversión del resultado de esta integración en valor numérico se efectúan por medio de la electrónica 102.
Esta definición de la noción de valor de píxel se aplica en el caso de imágenes 103 en blanco y negro o en color, ya sean fijas o animadas.
No obstante, según los casos, la parte del flujo luminoso en cuestión se obtiene de diversas formas:
a) en el caso de una imagen 103 en color, la superficie del capturador 110 incluye generalmente varios tipos de píxeles 104, respectivamente asociados a flujos luminosos de longitudes de onda diferentes, tales como, por ejemplo, píxeles rojos, verdes y azules.
b) en el caso de una imagen 103 en color, puede haber también varios capturadores 101 yuxtapuestos cada uno de los cuales recibe una parte del flujo luminoso.
c) en el caso de una imagen 103 en color, los colores utilizados pueden ser diferentes del rojo, verde y azul, como por ejemplo para la televisión NTSC americana, y pueden ser superiores en número a tres.
d) por último, en el caso de una cámara de televisión de barrido, llamado entrelazado, las imágenes animadas producidas están constituidas por una alternancia de imágenes 103 que incluyen las líneas pares y las imágenes 103 que incluyen las líneas impares.
Configuración utilizada, ajustes utilizados, características utilizadas
Se denomina configuración utilizada a la lista de subconjuntos amovibles del aparato de captura de imagen 1, por ejemplo, la óptica 100 efectivamente montada en el aparato de captura de imagen 1 si es intercambiable. La configuración utilizada se caracteriza concretamente por:
- el tipo de óptica 100.
- el número de serie de la óptica 100 o cualquier otra denominación.
Se denomina ajustes utilizados a:
- la configuración utilizada tal y como se ha definido anteriormente, así como
\global\parskip0.950000\baselineskip
- al valor de los ajustes manuales o automáticos disponibles en la configuración utilizada y que tenga una influencia sobre el contenido de la imagen 103. Estos ajustes puede efectuarlos el usuario, especialmente con ayuda de botones o puede calcularlos el aparato de captura de imagen 1. Estos ajustes pueden almacenarse en el aparato, en concreto en un soporte amovible, o en cualquier dispositivo conectado al aparato. Estos ajustes pueden incluir los ajustes de focalización, diafragma, focal de la óptica 100, los ajustes de tiempo de exposición, los ajustes de equilibrio de blancos, los ajustes de tratamiento de imagen integrados como el zoom numérico, la compresión, el contraste.
Se denomina características utilizadas 74 o juego de características utilizadas 74 a:
a) parámetros relacionados con las características técnicas intrínsecas del aparato de captura de imagen 1, determinadas en el momento de diseñar el aparato de captura de imagen 1. Por ejemplo, estos parámetros pueden incluir la fórmula de la óptica 100 de la configuración utilizada que influye en los defectos geométricos y el punteado de las imágenes capturadas; la fórmula de la óptica 100 de la configuración utilizada incluye, en concreto, la forma, la disposición y el material de las lentes de la óptica 100.
Estos parámetros también pueden constar de los siguientes elementos:
- la geometría del capturador 101, a saber la superficie del capturador 110, así como la forma y la disposición relativa de los píxeles 104 sobre esta superficie.
- el ruido generado por la electrónica 102.
- la ley de conversión de flujos luminosos en valor de píxel.
b) parámetros relacionados con las características técnicas intrínsecas del aparato de captura de imagen 1, determinadas en el momento de la fabricación del aparato de captura de imagen 1, en concreto:
- el posicionamiento exacto de las lentes en la óptica 100 de la configuración utilizada.
- el posicionamiento exacto de la óptica 100 en relación con el capturador 101.
c) parámetros relacionados con las características técnicas del aparato de captura de imagen 1, determinadas en el momento de la captura de la imagen 103 y en concreto:
- la posición y la orientación de la superficie del capturador 110 en relación con la escena 3.
- los ajustes utilizados.
- los factores exteriores, como la temperatura, si son influyentes.
d) las preferencias del usuario, en concreto, la temperatura del color que hay que utilizar para la restitución de imágenes. Estas preferencias las selecciona, por ejemplo, el usuario con ayuda de los botones.
Las características utilizadas 74 incluyen, en particular, la noción de características variables.
Punto de observación, dirección de observación
Se describirá a continuación, haciendo referencia a la figura 1, lo que se entiende por punto de observación 105 y dirección de observación 106.
Se denomina superficie matemática 10 a una superficie geométricamente asociada a la superficie del capturador 110. Por ejemplo, si la superficie del capturador es plana, la superficie matemática 10 podrá confundirse con la del capturador.
Se denomina dirección de observación 106 a una recta que pasa por, al menos, un punto de la escena 3 y por el centro óptico 111. Se denomina punto de observación 105 a la intersección de la dirección de observación 106 y de la superficie 10.
Color observado, intensidad observada
Se describirá, a continuación, haciendo referencia a la figura 1, lo que se entiende por color observado e intensidad observada. Se denomina color observado al color de la luz emitida, transmitida o reflejada por dicha escena 3 en dicha dirección de observación 106 en un momento dado, y observada desde dicho punto de observación 105. Se denomina intensidad observada a la intensidad de la luz emitida por dicha escena 3 en dicha dirección de observación 106 en el mismo momento, y observada desde dicho punto de observación 105.
El color puede estar especialmente caracterizado por una intensidad luminosa en función de una longitud de onda o incluso por dos valores tales como los medidos por un colorímetro. La intensidad puede caracterizarse por un valor tal que se mida con un fotómetro.
\global\parskip1.000000\baselineskip
Dicho color observado y dicha intensidad observada dependen particularmente de la posición relativa de los objetos 107 en la escena 3 y de las fuentes de iluminación presentes, así como de las características de transparencia y de reflexión de los objetos 107 en el momento de la observación.
Proyección matemática, imagen matemática, punto matemático, color matemático de un punto, intensidad matemática de un punto, forma matemática de un punto, posición matemática de un punto.
De forma general, una transformación matemática tal como una proyección matemática es una operación que permite establecer una correspondencia entre una primera imagen y una segunda imagen y con más precisión entre un punto de una primera imagen y un punto de una segunda imagen.
En las figuras 1 a 9d, y en concreto en la figura 5, una proyección matemática 8 tiene por objeto realizar, a partir de una imagen real o de una escena 3, una imagen matemática 70 o a partir de una escena de referencia 9 una imagen de síntesis.
En las figuras 13a a 23c, y en particular la figura 14a, una proyección matemática H tiene por objeto establecer una relación entre una imagen real (la imagen I en la figura 14a) y una referencia virtual (R en la figura 14a), de forma que se establezcan las diferencias entre la imagen y la referencia virtual, de forma que se tengan los datos para corregir la imagen real.
Se describirán a continuación con más precisión, haciendo referencia, por ejemplo, a las figuras 1, 5, 9a, 9b, 9c y 9d las nociones de proyección matemática 8, imagen matemática 70, punto matemático, color matemático de un punto, intensidad matemática de un punto, forma matemática 41 de un punto, posición matemática 40 de un punto.
En primer lugar, se describirá, haciendo referencia a la figura 5, cómo se realiza una imagen matemática 70 por proyección matemática determinada 8 de, al menos, una escena 3 sobre la superficie matemática 10.
Se describirá previamente qué se entiende por proyección matemática determinada 8. Una proyección matemática determinada 8 se asocia:
- a una escena 3 en el momento de la captura de una imagen 103.
- a las características utilizadas 74, una imagen matemática 70.
Una proyección matemática determinada 8 es una transformación que permite determinar las características de cada punto de la imagen matemática 70 a partir de la escena 3 en el momento de la captura de imagen y de las características utilizadas 74.
De manera preferente, la proyección matemática 8 se define de la forma que se describe más abajo.
Se denomina posición matemática 40 del punto a la posición del punto de observación 105 sobre la superficie matemática 10.
Se denomina forma matemática 41 del punto a la forma geométrica, puntual, del punto de observación 105.
Se denomina color matemático del punto al color observado.
Se denomina intensidad matemática del punto a la intensidad observada.
Se denomina punto matemático a la asociación de la posición matemática 40, la forma matemática 41, el color matemático y la intensidad matemática del punto de observación 105 considerado. La imagen matemática 70 está constituida por el conjunto de dichos puntos matemáticos.
La proyección matemática 8 de la escena 3 es la imagen matemática 70.
Proyección real, punto real, color real de un punto, intensidad real de un punto, forma real de un punto, posición real de un punto
A continuación se describirán, haciendo referencia en concreto a las figuras 3, 5, 9a, 9b, 9c y 9d las nociones de proyección real 72, punto real, color real de un punto, intensidad real de un punto, forma real 51 de un punto, posición real 50 de un punto.
Durante una captura de imagen, el aparato de captura de imagen 1 asociado a las características utilizadas 74 produce una imagen. Así, en las figuras 1 y 7, se obtiene una imagen 103 de la escena 3 y en las figuras 13 a y 14 a , se obtiene una imagen I del sistema de referencia M. En la figura 1, la luz procedente de la escena 3 según una dirección de observación 106, atraviesa el óptica 100 y llega a la superficie del capturador 110.
\newpage
Para dicha dirección de observación se obtiene lo que se denomina un punto real (o punto característico PT en la figura 3a) que presenta diferencias en relación con el punto matemático (o punto de referencia PR en la figura 3a).
Refiriéndose a las figuras 9a a 9d, se describirán a continuación las diferencias entre el punto real y el punto matemático.
La forma real 51 asociada a la mencionada dirección de observación 106 no es un punto en la superficie del capturador, sino una forma de sombra en el espacio de tres dimensiones, que tiene una intersección con uno o varios píxeles 104. Estas diferencias tienen por origen, en particular, la coma, la aberración esférica, el astigmatismo, la agrupación de píxeles 104, la aberración cromática, la profundidad de campo, la difracción, las reflexiones parásitas, la cobertura de campo del aparato de captura de imagen 1. Dan una impresión de efecto borroso, de carencia de punteado de la imagen 103.
Además, la posición real 50 asociada a dicha dirección de observación 106 presenta una diferencia en relación con la posición matemática 40 de un punto. Esta diferencia, en particular, tiene por origen la distorsión geométrica, que da una impresión de deformación: por ejemplo, las paredes verticales parecen curvas. También se deriva del hecho de que el número de píxeles 104 está limitado y, en consecuencia, la posición real 50 sólo puede tomar un número finito de valores.
Por otro lado, la intensidad real asociada a dicha dirección de observación 106 presenta diferencias en relación con la intensidad matemática de un punto. Estas diferencias tienen por origen, en concreto, el gamma y la formación de viñetas: por ejemplo, los bordes de la imagen 103 parecen más oscuros. Además, puede añadirse ruido a la señal.
Por último, el color real asociado a dicha dirección de observación 106 presenta diferencias en relación con el color matemático de un punto. Estas diferencias tienen por origen, en particular, el gamma y la dominante coloreada. Además, puede añadirse ruido a la señal.
Se denomina punto real a la asociación de la posición real 50, de la forma real 51, del color real y de la intensidad real para la dirección de observación 106 considerada.
La proyección real 72 de la escena 3 está constituida por el conjunto de puntos reales.
Modelo de transformación configurable, parámetros, imagen corregida
En una variante de realización, se denomina modelo de transformación configurable 12 (o de manera resumida, transformación configurable 12) a una transformación matemática que permite obtener, a partir de una imagen 103 y del valor de los parámetros, una imagen corregida 71. Dichos parámetros pueden calcularse especialmente a partir de características utilizadas 74 como se indica a continuación.
Dicha transformación permite, en particular, determinar para cada punto real de la imagen 103 la posición corregida de dicho punto real, el color corregido de dicho punto real, la intensidad corregida de dicho punto real, la forma corregida de dicho punto real, a partir del valor de los parámetros, de la posición real de dicho punto real y de los valores de los píxeles de la imagen 103. La posición corregida puede calcularse, por ejemplo, mediante polinomios de grado fijo en función de la posición real, donde los coeficientes de polinomios dependen del valor de los parámetros. El color corregido y la intensidad corregida pueden ser, por ejemplo, sumas ponderadas de valores de píxeles; los coeficientes dependen del valor de los parámetros y de la posición real, o incluso de funciones no lineales de valores de píxeles de la imagen 103.
Los valores pueden incluir, en concreto: la focal de la óptica 100 de la configuración utilizada o un valor relacionado, como la posición de un grupo de lentes, la focalización de la óptica 100 de la configuración utilizada o un valor relacionado, como la posición de un grupo de lentes, la apertura de la óptica 100 de la configuración utilizada o un valor relacionado, como la posición del diafragma.
Diferencia entre la imagen matemática y la imagen corregida
En referencia a la figura 5, se denomina diferencia 73 entre la imagen matemática 70 y la imagen corregida 71, para una escena 3 dada y características utilizadas 74 dadas, a uno o varios valores determinados a partir de números que caracterizan la posición, el color, la intensidad, la forma de todos o parte de los puntos corregidos y de todos o parte de los puntos matemáticos.
Por ejemplo, la diferencia 73 entre la imagen matemática 70 y la imagen corregida 71 para una escena 3 dada y características utilizadas 74 dadas puede determinarse de la forma siguiente:
- se eligen puntos característicos que pueden ser, por ejemplo, los puntos de una tabla ortogonal 80 de puntos dispuestos regularmente tal y como se presenta en la figura 10.
- se calcula la diferencia 73, por ejemplo, efectuando la suma para cada punto característico de los valores absolutos de diferencias entre cada número que caracteriza la posición, el color, la intensidad, la forma respectivamente para el punto corregido y para el punto matemático. La función suma de valores absolutos de diferencias puede sustituirse por otra función como la media, la suma de cuadrados o cualquier otra función que permita combinar los números.
Escena de referencia o sistema de referencia
Se denomina escena de referencia 9 (o sistema de referencia M en las figuras 13a y siguientes) a una escena 3 de la que se conocen ciertas características. A modo de ejemplo, la figura 4a presenta una escena de referencia 9 constituida por una hoja de papel que contiene círculos rellenos de negro y dispuestos regularmente. La figura 4b presenta otra hoja de papel que contiene los mismos círculos a los que se añaden rayas y superficies coloreadas. Los círculos sirven para medir la posición real 50 de un punto, las rayas la forma real 51 de un punto, las superficies coloreadas, el color real de un punto y la intensidad real de un punto. Esta escena de referencia 9 puede estar formada por otro material distinto del papel.
En referencia a la figura 12, se definirá a continuación la noción de imagen de referencia 11 (o imagen I en el soporte SC de las figuras 13a y siguientes). Se denomina imagen de referencia 11 a una imagen de la escena de referencia 9 obtenida con el aparato de captura de imagen 1.
Imagen de síntesis, clase de imágenes de síntesis
En referencia a la figura 12, se definirá a continuación la noción de imagen de síntesis y de clase de imágenes de síntesis 7. Se denomina imagen de síntesis a una imagen matemática 70 obtenida por proyección matemática 8 de una escena de referencia 9. Se denomina clase de imágenes de síntesis 7 a un conjunto de imágenes matemáticas 70 obtenidas por proyección matemática 8 de una o varias escenas de referencia 9, para uno o varios juegos de características utilizadas 74. En caso de que haya una escena de referencia 9 y un juego de características utilizadas 74, la clase de imágenes de síntesis 7 sólo incluye una imagen de síntesis. En las figuras 13a y siguientes, la referencia virtual R de la superficie virtual SR puede considerarse una imagen de síntesis.
Imagen transformada
En referencia a la figura 12, se definirá a continuación la noción de imagen transformada 13. Se denomina imagen transformada 13 a la imagen corregida obtenida por aplicación de un modelo de transformación configurable 12 a una imagen de referencia 11.
Imagen transformada próxima a una clase de imágenes de síntesis, desviación residual
Se describirá a continuación, haciendo referencia a la figura 12, la noción de imagen transformada 13 próxima a una clase de imágenes de síntesis 7 y la noción de desviación residual 14.
La diferencia entre una imagen transformada 13 y una clase de imágenes de síntesis 7 se define como la menor diferencia entre dicha imagen transformada 13 y cualquiera de las imágenes de síntesis de dicha clase de imágenes de síntesis.
A continuación, se describirá cómo se elige entre los modelos de transformación configurables 12 aquél que permite transformar cada imagen de referencia 11 en una imagen transformada 13 próxima a la clase de imágenes de síntesis 7 de la escena de referencia 9 correspondiente a dicha imagen de referencia 11 en diferentes casos de escenas de referencia 9 y características utilizadas 74.
- En el caso de una escena de referencia 9 dada asociada a un conjunto de características utilizadas 74 dadas, se selecciona la transformación configurable 12 (y sus parámetros) que permite transformar la imagen de referencia 11 en la imagen transformada 13 que presenta la menor diferencia con la clase de imágenes de síntesis 7. La clase de imagen de síntesis 7 y la imagen transformada 13 se denominan entonces próximas. Se denomina desviación residual 14 a dicha diferencia.
- En el caso de un grupo de escenas de referencia dadas asociadas a conjuntos de características utilizadas 74 dadas, se selecciona la transformación configurable 12 (y sus parámetros) en función de las diferencias entre la imagen transformada 13 de cada escena de referencia 9 y la clase de imágenes de síntesis 7 de cada escena de referencia 9 considerada. Se elige la transformación configurable 12 (y sus parámetros) que permite transformar las imágenes de referencia 11 en imágenes transformadas 13 de manera que la suma de dichas diferencias sea la menor. La función de suma puede sustituirse por otra función, como el producto. La clase de imágenes de síntesis 7 y las imágenes transformadas 13 se denominan entonces próximas. Se denomina desviación residual 14 a un valor obtenido a partir de dichas diferencia, por ejemplo, calculando la media.
- En el caso de que ciertas características utilizadas 74 sean desconocidas, se pueden determinar a partir de la captura de varias imágenes de referencia 11 de, al menos, una escena de referencia 9. En este caso, se determinan simultáneamente las características desconocidas y la transformación configurable 12 (y sus parámetros) que permite transformar las imágenes de referencia 11 en imágenes transformadas 13, de manera que la suma de dichas diferencias sea la menos, especialmente por cálculo iterativo o por resolución de ecuaciones relativas a la suma de dichas diferencias o su producto o cualquier otra combinación apropiada de dichas diferencias. La clase de imagen de síntesis 7 y las imágenes transformadas 13 se denominan entonces próximas. Las características no conocidas pueden ser, por ejemplo, las posiciones y las orientaciones relativas de la superficie del capturador 110 y de cada escena de referencia 9 considerada. Se
denomina desviación residual 14 a un valor obtenido a partir de dichas diferencias, por ejemplo, calculando la media.
Mejor transformación
Se denomina mejor transformación a la transformación que, entre los modelos de transformación configurables 12, permite transformar cada imagen de referencia 11 en una imagen transformada 13, próxima a la clase de imágenes de síntesis 7 de la escena de referencia 9, correspondiente a dicha imagen de referencia 11.
Calibrado
Se denomina calibrado a un procedimiento que permite obtener datos relativos a las características intrínsecas del aparato de captura de imagen 1, para una o varias configuraciones utilizadas, cada una de ellas formada por una óptica 100 asociada a un aparato de captura de imagen 1.
Caso 1: en el caso de que sólo haya una configuración, dicho procedimiento consta de las etapas siguientes:
- la etapa de montar dicha óptica 100 sobre dicho aparato de captura de imagen 1.
- la etapa de seleccionar una o varias escenas de referencia 9.
- la etapa de seleccionar varias características utilizadas 74.
- la etapa de capturar imágenes de dichas escenas de referencia 9 para dichas características utilizas.
- la etapa de calcular la mejor transformación para cada grupo de escenas de referencia 9 correspondiente a las mismas características utilizadas 74.
Caso 2: en el caso de que se considere que todas las configuraciones corresponden a un aparato de captura de imagen 1 dado y a todas las ópticas 100 de un mismo tipo, dicho procedimiento incluye las etapas siguientes:
- la etapa de seleccionar una o varias escenas de referencia 9.
- la etapa de seleccionar varias características utilizadas 74.
- la etapa de calcular imágenes 103 a partir de características utilizadas 74 y, especialmente, fórmulas de óptica 100 de la configuración utilizada y valores de parámetros, por ejemplo, con ayuda de un programa de cálculo de óptica por trazado de rayos.
- la etapa de calcular la mejor transformación para cada grupo de escenas de referencia 9 correspondiente a las mismas características utilizadas.
Caso 3: en el caso de que se considere que todas las configuraciones corresponden a una óptica 100 dada y a todos los aparatos de captura de imagen 1 de un mismo tipo, dicho procedimiento incluye las etapas siguientes:
- la etapa de montar dicha óptica 100 sobre un aparato de captura de imagen 1 del tipo considerado.
- la etapa de seleccionar una o varias escenas de referencia 9.
- la etapa de seleccionar varias características utilizadas 74.
- la etapa de capturar imágenes de dichas escenas de referencia 9 para dichas características utilizadas.
- la etapa de calcular la mejor transformación para cada grupo de escenas de referencia 9 correspondiente a las mismas características utilizadas.
El calibrado puede efectuarlo, de manera preferente, el fabricante del aparato de captura de imagen 1, esto se aplica para cada aparato y la configuración en el caso 1. Este método es más preciso pero más limitado y bien adaptado en el caso en que no se pueda cambiar la óptica 100.
De forma alternativa, el calibrado puede efectuarlo el fabricante del aparato de captura de imagen 1, esto se aplica para cada tipo y configuración de aparato en el caso 2. Este método es menos preciso, pero más sencillo.
De forma alternativa, el calibrado puede efectuarlo el fabricante del aparato de captura de imagen 1, esto se aplica para cada óptica 100 y tipo de aparato en el caso 3. Este método es un compromiso que permite utilizar una óptica 100 en todos los aparatos de captura de imagen 1 de un tipo sin volver a efectuar el calibrado para cada combinación de aparato de captura de imagen 1 y óptica 100.
De forma alternativa, el calibrado puede efectuarlo el revendedor o instalador del aparato, esto se aplica para cada aparato de captura de imagen 1 y configuración en el caso 1.
De forma alternativa, el calibrado puede efectuarlo el revendedor o instalador del aparato, esto se aplica para cada óptica 100 y tipo de aparato en el caso 3.
De forma alternativa, el calibrado puede efectuarlo el usuario del aparato, esto se aplica para cada aparato y configuración en el caso 1.
De forma alternativa, el calibrado puede efectuarlo el usuario del aparato, esto se aplica para cada óptica 100 y tipo de aparato en el caso 3.
Diseño de óptica numérica
Se denomina diseño de óptica numérica a un procedimiento de disminución del coste de la óptica 100, que consiste en:
- crear o seleccionar en un catálogo un óptica 100 que tenga defectos, en concreto de posicionamiento de los puntos reales.
- disminuir el número de lentes.
- simplificar la forma de las lentes.
- utilizar materiales, tratamientos o procedimientos de fabricación menos costosos.
Dicho procedimiento incluye las etapas siguientes:
- la etapa de seleccionar una diferencia (en el sentido anteriormente definido) aceptable.
- la etapa de seleccionar una o varias escenas de referencia 9.
- la etapa de seleccionar varias características utilizadas 74.
Dicho procedimiento incluye además la repetición de las siguientes etapas:
- la etapa de seleccionar una fórmula óptica que contenga, en concreto, la forma, el material y la disposición de las lentes.
- la etapa de calcular imágenes 103 a partir de características utilizadas 74 y en concreto fórmulas de óptica 100 de la configuración utilizada, empleando, por ejemplo, un programa de cálculo de óptica mediante trazado de rayos o efectuando medidas en un prototipo.
- la etapa de calcular la mejor transformación para cada grupo de escenas de referencia 9 correspondiente a las mismas características utilizadas 74.
- la etapa de verificar si la diferencia es aceptable hasta que la diferencia sea aceptable.
Informaciones formateadas
Se denomina informaciones formateadas 15 asociadas a la imagen 103 o informaciones formateadas 15, a todos o a parte de los datos siguientes:
- datos relativos a las características técnicas intrínsecas del aparato de captura de imagen 1, en concreto, las características de distorsión, o
- datos relativos a las características técnicas intrínsecas del aparato de captura de imagen 1 en el momento de la captura de imagen, en concreto, el tiempo de exposición, o
- datos relativos a las preferencias del usuario mencionado, en concreto, la temperatura de los colores, o
- datos relativos a las desviaciones residuales 14.
Base de datos de características
Se denomina base de datos de características 22 a una base de datos que incluye, para uno o varios aparatos de captura de imagen 1 y para una o varias imágenes 103, informaciones formateadas 15.
\global\parskip0.950000\baselineskip
Dicha base de datos de características 22 puede almacenarse de manera centralizada o descentralizada y puede estar especialmente:
- integrada en el aparato de captura de imagen 1.
- integrada en la óptica 100.
- integrada en un dispositivo de almacenamiento amovible.
- integrada en un PC u otro ordenador conectado a otros elementos durante la captura de imagen.
- integrada en un PC u otro ordenador conectado a otros elementos tras la captura de imagen.
- integrada en un PC u otro ordenador capaz de leer un soporte de almacenamiento común con el aparato de captura de imagen 1.
- integrada en un servidor a distancia conectado a un PC u otro ordenador conectado este último a otros elementos de captura de imagen.
Campos
Se definirá a continuación la noción de campos 90, haciendo referencia a la figura 8. Las informaciones formateadas 15 asociadas a la imagen 103 pueden guardarse de varias formas y estructurarse en una o varias tablas, pero corresponden lógicamente a todos o parte de los campos 90, que constan de:
(a) la distancia focal.
(b) la profundidad de campo.
(c) los defectos geométricos.
Dichos defectos geométricos incluyen los defectos de geometría de la imagen 103 caracterizados por los parámetros asociados a las características de la fotografía 74 y una transformación configurable que representa las características del aparato de captura de imagen 1 en el momento de la fotografía. Dichos parámetros y dicha transformación configurable permiten calcular la posición corregida de un punto de la imagen 103.
Dichos defectos geométricos incluyen además la formación de viñetas caracterizada por los parámetros asociados a las características de fotografía 74 y una transformación configurable que representa las características del aparato de captura de imagen 1 en el momento de la fotografía. Dichos parámetros y dicha transformación configurable permiten calcular la intensidad corregida de un punto de la imagen 103.
Dichos defectos geométricos incluyen además la dominante coloreada caracterizada por los parámetros asociados a las características de la fotografía 74 y una transformación configurable que representa las características del aparato de captura de imagen 1 en el momento de la fotografía. Dichos parámetros y dicha transformación configurable permiten calcular el color corregido de un punto de la imagen 103.
Dichos campos 90 incluyen además (d) el punteado de la imagen 103.
Dicho punteado incluye el efecto borroso de resolución de la imagen 103 caracterizada por los parámetros asociados a las características de la fotografía 74 y a una transformación configurable que representa las características del aparato de captura de imagen 1 en el momento de la fotografía. Dichos parámetros y dicha transformación configurable permiten calcular la forma corregida de un punto de la imagen 103. El efecto borroso abarca, especialmente, la coma, la aberración esférica, el astigmatismo, la agrupación de píxeles 104, la aberración cromática, la profundidad de campo, la difracción, las reflexiones parásitas, la curvatura de campo.
Dicho punteado incluye además el efecto borroso de profundidad de campo, especialmente las aberraciones esféricas, la coma, el astigmatismo. Dicho efecto borroso depende de la distancia de los puntos de la escena 3 en relación con el aparato de captura de imagen 1 y se caracteriza por los parámetros asociados a las características de la fotografía 74 y una transformación configurable que representa las características del aparato de captura de imagen 1 en el momento de la fotografía. Dichos parámetros y dicha transformación configurable permiten calcular la forma corregida de un punto de la imagen 103.
Dichos campos 90 incluyen además (e) parámetros del método de cuantificación. Dichos parámetros dependen de la geometría y la física del capturador 101, de la arquitectura de la electrónica 102 y de los posibles programas de tratamiento.
Dichos parámetros incluyen una función que representa las variaciones de la intensidad de un píxel 104 en función de la longitud de onda y del flujo luminoso procedente de dicha escena 3. Dicha función incluye especialmente los datos de gamma.
\global\parskip1.000000\baselineskip
Dichos parámetros incluyen además:
- la geometría de dicho capturador 101, en concreto la forma, la posición relativa y el número de elementos sensibles de dicho capturador 101.
- una función que representa la distribución espacial y temporal del ruido del aparato de captura de imagen 1.
- un valor que representa el tiempo de exposición de la captura de imagen.
Dichos campos 90 incluyen además (f) parámetros de tratamientos numéricos efectuados por el aparato de captura de imagen 1, en concreto el zoom numérico y la compresión. Estos parámetros dependen del programa de tratamiento del aparato de captura de imagen 1 y de los ajustes del usuario.
Dichos campos 90 incluyen además:
(g) parámetros que representan las preferencias del usuario, especialmente en relación con el grado de efecto borroso y la resolución de la imagen 103.
(h) las desviaciones residuales 14.
Cálculo de informaciones formateadas
Las informaciones formateadas 15 pueden calcularse y guardarse en la base de datos 22 en varias etapas.
a) Una etapa al terminar el diseño del aparato de captura de imagen 1.
Esta etapa permite obtener características técnicas intrínsecas del aparato de captura de imagen 1, en concreto:
- la distribución espacial y temporal del ruido generado por la electrónica 102.
- la ley de conversión del flujo luminoso en valor de píxel.
- la geometría del capturador 101.
b) Una etapa al terminar el calibrado o diseño de óptica numérica.
Esta etapa permite obtener otras características técnicas intrínsecas del aparato de captura de imagen 1 y, en especial, para cierto número de valores característicos utilizados, la mejor transformación asociada y la desviación residual 14 asociada.
c) Una etapa de selección de preferencias del usuario con ayuda de botones, menús o soporte amovible o conexión a otro dispositivo.
d) Una etapa de captura de imagen.
Esta etapa (d) permite obtener características técnicas del aparato de captura de imagen 1 en el momento de la captura de imagen y, en concreto, el tiempo de exposición, determinado por los ajustes manuales o automáticos efectuados.
La etapa (d) permite además obtener la distancia focal. La distancia focal se calcula a partir de:
- una medida de la posición del grupo de lentes de focal variable de la óptica 100 de la configuración utilizada, o
- una consigna dada al motor de posicionamiento, o
- un dato del fabricante si la focal es fija.
Finalmente, dicha distancia focal puede determinarse mediante el análisis del contenido de la imagen 103.
La etapa (d) permite además obtener la profundidad de campo. La profundidad de campo se calcula a partir de:
- una medida de la posición del grupo de lentes de focalización de la óptica 100 de la configuración utilizada,
- una consiga dada al motor de posicionamiento o,
- un dato del fabricante si la profundidad de campo es fija.
\newpage
La etapa (d) permite obtener los defectos de geometría y de punteado. Los defectos de geometría y de punteado corresponden a una transformación calculada con ayuda de una combinación de transformaciones de la base de datos de características 22 obtenidas al terminar una etapa (b). Esta combinación se elige para representar los valores de parámetros correspondientes a las características utilizadas 74, en especial la distancia focal.
La etapa (d) permite obtener además los parámetros numéricos de tratamiento efectuados por el aparato de captura de imagen 1. Estos parámetros se determinan mediante los ajustes manuales o automáticos efectuados.
El cálculo de informaciones formateadas 15 según las etapas (a) a (d) puede realizarse mediante:
- un dispositivo o programa integrado en el aparato de captura de imagen 1, o
- un programa piloto en un PC u otro ordenador, o
- un programa en un PC u otro ordenador, o
- una combinación de los tres.
Las transformaciones anteriormente mencionadas en la etapa (b) y en la etapa (d) pueden almacenarse en forma de:
- una fórmula matemática general.
- una fórmula matemática para cada punto.
- una fórmula matemática para algunos puntos característicos.
Las fórmulas matemáticas pueden describirse mediante:
- una lista de coeficientes.
- una lista de coeficientes y de coordenadas.
Estos diferentes modelos permiten crear un compromiso entre el tamaño de la memoria disponible para almacenar las fórmulas y la potencia de cálculo disponible para calcular las imágenes corregidas 71.
Además, con el fin de encontrar los datos, los identificadores asociados a los datos se guardan en la base de datos 22. Entre estos identificadores se incluyen:
- un identificador del tipo y de la referencia del aparato de captura de imagen 1.
- un identificador del tipo y de la referencia de la óptica 100 si es amovible.
- un identificador del tipo y de la referencia de cualquier otro elemento amovible que tenga relación con los datos almacenados.
- un identificador de la imagen 103.
- un identificador de la información formateada 15.
Imagen completada
Tal y como se describe en la figura 11, se denomina imagen completada 120 a la imagen 103 asociada a las informaciones formateadas 15. Esta imagen completada 120 puede tomar la forma, de manera preferente, de un archivo. La imagen completada 120 puede estar distribuida en varios archivos.
La imagen completada 120 puede calcularse por medio del aparato de captura de imagen 1. También puede calcularse por medio de un dispositivo de cálculo externo, por ejemplo, un ordenador.
Programa de tratamiento de imagen
Se denomina programa de tratamiento de imagen 4 a un programa que puede admitir una o varias imágenes completadas 120 y que efectúa tratamientos de estas imágenes. Estos tratamientos pueden consistir especialmente en:
- calcular una imagen corregida 71.
- efectuar medidas en el mundo real.
- combinar varias imágenes.
- mejorar la fidelidad de las imágenes en relación con el mundo real.
- mejorar la calidad subjetiva de las imágenes.
- detectar objetos o personas 107 en una escena 3.
- añadir objetos o personas 107 a una escena 3.
- sustituir o modificar objetos o personas 107 en una escena 3.
- retirar las sombras de una escena 3.
- añadir las sombras a una escena 3.
- buscar objetos en una base de imágenes.
Dicho programa de tratamiento de imagen puede:
- estar integrado en el aparato de captura de imagen 1.
- ejecutarse en medios de cálculo 17 conectados al aparato de captura de imagen 1 a través de medios de transmisión 18.
Óptica numérica
Se denomina óptica numérica a la combinación de un aparato de captura de imagen 1, una base de datos de características 22 y un medio de cálculo 17, que permita:
- la captura de imagen de una imagen 103.
- el cálculo de la imagen completada.
- el cálculo de la imagen corregida 71.
De manera preferente, el usuario obtiene directamente la imagen corregida 71. Si el usuario lo desea, puede pedir la supresión de la corrección automática.
La base de datos de características 22 puede estar:
- integrada en el aparato de captura de imagen 1.
- integrada en un PC u otro ordenador conectado a otros elementos durante la captura de imagen.
- integrada en un PC u otro ordenador conectado a otros elementos tras la captura de imagen.
- integrada en un PC u otro ordenador capaz de leer un soporte de almacenamiento común con el aparato de captura de imagen 1.
- integrada en un servidor a distancia conectado a un PC u otro ordenador conectado este último a otros elementos de captura de imagen.
El medio de cálculo 17 puede estar:
- integrado en un componente con el capturador 101.
- integrado en un componente con una parte de la electrónica 102.
- integrado en el aparato de captura de imagen 1.
- integrado en un PC u otro ordenador conectado a otros elementos durante la captura de imagen.
- integrado en un PC u otro ordenador conectado a otros elementos tras la captura de imagen.
- integrado en un PC u otro ordenador capaz de leer un soporte de almacenamiento común con el aparato de captura de imagen 1.
- integrado en un servidor a distancia conectado a un PC u otro ordenador conectado este último a otros elementos de captura de imagen.
Tratamiento de la cadena completa
En los anteriores párrafos, se han precisado principalmente los conceptos y la descripción del procedimiento y el sistema según la invención para proporcionar a programas de tratamiento de imágenes 4 informaciones formateadas 15 relacionadas con las características de los aparatos de captura de imagen 1.
En los párrafos siguientes, se ampliará la definición de conceptos y se completará la descripción del procedimiento y del sistema según la invención para proporcionar a los programas de tratamiento de imágenes 4 informaciones formateadas 15 relacionadas con las características de los medios de restitución de imagen 19. Así, se habrá expuesto el tratamiento de una cadena completa.
El tratamiento de la cadena completa permite:
- mejorar la calidad de la imagen 103 de un extremo al otro de la cadena, para obtener una imagen restituida 191, corrigiendo los defectos del aparato de captura de imagen 1 y del medio de restitución de imagen 19, o
- utilizar ópticas de menor calidad y de menor coste en un proyector de vídeo en combinación con un programa de mejora de la calidad de las imágenes.
Definiciones relacionadas con los medios de restitución de imagen
Apoyándose en las figuras 2 y 6, se describirá a continuación la consideración de las informaciones formateadas 15 de las características de un medio de restitución de imágenes 19, como una impresora, una pantalla de visualización o un proyector.
Los complementos o modificaciones que haya que aportar a las definiciones en el caso de un medio de restitución de imagen 19 puede extrapolarlos mutatis mutandis un experto a partir de las definiciones proporcionadas en el caso de un aparato de captura de imagen 1. Sin embargo, con la finalidad de ilustrar este método, se describirán a continuación haciendo referencia a la figura 6 los principales complementos o modificaciones.
Se denomina características de restitución utilizadas 95 a las características intrínsecas de medios de restitución de imagen 19, las características del medio de restitución de imagen 19 en el momento de la restitución de imagen y las preferencias del usuario en el momento de la restitución de imágenes. Especialmente en el caso de un proyector, las características de restitución utilizas 95 incluyen la forma y la posición de la pantalla utilizada. La noción de características utilizadas de restitución 95 es una ampliación de la noción de característica varia-
ble.
Se denomina modelo de transformación configurable de restitución 97 (o de manera resumida, transformación configurable de restitución 97) a una transformación matemática semejante al modelo de transformación configurable 12.
Se denomina imagen corregida de restitución 94 a la imagen obtenida por aplicación de la transformación configurable de restitución 97 a la imagen 103.
Se denomina proyección matemática de restitución 96 a una proyección matemática que asocia a una imagen corregida de restitución 94, una imagen matemática de restitución 92 en la superficie matemática de restitución geométricamente asociada a la superficie del soporte de restitución 190. Los puntos matemáticos de restitución de la superficie tienen una forma, una posición, un color y una intensidad calculados a partir de la imagen corregida de restitución 94.
Se denomina proyección real de restitución 90 a una proyección que asocia a una imagen 103 una imagen restituida 191. Los valores de los píxeles de la imagen 103 se convierten, mediante la electrónica de los medios de restitución 19, en una señal que pilota el modulador de medios de restitución 19. Se obtienen puntos reales de restitución en el soporte de restitución 190. Dichos puntos reales de restitución están dotados de una forma, un color, una intensidad y una posición. El fenómeno de agrupación de píxeles 104 previamente descrito en el caso de un aparato de captura de imagen 1 no se produce en el caso de un medio de restitución de imagen. En cambio, se produce un fenómeno inverso que hace que aparezcan especialmente derechos como peldaños de una escalera.
Se denomina diferencia de restitución 93 a la diferencia entre la imagen restituida 191 y la imagen matemática de restitución 92. Esta diferencia de restitución 93 se obtiene mutatis mutandis como la diferencia 73.
Se denomina referencia de restitución a una imagen 103 de la que se conocen los valores de píxeles 104.
Se denomina mejor transformación de restitución para una referencia de restitución y características utilizadas de restitución 95 a la que permite transformar la imagen 103 en una imagen corregida de restitución 94, como su proyección matemática de restitución 92, y presenta la menor diferencia de restitución 93 con la imagen restituida 191.
Los procedimientos de calibrado de restitución y de diseño de óptica numérica de restitución son comparables a los procedimientos de calibración y de diseño de óptica numérica en el caso de un aparato de captura de imagen 1. No obstante, algunas etapas incluyen diferencias, en concreto, las siguientes:
- la etapa de seleccionar una referencia de restitución.
- la etapa de efectuar la restitución de dicha referencia de restitución.
- la etapa de calcular la mejor transformación de restitución.
Las informaciones formateadas 15 relacionadas con un aparato de captura de imagen 1 y las relacionadas con un medio de restitución de imagen 19 pueden empalmarse para una misma imagen.
Anteriormente se ha descrito la noción de campo en el caso de un aparato de captura de imagen 1. Esta noción se aplica también mutatis mutandis en el caso de medios de restitución de imagen 19. Sin embargo, los parámetros del método de cuantificación se sustituyen por los parámetros del método de reconstitución de la señal, a saber: la geometría del soporte de restitución 190 y su posición, una función que representa la distribución espacial y temporal del ruido del medio de restitución de imágenes 19.
Generalización de conceptos
Los rasgos técnicos que componen la invención y que figuran en las reivindicaciones se han descrito, definido, ilustrado haciendo referencia fundamentalmente a aparatos de captura de imagen de tipo numérico, es decir, que producen imágenes numéricas. Es fácilmente entendible que los mismos rasgos técnicos se aplican en el caso de los aparatos de captura de imagen que sean la combinación de un aparato argéntico (un aparato fotográfico o cinematográfico que utilice películas sensibles argénticas, negativas o invertibles) y un escáner que produzca una imagen numérica a partir de películas sensibles desarrolladas. Sin ninguna duda, en este caso procede adaptar, al menos, algunas de las definiciones utilizadas. Estas adaptaciones están al alcance del experto. Con el fin de poner de manifiesto el carácter evidente de tales adaptaciones, se señalará simplemente que las nociones de píxel y de valor de píxel ilustradas haciendo referencia a la figura 3 deben aplicarse, en el caso de la combinación de un aparato argéntico y de un escáner, a una zona elemental de la superficie de la película una vez que ésta se haya enumerado por medio del escáner. Tales transposiciones de las definiciones se caen por su propio peso y pueden ampliarse en la noción de configuración utilizada. A la lista de subconjuntos amovibles del aparato de captura de imagen 1 que compone la configuración utilizada se puede añadir, por ejemplo, el tipo de película fotográfica efectivamente utilizada en el aparato argéntico.
Realización del sistema
La figura 25 representa un ejemplo de realización del sistema que permite poner en práctica la invención anteriormente descrita. Este sistema incluye los primeros medios de cálculo MC1 relativos a una imagen I salida de un aparato APP1 o de una cadena de aparatos P3 que poseen características variables. Estos medios de cálculo tal y como se ha descrito anteriormente, calcularán, a partir de las características de los aparatos, características variables según la imagen y los valores asociados (focal, puesta a punto, velocidad, apertura...) de las informaciones formateadas medidas IFM. Los segundos medios de cálculos MC2 calcularán las informaciones formateadas extendidas a partir de las informaciones formateadas medidas y características variables y sus valores asociados, de manera que las informaciones formateadas extendidas sean más compactas en memoria y permitan, llegado el caso, estimar informaciones relativas en defecto de distorsión en otros puntos distintos a los puntos relativos a las informaciones formateadas medidas. Las informaciones formateadas medidas IFM y las informaciones formateadas extendidas IFE están en proporción con los medios de selección MS1 para producir informaciones formateadas IF.
Aplicación de la invención a la reducción de coste
Se llama reducción de coste a un procedimiento y sistema para disminuir el coste de un aparato o de una cadena de aparatos P3, especialmente el coste de la óptica de un aparato o de una cadena de aparatos; el procedimiento consiste en:
-disminuir el número de lentes, o
-simplificar la forma de las lentes, o
-crear o escoger en un catálogo una óptica que tenga defectos P5 más importantes que los deseados para el aparato o la cadena de aparatos, o
-utilizar materiales, componentes, tratamientos o procedimientos de fabricación menos costosos para el aparato o la cadena de aparatos añadiendo defectos P5.
El procedimiento y el sistema, según la invención, pueden utilizarse para disminuir el coste de un aparato o de una cadena de aparatos: se puede idear una óptica numérica, producir informaciones formateadas IF relativas a los defectos del aparato o a la cadena de aparatos, utilizar estas informaciones formateadas para permitir a los medios de tratamiento de imagen, integrados o no, que modifiquen la calidad de las imágenes procedentes del aparato o de la cadena de aparatos o destinadas a los mismos, de manera que la combinación del aparato o la cadena de aparatos y los medios de tratamiento de imagen permitan capturar, modificar o restituir imágenes de la calidad deseada a un coste reducido.

Claims (20)

1. Procedimiento para producir informaciones formateadas (IF) relacionadas con los aparatos (App1, App2, App3) de una cadena de aparatos (APP1); dicha cadena de aparatos incluye, en especial, como mínimo, un aparato de captura de imagen (App1) o, al menos, un aparato de restitución de imagen (APP2); dicho aparato permite capturar o restituir una imagen (I) en un soporte (SC); dicho aparato incluye, al menos, una característica fija o una característica variable según la imagen (I); dicha característica fija o característica variable es susceptible de estar asociada a uno o varios valores de características, especialmente la focal o la puesta a punto y sus valores de características asociadas; dicho procedimiento incluye la etapa de:
- producir informaciones formateadas (IF) relacionadas con las distorsiones geométricas de, al menos, un aparato de dicha cadena.
- producir informaciones formateadas medidas (IFM1 a IFMm) relacionadas con las distorsiones geométricas de dicho aparato a partir de un campo medido (D(H)); dichas informaciones formateadas (IF) pueden incluir dichas informaciones formateadas medidas.
- producir informaciones formateadas extendidas (IFE1 a IFEm) relacionadas con las distorsiones geométricas de dicho aparato a partir de dichas informaciones formateadas medidas (IFM1 a IFMm); dichas informaciones formateadas pueden incluir dichas informaciones formateadas extendidas; dichas informaciones formateadas extendidas presentan una desviación (14) en relación con dichas informaciones formateadas medidas, y dicho procedimiento incluye un primer algoritmo de cálculo (AC1) que permite obtener dicho campo medido D(H) a partir de un sistema de referencia(M)que consta de puntos característicos (PP1, PPi, PPj, PPm) y una referencia virtual (R) compuesta por puntos de referencia (PR1, PRi, PRj, PRm) sobre una superficie de referencia (SR); dicho primer algoritmo de cálculo (AC1) incluye la etapa de capturar o restituir dicho sistema de referencia (M) por medio de dicho aparato para producir una imagen (I) de dichos puntos característicos en dicho soporte (SC); la imagen de un punto característico (PP1, PPi, PPj, PPm) se denominará en adelante el punto característico de imagen (PT1, PTi, PTj, PTm); dicho primer algoritmo de cálculo (AC2) incluye además:
- la etapa de establecer una biyección entre dichos puntos característicos de imágenes (PT1, Pti, PTj, PTm) y dichos puntos de referencia.
- la etapa de seleccionar cero, una o varias características variables entre el conjunto de dichas características variables, en adelante llamadas las características variables seleccionadas.
dicho campo medido (D(H)) está compuesto por:
- el conjunto de pares constituidos por uno de dichos puntos de referencia (PRm) y por un punto característico de imagen (PTm) asociado por dicha biyección.
- el valor, para dicha imagen (I), de cada una de dichas características variables seleccionadas.
2. Procedimiento según la reivindicación 1; dicho procedimiento incluye además la etapa de elegir una proyección matemática (H(PRj)), especialmente una homografía, entre dicho soporte (SC) y dicha superficie de referencia (SR);
dicho campo medido (D(H)) está compuesto por el valor, para dicha imagen (I), de cada una de dichas características variables seleccionadas y para cada punto de referencia (PRi, PRm):
- por el par constituido por el punto de referencia (PRj) y dicha proyección matemática (H(PRj)), en dicha superficie de referencia (SR), por el punto característico de imagen (PTj) asociado por dicha biyección a dicho punto de referencia (PRj).
- por el par constituido por el punto característico de imagen (PTj) asociado por dicha biyección a dicho punto de referencia (PRj) y dicha proyección matemática (H(PRj)), en dicho soporte (SC), de dicho punto de referencia (PRj).
3. Procedimiento según una reivindicación cualquiera 1 ó 2; dicho procedimiento incluye además la etapa de obtener dichas informaciones formateadas extendidas relativas a un punto de referencia cualquiera (PQRi) en dicha superficie de referencia (SR) o a un punto característico de imagen cualquiera (PQTi) de dicho soporte (SC), deduciendo dichas informaciones formateadas, relativas a dicho punto de referencia cualquiera o a dicho punto característico de imagen cualquiera, a partir de dichas informaciones formateadas medidas.
4. Procedimiento según la reivindicación 1, 2 ó 3; dicho procedimiento es tal que dichas informaciones formateadas, producidas a partir de dichas informaciones formateadas medidas, se representan mediante los parámetros de un modelo configurable elegido entre un conjunto de modelos configurables (SP, 12, 97), especialmente un conjunto de polinomios; dicho procedimiento incluye además la etapa de seleccionar dicho modelo configurable en dicho conjunto de modelos configurables:
- definiendo una desviación máxima.
- ordenando dichos modelos configurables de dicho conjunto de modelos configurables según su grado de complejidad de utilización.
- eligiendo el primero de los modelos configurables de dicho conjunto de modelos configurables ordenado para el que dicha desviación (14) sea inferior a dicha desviación máxima.
5. Procedimiento según una reivindicación cualesquiera 1 a 4; dichas informaciones formateadas extendidas son dichas informaciones formateadas medidas.
6. Procedimiento según una de las reivindicaciones cualesquiera 1 a 5; dicho procedimiento es tal que dicho aparato de dicha cadena de aparatos presenta, al menos, una característica variable según la imagen, especialmente la focal o la puesta a punto; cada característica variable es susceptible de estar asociada a un valor para formar una combinación constituida por el conjunto de dichas características variables y dichos valores;
dicho procedimiento incluye además las etapas siguientes:
- la etapa de seleccionar combinaciones predeterminadas.
- la etapa de calcular informaciones formateadas medidas, especialmente utilizando dicho primer algoritmo de cálculo (AC2) para cada una de dichas combinaciones predeterminadas así seleccionadas.
7. Procedimiento según la reivindicación 6; se llama argumento, según el caso a:
- un punto de referencia cualquiera (PQRi) en dicha superficie de referencia (SR) y una combinación, o
- a un punto característico de imagen cualquiera (PQTi) de dicho soporte (SC) y a una combinación;
dicho procedimiento incluye además la etapa de deducir dichas informaciones formateadas extendidas relativas a un argumento cualquiera a partir de dichas informaciones formateadas medidas.
8. Procedimiento según una reivindicación cualquiera de las anteriores; dicho procedimiento, que incluye además la etapa de seleccionar en dicho soporte (SC) cuatro puntos característicos de imágenes (PTm. 1 a 4) como el cuadrilátero definido por dichos cuatro puntos característicos de imágenes, es el que tiene una superficie máxima y un centro de gravedad situado cerca del centro geométrico de la imagen (I); dicha proyección matemática es la homografía que transforma dichos cuatro puntos característicos de imágenes en los puntos de referencia (PRm. 1 a 4) asociados por dicha biyección a los cuatro puntos característicos de las imágenes.
9. Procedimiento según una reivindicación cualquiera de las anteriores; dicha imagen es una imagen en color compuesta por varios planos de color; dicho procedimiento incluye además la etapa de producción de dichas informaciones formateadas medidas utilizando dicho primer algoritmo de cálculo (AC2) para, al menos, dos de dichos planos de color, empleando la misma proyección matemática mencionada para cada uno de dichos planos de
color.
10. Procedimiento según una reivindicación cualquiera de las anteriores; dicha imagen es una imagen en color compuesta por varios planos de color (PTR, PTV, PTB); dicho procedimiento incluye además la etapa de producción de dichas informaciones formateadas medidas utilizando dicho primer algoritmo de cálculo (AC2) para, al menos, uno de dichos planos de color, empleando la misma referencia virtual para cada uno de dichos planos de color;
de manera que sea posible utilizar dichas informaciones formateadas o informaciones formateadas medidas para corregir las aberraciones cromáticas del aparato.
11. Sistema para producir informaciones formateadas (IF) relacionadas con defectos de aparatos (App1, App2, App3) de una cadena de aparatos (APP1); dicha cadena de aparatos incluye especialmente, al menos, un aparato de captura de imagen (App1) o, al menos, un aparato de restitución de imagen (APP2); dicho aparato permite capturar o restituir una imagen (I) en un soporte (SC); dicho aparato consta de, como mínimo, una característica fija o una característica variable según la imagen (I); dicha característica fija o característica variable es susceptible de estar asociada a uno o varios valores de características, especialmente la focal o la puesta a punto y sus valores de características asociadas; dicho sistema incluye:
medios de cálculo para producir informaciones formateadas relacionadas con las distorsiones geométricas de, al menos, un aparato de dicha cadena, medios de cálculo (MC1) para producir informaciones formateadas medidas relacionadas con las distorsiones geométricas de dicho aparato a partir de un campo medido (D(H)); dichas informaciones formateadas pueden incluir dichas informaciones formateadas medidas, medios de cálculo (MC2) para producir informaciones formateadas extendidas (IFE1 a IFEm) relacionadas con las distorsiones geométricas de dicho aparato a partir de dichas informaciones formateadas extendidas (IFM1 a IFMm); dichas informaciones formateadas pueden incluir informaciones extendidas; dichas informaciones formateadas extendidas presentan una desviación en relación con dichas informaciones formateadas medidas y medios de cálculo que emplean un primer algoritmo de cálculo (AC1) que permite obtener dicho campo medido (D(H) a partir de un sistema de referencia (M) que consta de puntos característicos (PP1, PPi, PPj, PPm) y de una referencia virtual (R) compuesta por puntos de referencia (PR1, PRi, PRj, PRm) en una superficie de referencia (SR);
dicho aparato de captura de imagen o dicho aparato de restitución de imagen incluye medios de captura o medios de restitución de dicho sistema de referencia (M) que permiten producir una imagen (I) de dichos puntos característicos (PP) en dicho soporte (SC); la imagen de un punto característico (PP) se denomina en adelante el punto característico de imagen (PT);
dichos medios de cálculo de dicho primer algoritmo de cálculo (AC1) incluyen además medios de tratamiento informático para:
- establecer una biyección entre dichos puntos característicos de imágenes (PT1, PTi, PTj, PTm) y dichos puntos de referencia (PR1, PRi, PRj, PRm).
- seleccionar cero, una o varias características variables entre el conjunto de dichas características variables, en adelante llamadas las características variables seleccionadas.
dicho campo medido (D(H) está compuesto por:
- el conjunto de pares constituidos por uno de dichos puntos de referencia (PRm) y un punto característico de imagen (PTm) asociado por dicha biyección, y
- el valor, para dicha imagen (I), de cada una de dichas características variables seleccionadas.
12. Sistema según la reivindicación 11; dicho sistema incluye además medios de análisis para elegir una proyección matemática (H(PRj)), especialmente una homografía, entre dicho soporte (SC) y dicha superficie de referencia
(SR);
dicho campo medido (D(H)) está compuesto por el valor, para dicha imagen (I), de cada una de dichas características variables seleccionadas y para cada punto de referencia (PR):
- por el par constituido por el punto de referencia (PRm) y dicha proyección matemática (H(PRj)), en dicha superficie de referencia (SR), por el punto característico de imagen (PTj) asociado por dicha biyección a dicho punto de referencia (PRj), o
- por el par constituido por el punto característico de imagen (PTj) asociado por dicha biyección a dicho punto de referencia (PRj) y dicha proyección matemática, en dicho soporte (SC), de dicho punto de referencia.
13. Sistema según la reivindicación 11 ó 12; dicho sistema incluye además medios de tratamiento informático para obtener dichas informaciones formateadas extendidas relativas a un punto de referencia cualquiera (PQRi) sobre dicha superficie de referencia (SR) o a un punto característico de imagen cualquiera (PQTi) de dicho soporte (SC), deduciendo dichas informaciones formateadas, relativas a dicho punto de referencia cualquiera o a dicho punto característico de imagen cualquiera, a partir de dichas informaciones formateadas medidas.
14. Sistema según la reivindicación 11, 12 ó 13; dicho sistema es tal que dichas informaciones formateadas, producidas a partir de dichas informaciones formateadas medidas, se representan mediante los parámetros de un modelo configurable (SP) elegido entre un conjunto de polinomios; dicho sistema incluye además medios de selección para seleccionar dicho modelo configurable en dicho conjunto de modelos configurables; dichos medios de selección incluyen medios de tratamiento informático para:
- definir una desviación máxima.
- ordenar dichos modelos configurables de dicho conjunto de modelos configurables según su grado de complejidad de utilización.
- elegir el primero de los modelos configurables de dicho conjunto de modelos configurables ordenado para el que dicha desviación sea inferior a la desviación máxima.
15. Sistema según una de las reivindicaciones 11 a 14; dichas informaciones formateadas extendidas son dichas informaciones formateadas medidas.
16. Sistema según una de las reivindicaciones 11 a 15; dicho sistema es tal que dicho aparato de dicha cadena de aparato presenta, como mínimo, una característica variable según la imagen, especialmente la focal o la puesta a punto; cada característica variables es susceptible de estar asociada a una variable para formar una combinación constituida por el conjunto de dichas características variables y dichos valores;
dicho sistema incluye además:
- medios de selección para seleccionar combinaciones predeterminadas.
- medios de cálculo para calcular informaciones formateadas medidas, especialmente utilizando dicho primer algoritmo de cálculo (AC1) para cada una de dichas combinaciones predeterminadas así seleccionadas.
17. Sistema según la reivindicación 16; un argumento designa, según el caso:
- un punto de referencia cualquiera (PQRj) en dicha superficie de referencia (SR) y una combinación, o
- un punto característico de imagen cualquiera (PQTj) de dicho soporte (SC) y una combinación;
dicho sistema incluye además medios de tratamiento informático (MC2) para deducir dichas informaciones formateadas extendidas relativas a un argumento cualquiera a partir de dichas informaciones formateadas medidas.
18. Sistema según una de las reivindicaciones 11 a 17; dicho sistema, que incluye además medios de selección para seleccionar en dicho soporte (SC) cuatro puntos característicos de imágenes (PTm. 1 a 4), tales como el cuadrilátero definido por dichos cuatros puntos característicos de imágenes, que es el que tiene una superficie máxima y un centro de gravedad situado cerca del centro geométrico de la imagen (I); dicha proyección matemática es la homografía que transforma dichos cuatro puntos característicos de imágenes en los puntos de referencia asociados por dicha biyección a los mencionados cuatro puntos característicos de las imágenes.
19. Sistema según una de las reivindicaciones 11 a 18; dicha imagen es una imagen en color compuesta por varios planos de color; dicho sistema incluye además medios de tratamiento informático para producir dichas informaciones formateadas medidas empleando dicho primer algoritmo de cálculo (AC1) para, al menos, dos de los mencionados planos de color, utilizando la misma proyección matemática mencionada para cada uno de dichos planos de color, de manera que sea posible utilizar dichas informaciones formateadas o informaciones formateadas medidas para corregir las distorsiones o las aberraciones cromáticas de dicho aparato.
20. Sistema según una de las reivindicaciones 11 a 19; dicha imagen es una imagen en color compuesta por varios planos de color; dicho sistema incluye además medios de tratamiento informático para producir dichas informaciones formateadas medidas empleando el mencionado primer algoritmo de cálculo (AC1) para, como mínimo, uno de los planos de color, utilizando la misma referencia mencionada virtual para cada uno de los mencionados planos de color, de manera que sea posible utilizar dichas informaciones formateadas o informaciones formateadas medidas para corregir las aberraciones cromáticas de dicho aparato.
ES02743348T 2001-07-12 2002-06-05 Procedimiento y sistema para producir informaciones formateadas relacionadas con las distorsiones geometricas. Expired - Lifetime ES2282429T3 (es)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
FR0109291 2001-07-12
FR0109292 2001-07-12
FR0109291A FR2827459B1 (fr) 2001-07-12 2001-07-12 Procede et systeme pour fournir a des logiciels de traitement d'image des informations formatees liees aux caracteristiques des appareils de capture d'image et/ou des moyens de restitution d'image
FR0109292A FR2827460B1 (fr) 2001-07-12 2001-07-12 Procede et systeme pour fournir, selon un format standard, a des logiciels de traitement d'images des informations liees aux caracteristiques des appareils de capture d'image et/ou des moyens de resti
FR0112664 2001-10-02
FR0112664A FR2830401B1 (fr) 2001-10-02 2001-10-02 Procede et systeme pour corriger les aberrations chromatiques d'une image couleur realisee au moyen d'un systeme optique

Publications (1)

Publication Number Publication Date
ES2282429T3 true ES2282429T3 (es) 2007-10-16

Family

ID=27248787

Family Applications (2)

Application Number Title Priority Date Filing Date
ES02747503T Expired - Lifetime ES2324817T3 (es) 2001-07-12 2002-06-05 Procedimiento y sistema para calcular una imagen transformada a partir de una imagen digital.
ES02743348T Expired - Lifetime ES2282429T3 (es) 2001-07-12 2002-06-05 Procedimiento y sistema para producir informaciones formateadas relacionadas con las distorsiones geometricas.

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES02747503T Expired - Lifetime ES2324817T3 (es) 2001-07-12 2002-06-05 Procedimiento y sistema para calcular una imagen transformada a partir de una imagen digital.

Country Status (9)

Country Link
US (2) US7356198B2 (es)
EP (3) EP1523730B1 (es)
JP (3) JP4159986B2 (es)
KR (1) KR100940149B1 (es)
CN (3) CN100345158C (es)
AT (2) ATE354837T1 (es)
DE (2) DE60218317T2 (es)
ES (2) ES2324817T3 (es)
WO (3) WO2003007237A1 (es)

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4159986B2 (ja) 2001-07-12 2008-10-01 ドゥ ラブズ デジタル画像から変換された画像を計算するための方法およびシステム
CN1273931C (zh) * 2001-07-12 2006-09-06 杜莱布斯公司 改进图象质量的方法和***
AU2003298491A1 (en) * 2002-10-22 2004-05-13 Artoolworks Tracking a surface in a 3-dimensional scene using natural visual features of the surface
WO2004063989A2 (en) * 2003-01-16 2004-07-29 D-Blur Technologies Ltd. Camera with image enhancement functions
US7773316B2 (en) * 2003-01-16 2010-08-10 Tessera International, Inc. Optics for an extended depth of field
US8294999B2 (en) 2003-01-16 2012-10-23 DigitalOptics Corporation International Optics for an extended depth of field
JP2004234379A (ja) 2003-01-30 2004-08-19 Sony Corp 画像処理方法、画像処理装置及び画像処理方法を適用した撮像装置、表示装置
JP4010254B2 (ja) * 2003-02-06 2007-11-21 ソニー株式会社 画像記録再生装置、画像撮影装置及び色収差補正方法
US7596286B2 (en) * 2003-08-06 2009-09-29 Sony Corporation Image processing apparatus, image processing system, imaging apparatus and image processing method
US7505946B2 (en) * 2004-03-31 2009-03-17 Microsoft Corporation High performance content alteration architecture and techniques
US7583858B2 (en) * 2004-10-12 2009-09-01 Eastman Kodak Company Image processing based on direction of gravity
WO2006047816A1 (en) * 2004-11-01 2006-05-11 Eye Diagnostics Pty Ltd Devic and method for investigating changes in the eye
FR2881011B1 (fr) 2005-01-19 2007-06-29 Dxo Labs Sa Procede de realisation d'un appareil de capture et/ou restitution d'images et appareil obtenu par ce procede
US7683950B2 (en) * 2005-04-26 2010-03-23 Eastman Kodak Company Method and apparatus for correcting a channel dependent color aberration in a digital image
FR2889321B1 (fr) * 2005-07-26 2008-02-01 Sagem Comm Procede de correction automatique de photographies numeriques
US20070058881A1 (en) * 2005-09-12 2007-03-15 Nishimura Ken A Image capture using a fiducial reference pattern
US8311311B2 (en) 2005-10-31 2012-11-13 Mitutoyo Corporation Optical aberration correction for machine vision inspection systems
US7724942B2 (en) * 2005-10-31 2010-05-25 Mitutoyo Corporation Optical aberration correction for machine vision inspection systems
FR2895104A1 (fr) * 2005-12-19 2007-06-22 Dxo Labs Sa Procede pour fournir des donnees a un moyen de traitement numerique
FR2895102B1 (fr) * 2005-12-19 2012-12-07 Dxo Labs Procede pour traiter un objet dans une plateforme a processeur(s) et memoire(s) et plateforme utilisant le procede
FR2895103B1 (fr) * 2005-12-19 2008-02-22 Dxo Labs Sa Procede et systeme de traitement de donnees numeriques
JP2007172059A (ja) * 2005-12-19 2007-07-05 Toshiba Corp 紙葉類判別装置、および紙葉類処理装置
US7881563B2 (en) * 2006-02-15 2011-02-01 Nokia Corporation Distortion correction of images using hybrid interpolation technique
US20070239417A1 (en) * 2006-03-31 2007-10-11 D-Blur Technologies Ltd. Camera performance simulation
US7847831B2 (en) * 2006-08-30 2010-12-07 Panasonic Corporation Image signal processing apparatus, image coding apparatus and image decoding apparatus, methods thereof, processors thereof, and, imaging processor for TV conference system
US7792357B2 (en) * 2007-05-30 2010-09-07 Microsoft Corporation Chromatic aberration correction
US7809208B2 (en) * 2007-05-30 2010-10-05 Microsoft Corporation Image sharpening with halo suppression
US9177368B2 (en) 2007-12-17 2015-11-03 Nvidia Corporation Image distortion correction
US9379156B2 (en) 2008-04-10 2016-06-28 Nvidia Corporation Per-channel image intensity correction
JP4816704B2 (ja) * 2008-09-25 2011-11-16 富士ゼロックス株式会社 指示システム、指示プログラム
JP5153593B2 (ja) * 2008-12-02 2013-02-27 株式会社Pfu 画像処理装置および画像処理方法
US8749662B2 (en) 2009-04-16 2014-06-10 Nvidia Corporation System and method for lens shading image correction
FR2948521B1 (fr) 2009-07-21 2012-01-27 Dxo Labs Procede d'estimation d'un defaut d'un systeme de capture d'images et systemes associes
US8248511B2 (en) * 2009-09-30 2012-08-21 Ricoh Co., Ltd. Dual-mode extended depth-of-field imaging systems
JP5479225B2 (ja) * 2010-05-27 2014-04-23 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
WO2012007059A1 (en) 2010-07-16 2012-01-19 Robert Bosch Gmbh Method for lateral chromatic aberration detection and correction
DE112010005744B4 (de) 2010-07-16 2021-09-09 Robert Bosch Gmbh Verfahren für die Detektion und Korrektur einer lateralen chromatischen Aberration
JP5582935B2 (ja) 2010-09-22 2014-09-03 富士フイルム株式会社 撮像モジュール
CN103377467B (zh) * 2012-04-25 2017-03-29 华晶科技股份有限公司 图像补偿的方法
US9516239B2 (en) 2012-07-26 2016-12-06 DePuy Synthes Products, Inc. YCBCR pulsed illumination scheme in a light deficient environment
IN2015MN00020A (es) 2012-07-26 2015-10-16 Olive Medical Corp
BR112015001555A2 (pt) 2012-07-26 2017-07-04 Olive Medical Corp vídeo contínuo em ambiente com deficiência de luz
US9798698B2 (en) 2012-08-13 2017-10-24 Nvidia Corporation System and method for multi-color dilu preconditioner
EP2896645B1 (en) 2012-09-11 2019-12-11 Nippon Shokubai Co., Ltd. Method for manufacturing polyacrylic acid (polyacrylate)-based water-absorbent agent, and water-absorbent agent
CN104619412B (zh) 2012-09-11 2017-07-11 株式会社日本触媒 聚丙烯酸(盐)系吸水剂的制造方法及其吸水剂
US9508318B2 (en) 2012-09-13 2016-11-29 Nvidia Corporation Dynamic color profile management for electronic devices
US9307213B2 (en) 2012-11-05 2016-04-05 Nvidia Corporation Robust selection and weighting for gray patch automatic white balancing
WO2014144947A1 (en) 2013-03-15 2014-09-18 Olive Medical Corporation Super resolution and color motion artifact correction in a pulsed color imaging system
JP6404318B2 (ja) 2013-03-15 2018-10-10 デピュイ・シンセス・プロダクツ・インコーポレイテッド レーザーパルスの積算光エネルギー制御
JP6542194B2 (ja) 2013-03-15 2019-07-10 デピュイ・シンセス・プロダクツ・インコーポレイテッド ノイズ認識のエッジ強調
CA2906821A1 (en) 2013-03-15 2014-09-18 Olive Medical Corporation Scope sensing in a light controlled environment
AU2014233188A1 (en) 2013-03-15 2015-11-05 DePuy Synthes Products, Inc. Comprehensive fixed pattern noise cancellation
US9418400B2 (en) 2013-06-18 2016-08-16 Nvidia Corporation Method and system for rendering simulated depth-of-field visual effect
US9756222B2 (en) 2013-06-26 2017-09-05 Nvidia Corporation Method and system for performing white balancing operations on captured images
US9826208B2 (en) 2013-06-26 2017-11-21 Nvidia Corporation Method and system for generating weights for use in white balancing an image
DE102013012988A1 (de) * 2013-08-03 2015-02-05 Carl Zeiss Microscopy Gmbh Verfahren zur Kalibrierung eines digitalen optischen Abbildungssystems, Verfahren zur Korrektur von Abbildungsfehlern in einem digitalen optischen Abbildungssystem, sowie digitales optisches Abblildungssystem
EP4252728A3 (en) 2013-12-20 2024-01-10 Nippon Shokubai Co., Ltd. Water absorbing agent based on polyacrylic acid and/or a salt thereof
JP6573960B2 (ja) 2014-03-21 2019-09-11 デピュイ・シンセス・プロダクツ・インコーポレイテッド イメージングセンサ用のカードエッジコネクタ
US10262400B2 (en) 2014-10-31 2019-04-16 Huawei Technologies Co., Ltd. Image processing method and device using reprojection error values
KR102328020B1 (ko) * 2015-04-03 2021-11-17 한국전자통신연구원 하나의 룩업 테이블을 이용한 파노라마 영상 출력 시스템 및 방법
EP3318324B1 (en) 2015-07-01 2021-08-25 Nippon Shokubai Co., Ltd. Particulate water absorbing agent
CN109643125B (zh) * 2016-06-28 2022-11-15 柯尼亚塔有限公司 用于训练自动驾驶***的逼真的3d虚拟世界创造与模拟
EP4254035A3 (en) * 2016-10-12 2023-12-06 Samsung Electronics Co., Ltd. Method, apparatus, and recording medium for processing image
JP2021139718A (ja) * 2020-03-04 2021-09-16 日本発條株式会社 検査システムの点検方法、検査システム、およびコンピュータプログラム。

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60120473A (ja) * 1983-12-02 1985-06-27 Hitachi Ltd 衛星画像補正処理方法
US5144687A (en) * 1985-03-02 1992-09-01 Kabushika Kaisha Toshiba Image processing apparatus including spatial shift variant filter
FR2661061B1 (fr) * 1990-04-11 1992-08-07 Multi Media Tech Procede et dispositif de modification de zone d'images.
GB2256989B (en) * 1991-06-21 1995-02-08 Sony Broadcast & Communication Video image capture apparatus
US5905530A (en) * 1992-08-24 1999-05-18 Canon Kabushiki Kaisha Image pickup apparatus
JP3035416B2 (ja) 1992-11-18 2000-04-24 キヤノン株式会社 撮像装置及び画像再生装置及び映像システム
US5353056A (en) * 1992-10-27 1994-10-04 Panasonic Technologies, Inc. System and method for modifying aberration and registration of images
JPH06205273A (ja) 1993-01-04 1994-07-22 Sony Corp 幾何補正内蔵ビデオカメラ
DE69526635T2 (de) * 1994-12-29 2002-12-05 Koninkl Philips Electronics Nv Bilderzeugungsgerät und Verfahren zur Verbesserung geometrischer optischer Bildverzerrungen
JP3950188B2 (ja) * 1996-02-27 2007-07-25 株式会社リコー 画像歪み補正用パラメータ決定方法及び撮像装置
US6173087B1 (en) 1996-11-13 2001-01-09 Sarnoff Corporation Multi-view image registration with application to mosaicing and lens distortion correction
US6222583B1 (en) 1997-03-27 2001-04-24 Nippon Telegraph And Telephone Corporation Device and system for labeling sight images
EP0878970A3 (en) * 1997-05-16 1999-08-18 Matsushita Electric Industrial Co., Ltd. Imager registration error and chromatic aberration measurement system for a video camera
JPH10319517A (ja) * 1997-05-21 1998-12-04 Konica Corp 画像形成装置、及びレンズ付きフィルムユニットの製造方法
KR19990027149A (ko) * 1997-09-29 1999-04-15 윤종용 스캐너의 블록간 화질현차 보상방법
US6493028B1 (en) * 1997-11-26 2002-12-10 Flashpoint Technology, Inc. Method and system for extending the available image file formats in an image capture device
DE19812028A1 (de) * 1998-03-19 1999-09-23 Heidelberger Druckmasch Ag Verfahren zur Koordinatenumrechnung von Bilddaten mit zufälligem Offset der Bildpunkte
US6173067B1 (en) * 1998-04-07 2001-01-09 Hughes Electronics Corporation System and method for rapid determination of visibility-based terrain properties over broad regions
US6603885B1 (en) * 1998-04-30 2003-08-05 Fuji Photo Film Co., Ltd. Image processing method and apparatus
JP4338155B2 (ja) * 1998-06-12 2009-10-07 キヤノン株式会社 画像処理装置及びその方法、コンピュータ可読メモリ
US6456339B1 (en) * 1998-07-31 2002-09-24 Massachusetts Institute Of Technology Super-resolution display
JP2000125174A (ja) * 1998-10-12 2000-04-28 Fuji Photo Film Co Ltd 画像情報における歪曲収差補正方法および装置
JP2000125175A (ja) 1998-10-16 2000-04-28 Olympus Optical Co Ltd カメラ、画像処理システム、及び記録媒体
JP4095184B2 (ja) 1998-10-29 2008-06-04 キヤノン株式会社 画像処理装置及びその方法
US6538691B1 (en) * 1999-01-21 2003-03-25 Intel Corporation Software correction of image distortion in digital cameras
AU1763801A (en) * 1999-11-12 2001-06-06 Brian S. Armstrong Methods and appparatus for measuring orientation and distance
US6809837B1 (en) 1999-11-29 2004-10-26 Xerox Corporation On-line model prediction and calibration system for a dynamically varying color reproduction device
US6819333B1 (en) * 2000-05-12 2004-11-16 Silicon Graphics, Inc. System and method for displaying an image using display distortion correction
US6816625B2 (en) * 2000-08-16 2004-11-09 Lewis Jr Clarence A Distortion free image capture system and method
JP3429280B2 (ja) * 2000-09-05 2003-07-22 理化学研究所 画像のレンズ歪みの補正方法
TW508538B (en) * 2001-06-14 2002-11-01 Ulead Systems Inc Special effect method of lens using converting mask
JP4159986B2 (ja) 2001-07-12 2008-10-01 ドゥ ラブズ デジタル画像から変換された画像を計算するための方法およびシステム
US7092581B2 (en) * 2001-11-23 2006-08-15 Imaging Dynamics Company Ltd. Balancing areas of varying density in a digital image

Also Published As

Publication number Publication date
JP4378168B2 (ja) 2009-12-02
EP1421777A1 (fr) 2004-05-26
ATE354837T1 (de) 2007-03-15
JP4630547B2 (ja) 2011-02-09
DE60218317D1 (de) 2007-04-05
WO2003007238A1 (fr) 2003-01-23
CN1526118A (zh) 2004-09-01
CN1531711A (zh) 2004-09-22
CN100371950C (zh) 2008-02-27
EP1412918B1 (fr) 2007-02-21
DE60231752D1 (de) 2009-05-07
EP1412918A1 (fr) 2004-04-28
JP2004534490A (ja) 2004-11-11
KR20040043156A (ko) 2004-05-22
US20040247195A1 (en) 2004-12-09
JP4159986B2 (ja) 2008-10-01
ES2324817T3 (es) 2009-08-17
EP1421777B1 (fr) 2017-04-19
JP2004535033A (ja) 2004-11-18
CN100346633C (zh) 2007-10-31
JP2004534489A (ja) 2004-11-11
EP1523730A1 (fr) 2005-04-20
WO2003007592A1 (fr) 2003-01-23
CN1526231A (zh) 2004-09-01
US20040240750A1 (en) 2004-12-02
US7356198B2 (en) 2008-04-08
WO2003007237A1 (fr) 2003-01-23
EP1523730B1 (fr) 2009-03-25
DE60218317T2 (de) 2008-01-03
US7532766B2 (en) 2009-05-12
ATE426868T1 (de) 2009-04-15
KR100940149B1 (ko) 2010-02-03
CN100345158C (zh) 2007-10-24

Similar Documents

Publication Publication Date Title
ES2282429T3 (es) Procedimiento y sistema para producir informaciones formateadas relacionadas con las distorsiones geometricas.
ES2311061T3 (es) Procedimiento y sistema para proporcionar informaciones formateadas a medios de tratamiento de imagenes.
CN110336987B (zh) 一种投影仪畸变校正方法、装置和投影仪
EP3356887B1 (en) Method for stitching together images taken through fisheye lens in order to produce 360-degree spherical panorama
US6983082B2 (en) Reality-based light environment for digital imaging in motion pictures
JP4495041B2 (ja) ピンホール投影により表示面上のレーザポイントと関連付けられるプロジェクタ画素を求める方法
CN110191326B (zh) 一种投影***分辨率扩展方法、装置和投影***
CN110111262A (zh) 一种投影仪畸变校正方法、装置和投影仪
CN104956664B (zh) 校准装置、投影仪以及校准方法
KR20160034847A (ko) 단초점 카메라를 이용하여 디스플레이 시스템을 캘리브레이팅하기 위한 시스템 및 방법
Ma et al. Image formation
JP6367803B2 (ja) オブジェクト空間のオブジェクト点の記述のための方法およびその実施のための結合体
CN107370963B (zh) 图像处理方法、图像处理装置和电子设备
JP7364726B2 (ja) 物体の画像を形成する方法、コンピュータプログラム製品、及びその方法を実行するための画像形成システム
RU2806729C1 (ru) Система и способ реконструкции свойств поверхности и определения положения оцифрованных 3d объектов
FR2827460A1 (fr) Procede et systeme pour fournir, selon un format standard, a des logiciels de traitement d'images des informations liees aux caracteristiques des appareils de capture d'image et/ou des moyens de resti