MX2013003853A - Modelado tridimensional rápido. - Google Patents

Modelado tridimensional rápido.

Info

Publication number
MX2013003853A
MX2013003853A MX2013003853A MX2013003853A MX2013003853A MX 2013003853 A MX2013003853 A MX 2013003853A MX 2013003853 A MX2013003853 A MX 2013003853A MX 2013003853 A MX2013003853 A MX 2013003853A MX 2013003853 A MX2013003853 A MX 2013003853A
Authority
MX
Mexico
Prior art keywords
camera
model
image
images
error
Prior art date
Application number
MX2013003853A
Other languages
English (en)
Inventor
Adam Pryor
Original Assignee
Sungevity
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sungevity filed Critical Sungevity
Publication of MX2013003853A publication Critical patent/MX2013003853A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30184Infrastructure

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Abstract

La invención proporciona un sistema y método para modelado 3D rápido, eficiente, de objetos 3D del mundo real. Un modelo 3D se genera con base en tan poco como dos fotografías de un objeto de interés. Cada una de las dos fotografías se puede obtener usando un dispositivo de cámara de agujero de alfiler convencional. Un sistema de acuerdo con una modalidad de la invención incluye un novedoso modelador de cámara y un método eficiente para corregir errores en los parámetros de la cámara. Otras aplicaciones para la invención incluyen modelado rápido de 3D para películas animadas y de vida real y video juegos, así como para aplicaciones arquitectónicas y médicas.

Description

MODELADO TRIDIMENSIONAL RÁPIDO REFERENCIA CRUZADA CON SOLICITUDES RELACIONADAS Esta solicitud reclama el beneficio de prioridad de la solicitud provisional SN 61/391,069, titulada "Modelado Tridimensional Rápido" que nombra el mismo inventor y presentada en la Oficina de Patentes y Marcas de los Estados Unidos (USPTO) el 7 de Octubre de 2010, cuyo contenido se incorpora en este documento en su totalidad, incluyendo cualquier apéndice, mediante referencia.
ANTECEDENTES DE LA INVENCIÓN Los modelos tridimensionales (3D) representan las tres dimensiones de los objetos del mundo real como datos geométricos almacenados. Los modelos se pueden usar para proporcionar imágenes gráficas bidimensionales (2D) de los objetos del mundo real. La interacción con una imagen 2D proporcionada de un objeto en un dispositivo de visualización simula la interacción con los objetos del mundo real al aplicar cálculos a los datos dimensionales almacenados en el modelo 3D del objeto. La interacción simulada con un objeto es útil cuando la interacción física con el objeto en el mundo real no es posible, peligrosa, impráctica o de otra manera indeseable.
Los métodos convencionales para la producción de un modelo 3D de un objeto incluyen la originación del modelo en una computadora por un artista o ingeniero usando una herramienta de modelado 3D. Este método requiere de tiempo y de un operador capacitado para implementarlo . Los modelos 3D también se pueden producir al escanear el modelo en la computadora a partir de un objeto del mundo real. Un escáner 3D típico recolecta la información de distancia acerca de las superficies de un objeto dentro de su campo de visión. La "fotografía" producida por un escáner 3D describe la distancia a una superficie desde cada punto en la fotografía. Esto permite que el posicionamiento tridimensional de cada punto en la fotografía sea identificado. Esta técnica requiere típicamente de múltiples escaneos de muchas direcciones diferentes para obtener información de todos los lados del objeto. Estas técnicas son útiles en muchas aplicaciones.
Aún, una amplia variedad de aplicaciones se beneficiarían de los sistemas y métodos que podrían generar rápidamente modelos 3D sin la necesidad de la experiencia de ingenieros, y sin basarse en equipos de escaneo costosos y que consumen tiempo. Un ejemplo se basa en el campo de la instalación de sistemas de energía solar. Para seleccionar los paneles apropiados para su instalación en una estructura, e . , el techo de una casa, se necesitan conocer las dimensiones del techo. En las instalaciones convencionales, un técnico es despachado al sitio de la instalación para inspeccionar físicamente y medir el área de instalación para determinar sus dimensiones. La visita a un sitio requiere de tiempo y es costosa. En algunos casos, una visita no es práctica. Por ejemplo, los climas inclementes pueden provocar demoras prolongadas. Un sitio puede estar ubicado a una distancia considerable del técnico más cercano, o de otra forma, puede ser de difícil acceso. Sería útil el tener sistemas y métodos que permitieran la obtención de medidas estructurales a partir de un modelo 3D proporcionado en una pantalla de despliegue, en lugar de viajar a y medir físicamente una estructura del mundo real.
Algunos consumidores son renuentes a equipar sus hogares con sistemas de energía solar debido a la incertidumbre acerca del efecto cosmético de los paneles solares cuando se instalan en un techo. Algunos consumidores preferirían participar en cualquier decisión acerca del lugar en donde se colocan los paneles por otras razones, tales como las preocupaciones acerca de las obstrucciones. Estas preocupaciones pueden presentar obstáculos para la adopción de la energía solar. Lo que se necesita son sistemas y métodos que proporcionen rápidamente representación visual realista de los componentes solares específicos, tal como aparecerían instalados en una casa dada.
Varias modalidades de la invención generan rápidamente modelos 3D que permiten de una medición remota, así como visualización, manipulación e interacción con las imágenes gráficas 3D realistas proporcionadas de los objetos 3D del mundo real.
BREVE DESCRIPCIÓN DE LA INVENCIÓN La invención proporciona un sistema y método para el modelado 3D rápido, eficiente, de los objetos 3D del mundo real. Un modelo 3D se genera con base en tan poco como dos fotografías de un objeto de interés. Cada una de las dos fotografías puede obtenerse usando un dispositivo de cámara de agujero de alfiler. Un sistema de acuerdo con una modalidad de la invención incluye un novedoso modelador de cámara y un método eficiente para corregir los errores en los parámetros de la cámara. Otras aplicaciones para la invención incluyen modelado 3D rápido para imágenes y video juegos animadas y de movimiento de tiempo real, así como para aplicaciones arquitectónicas y médicas.
DESCRIPCIÓN DE LAS FIGURAS Estos y otros objetos, características y ventajas de la invención serán aparentes de una consideración de la siguiente descripción detallada de la invención considerada junto con los dibujos, en los cuales: La Figura 1 es un diagrama que ilustra un ejemplo de implementación de una modalidad del sistema de modelado 3D de la invención.
La Figura 2 es un diagrama de flujo que ilustra un método de acuerdo con una modalidad de la invención.
La Figura 3 ilustra un ejemplo de una primera imagen incluyendo una vista de arriba debajo de un objeto que comprende el techo de una casa, adecuado para su uso en una modalidad ejemplar de la invención; La Figura 4 ilustra un ejemplo de una segunda imagen incluyendo una vista en elevación frontal del techo de la casa ilustrado en la figura 3, adecuado para su uso en algunas modalidades ejemplares de la invención; La Figura 5 es una tabla que comprende puntos de ajuste 2D ejemplares que corresponden a los puntos 3D ejemplares en la primera y segunda imágenes ilustradas en las figuras 3 y 4; La Figura 6 ilustra una lista de ejemplos de puntos 3D que comprende ángulos derechos seleccionados de la primera y segunda imágenes ejemplares ilustradas en las figuras 3 y 4; La Figura 7 ilustra una lista de ejemplos de puntos 3D que comprende planos de tierra seleccionados de la primera y segunda imágenes ejemplares ilustradas en las figuras 3 y 4; La Figura 8 es un diagrama de flujo de un método para generar puntos 3D de acuerdo con una modalidad de la invención; La Figura 9 es un diagrama de flujo de un método para calcular el error de acuerdo con una modalidad de la invención; La Figura 10 es una ilustración conceptual de la función de un ejemplo de generador de parámetro de cámara adecuado para proporcionar parámetros de cámara a un modelador de cámara de acuerdo con modalidades de la invención; La Figura 11 es un diagrama de flujo que ilustra los pasos de un método para generar primeros parámetros iniciales de cámara para un modelador de cámara de acuerdo con una modalidad de la invención; La Figura 12 es un diagrama de flujo que ilustra los pasos de un método para generar segundos parámetros iniciales de cámara para un modelador de cámara de acuerdo con una modalidad de la invención; La Figura 13 ilustra una imagen ejemplar de un objeto desplegado en una interfaz gráfica de usuario (GUI por sus siglas en inglés) ejemplar provista en un dispositivo de despliegue y que permite que un generador genere puntos para el objeto de acuerdo con una modalidad de la invención; La Figura 14 ilustra los pasos para proporcionar un modelo 3D con errores corregidos de un objeto de acuerdo con una modalidad de la invención; La Figura 15 ilustra los pasos para proporcionar un modelo 3D con errores corregidos de un objeto de acuerdo con una modalidad de la invención; La Figura 16 es un diagrama conceptual que ilustra un generador de modelo 3D ejemplar que proporciona una proyección basada en modelo 3D de los puntos de ajuste de la primera y segunda imágenes de acuerdo con una modalidad de la invención; La Figura 17 ilustra un espacio de modelo 3D ejemplar definido por la primera y segunda cámaras ejemplares en donde üna de las primera y segunda cámaras se inicializa de acuerdo con una vista en planta superior de acuerdo con una modalidad de la invención; La Figura 18 ilustra y describe los pasos de un método para proporcionar parámetros de cámara corregidos de acuerdo con una modalidad de la invención; La Figura 19 es un diagrama conceptual que ilustra la relación entre la primera y segunda imágenes, un modelador de cámara y un generador de modelo de acuerdo con una modalidad de la invención; La Figura 20 ilustra los pasos de un método para generar y almacenar un modelo 3D de acuerdo con una modalidad de la invención; La Figura 21 ilustra un sistema de generación de modelos 3D de acuerdo con una modalidad de la invención; La Figura 22 es un diagrama de flujo que ilustra un método para ajustar los parámetros de la cámara de acuerdo con una modalidad de la invención; La Figura 23 es un diagrama de bloque de un sistema de modelado 3D ejemplar de acuerdo con una modalidad de la invención; La Figura 24 es un diagrama de bloque de un sistema de modelado 3D ejemplar que coopera con un sistema de dimensionado de objetos de acuerdo con una modalidad de la invención.
DESCRIPCIÓN DETALLADA DE LA INVENCIÓN Figura 1 La Figura 1 ilustra una modalidad de la invención desplegada en un sistema de medición de estructura. Una fuente de la imagen (10) comprende las imágenes fotográficas incluyendo las imágenes de una estructura residencial 3D del mundo real 1. En algunas modalidades de la invención, una fuente de imagen 2D adecuada comprende una colección de imágenes 2D almacenadas en formatos gráficos como JPEG, TIFF, GIF, formatos de almacenamiento de imágenes AW y otros. Algunas modalidades de la invención reciben al menos una imagen que comprende una vista de pájaro de una estructura. Una vista de pájaro ofrece fotos aéreas desde cuatro ángulos.
En algunas modalidades de la invención las imágenes 2D adecuadas incluyen imágenes aéreas y de satélite. En una modalidad de la invención, la fuente de imagen 2D es una base de datos en linea accesible por el sistema (200) a través de Internet. Ejemplos de fuentes en linea adecuadas de imágenes 2D incluyen, pero no se limitan a la United States Geographical Survey (USGS) , The Maryland Global Land Cover Facility y TerraServer-C/SA (recientemente renombrado Microsoft Research Maps (MSR) . Estas bases de datos almacenan mapas y fotografías aéreas.
En algunas modalidades de la invención, las imágenes son geo-referenciadas . Una imagen geo-referenciada contiene información, ya sea dentro de sí misma, o en un archivo complementario (por ejemplo, un archivo de mundo), que indica a un sistema de información geográfica, la forma de alinear la imagen con otros datos. Los formatos adecuados para la georeferenciación incluyen GeoTiff, jp2, y rSid. Otras imágenes pueden llevar a la georeferenciación de información en un archivo complementario (conocido en ArcGIS como un archivo de mundo, que normalmente es un pequeño archivo de texto con el mismo nombre y el sufijo del archivo de imagen. Las imágenes son manualmente geo-referenciadas para su uso en algunas modalidades de la invención. Las imágenes de alta resolución están disponibles en bases de datos de suscripción, como Google Earth Pro™. Mapquest™ es adecuado para algunas modalidades de la invención. En algunas modalidades de la invención, se reciben las imágenes georeferenciadas que incluyen sistemas de información geográfica (GIS por sus siglas en inglés) de la información.
Las imágenes de la estructura (1) han sido capturadas, por ejemplo, por 5 aviones tomando fotografías aéreas de la estructura (1) mediante un dispositivo de captura de imágenes de a bordo, tales como una cámara de aire (4). Un ejemplo de fotografía (107) tomada por la cámara 4 es una vista desde arriba de un techo (106) de estructura residencial (1) . La fotografía del ejemplo (107) obtenida por la cámara (4) es una vista en planta superior de la cubierta (106) de la estructura residencial (1). Sin embargo, la invención no se limita a los puntos de vista de arriba hacia abajo. La cámara (4) puede capturar vistas ortogonales y oblicuas, y otros puntos de vista de la estructura ( 1 ) .
Las imágenes que comprenden la fuente de imagen (10) no tienen por qué limitarse a las fotografías aéreas. Por ejemplo, las imágenes adicionales de la estructura (1) se capturan en el suelo a través de una segunda cámara, por ejemplo, una cámara basada en tierra (9) .Las imágenes basadas en tierra incluyen, pero no se limitan a vistas en elevación posterior, frontal y lateral de la estructura (1) . La figura 1 representa una segunda fotografía (108) de la estructura (1). En esta ilustración la fotografía (108) presenta una vista en elevación frontal de la estructura (1) - De acuerdo con modalidades de la invención, la primera y la segunda vistas de un objeto no necesitan ser capturadas con cualquier tipo específico de dispositivo de captura de imagen. Las imágenes capturadas de diferentes dispositivos de captura en diferentes momentos, y para diferentes propósitos serán adecuadas para el uso en las diversas modalidades de la invención. Los dispositivos de captura de imagen de la que se derivan las imágenes primera y segunda no necesitan tener ningún atributo intrínseco o extrínseco de cámara particulares en común. La invención no se basa en el conocimiento de los atributos intrínsecos o extrínsecos de la cámara para cámaras reales utilizados para capturar las imágenes primera y segunda.
Una vez que las imágenes se almacenan en la fuente de imagen (10), están disponibles para la selección y la descarga al sistema (100) . En un ejemplo de uso, el operador (113) obtiene una dirección de un cliente. El operador (113) puede usar una unidad de gestión de imágenes (103) para acceder a una fuente de imágenes (10), por ejemplo, a través de Internet. El operador (113) podrá obtener una imagen, proporcionando una dirección de calle. La fuente de imagen (10) responde proporcionando una pluralidad de puntos de vista de una casa ubicada en la dirección dada. Las vistas adecuadas para su uso con diversas modalidades de la invención incluyen vistas en planta, vistas en elevación, vistas en perspectiva, proyecciones ortográficas, imágenes oblicuas y otros tipos de imágenes y vistas.
En este ejemplo, la primera imagen (107) presenta una primera visión de la casa (1) . La primera vista se presenta una vista en planta superior de un techo de la casa (1). La segunda imagen (108) presenta una segunda vista de la misma casa (1) . La segunda imagen presenta la cubierta desde un punto de vista diferente al que se muestra en la primera vista. Por lo tanto, la primera imagen (107) comprende una imagen de un objeto (1) en una primera orientación en el espacio 2-D, y la segunda imagen (108) comprende una imagen del mismo objeto (1) en una segunda orientación en el espacio 2D. En algunas implementaciones de la invención al menos una imagen comprende una vista en planta superior de un objeto. La primera imagen (107) y la segunda imagen (108) pueden ser diferentes una de otra con respecto al tamaño, relación de aspecto, y otras características del objeto (1) representado en las imágenes.
Cuando se desean medir las dimensiones de la estructura (1), la primera y segunda imágenes de la estructura se obtienen . a partir de la fuente de imagen (10) . Es importante señalar que la información acerca de las cámaras (4 y 9) que proporcionan la primera y segunda imágenes no se almacenan necesariamente en la fuente de imagen (10) , ni se proporciona necesariamente con una imagen recuperada. En muchos casos, no hay información acerca de las cámaras usadas para tomar la primera y segunda fotografías en cualquier fuente. Las modalidades de la invención son capaces de determinar la información acerca de las primera y segunda cámaras con base en las primera y segunda imágenes, independientemente de si o no la información acerca de las primera y segunda cámaras reales está disponible.
En una modalidad, la primera y segunda imágenes de la casa son recibidos por el sistema (100) y se muestra con un operador (113). El operador (113) interactúa con las imágenes para generar puntos de ajuste (puntos de control) que deben proporcionarse al generador de modelo 3D (950). El modelo generador (950) proporciona un modelo 3D del objeto. El modelo 3D se procesa para su visualización en un dispositivo de visualización 2D (103) por un motor de presentación. El operador (113) mide las dimensiones del objeto que se muestra en la pantalla (103) utilizando una aplicación de medición para interactuar con el objeto mostrado. Las mediciones del modelo se convierten a las mediciones del mundo real sobre la base de información acerca de la escala de las primera y segunda imágenes. Por lo tanto las mediciones del objeto del mundo real se realizan sin la necesidad de visitar el sitio. Las modalidades de la invención son capaces de generar un modelo 3D de una estructura basada en al menos dos imágenes fotográficas del objeto.
Figura 2 La Fig. 2 ilustra y describe un método para la medición de un objeto del mundo real sobre la base de un modelo 3D del objeto de acuerdo con una modalidad de la invención .
En el paso (203) se genera un modelo 3D de la estructura que debe medirse. En el paso (205), el modelo se representa en un dispositivo de visualizacion de tal manera que un operador está habilitado para interactuar con la imagen visualizada para medir las dimensiones de la imagen. En el paso (207) se reciben las mediciones. En el paso (209) las mediciones se transforman a partir de mediciones de imagen para la medición del mundo real. En ese punto, las mediciones son adecuadas para su uso en un sistema de aprovisionamiento de energía solar para la estructura.
Para llevar a cabo el paso (203), un modelo generador de la invención recibe los puntos coincidentes y genera un modelo 3D. El modelo 3D se refina mediante la aplicación de una novedosa técnica de optimización a la estructura 3D reconstruida. El modelo 3D refinado representa la estructura del mundo real con suficiente precisión para permitir mediciones utilizables de la estructura que se obtienen midiendo el modelo 3D refinado.
Para lograr esto, el modelo 3D se representa en el dispositivo de visualizacion (103) . Las dimensiones del modelo visualizado se miden. Las mediciones se convierten en mediciones del mundo real. Las mediciones del mundo real son utilizadas por un sistema de aprovisionamiento de energía solar para provisionar a la estructura con paneles solares.
Figuras 3 y 4 Ejemplos adecuados de la primera y segunda imágenes se ilustran en las figuras 3 y 4. La figura 3 ilustra una primera imagen (107) que comprende una vista en planta superior de un techo de una casa. Por ejemplo, la primera imagen (107) es una fotografía tomada por una cámara situada sobre el techo de una estructura con el fin de capturar una vista en planta superior del techo. En la modalidad más simple, se presume que una primera imagen bidimensional (107) fue capturada por un método convencional de proyección del objeto tridimensional, en este caso una casa, en un plano de la imagen bidimensional .
La Fig. 4 ilustra una segunda imagen (108) que comprende una vista en elevación frontal de la casa que se ilustra en la figura 3, incluyendo el techo que se ilustra en la figura 3. Es importante tener en cuenta que la primera y segunda imágenes no deben ser imágenes estereoscópicas. Además, la primera y la segunda imágenes necesitan imágenes no escaneadas. En una modalidad de la invención, las primera y segunda imágenes fotográficas son capturadas por los dispositivos de captura de imágenes, tales como cámaras.
Para efectos de esta descripción, el término "fotografía" se refiere a una imagen creada por la luz que incide sobre una superficie sensible a la luz. Las superficies fotosensibles incluyen películas fotográficas y cámaras electrónicas tales como dispositivos de carga acoplada (CCD) o dispositivos de óxido semiconductor de imágenes complementarias de metal (CMOS) . Para los fines de esta descripción, las fotografías se crean usando una cámara. Una cámara se refiere a un dispositivo que incluye una lente para enfocar longitudes de onda visibles de una escena de luz en una reproducción de lo que el ojo humano vería .
En una modalidad de la invención la primera imagen (107) comprende una proyección ortográfica del objeto del mundo real a ser medido. En general, un dispositivo de captura de imágenes, tal como una cámara o sensor, se realiza por un vehículo o plataforma, tal como un aeroplano o satélite, y está dirigido a un punto nadir que está directamente debajo y/o verticalmente hacia abajo desde esa plataforma. El punto o píxel en la imagen que corresponde al punto nadir es el punto/píxel que es ortogonal al dispositivo de captura de imágenes. Todos los otros puntos o píxeles en la imagen son oblicuos con relación al dispositivo de captura de imágenes. Como los puntos o píxeles se vuelven cada vez más distantes desde el punto nadir se convierten en cada vez más oblicuos con respecto al dispositivo de captura de imágenes. Asimismo, la distancia de muestra de tierra (es decir, el área de superficie igual o cubierta por cada pixel) también aumenta. Esta oblicuidad de una imagen ortogonal hace que las características de la imagen que se vean afectadas, especialmente las imágenes relativamente distantes del punto nadir.
Para proyectar un punto 3D ax, ay, az desde la imagen del mundo real hacia el punto 2D correspondiente bx, by usando una proyección ortográfica paralela al eje y (vista de perfil) , un modelo de cámara correspondiente se puede describir mediante las siguientes relaciones ej emplares : bx=Sx3x+Cx by~Sz<3z+C% en donde el vector s es un factor de escala arbitraria, y c es un desplazamiento arbitrario. En algunas modalidades de la invención, estas constantes se utilizan para alinear la ventana gráfica de la primera cámara modelo para que coincida con el punto de vista presentado en la primera imagen (105) . Utilizando la multiplicación matriz, las ecuaciones se convierten en: En una modalidad de la invención una imagen ortogonal se corrige para distorsión. Por ejemplo, se elimina la distorsión, o se compensa, por el proceso de ortó-rectificación que, en esencia, elimina la oblicuidad de la imagen ortogonal mediante el ajuste o alabeo de cada pixel de una imagen ortogonal en una rejilla ortométrica o sistema de coordenadas. El proceso de orto-rectificación crea una imagen en la que todos los pixeles tienen la misma distancia de la muestra de la tierra y están orientadas hacia el norte. Por lo tanto, cualquier punto en una imagen orto-rectificada puede ser localizado utilizando un sistema de coordenadas X, Y y, siempre y cuando se conozca la escala de la imagen, la longitud y la anchura de las características terrestres, así como la distancia relativa entre estas características, se puede calcular-.
En una modalidad de la invención, una de las primera y segunda imágenes comprende una imagen oblicua. Las imágenes oblicuas pueden ser capturadas con el dispositivo de captura de imágenes dirigido o apuntado generalmente a un lado de y hacia abajo desde la plataforma que transporta el dispositivo de captura de imágenes. Las imágenes oblicuas, a diferencia de las imágenes ortogonales, muestran los lados de características terrestres, tales como casas, edificios y/o montañas, así como las partes superiores de las mismas. Cada píxel en el primer plano de una imagen oblicua corresponde a un área relativamente pequeña de la superficie o el objeto representado (es decir, cada pixel de primer plano tiene una distancia relativamente pequeña a la muestra de la tierra) mientras que cada pixel en el fondo corresponde a un área relativamente grande de la superficie u objeto representado (es decir, cada pixel del fondo tiene una distancia relativamente grande a la muestra de la tierra) . Las imágenes oblicuas capturan un área o visualización generalmente trapezoidal de la superficie u objeto de referencia, con el primer plano del trapezoide teniendo una distancia de la muestra de la tierra sustancialmente menor (es decir, una resolución más alta) que el fondo del trapecio .
Figura 5 Una vez que las primera y segunda imágenes se seleccionan y se muestran, los puntos de ajuste (puntos de control) se seleccionan. La selección de los se lleva a cabo manualmente en algunas modalidades de la invención, por ejemplo por un operador. En otras modalidades de la invención, los puntos de control se pueden seleccionar de forma automática, por ejemplo, mediante técnicas de comparación de características de visión artificial. Para las modalidades manuales, un operador selecciona un punto en la primera imagen y un punto correspondiente en la segunda imagen en la que ambos puntos representan el mismo punto en la estructura 3D del mundo real.
Para identificar e indicar los puntos coincidentes, el operador (113) interactúa con la primera y segunda imágenes mostradas para indicar puntos correspondientes en la primera y segunda imágenes mostradas. En el ejemplo de las figuras 3 y 4 el punto A de la estructura (1) 3D del mundo real indica una esquina derecha del techo (1) . El punto A aparece en la primera imagen (107) y en la segunda imagen (108), aunque en diferentes posiciones en las imágenes que se muestran.
Con el fin de indicar los puntos correspondientes en la primera y segunda imágenes, el operador coloca indicios desplegados sobre las porciones correspondientes de un objeto en cada una de la primera y segunda imágenes (105, 107) . Por ejemplo, los indicios se coloca sobre el punto A de la primera imagen (105), y luego se coloca sobre el punto A correspondiente del objeto (102) 2 en la segunda imagen (107). En cada punto el operador indica la selección del punto, por ejemplo, mediante clic derecho o izquierdo del ratón o el funcionamiento de cualquier otro mecanismo de selección. Otros dispositivos tales como ruedas de desplazamiento, teclados, lápices ópticos, pantallas táctiles, palancas de mando y similares, son adecuados para su uso en modalidades de la invención. Asi, el operador interactúa con la primera y segunda imágenes para producir pares de puntos de control como se ilustra en la figura 5.
En un ejemplo de modalidad de la invención, se puede emplear una pantalla táctil. En ese caso, el operador selecciona un punto u otra región de interés en una imagen que aparece al tocar la pantalla. Las coordenadas de pixeles se traducen de una descripción de coordenada de pantalla de visualización a, por ejemplo, una descripción del sistema de coordenadas correspondiente a la imagen que contiene los pixeles detectados tocados. En otras modalidades de la invención, un operador utiliza un ratón para colocar un marcador, u otro indicador, sobre un punto a ser seleccionado en una imagen. Al hacer clic en el ratón registra las coordenadas del pixel del marcador colocado. El sistema (100) traduce las coordenadas de pixeles a las coordenadas de imagen correspondientes.
Los puntos de control se proporcionan a un modelo 3D del generador (950) de un sistema de modelado 3D de la invención. La reconstrucción de una estructura con imagen formada se lleva a cabo mediante la búsqueda de las intersecciones de las lineas epipolares para cada par de puntos .
Figuras 6 y 7 La Figura 7 ilustra puntos que definen los planos de tierra. En algunas modalidades de la invención, un modelo 3D generado se refina por referencia a los paralelos de tierra. La figura 7 ilustra un ejemplo de la lista de puntos de control de la lista de ejemplo de los puntos de control ilustrados en la figura 5 en la que los puntos de control en la figura 7 comprenden lineas paralelas de tierra de acuerdo con una modalidad de la invención.
La Fig. 6 ilustra los puntos que definen ángulos rectos asociados con el objeto. Al igual que los planos de tierra, los ángulos rectos se pueden usar en algunas modalidades de la invención para refinar un modelo 3D.
Figura 8 La Fig. 8 ilustra un sistema de la invención.
Como se ha explicado con respecto a las figuras 1 -7, un operador selecciona primero y segundo puntos de ajuste de imagen de la primera y segunda imágenes visualizadas en un dispositivo de visualización (803). Una matriz de la primera cámara (Cámara 1) recibe puntos de ajuste desde la primera imagen. Una matriz de la segunda cámara (Cámara 2) recibe los puntos de ajuste de la segunda imagen. La generación de modelos se inicia proporcionando parámetros iniciales de matrices la cámara 1 y la cámara 2.
En una modalidad de los parámetros de la cámara de la invención se comprenden los siguientes parámetros intrínsecos : a) (uO,vO) : Coordenadas en píxeles del centro de la imagen, que es la proyección del centro de la cámara en la retina. b) (au,av) : Factores de escala de la imagen.
Los parámetros externos se definen aquí como sigue : a) R: Rotación que da ejes de la cámara en el sistema de coordenadas de referencia. b) T: pose en mm del centro de la cámara en el sistema de coordenadas de referencia.
Una unidad de modelado de parámetros de la cámara (815) está configurada para proporcionar modelos de cámara (matriz) que corresponden a la primera y segunda imágenes. Los modelos de cámaras son una descripción de las cámaras utilizadas para capturar la primera y segunda imágenes. El modelo de parámetro de cámara de la invención modela la primera y la segunda matrices de la cámara para incluir limitaciones de la cámara. El modelo de parámetro de la invención toma en cuenta que es poco probable que los parámetros se produzcan o sean válidos, por ejemplo, una posición de la cámara que apunte una lente en una dirección de alejamiento de un objeto visto en una imagen. Por lo tanto, dichos valores de parámetros no necesitan ser considerados en los cálculos de los parámetros de prueba.
La unidad de modelado de los parámetros de la cámara está configurada para modelar las relaciones y las limitaciones describen relaciones entre los parámetros que comprenden establecer el primero y segundo parámetro basado, al menos en parte en los atributos de las imágenes primera y segunda seleccionadas.
El parámetro de modelo de la cámara (1000) de la invención incorpora información suficiente acerca de las restricciones de posición sobre las primera y segunda cámaras para evitar la selección de sub-combinaciones de parámetros de la cámara no válidos o poco probables. Asi, el tiempo de cálculo para generar un modelo 3D es menor que lo que seria si los valores de parámetros para, por ejemplo, posiciones de la cámara imposible o de otro modo no válidas o poco probables se incluyeran en los parámetros de prueba.
En algunas modalidades, para describir la orientación de la primera y la segunda cámaras en el espacio euclidiano de 3 dimensiones, se emplean tres parámetros. Diversas modalidades de la invención representan la orientación de la cámara de diferentes maneras. Por ejemplo, en una modalidad de la invención, un modelo de parámetros de la cámara representa posiciones de la cámara por los ángulos de Euler. Los ángulos de Euler son tres ángulos que describen la orientación de un cuerpo rígido. En aquellas modalidades un sistema de coordenadas para un espacio modelo 3D describe posiciones de cámara como si hubiera cardanes reales definiendo los ángulos de cámara que comprenden los ángulos de Euler.
Los ángulos de Euler también representan tres rotaciones compuestas que mueven el marco (cámara) de referencia al marco referido (modelo 3D) . Por lo tanto cualquier orientación se puede representar mediante la composición de tres rotaciones elementales (rotaciones alrededor de un eje único), y cualquier matriz de rotación se puede descomponer como un producto de tres matrices de rotación elementales.
Para cada punto en un par de puntos, la unidad modelo (303) proyecta una línea de visión (o rayos) a través de la cámara hipotética correspondiente que capturó la imagen que contiene el punto. La línea que pasa a través de la primera imagen epipolar y la línea que pasa a través de la segunda imagen epipolar se cruzan en condiciones ideales, por ejemplo, cuando el modelo de la cámara representa con precisión la cámara real empleada para capturar la imagen, cuando el ruido está presente, y cuando la identificación de los pares de puntos era precisa y consistente entre las primera y segunda fotografías.
La unidad de modelo 3D (303) determina la intersección de los rayos proyectados a través de los primero y segundo modelos de cámara utilizando una técnica de triangulación, en una modalidad de la invención. En general, la triangulación es el proceso de determinar la ubicación de un punto mediante la medición de ángulos a la misma desde los puntos conocidos en cada extremo de una línea de base fija, en lugar de la medición de distancias directamente al punto. El punto, entonces se puede fijar en el tercer punto de un triángulo con un lado conocido y dos ángulos conocidos. Las coordenadas y la distancia a un punto se pueden encontrar mediante el cálculo de la longitud de un lado de un triángulo, las medidas de ángulos dadas y los lados del triángulo formados por ese punto y otros dos puntos de referencia conocidos. En un contexto libre de errores, las coordenadas de intersección comprenden la ubicación en tres dimensiones del punto en el espacio del modelo 3D.
De acuerdo con algunas modalidades de la invención, un modelo 3D comprende una representación tridimensional de la estructura del mundo real, en el que la representación comprende datos geométricos referenciados a un sistema de coordenadas, por ejemplo, un sistema de coordenadas cartesianas. En algunas modalidades de la invención, un modelo 3-D comprende un archivo de datos gráficos. La representación 3-D se almacena en una memoria de un procesador (no se muestra) para los fines de la realización de cálculos y mediciones.
Un modelo 3D puede ser mostrado visualmente como una imagen de dos dimensiones a través de un proceso de representación 3D. Una vez que el sistema de la invención genera un modelo 3D, un motor de procesamiento (995) proporciona las imágenes 2D del modelo en un dispositivo de visualización (103) . Las técnicas de representación convencionales son adecuadas para su uso en modalidades de la invención. Además de la representación, un modelo 3D es otra forma útil en las simulaciones y cálculos informáticos gráficos o no gráficos. Las imágenes 2-D proporcionadas pueden ser almacenadas para su visualización posterior. Sin embargo, las modalidades de la invención descritas en este documento permitirán que las imágenes 2-D proporcionadas se visualicen en tiempo real en la pantalla (103) a medida que el operador (113) indica los pares de puntos de control.
Las coordenadas 3D que comprenden el modelo 3D definen las ubicaciones de los puntos de la estructura 3D en el espacio del mundo real. En contraste, las coordenadas de la imagen definen las ubicaciones de las estructuras de puntos de la imagen en la película o en un dispositivo electrónico de proyección de imagen.
Las coordenadas del punto se traducen entre las coordenadas de imagen 3D y el modelo de coordenadas 3D. Por ejemplo, la distancia entre dos puntos que se encuentran en un plano paralelo a un plano de la imagen fotográfica se puede determinar mediante la medición de su distancia en la imagen, si la escala s de la imagen se conoce. La distancia medida se multiplica por 1/s. En algunas modalidades de la invención, la información de escala para una o ambas de las primera y segunda imágenes son conocidas, por ejemplo, mediante la recepción de información de escala en forma de metadatos con las imágenes descargadas. La información de escala se almacena para su uso por parte de la unidad de medición (119) . Por lo tanto, la unidad de medición (119) permite al operador (113) medir los objetos 3D del mundo real, midiendo el modelo proporcionado en el dispositivo de visualización (10)3.
El operador (61) selecciona al menos dos imágenes para descargar a un sistema (100) . En una modalidad de la invención, una primera imagen seleccionada es una vista en planta superior de la casa. Una segunda imagen seleccionada es una vista en perspectiva de la casa. El operador (61) muestra las dos imágenes en el dispositivo de visualización (70) . Mediante el uso de un ratón, u otro dispositivo de entrada adecuado, el operador (61) selecciona puntos de ajuste en la primera y segunda imágenes. Para cada punto seleccionado en la primera imagen, se selecciona un punto correspondiente en la segunda imagen. Como se ha descrito anteriormente, el sistema (100) permite a un operador (109) interactuar con y manipular imágenes bidimensionales (2-D) mostradas en el dispositivo de visualizacion 2-D (103) . En el ejemplo simplificado de la figura 1, al menos una imagen 2-D, por ejemplo, la primera imagen fotográfica (105) se adquiere a partir de una fuente de imágenes (10) a través de un procesador (112). En otras modalidades de la invención una fuente adecuada de imágenes 2-D se almacena en el procesador (112), y es selecciónatele por el operador (109) para su visualizacion en el dispositivo de visualizacion (103). La invención no está limitada con respecto al número y tipo de fuentes de imágenes empleadas. Más bien, una variedad de fuentes de imagen (10) son adecuadas para comprender imágenes 2-D para su adquisición y visualizacion en el dispositivo de visualizacion (103) .
Por ejemplo, en el ejemplo de la modalidad descrita anteriormente, la invención se despliega para medir remotamente dimensiones de estructuras residenciales basadas en imágenes de las estructuras. En aquellas modalidades las bases de datos de imágenes geográficas comerciales, tales como las mantenidas por Microsoft™ son fuentes adecuadas de imágenes 2-D. Algunas modalidades de la invención se basan en más de una fuente de imágenes 2-D. Por ejemplo, la primera imagen (105) se selecciona a partir de una primera fuente de imagen, y la segunda imagen (107) se selecciona a partir de una segunda fuente de imagen no relacionada. Las imágenes obtenidas por los dispositivos de consumo de grado de formación de imágenes, por ejemplo, cámaras desechables, cámaras de video y similares son adecuadas para su uso en las modalidades de la invención. Del mismo modo, las imágenes profesionales obtenidas por satélite, equipos de imagen de encuesta geográfica, y una variedad de otros equipos de formación de imágenes de calidad comercial que proporcionan imágenes 2-D de objetos del mundo real, son adecuadas para su uso en las diversas modalidades de la invención.
De acuerdo con una modalidad alternativa, la primera y segunda imágenes son digitalizadas mediante un escáner local, acoplado al procesador (112) . Los datos de la exploración de cada imagen digitalizada se proporcionan al procesador (112). Las imágenes escaneadas se muestran al operador de (109) en el dispositivo (103) de visualización . En otra modalidad alternativa, el equipo de captura de imágenes se encuentra ubicado en el sitio en el que se encuentra la casa del mundo real. En ese caso, el equipo de captura de imagen proporciona imágenes al procesador (112) a través de Internet. Las imágenes se pueden proporcionar en tiempo real, o almacenarse para ser proporcionadas en un tiempo futuro. Otra fuente de imágenes es un sistema de comunicaciones y un archivo de imágenes conectado al procesador (112) a través de una red de datos. Una amplia variedad de métodos y aparatos capaces de generar o de proporcionar imágenes son adecuados para su uso con diversas modalidades de la invención.
Refinado del Modelo En la práctica, la geometría epipolar se contempla imperfectamente en una fotografía real. Las coordenadas 2-D de los puntos de control de las primera y segunda imágenes no se pueden medir con precisión arbitraria. Varios tipos de ruido, como el ruido geométrico de distorsión de la lente o un error de detección del punto de interés, dan lugar a errores en las coordenadas del punto de control. Además, la geometría de las cámaras primera y segunda no es perfectamente conocida. Como consecuencia de ello, las líneas proyectadas por el generador de modelo 3D a partir de los puntos de control correspondientes a través de las primera y segunda matrices de la cámara no siempre se cruzan en el espacio 3D cuando es triangulado. En ese caso, una estimación de las coordenadas 3D se hace sobre la base de una evaluación de la posición de la linea relativa de las lineas proyectadas por el generador de modelo 3D. En una modalidad de la invención, el punto 3D estimado se determina mediante la identificación de un punto en el espacio del modelo 3D que representa la relación proximal más cercana de la proyección del primer punto de control a la proyección del segundo punto de control.
Este punto 3D estimado tendrá un error proporcional a su desviación desde el mismo punto en la estructura de mundo real, tenia una medición directa y libre de error hecha de la estructura del mundo real. En algunas modalidades de la invención, el error estimado representa la desviación del punto estimado desde el punto 3D que habría resultado de una proyección libre de ruido, libre de distorsión y libre de errores de un par de puntos de control. En otras modalidades de la invención el error estimado representa la desviación del punto estimado del punto 3D que representa el "mejor cálculo" del punto 3D del mundo real sobre la base de criterios definidos externamente, tal como por un operador, en la generación del modelo 3D.
El error de re-proyección es un error geométrico correspondiente a la distancia entre un punto de la imagen proyectada y uno medido. La reproyección cuantifica hasta qué punto un cálculo de un punto X3D recrea verdadera proyección del punto X. En concreto, dejemos que Psea la matriz de proyección de una cámara la proyección de la imagen de X, es decir, El error de reproyección de Xdado por en donde ^denota la distancia euclidea entre los puntos de imagen representados por los vectores "X y X .
Para generar un modelo 3D que representa, en la mayor medida posible, la estructura del mundo real en 3D modelada, seria deseable minimizar el error de reproyección. Por lo tanto, con el fin de producir un modelo 3D con una precisión suficiente para medir las dimensiones de, por ejemplo, para el propósito de la instalación de paneles solares, las modalidades de la invención ajustan la primera y segunda descripciones de la cámara para llevar las lineas proyectadas lo más cerca posible a la intersección al mismo tiempo que se garantiza que el punto 3D calculado se encuentre dentro de las limitaciones del modelo de parámetros de la cámara.
En una modalidad de la invención, el modelo de coordenadas 3D generado como se describe anteriormente se refina. Dado un número de puntos 3D que comprenden un modelo 3D generado mediante la proyección de los pares de puntos de control a través de un modelo de cámara, los parámetros de la cámara y los puntos 3D que comprenden el modelo se ajustan hasta que el modelo 3D se encuentra con un criterio de optimalidad que involucra las proyecciones de imagen correspondientes de todos los puntos. Esto equivale a un problema de optimización de los parámetros de visualización de imágenes en 3D y (es decir, pose de cámara y posiblemente calibración intrínseca y distorsión radial) , para obtener una reconstrucción que es óptima bajo las limitaciones del modelo del parámetro. La técnica de la invención minimiza eficazmente el error de reproyección entre las ubicaciones de imagen de puntos de imagen observados y predichos, que se expresa como la suma de los cuadrados de un gran número de funciones no lineales, con valores reales. Este tipo de minimización se logra típicamente usando algoritmos no lineales de mínimos cuadrados. De éstos, el de Levenberg- arquardt se emplea con frecuencia. Levenberg-Marquardt linealiza iterativamente una función a minimizar en el entorno del cálculo actual. Este algoritmo implica la solución de los sistemas lineales conocidos como las ecuaciones normales. Aunque es eficaz, incluso una variante escasa del algoritmo de Levenberg-Marquardt, que tiene en cuenta explícitamente la ventaja de ecuaciones de normal patrón de ceros, evitando almacenar y operar sobre elementos cero, consume demasiado tiempo en el proceso de cálculo para ser de uso práctico en aplicaciones para las que la presente invención se implementa.
Figura 8 La figura 8 es un diagrama de flujo que ilustra los pasos de un método para la generación de un modelo 3-D de un objeto sobre la base de al menos dos imágenes 2-D del objeto de acuerdo con una modalidad de la invención.
En (805) se reciben los puntos de control seleccionados por un operador. Por ejemplo, un operador selecciona una parte, (A) de una casa a partir de una primera imagen que incluye la casa. El operador selecciona la misma porción (A) de la misma casa de la segunda imagen que incluye la misma casa. Las coordenadas de despliegue para las partes seleccionadas por el operador de la casa ilustrada en las primera y segunda imágenes son proporcionadas al procesador. En (807), se reciben los parámetros de la cámara iniciales, por ejemplo, del operador. En (809), los parámetros restantes de la cámara se calculan en base, al menos en parte a un modelo de parámetro de cámara. Los pasos restantes (811) a (825) se llevan a cabo como se describe en la Figura 8.
Figura 9 La figura 9 ilustra y describe un método para minimizar el error en un modelo 3D generado de acuerdo con una modalidad de la invención.
Figura 10 En una modalidad de la invención cada una de las primera y segunda cámaras se modelan como una cámara montada en la plataforma de rodamiento de cámara colocada en el espacio del modelo 3D (915, 916). La plataforma, a su vez, está acoplada a una "cámara de cardán". La posición imposible de la cámara se contempla como la posición de "bloqueo de ejes". El bloqueo de ejes es la pérdida de un grado de libertad en un espacio tridimensional que se produce cuando los ejes de dos de los tres cardanes son accionados en una configuración en paralelo, "bloqueando" el sistema en rotación en un espacio de dos dimensiones.
El modelo de la figura 10 representa una configuración y método ventajosos para determinar rápidamente la primera y la segunda matrices óptimas de la cámara para la proyección de los puntos de control de la imagen 2-D a un modelo de espacio de acuerdo con una modalidad de la invención. De acuerdo con el modelo de parámetros iniciales para la primera y la segunda matrices de la cámara se asume que las aberturas de las cámaras hipotéticas correspondientes (915, 916) estén dispuestas como para ser dirigida hacia el centro de la esfera (905). Además, una cámara (916) se modela como colocada con respecto a la esfera (901) en las coordenadas xO, yl, zO de las coordenadas del eje (1009) es decir, se coloca en la parte superior del hemisferio superior de la esfera, con su abertura dirigida directamente hacia abajo, hacia el centro de la esfera.
Además, el rango de posibles posiciones está limitado a las posiciones en la superficie de la esfera y aún más hacia el hemisferio superior de la esfera. Además, la posición del eje x de la cámara (915) está configurada para permanecer en x=0. En consecuencia las posiciones asumidas por la cámara (915), se ajustan a las limitaciones anteriores, se encontrarán en el eje z entre z=l y z=-l, en donde la posición de la cámara (915) con respecto al eje y se determina por la posición del eje z. Cada una de las cámaras (915) y (916) son libres para girar alrededor de sus respectivos ejes ópticos.
La configuración ilustrada en la figura 10 prevé la cámara los parámetros de inicialización de la matriz que facilitan la convergencia de los cálculos de puntos 3D de un cálculo inicial para un de cálculo que cumple con los criterios de convergencia definidos.
Los valores iniciales asi obtenidos para los parámetros intrínsecos de la cámara se establecen durante una etapa de inicialización de los métodos ilustrados en las figuras 11 y 12. Estos no se cambian durante la ejecución del método. Por otro lado, las permutaciones de los parámetros extrínsecos para iteraciones sucesivas de los métodos de simulación de la invención se reducen mediante la fijación de la posición de una cámara a lo largo de dos ejes, y la fijación de la posición de la otra cámara a lo largo de un eje.
Figura 11 Método de Parámetro La Figura 11 ilustra y describe un método para determinación de la inclinación, viraje y avance (Cl) de cámara 1, con base en los paráme ros Cl iniciales dados el modelo de parámetros ilustradi en la figura 10.
Figura 12 - Método de parámetro Del mismo modo, la Figura 12 ilustra y describe un método para la determinación de la inclinación, viraje y avance (C2) de la cámara 2, con base en los parámetros C2 iniciales dados por el modelo de parámetros ilustrado en la figura 10.
Figura 13 - Ejemplo de captura de pantalla GUI La figura 13 es una captura de pantalla de una interfaz gráfica de usuario que permite a un operador interactuar con la primera y segunda imágenes mostradas de acuerdo con una modalidad de la invención.
Figura 14 - Método de Simulación - usando la salida de error más baja La figura 14 es un diagrama de flujo que ilustra y describe los pasos de un método para generar un modelo 3D y reducir al mínimo error en el modelo 3D generado.
Figura 15 - Parámetro de Cámara y Método de Simulación La figura 15 es un diagrama de flujo que ilustra y describe los pasos de un método para la generación de un modelo 3D de acuerdo con una modalidad de la invención.
Figura 16 La figura 16 es un diagrama conceptual que ilustra un generador de modelo 3D ejemplar proporcionando una proyección basada en modelo 3D de los puntos de ajuste de las imágenes primera y segunda de acuerdo con una modalidad de la invención. La Figura 16 representa, en 1, 2 y 3, los puntos 3D de un modelo 3D que se corresponden con los puntos 2D en las primera y segunda imágenes. Un generador de modelo 3D opera en los pares de puntos de control para proporcionar un punto 3D correspondiente para cada par de puntos de control. Para el primero y segundo puntos de imagen de las primera y segunda imágenes, respectivamente (correspondientes al mismo punto en tres dimensiones) de los puntos de la imagen y el punto en tres dimensiones y los centros ópticos son coplanares.
Un objeto en el espacio 3D se puede asignar a la imagen del objeto en el espacio 2D de una imagen a través del visor del dispositivo que captura la imagen mediante técnicas de transformación de proyección en perspectiva. Los siguientes parámetros se utilizan a veces para describir esta transformación: ???1/}~- el punto en el espacio 3D del mundo real que se va a proyectar.
Cx>v-- la ubicación en el mundo real de la cámara. x*y>" la rotación de la cámara en el mundo real. Cuando, c^,v,: = <°>°.0); y ??,?,-,— (0,0.0) el vector 3D <i,2,0> se proyecta al vector 2D <1,2>. í,y'" la posición del espectador en relación con la superficie de visualización del mundo real.
Lo que resulta en bl,!r- la proyección 2D de a.
La invención emplea la transformación inversa de la anterior. En otras palabras, la invención asigna un punto en una imagen del objeto en el espacio 2D, tal como se ve a través del visor del dispositivo que capturó la imagen. Para lograr esto, la invención proporciona la matriz de la cámara 1 (731) y la matriz de la cámara 2 (732) para reconstruir el objeto real en 3D en forma de modelo mediante la proyección de los pares de puntos en el espacio del modelo 3D (760).
Las matrices de las cámaras 1 y 2 están definidas por parámetros de la cámara. Los parámetros de la cámara pueden incluir "parámetros intrínsecos" y "parámetros extrínsecos". Los parámetros extrínsecos definen una orientación exterior de una cámara, por ejemplo, la ubicación en el espacio y la dirección de vista. Los parámetros intrínsecos definen los parámetros geométricos del proceso de formación de imágenes. Esto es principalmente la longitud focal de la lente, pero también puede incluir la descripción de distorsiones de lente.
Por consiguiente, un primer modelo de la cámara (o matriz) comprende una descripción hipotética de la cámara que capturó la primera imagen. Un modelo de la segunda cámara (o matriz) comprende una descripción hipotética de la cámara que grabó la segunda imagen. En algunas modalidades de la invención, las matrices de la cámara (731 y 732) se construyen utilizando técnicas de resección de cámara. La resección de cámara es el proceso de encontrar los verdaderos parámetros de la cámara que produce una fotografía o un video determinado. Los parámetros de la cámara están representadas en matrices de 3 x 4 que comprenden las matrices 1 y 2 de la cámara.
Figura 17 - Matrices de Cámara y Espacio de Modelo La figura 17 muestra un espacio de modelo en 3D en el que los puntos de control se proyectan mediante los modelos de la primera y segunda cámara.
El término "modelo de cámara" tal como se utiliza aquí, se refiere a una matriz de 3X4 que describe la asignación de puntos 3D que comprenden un objeto del mundo real a través de una cámara de agujero de alfiler de puntos 2D en una imagen en 2D del objeto. En ese caso, la escena 2D, o el marco fotográfico se refieren como una ventana gráfica .
La distancia entre la cámara y el plano de proyección, d; y las dimensiones de la ventana gráfica, vw y vh. Estos valores tomados juntos determinan el campo de visión de la proyección, es decir, el ángulo que es visible en la imagen proyectada: Proyectores Las primera y segunda matrices de cámara proyectan un rayo desde cada punto de control 2-D de la primera y segunda imágenes a través de una cámara hipotética configurada de acuerdo con el modelo de cámara y en el espacio de la imagen en donde se proporcionará el modelo 3D.
Asi cada matriz de cámara proyecta rayos de conformidad con sus propias configuraciones de los parámetros de la matriz de cámara. Debido a que los parámetros de la cámara reales de las cámaras que proporcionan la primera y segunda imágenes no se conocen, un método consiste en calcular los parámetros de la cámara.
También se sabe que un conjunto dado de puntos 2-D a ser proyectado a través de primera y segunda matrices de cámara corresponden al mismo punto en una proyección ideal en un modelo 3-D. Con este conocimiento el cálculo de parámetros de la cámara de acuerdo con los principios de la invención comprende etapas de proporcionar valores iniciales calculados manualmente, pruebas de convergencia, y ajuste de las matrices de la cámara con base en los resultados de la prueba de convergencia.
Figura 18 - Método de Registro de Imagen La Figura 18 ilustra y describe los pasos de un método para el registro de la primera y segunda imágenes con respecto a la otra de acuerdo con una modalidad de la invención.
Figura 20 - Método para la Generación de modelos 3D La Figura 20 ilustra y describe los pasos de un método para el ajuste del haz de acuerdo con una modalidad de la invención.
Figura 21 - Generador de Modelo La figura 21 es un diagrama de bloques de un generador de modelo de 3D de acuerdo con una modalidad de la invención.
Figura 22 - Resumen del Método de Generación de Modelo La figura 22 es un diagrama de flujo que ilustra y describe los pasos de un método para el ajuste del haz de acuerdo con una modalidad de la invención.
Figura 23 - Modalidad del Generador de Modelo La figura 23 es un diagrama de bloques de una unidad de modelado de cámara de acuerdo con una modalidad de la invención.
Los componentes que comprenden el sistema (100) son aplicables como unidades separadas y se integran alternativamente en varias combinaciones. Los componentes son aplicables en una variedad de combinaciones de hardware y software.
Aunque la presente invención se ha descrito considerando un diseño preferido, la invención puede ser modificada adicionalmente dentro del espíritu y alcance de esta descripción. Por tanto, se pretende que esta divulgación abarque cualquier equivalente a las estructuras y elementos descritos en este documento. Además, se pretende que esta divulgación abarque cualesquiera variaciones, usos, o adaptaciones de la presente invención que utilizan los principios generales descritos en este documento. Por otra parte, esta exposición pretende abarcar toda desviación de la materia divulgada que entre dentro de la práctica conocida o habitual en la materia pertinente y que entre dentro de los límites de las reivindicaciones adjuntas. Aunque la invención se ha mostrado y descrito con respecto a modalidades particulares, por lo tanto no está limitada. Numerosas modificaciones, cambios y mejoras será ahora evidentes para el lector.

Claims (9)

REIVINDICACIONES
1. Un sistema para la generación de un modelo 3D de un objeto del mundo real que comprende: un modelador de cámara que comprende: una primera entrada que recibe parámetros de cámara; una sequnda entrada que recibe primer y segundo puntos de ajuste que corresponden a los puntos, en la primera y segunda imágenes correspondientes de un primer obj eto, el modelador de cámara proporcionando proyecciones del primero y segundo puntos de ajuste en un espacio 3D de acuerdo con los parámetros de la cámara; un modelador de objetos que comprende: una entrada que recibe las proyecciones; una primera salida que proporciona un modelo 3D del primer objeto con base en las proyecciones; una segunda salida que proporciona un cálculo del error de proyección; el sistema ajusta al menos un parámetro de cámara de acuerdo con el cálculo de error de proyección; la unidad de modelado de cámara proyecta el primer y segundo punto de ajuste con base en el al menos un parámetro de modelo de cámara ajustado, permitiendo asi que el modelador de objeto proporcione un modelo 3D de error corregido del primer objeto.
2. El sistema de la reivindicación 1, comprendiendo, además, una unidad de representación que incluye una entrada para recibir el modelo 3D de error corregido, la unidad de representación proporcionando una representación 2D del primer objeto con base en el modelo 3D de error corregido.
3. El sistema de la reivindicación 2, comprendiendo, además: un dispositivo de visualización 2D que incluye una entrada que recibe la representación 2D del modelo 3D de error corregido, el dispositivo de visualización desplegando la representación 2D del primer objeto; un dispositivo de control de operador acoplado al dispositivo de visualización para permitir que el operador interactúe con la representación 2D del primer objeto para medir las dimensiones del objeto.
4. El sistema de la reivindicación 1, comprendiendo, además: un dispositivo de visualización configurado para desplegar la primera y segunda imágenes 2D del objeto 3D del mundo real; un dispositivo de entrada de operador acoplado al dispositivo de despliegue para permitir que el operador interactúe con las imágenes 2D desplegadas para definir el primer y segundo punto de ajuste.
5. El sistema de la reivindicación 4, caracterizado porque el dispositivo de visualización 2D está configurado para desplegar, además, al menos una imagen de un segundo objeto y en donde el dispositivo de control del operador está configurado para permitir que el operador coloque la imagen del segundo objeto dentro de uno de: la primera imagen desplegada, la segunda imagen desplegada, una imagen de representación desplegada con base en el modelo 3D de error corregido. 6. Un método para generar un modelo 3D de un objeto que comprende: inicializar un modelador de cámara con primero y segundo parámetros de cámara inicial; recibir por el modelador de cámara primer y segundo puntos de ajuste 2D correspondientes a los puntos del objeto que aparecen en la primera y segunda imágenes 2D del objeto; proyectar por el modelador de cámara el primer y segundo puntos de ajuste 2D en un espacio de modelo 3D; determinar las coordenadas 3D para comprender un modelo 3D del objeto con base en las proyecciones; determinar un error asociado con las puntos de ajuste 2D proyectados; ajustar al menos uno de los parámetros de cámara iniciales de acuerdo con el error, de forma tal que el primero y segundo puntos de ajuste 2D sean reproyectados de acuerdo con un parámetro de cámara corregido; determinar las coordenadas 3D para comprender el modelo 3D del objeto con base en el primero y segundo puntos de ajuste 2D reproyectados.
6. El método de la reivindicación 5, caracterizado porque los pasos para generar proyecciones, determinar coordenadas 3D, determinar un error y ajustar un parámetro de cámara, se repiten hasta que el error determinado es menor a o igual que un error predeterminado.
7. El método de la reivindicación 6, caracterizado porque los pasos de repetir y determinar el error se llevan a cabo al desarrollar al menos un parámetro de cámara para optimizar el tiempo para converger en el error predeterminado.
8. El método de la reivindicación 5, incluyendo un paso más para representar el modelo 3D de error corregido para su despliegue en un dispositivo de visualización .
9. El método de la reivindicación 5, incluyendo, además, los pasos de: recibir un tercer conjunto de puntos que representan un segundo objeto que aparece en una tercera imagen; ajustar la escala y la orientación del segundo objeto representado para coincidir con la escala y la orientación del primer objeto al operar en el tercer conjunto de puntos en el espacio de modelo 3D; desplegar el segundo objeto con el primer objeto desplegado .
MX2013003853A 2010-10-07 2011-10-07 Modelado tridimensional rápido. MX2013003853A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US39106910P 2010-10-07 2010-10-07
PCT/US2011/055489 WO2012048304A1 (en) 2010-10-07 2011-10-07 Rapid 3d modeling

Publications (1)

Publication Number Publication Date
MX2013003853A true MX2013003853A (es) 2013-09-26

Family

ID=45928149

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2013003853A MX2013003853A (es) 2010-10-07 2011-10-07 Modelado tridimensional rápido.

Country Status (12)

Country Link
US (1) US20140015924A1 (es)
EP (1) EP2636022A4 (es)
JP (2) JP6057298B2 (es)
KR (1) KR20130138247A (es)
CN (1) CN103180883A (es)
AU (1) AU2011312140C1 (es)
BR (1) BR112013008350A2 (es)
CA (1) CA2813742A1 (es)
MX (1) MX2013003853A (es)
SG (1) SG189284A1 (es)
WO (1) WO2012048304A1 (es)
ZA (1) ZA201302469B (es)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2215409A4 (en) 2007-10-04 2014-02-12 Sungevity SYSTEM AND METHOD FOR PROVIDING POWER SUPPLY SYSTEMS
US9310403B2 (en) 2011-06-10 2016-04-12 Alliance For Sustainable Energy, Llc Building energy analysis tool
DE112013003338B4 (de) * 2012-07-02 2017-09-07 Panasonic Intellectual Property Management Co., Ltd. Größenmessvorrichtung und Größenmessverfahren
US9171108B2 (en) 2012-08-31 2015-10-27 Fujitsu Limited Solar panel deployment configuration and management
CA2887763C (en) * 2012-10-05 2023-10-10 Eagle View Technologies, Inc. Systems and methods for relating images to each other by determining transforms without using image acquisition metadata
EP2811463B1 (en) 2013-06-04 2018-11-21 Dassault Systèmes Designing a 3d modeled object with 2d views
CN105917337A (zh) 2013-08-29 2016-08-31 桑格威迪公司 改进太阳能***的设计及安装报价
US9595125B2 (en) * 2013-08-30 2017-03-14 Qualcomm Incorporated Expanding a digital representation of a physical plane
EP2874118B1 (en) 2013-11-18 2017-08-02 Dassault Systèmes Computing camera parameters
KR102127978B1 (ko) * 2014-01-10 2020-06-29 삼성전자주식회사 구조도 생성 방법 및 장치
US20150234943A1 (en) * 2014-02-14 2015-08-20 Solarcity Corporation Shade calculation for solar installation
US10163257B2 (en) 2014-06-06 2018-12-25 Tata Consultancy Services Limited Constructing a 3D structure
HU231354B1 (hu) 2014-06-16 2023-02-28 Siemens Medical Solutions Usa, Inc. Több nézetű tomográfiai rekonstrukció
US20160094866A1 (en) * 2014-09-29 2016-03-31 Amazon Technologies, Inc. User interaction analysis module
EP3032495B1 (en) 2014-12-10 2019-11-13 Dassault Systèmes Texturing a 3d modeled object
CN108139876B (zh) * 2015-03-04 2022-02-25 杭州凌感科技有限公司 用于沉浸式和交互式多媒体生成的***和方法
CN107534789B (zh) * 2015-06-25 2021-04-27 松下知识产权经营株式会社 影像同步装置及影像同步方法
AU2016315938B2 (en) * 2015-08-31 2022-02-24 Cape Analytics, Inc. Systems and methods for analyzing remote sensing imagery
KR101729164B1 (ko) * 2015-09-03 2017-04-24 주식회사 쓰리디지뷰아시아 멀티 구 교정장치를 이용한 멀티 카메라 시스템의 이미지 보정 방법
KR101729165B1 (ko) 2015-09-03 2017-04-21 주식회사 쓰리디지뷰아시아 타임 슬라이스 영상용 오차교정 유닛
EP3188033B1 (en) 2015-12-31 2024-02-14 Dassault Systèmes Reconstructing a 3d modeled object
EP3293705B1 (en) 2016-09-12 2022-11-16 Dassault Systèmes 3d reconstruction of a real object from a depth map
CA3089200A1 (en) * 2018-01-25 2019-08-01 Geomni, Inc. Systems and methods for rapid alignment of digital imagery datasets to models of structures
CN108470151A (zh) * 2018-02-14 2018-08-31 天目爱视(北京)科技有限公司 一种生物特征模型合成方法及装置
CA3037583A1 (en) 2018-03-23 2019-09-23 Geomni, Inc. Systems and methods for lean ortho correction for computer models of structures
DE102018113047A1 (de) * 2018-05-31 2019-12-05 apoQlar GmbH Verfahren zur Ansteuerung eines Displays, Computerprogramm und Augmented Reality-, Virtual Reality- oder Mixed Reality-Anzeigeeinrichtung
US11210864B2 (en) * 2018-06-01 2021-12-28 Immersal Oy Solution for generating virtual reality representation
CN109348208B (zh) * 2018-08-31 2020-09-29 盎锐(上海)信息科技有限公司 基于3d摄像机的感知编码获取装置及方法
CN109151437B (zh) * 2018-08-31 2020-09-01 盎锐(上海)信息科技有限公司 基于3d摄像机的全身建模装置及方法
KR102118937B1 (ko) 2018-12-05 2020-06-04 주식회사 스탠스 3d 데이터서비스장치, 3d 데이터서비스장치의 구동방법 및 컴퓨터 판독가능 기록매체
KR102089719B1 (ko) * 2019-10-15 2020-03-16 차호권 기계 설비 공사 공정을 위한 제어 방법 및 장치
US11455074B2 (en) * 2020-04-17 2022-09-27 Occipital, Inc. System and user interface for viewing and interacting with three-dimensional scenes
WO2022082007A1 (en) 2020-10-15 2022-04-21 Cape Analytics, Inc. Method and system for automated debris detection
WO2023283231A1 (en) 2021-07-06 2023-01-12 Cape Analytics, Inc. System and method for property condition analysis
US11676298B1 (en) 2021-12-16 2023-06-13 Cape Analytics, Inc. System and method for change analysis
AU2023208758A1 (en) 2022-01-19 2024-06-20 Cape Analytics, Inc. System and method for object analysis

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3438937B2 (ja) * 1994-03-25 2003-08-18 オリンパス光学工業株式会社 画像処理装置
IL113496A (en) * 1995-04-25 1999-09-22 Cognitens Ltd Apparatus and method for recreating and manipulating a 3d object based on a 2d projection thereof
US6858826B2 (en) * 1996-10-25 2005-02-22 Waveworx Inc. Method and apparatus for scanning three-dimensional objects
EP0901105A1 (en) * 1997-08-05 1999-03-10 Canon Kabushiki Kaisha Image processing apparatus
JPH11183172A (ja) * 1997-12-25 1999-07-09 Mitsubishi Heavy Ind Ltd 写真測量支援システム
EP1097432A1 (en) * 1998-07-20 2001-05-09 Geometrix, Inc. Automated 3d scene scanning from motion images
JP3476710B2 (ja) * 1999-06-10 2003-12-10 株式会社国際電気通信基礎技術研究所 ユークリッド的な3次元情報の復元方法、および3次元情報復元装置
JP2002157576A (ja) * 2000-11-22 2002-05-31 Nec Corp ステレオ画像処理装置及びステレオ画像処理方法並びにステレオ画像処理用プログラムを記録した記録媒体
WO2003036384A2 (en) * 2001-10-22 2003-05-01 University Of Southern Extendable tracking by line auto-calibration
EP1567988A1 (en) * 2002-10-15 2005-08-31 University Of Southern California Augmented virtual environments
JP4100195B2 (ja) * 2003-02-26 2008-06-11 ソニー株式会社 3次元オブジェクトの表示処理装置、表示処理方法、およびコンピュータプログラム
US20050140670A1 (en) * 2003-11-20 2005-06-30 Hong Wu Photogrammetric reconstruction of free-form objects with curvilinear structures
US8160400B2 (en) * 2005-11-17 2012-04-17 Microsoft Corporation Navigating images using image based geometric alignment and object based controls
US7950849B2 (en) * 2005-11-29 2011-05-31 General Electric Company Method and device for geometry analysis and calibration of volumetric imaging systems
US8078436B2 (en) * 2007-04-17 2011-12-13 Eagle View Technologies, Inc. Aerial roof estimation systems and methods
JP5538667B2 (ja) * 2007-04-26 2014-07-02 キヤノン株式会社 位置姿勢計測装置及びその制御方法
EP2215409A4 (en) * 2007-10-04 2014-02-12 Sungevity SYSTEM AND METHOD FOR PROVIDING POWER SUPPLY SYSTEMS
US8417061B2 (en) * 2008-02-01 2013-04-09 Sungevity Inc. Methods and systems for provisioning energy systems
JP5018721B2 (ja) * 2008-09-30 2012-09-05 カシオ計算機株式会社 立体模型の作製装置
US8633926B2 (en) * 2010-01-18 2014-01-21 Disney Enterprises, Inc. Mesoscopic geometry modulation

Also Published As

Publication number Publication date
ZA201302469B (en) 2014-06-25
SG189284A1 (en) 2013-05-31
CA2813742A1 (en) 2012-04-12
KR20130138247A (ko) 2013-12-18
AU2011312140A1 (en) 2013-05-02
WO2012048304A1 (en) 2012-04-12
AU2011312140C1 (en) 2016-02-18
JP6057298B2 (ja) 2017-01-11
JP2013539147A (ja) 2013-10-17
US20140015924A1 (en) 2014-01-16
JP2017010562A (ja) 2017-01-12
EP2636022A1 (en) 2013-09-11
AU2011312140B2 (en) 2015-08-27
EP2636022A4 (en) 2017-09-06
CN103180883A (zh) 2013-06-26
BR112013008350A2 (pt) 2016-06-14

Similar Documents

Publication Publication Date Title
AU2011312140C1 (en) Rapid 3D modeling
Beyer et al. The Ames Stereo Pipeline: NASA's open source software for deriving and processing terrain data
JP7413321B2 (ja) 日常シーン復元エンジン
EP2111530B1 (en) Automatic stereo measurement of a point of interest in a scene
US8139111B2 (en) Height measurement in a perspective image
Teller et al. Calibrated, registered images of an extended urban area
JP2013539147A5 (es)
US20060215935A1 (en) System and architecture for automatic image registration
US10432915B2 (en) Systems, methods, and devices for generating three-dimensional models
Koeva 3D modelling and interactive web-based visualization of cultural heritage objects
Remetean et al. Philae locating and science support by robotic vision techniques
Rodríguez‐Gonzálvez et al. A hybrid approach to create an archaeological visualization system for a Palaeolithic cave
Wu Photogrammetry: 3-D from imagery
Xiong et al. Camera pose determination and 3-D measurement from monocular oblique images with horizontal right angle constraints
Ruano et al. Aerial video georegistration using terrain models from dense and coherent stereo matching
KR101189167B1 (ko) 메타정보 없는 단일 영상에서 3차원 개체정보 추출방법
Re et al. Evaluation of an area-based matching algorithm with advanced shape models
Eapen et al. Narpa: Navigation and rendering pipeline for astronautics
US11776148B1 (en) Multi-view height estimation from satellite images
Dadras Javan et al. Thermal 3D models enhancement based on integration with visible imagery
Bila et al. Range and panoramic image fusion into a textured range image for culture heritage documentation
Caprioli et al. Experiences in photogrammetric and laser scanner surveing of architectural heritage
Scheibe Design and test of algorithms for the evaluation of modern sensors in close-range photogrammetry
Memon et al. The use of photogrammetry techniques to evaluate the construction project progress
Wolkesson Realtime Mosaicing of Video Stream from µUAV

Legal Events

Date Code Title Description
FG Grant or registration