MX2010012826A - Agregacion de contenido 3d construido en dispositivos. - Google Patents

Agregacion de contenido 3d construido en dispositivos.

Info

Publication number
MX2010012826A
MX2010012826A MX2010012826A MX2010012826A MX2010012826A MX 2010012826 A MX2010012826 A MX 2010012826A MX 2010012826 A MX2010012826 A MX 2010012826A MX 2010012826 A MX2010012826 A MX 2010012826A MX 2010012826 A MX2010012826 A MX 2010012826A
Authority
MX
Mexico
Prior art keywords
content
image
capture
images
perspective
Prior art date
Application number
MX2010012826A
Other languages
English (en)
Inventor
Steven Drucker
Gary W Flake
Brett D Brewer
Blaise Aguera Y Arcas
Michael Frederick Cohen
Karim Farouki
Ariel J Lazier
Stephen L Lawler
Donald James Lindsay
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of MX2010012826A publication Critical patent/MX2010012826A/es

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Instructional Devices (AREA)
  • Information Transfer Between Computers (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

La materia objeto reclamada proporciona un sistema y/o un método que facilita capturar una porción de datos bidimensionales (2D) para implementación dentro de un ambiente virtual tridimensional (3D). Un dispositivo que puede capturar una o más imágenes 2D, en donde la imagen 2D es representativa de un objeto corpóreo desde una perspectiva dictada por una orientación del dispositivo. El dispositivo puede comprender un agregador de contenido que puede construir una imagen 3D desde dos o más imágenes 2D recolectadas por el dispositivo, en donde la construcción está basada al menos en parte en alinear cada perspectiva correspondiente asociada con cada imagen 2D.

Description

AGREGACION DE CONTENIDO 3D CONSTRUIDO EN DISPOSITIVOS ANTECEDENTES Los avances en la tecnología de imágenes digitales han permitido a la gente capturar fácil y eficientemente grandes colecciones de fotografías digitales y almacenarlas en medios de almacenamiento compacto, discos duros u otros dispositivos. Típicamente, navegar en grandes colecciones de fotografías digitales involucra presentar una muestra de diapositivas de imágenes en las colecciones. Además, la navegación puede involucrar presentar una gran pantalla de imágenes en miniatura de baja resolución de las fotografías digitales. Las imágenes miniatura permiten a un usuario percibir una pluralidad de fotografías simultáneamente al costo de calidad y detalle de imagen.
Los mecanismos de navegación de imagen típicos no transportan relaciones del mundo real entre fotografías. Por ejemplo, dada una colección de fotografías de un paisaje o monumento, a un usuario no se le presenta información con respecto a qué ubicaciones de que fotografías se tomaron con relación una a la otra. Además, tales mecanismos no permiten navegar entre fotografías o transiciones entre fotografías basándose en una relación del'mundo real. En general, la navegación entre fotografías con técnicas convencionales involucra un aspecto ciego para entender la perspectiva y la ubicación entre fotografías.
Además de fotografías fijas digitales, las cámaras digitales convencionales permiten a los usuarios tomar video. Típicamente, los videos y las fotografías se manejan y ven separadamente sin importar el contenido, las imágenes o las escenas que se comparten. Por ejemplo, aunque un dispositivo puede recolectar video en tiempo real y una fotografía fija de una escena, la repetición de tales datos recolectados se hace separadamente. De forma adicional, muy parecida a fotografía fija digital, las técnicas convencionales utilizan un aspecto ciego para transportar relaciones y perspectivas compartidas entre dos o más videos.
BREVE DESCRIPCION DE LA INVENCION Lo siguiente presenta una breve descripción simplificada de la innovación con el fin de proporcionar un entendimiento básico de algunos aspectos aquí descritos. Esta breve descripción no es una revisión extensiva del tema reclamado. No pretende identificar elementos clave o críticos del tema reclamado ni delinear el alcance de la innovación en cuestión. Su único propósito es presentar algunos conceptos del tema reclamado en una forma simplificada como un preludio a la descripción más detallada que se presenta a continuación.
La innovación en cuestión se refiere a sistemas y/o métodos que facilitan capturar imágenes bidimensionales para ¡mplementación con un ambiente virtual tridimensional. Un agregador de contenido puede recolectar y combinar una pluralidad de imágenes bidimensionales (2D) o contenido para crear una imagen tridimensional (3D), en donde puede explorarse tal imagen 3D (por ejemplo, presentar cada imagen y punto de perspectiva) en un ambiente virtual. Por ejemplo, una colección de imágenes/fotografías de una pirámide (por ejemplo, una primera fotografía de un primer lado de la pirámide, una segunda fotografía de un segundo lado de la pirámide, una tercera fotografía de un tercer lado de la pirámide, y una cuarta fotografía de un cuarto lado de la pirámide) pueden recolectarse para crear una imagen u objeto 3D de la pirámide basándose que en los datos y/o perspectivas representadas substancialmente similares. Un usuario puede examinar la imagen 3D en donde puede seleccionarse cada fotografía para presentar en la fotografía y su perspectiva (por ejemplo, ubicación/orientación desde de la cual se capturó la fotografía). Esta innovación emplea capacidades de agregación de contenidos 2D en varios dispositivos tales como cámaras digitales, video, dispositivos móviles, portátiles, asistentes digitales portátiles (PDAs), dispositivos celulares, etc. En otras palabras, un dispositivo puede incluir una configuración o modo de agregador de contenido que puede recolectar datos para creación de una imagen u objeto 3D.
Además, la innovación en cuestión puede emplear una guía o navegación para que los usuarios capturen imágenes o videos no representados dentro de una imagen u objeto 3D. Además, la innovación en cuestión puede permitir la recreación de una imagen u objeto 3D mediante la guía e instrucción sobre qué fotografías o videos capturar (por ejemplo, recreación o reconstrucción de una porción de una imagen 3D previamente observadas). Tal modo o configuración además puede incluir configuraciones de fotografía o video optimizadas para mejorar las capacidades de agregación de contenido. Por ejemplo, la configuración de agregación de contenido puede proporcionar instrucciones sobre cómo capturar un marco de fotografía o video individual de una imagen 3D o una pluralidad de fotografías para recreación de la imagen 3D.
De acuerdo con otro aspecto de la innovación en cuestión, el dispositivo puede utilizar una guía (por ejemplo, video, audio, etc.) para instruir y navegar a un usuario a lo largo de trayectorias para recolectar imágenes, fotografías, o video. Para identificar una ubicación exacta para recrear una imagen/fotografía asociada con una imagen 3D, por ejemplo, el dispositivo puede influenciar un sistema de posicionamiento global (GPS). Además de permitir a un usuario capturar imágenes para su gusto, el dispositivo puede alertar a un usuario para tomar una fotografía/imagen/video de un objeto en cierta ubicación con el fin de actualizar una imagen 3D, un objeto 3D, un ambiente virtual 3D, y similares, en donde se necesita tal fotografía/imagen/video desde la ubicación (por ejemplo, no representadas) para creación de imágenes 3D. En otros aspectos del tema reclamado, se proporcionan métodos que facilitan la captura de una porción de datos (por ejemplo, imágenes, fotografía, video, etc.) con un dispositivo para construir una imagen u objeto 3D desde tal porción capturada de datos.
La siguiente descripción y los dibujos anexos establecen en detalle ciertos aspectos ilustrativos del tema reclamado. Estos aspectos son indicativos, sin embargo, de algunas de las varias formas en las cuales pueden emplearse los principios de la innovación y el tema reclamado pretende incluir todos esos aspectos y sus equivalentes. Otras ventajas y características novedosas del tema reclamado serán evidentes a partir de la siguiente descripción detallada de la innovación cuando se consideran en conjunto con los dibujos.
BREVE DESCRIPCION DE LOS DIBUJOS La Figura 1 ilustra un diagrama de bloques de un sistema ilustrativo que facilita captura de imágenes bidimensionales (2D) con un dispositivo con el fin de construir un objeto tridimensional (3D).
La Figura 2 ilustra un diagrama de bloques de un sistema ilustrativo que facilita recrear un objeto 3D al utilizar un dispositivo.
La Figura 3 ilustra un diagrama de bloques de un sistema ilustrativo que facilita mejorar la colección de imágenes 2D con un dispositivo al influenciar un Servicio de Posicionamiento Global (GPS).
La Figura 4 ilustra un diagrama de bloques de un sistema ilustrativo que facilita asociar metadatos con datos recolectados desde un dispositivo.
La Figura 5 ilustra un diagrama dé bloques de un sistema ilustrativo que facilita utilizar una técnica de presentación y/o una técnica de navegación de acuerdo con la innovación en cuestión.
La Figura 6 ilustra un diagrama de bloques de un sistema ilustrativo que facilita incorporar técnicas de agregación de contenidos 2D en un dispositivo.
La Figura 7 ilustra una metodología ilustrativa para capturar imágenes bidimensionales (2D) con un dispositivo con el fin de construir un objeto tridimensional (3D).
La Figura 8 ilustra una metodología ilustrativa que facilita recrear un objeto 3D o mejorar la colección de contenido 2D relacionado con un objeto 3D.
La Figura 9 ilustra un ambiente en red ilustrativo, en donde pueden emplearse los aspectos novedosos del tema reclamado.
La Figura 10 ilustra un ambiente operativo ilustrativo que puede emplearse de acuerdo con el tema reclamado.
DESCRIPCION DETALLADA La materia objeto reclamada se describe con referencia a los dibujos, en donde números de referencia similares se utilizan para hacer referencia a elementos similares a través de esto. En la siguiente descripción, para propósitos de explicación, se establecen numerosos detalles específicos con el fin de proporcionar un entendimiento completo de la innovación en cuestión. Puede ser evidente, sin embargo, que el tema reclamado puede practicarse sin estos detalles específicos. En otros casos, se muestran estructuras y dispositivos bien conocidos en forma de diagrama de bloque con el fin de facilitar describir la innovación en cuestión.
Como se utiliza aquí, los términos "componente", "sistema", "almacenamiento de datos", "procesador", "evaluador", "agregador", "ambiente", y similares pretenden hacer referencia a una entidad relacionada con computadora, ya sea hardware, software (por ejemplo, en ejecución), y/o firmware. Por ejemplo, un componente puede ser un procedimiento que corre en un procesador, un procesador, un objeto, un ejecutable, un programa, una función, una biblioteca, una subrutina, y/o una computadora o una combinación de software y hardware. A manera de ilustración, tanto una aplicación que corre en un-servidor como el servidor puede ser un componente. Uno o más componentes pueden residir dentro de un componente que puede localizarse en una computadora y/o distribuirse entre dos o más computadoras.
Además, el tema reclamado puede ¡mplementarse como un método, aparato, o artículo de fabricación al utilizar técnicas de programación y/o ingeniería estándares para producir software, firmware, hardware, o cualquier combinación de los mismos para controlar una computadora para implementar el tema descrito. El término "artículo de fabricación" como se utiliza aquí pretende abarcar un programa de computadora accesible desde cualquier dispositivo legible por computadora, portador, o medio. Por ejemplo, los medios legibles por computadora puéden incluir pero no están limitados a dispositivos de almacenamiento magnético (por ejemplo, disco duro, disco flexible, bandas magnéticas...), discos ópticos (por ejemplo, disco compacto (CD), disco versátil digital (DVD)...), tarjetas inteligentes, y dispositivos de memoria flash (por ejemplo, tarjeta, memoria, unidad de memoria...). Adicionalmente se debe apreciar que puede emplearse una onda portadora para transportar datos electrónicos legibles por computadora tal como aquellos utilizados al transmitir y recibir correo electrónico o al acceder a una red tal como Internet o una red de área local (LAN). Por supuesto, aquellos expertos en la técnica reconocerán que pueden hacerse muchas modificaciones de esta configuración sin apartarse del alcance o espíritu del tema reclamado. Además, la palabra "ilustrativo" se utiliza aquí para significar que sirve como un ejemplo, caso, o ilustración. Cualquier aspecto o diseño aquí descrito como "ilustrativo" no necesariamente debe interpretarse como preferido o ventajoso sobre otros aspectos o diseños.
Cambiando ahora a las figuras, la Figura 1 ilustra un sistema 100 que facilita capturar imágenes bidimensionales (2D) con un dispositivo con el fin de construir un objeto tridimensional (3D). El sistema 100 puede incluir un dispositivo 104 que puede capturar y/o recolectar contenido, en donde el contenido puede ser al menos uno de una porción de una imagen 106 ó una porción de un video 108. Además, el dispositivo 104 puede incluir un navegador de contenido 102 que puede construir una imagen u objeto 3D con el contenido capturado (por ejemplo, la porción de imagen 106, la porción de video 108, etc.) El agregador de contenido 102 puede construir la imagen u objeto 3D al alinear contenido 2D (por ejemplo, la porción imagen 106, la porción de video 108, etc.) basándose al menos en parte en perspectivas correspondientes de punto de vista de tal contenido 2D. Por ejemplo, el dispositivo 104 puede capturar o recolectar contenido desde una perspectiva o punto de vista particular, en donde tal perspectiva o puntos de vista dependen de la orientación del dispositivo 104.
Además, el sistema 100 puede incluir un ambiente 3D 110 que puede incluir las dos o más imágenes 2D, cada una que tiene una perspectiva o punto de vista específico. Se debe apreciar que el ambiente 3D 110 puede estar incorporado en el dispositivo 104 y/o un componente/ambiente separado, y/o cualquier combinación adecuada de los mismos. En particular, las imágenes 2D pueden agregarse o recolectarse por el agregador de contenido 102 incluido dentro del dispositivo 104 con el fin de construir una imagen u objeto 3D, en donde la colección y/o agregación puede basarse en cada perspectiva de imagen 2D. De esa forma, las imágenes 2D pueden construirse con el fin de proporcionar una imagen 3D dentro del ambiente 3D 110 ó el dispositivo 104 que puede explorarse, navegarse, etc. El ambiente 3D 110 puede arrojar cualquier número adecuado de contenido 2D y/o imágenes u objetos 3D. Por ejemplo, el objeto 3D construido puede agregarse dentro del dispositivo 104 y entonces cargarse al ambiente 3D. Se debe apreciar que el objeto construido 3D (por ejemplo, imagen, etc.) puede ser desde cualquier contenido 2D adecuado tal como, pero no limitado a, imágenes, fotografías, videos (por ejemplo, un marco fijo de un video, etc.), audio, imágenes, datos de medios, fotografías, metadatos, tarjetas de intercambio, cualquier medio que representa una porción de un mundo real físico, una imagen de un objeto, un contenido que representa un artículo, un contenido que ilustra una entidad, un objeto corpóreo dentro del mundo real, etc. Por ejemplo, la construcción del objeto o imagen 3D puede alojarse dentro del dispositivo 104. En otro ejemplo, el dispositivo 104 puede capturar contenido 2D y comunicar tales datos al ambiente 3D 110, en donde el ambiente 110 puede crear el objeto o imagen 3D y comunicar tal objeto o. imagen 3D al dispositivo 104.
Por ejemplo, puede explorarse un ambiente 3D en donde la imagen u objeto 3D puede ser un cubo (por ejemplo, un objeto corpóreo en un mundo al real físico o ambiente). En general, la imagen u objeto 3D puede construirse al alinear contenido 2D con al menos uno de una perspectiva compartida, un traslape en cobertura dentro del contenido 2D (por ejemplo, imagen A e imagen B ambas presentan una porción del cubo, etc.), un punto de vista substancialmente similar, y/o cualquier otra relación asociada con el contenido 2D con el fin de ilustrar de forma precisa el cubo (por ejemplo, metadatos, definición de etiqueta, etc.). De esa forma, el cubo puede crearse al combinar una primera imagen de una primera cara del cubo (por ejemplo, la perspectiva se orienta a la primera cara del cubo), una segunda imagen de una segunda cara del cubo (por ejemplo, la perspectiva se orienta a la segunda cara del cubo), una tercera imagen de una tercera cara del cubo (por ejemplo, la perspectiva se orienta a la tercera cara del cubo), una cuarta imagen de una cuarta cara del cubo (por ejemplo, la perspectiva se orienta a-la cuarta cara del cubo), una quinta imagen de una quinta cara del cubo (por ejemplo, la perspectiva se orienta a la quinta cara del cubo), y una sexta imagen de una sexta cara del cubo (por ejemplo, la perspectiva se orienta a la sexta cara del cubo). Como se discutió, las imágenes del cubo pueden compartir una porción de perspectiva de imágenes (traslape entre las imágenes). Al agregar las imágenes del cubo basándose en sus perspectivas o puntos de vista, puede crearse una imagen 3D del cubo dentro del ambiente 3D 110 que puede presentarse, verse, navegarse, explorarse, y similares.
Siguiendo el ejemplo anterior, el agregador de contenido 102 puede influenciar contenido, capturado y/o recolectado desde el dispositivo 104 y permite generación uniforme y automática de imágenes u objetos 3D para exploración, navegación, presentación, etc. El dispositivo 104 puede crear automáticamente la imagen u objeto 3D desde el contenido 2D recolectado en lugar de recibir tal contenido desde una fuente exterior (por ejemplo, Internet, una red, un servidor, una unidad dura externa, etc.). En otro ejemplo, el dispositivo 104 puede crear automáticamente la imagen u objeto 3D desde el contenido 2D recolectado y complementar tal imagen 3D u objeto con contenido desde una fuente exterior. En general, la innovación en cuestión permite la recolección automática de contenido (por ejemplo, imágenes, video, etc.) y la generación de una imagen u objeto 3D construido de tal contenido 2D dentro del dispositivo 104.
Además, el sistema 100 puede incluir cualquier componente de interfase adecuado y/o necesario (no mostrado), que proporciona varios adaptadores, conectores, canales, trayectorias de comunicación, etc., para integrar el agregador de contenido 102 y/o el dispositivo 104 en virtualmente cualquier sistema(s) operativo y/o de base de datos y/o con uno y otro. Además, el componente de interfase puede proporcionar varios adaptadores, conectores, canales, trayectorias de comunicación, etc., que se proporcionan para interacción con el agregador de contenido 102, el dispositivo 104, la porción de imagen 106, la porción de video 108, el ambiente 3D (no mostrado), y cualquier otro dispositivo y/o componente asociado con el sistema 100.
La Figura 2 ilustra un sistema 200 que facilita recrear un objeto 3D al utilizar un dispositivo. El sistema 200 puede incluir el dispositivo 104 con un agregador de contenido incorporado 102. La combinación del dispositivo 104 y el agregador de contenido 102 puede proporcionar captura uniforme de imágenes 2D que pueden utilizarse para construir una imagen u objeto 3D, en donde la imagen u objeto 3D puede verse, presentarse, navegarse, explorarse, etc. En particular, el agregador de contenido 102 puede permitir una recreación de una imagen u objeto 3D basándose en una estructura u organización predefinida (por ejemplo, un diseño que define contenido y colocación 2D de tal contenido con el fin de construir una imagen u objeto 3D correspondiente, etc.) de contenido 2D que representa un objeto, escena, paisaje, etc. Dentro del mundo real físico. Generalmente, la estructura u organización predefinida puede permitir que se repita una imagen objeto 3D por el sistema 200.
Una solicitud relacionada con recrear una imagen 3D puede recibirse por el dispositivo 104, en donde un evaluador 204 puede analizar la solicitud con el fin de identificar una imagen u objeto 3D por recrear. Se debe apreciar que la solicitud puede relacionarse con una imagen objeto 3D existente (por ejemplo, alojado por el ambiente 3D 110, alojado por una fuente exterior, almacenado dentro del dispositivo 104, etc.) o una imagen u objeto 3D que no se ha creado construido del contenido 2D. En cualquier caso, el evaluador 204 puede identificar si se crea una nueva imagen u objeto 3D o si se crea una imagen u objeto 3D existente. Basándose en tal solicitud, un componente de navegación 204 puede proporcionar asistencia con el fin de crear una imagen u objeto 3D. Por ejemplo, la asistencia obvia puede relacionarse con ubicaciones y/u orientaciones para el dispositivo 104 con el fin de capturar contenido 2D. Por ejemplo al capturar el contenido con perspectiva, orientaciones identificadas, y similares, el agregador de contenido 102 dentro del dispositivo 102 puede construir la imagen u objeto 3D. Se debe apreciar que la asistencia obvia puede ser una porción de audio, una porción de video, una ruta, una ruta en un mapa geográfico, un grupo de direcciones y gráficas, una porción de texto, una porción de gráfico, y/o cualquier otro dato o adecuado puede facilitar identificar una ubicación, una perspectiva, y una orientación para que el dispositivo 104 capture contenido para construcción 3D. Tal guía o asistencia puede comunicarse a través del dispositivo, en donde el dispositivo puede incluir al menos uno de una bocina o una pantalla.
Por ejemplo, un usuario puede estar viajando a un edificio para el cual le gustaría crear o construir una imagen u objeto 3D a partir de contenido 2D. Basándose en tal deseo, el usuario puede utilizar un dispositivo con un agregador de contenido incorporado para realizar tal tarea. El usuario puede comunicar una solicitud, en donde el dispositivo puede determinar o valorar una estructura u organización predefinida que diseña el contenido 2D necesario de perspectivas y/o puntos de vista correspondientes. Con esta información (por ejemplo, orientación de dispositivo, ángulo, acercamiento (zoom), punto de vista, etc.), puede construirse la imagen u objeto 3D. Con el fin de comunicar esta información al usuario, el dispositivo puede proporcionar cualquier dato adecuado tal como audio, gráficos, video, texto, etc. Por ejemplo, el dispositivo puede utilizar una presentación para ilustrar un mapa con rutas e instrucciones sobre dónde capturar contenido 2D y desde que perspectiva, orientación, ángulo, etc. Tal presentación además puede indicar la cantidad de contenido necesario para un nivel de detalle deseado particular (por ejemplo, más contenido se traduce en grado superior de perspectivas representadas, etc.). Una vez construido, la imagen u objeto 3D puede construirse y utilizarse dentro del dispositivo 104. En otro ejemplo, la imagen u objeto 3D puede utilizarse con el ambiente 3D 110.
Además, se debe apreciar que el dispositivo 104 puede valorar automáticamente que o cuanto contenido 2D necesita capturarse con el fin de construir una imagen u objeto 3D. En otras palabras, el dispositivo 104 no necesita utilizar una estructura u organización predefinida. Por ejemplo, el dispositivo 104 puede implementar el evaluador 204 para analizar continuamente el contenido 2D capturado (por ejemplo, porción de imagen 106, porción de audio 108, etc.) para determinar si se recolectó suficiente contenido. Además se debe apreciar que la cantidad de contenido para cada imagen u objeto 3D puede variar basándose en la complejidad, perspectivas, tamaño, y/o cualquier otra de las características adecuadas del mismo.
La Figura 3 ilustra un sistema 300 que facilita mejorar la colección de imágenes 2D con un dispositivo al influenciar un Servicio de Posicionamiento Global (GPS). El sistema 300 puede incluir el dispositivo 104 que integra colección de contenido 2D con un agregador de contenido 102 con el fin de crear una imagen u objeto 3D. El dispositivo 104 puede ser cualquier dispositivo o componente adecuado que puede capturar o recolectar contenido 2D (por ejemplo, porción de imagen 106, porción de video 108, etc.) tal como, pero no limitándose a, una cámara digital, una cámara de video, una cámara, un teléfono inteligente, un móvil, una cámara web, un dispositivo móvil, un asistente digital portátil (PDA), un dispositivo celular, una cámara desechable, una cámara integrada dentro de un dispositivo (por ejemplo, cámara laptop, cámara de escritorio, cámara de automóvil, etc.), un dispositivo de cómputo con capacidades de captura de imagen, etc. En general, el sistema 300 puede crear una imagen u objeto 3D a partir de contenido 2D, recrear una imagen u objeto 3D existente para el dispositivo 104 a partir de contenido 2D, y/o complementar una imagen u objeto 3D existente con contenido 2D capturado a partir del dispositivo 104.
La porción de video 108 puede ser un segmento de video que puede incluir numerosos marcos de video que pueden enumerarse en cientos o miles dependiendo de la longitud del segmento. Por ejemplo, la película puede tener 24 marcos cada segundo, el video de televisión puede ser de aproximadamente 30 marcos por segundo y algún equipo puede capturar cientos de marcos por segundo. Cada marco individual es una imagen fija individual y la rápida sucesión de marcos permite que se perciba el movimiento sutil. Sin embargo, la pluralidad de marcos en un segundo individual típicamente es muy similar en términos de las imágenes capturadas. Por consiguiente, el agregador de contenido 102 puede utilizar la porción de video para generar una imagen u objeto 3D.
En un ejemplo del sistema 300 que suplementa una imagen u objeto 3D existente, el evaluador 204 puede examinar el contenido 2D asociado con una imagen u objeto 3D específico. Basándose en tal examen, el dispositivo 104 puede alterarse o comunicarse para capturar contenido 2D complementario para utilizarse para la imagen u objeto 3D. Por ejemplo, el ambiente 3D 110 puede alojar una pluralidad de contenido 2D y/o imágenes 3D u objetos, en donde las imágenes u objetos 3D pueden complementarse basándose en cobertura incompleta, requerimientos de respaldo, etc. El evaluador 204 puede determinar si existe tal necesidad, en donde el componente de navegación 202 puede proporcionar guía o asistencia con el fin de capturar tal contenido 2D necesario. En general, el sistema 300 puede permitir imágenes u objetos 3D incompletos o parciales para completarse con contenido 2D adquirido. Por ejemplo, el dispositivo 104 puede proporcionar una ruta en un mapa para un usuario con el fin de capturar una imagen 2D de un objeto a partir de una perspectiva particular ya que tal imagen y perspectiva no se representa en la imagen u objeto 3D existente.
El sistema 300 puede permitir que el dispositivo 104 proporcione una cobertura local del objeto o imagen 3D (por ejemplo, captura de contenido 2D, colección de imagen 2D, etc.) o una cobertura global dentro de un sistema de comunidad. La cobertura local puede permitir que el dispositivo 104 capture contenido 2D y cree un objeto o imagen 3D privado, local para el uso del dispositivo 104. La cobertura global puede permitir que el dispositivo 104 capture contenido 2D y cree un objeto o imagen 3D que se comparte con la comunidad. Se debe apreciar que la cobertura global puede ser granular ya que puede compartirse una porción de contenido 2D, una colección de contenido 2D, una porción de un objeto 3D, o el objeto 3D, etc. Adicionalmente, el dispositivo 104 puede permitir una porción de contenido 2D que puede incorporarse en el sistema de comunidad para representación del objeto o imagen 3D.
Además, el dispositivo 104 puede influenciar un componente de sistema de posicionamiento global (GPS) 302 para facilitar identificar ubicaciones, orientaciones, y perspectivas con el fin de capturar contenido 2D (por ejemplo, porción de imagen 106, porción de video 108, etc.)- Se debe apreciar que el componente de GPS 302 puede ser un componente independiente (como se ilustra), incorporado en el dispositivo 104, y/o cualquier combinación de los mismos. Por ejemplo, el dispositivo 104 puede ser un teléfono inteligente con capacidades de captura de fotografía/video y un servicio que proporciona servicios de GPS para rastrear la ubicación. El componente de GPS 302 puede utilizarse en conexión con el componente de navegación 202 con el fin de proporcionar posiciones geográficas, orientaciones, etc. Con el fin de capturar contenido 2D para construir una imagen u objeto 3D. Se debe apreciar además que el componente de GPS 302 y/o el dispositivo 104 pueden utilizar un acelerómetro (no mostrado) para identificar ángulos u orientaciones específicas en conexión con la ubicación o posición geográfica.
Además, el dispositivo 104 puede utilizar un modo de captura de contenido 2D al cual se compara una vista desde el dispositivo 104 con un objeto o imagen 3D existente con el fin de identificar o localizar una posición geográfica. En otras palabras, el contenido que se observa y captura potencialmente así como la orientación del dispositivo 110 puede compararse con contenido 2D existente que representa el objeto 3D, en donde la comparación puede revelar la ubicación y la posición del dispositivo. De esa forma, al utilizar el objeto o imagen 3D existente y contenido 2D incluido, la posición y orientación geográfica del dispositivo 104 puede determinarse sin el componente de GPS 302.
El sistema 300 además puede incluir un almacenamiento de datos 304 que puede incluir cualquier dato adecuado relacionado con el dispositivo 104, el agregador de contenido 102, la porción de imagen 106, la porción de video 108, el componente de navegación 202, el evaluador 204, el componente de GPS 302, etc. Por ejemplo, el almacenamiento de datos 304 puede incluir, pero no está limitado a incluir, contenido 2D, estructura u organización predefinida para alinear contenido 2D para una imagen u objeto 3D, imágenes u objetos 3D construidos, configuraciones de colección de contenido (por ejemplo, preferencias, configuraciones, contraseñas, etc.), rutas, mapas, ubicaciones geográficas, orientaciones para contenido 2D, perspectivas relacionadas con contenido 2D, alineaciones para contenido 2D, guía para recolección de contenido 2D, imágenes recolectadas, video recolectado, datos de ambiente 3D (por ejemplo, imágenes 3D, objetos 3D, nombre de usuario, contraseña, contenido 2D existente, contenido 2D requerido, etc.), datos de GPS, datos de acelerómetro, solicitudes de datos, etc.
Se debe apreciar que el almacenamiento de datos 304 puede ser, por ejemplo, memoria volátil o memoria no volátil, o puede incluir tanto memoria volátil como no volátil. A manera de ilustración, y no de limitación, la memoria no volátil puede incluir memoria sólo de lectura (ROM), ROM programable (PROM), ROM eléctricamente programable (EPROM), ROM programable eléctricamente borrable (EEPROM), o memoria flash. La memoria volátil puede incluir memoria de acceso aleatorio (RAM), que actúa como memoria caché externa. A manera de ilustración y no de limitación, RAM está disponible en muchas formas tal como RAM estática (SRAM), RAM DINÁMICA (DRAM), DRAM sincrónico (SDRAM), SDRAM de velocidad de datos doble (DDRSDRAM), SDRAM mejorada (ESDRAM), DRAM de enlace sincrónico (SLDRAM), RAM directa de conductor común de RAM (RDRAM), RAM dinámica de conductor común de RAM directo (DRDRAM), y RAM dinámica de conductor común de RAM (RDRAM). El almacenamiento de datos 304 de los sistemas y métodos en cuestión pretende comprender, sin estar limitado, a estos y cualquier otro tipo de memoria adecuado. Además, se debe apreciar que el almacenamiento de datos 304 puede ser un servidor, una base de datos, una unidad dura, una unidad de pluma, una unidad dura externa, una unidad dura portátil, y similares.
La Figura 4 ilustra un sistema 400 que facilita la asociación de metadatos con datos recolectados desde un dispositivo. El sistema 400 puede incluir el dispositivo 104 que puede proporcionar captura automática de contenido 2D (por ejemplo, porción de imagen 106, porción de video 108, etc.) y creación uniforme de una imagen u objeto 3D construido del contenido 2D con el agregador de contenido 102, en donde la construcción está basada en alinear y organizar el contenido 2D basándose en perspectivas y puntos de vista relacionados con ésta. El dispositivo 104 puede incluir un modo o configuración que permite la colección o recolección automática de imágenes 2D que puede utilizarse para construir una imagen u objeto 3D con el agregador de contenido incorporado 102. En particular, tal modo o configuración puede influenciar configuraciones y/o establecimientos de dispositivo existentes con el fin de optimizar la captura de contenido 2D para construcción de objeto o imagen 3D. Por ejemplo, el dispositivo 104 puede incluir modos de escena (por ejemplo, automático, definido por usuario, acercamiento, retrato, paisaje, deportes, nocturno, invierno, verano, retrato nocturno, puesta de sol, etc.), los modos panorámicos opcionales (por ejemplo, opcional ya que el agregador de contenido es voluminoso para esta configuración, el contenido 2D puede hacerse más similar, etc.), los modos de unión de fotografía (por ejemplo, opcional ya que el agregador de contenido es voluminoso para esta configuración, el contenido 2D puede hacerse más similar, etc.), modo de flash (por ejemplo, flash automático, flash encendido, reducción de ojos rojos, sin flash, etc.), configuraciones de cronómetro, modo de secuencia (por ejemplo, toma de impulso, captura retrasada, etc.), compensación de exposición, balance de blancos, tono de color, sensibilidad a la luz, contraste, nitidez, etc. Tales configuraciones y/o modos de dispositivo pueden optimizarse automáticamente, definirse por usuario, y/o cualquier combinación adecuada de los mismos.
El sistema 400 además puede incluir un componente de etiquetación de tiempo real 402 que permite etiquetación de contenido 2D capturado desde el dispositivo 104. El componente de etiquetación de tiempo real 402 puede anexar una porción de contenido 2D y/o imagen u objeto 3D con cualquier metadato adecuado asociado con ésta. En particular, el componente de etiquetación en tiempo real 402 puede incorporar metadatos tal como, pero no limitados a, al menos uno de una porción de datos geográficos, una porción de datos de autor, una porción de datos de propietario, una porción de datos de seguridad, un tiempo, una fecha, un ángulo, una perspectiva, una porción de datos de dispositivo, un nivel de zoom, un zoom, un punto de vista, una porción de datos de asociación de objeto 3D, una posición dentro de un objeto 3D, una alineación dentro de un objeto 3D, una definición de categpría, una definición de tema, una clasificación, una clasificación de popularidad, una clasificación de calidad, una velocidad de marco, una resolución, una representación de objeto, una porción de datos de vista pura, una porción de datos de vista auténtica, etc. Se debe apreciar que pueden utilizarse tales metadatos por el ambiente 3D 110, el agregador de contenido 102, el dispositivo 104, un dispositivo distinto, un agregador de contenido distinto, una comunidad, un sitio web, una red, un servidor, un usuario, una porción de software, una aplicación, una porción de hardware, etc.
La Figura 5 ilustra un sistema 500 que facilita utilizar una técnica de presentación y/o una técnica de navegación de acuerdo con la innovación en cuestión. El sistema 500 puede incluir el dispositivo 104 que puede capturar al menos uno de la porción de imagen 106 o una porción de video 108 como se describió anteriormente. El sistema 500 además puede incluir un procesador de presentación 502 que permite la toma panorámica uniforme y/o interacción de zoom con cualquier dato adecuado (por ejemplo, datos de objeto 3D, imagen 3D, contenido 2D, imagen 2D, etc.), en donde tales datos pueden incluir múltiples escalas o vistas y una o más resoluciones asociadas con estos. En otras palabras, el procesador de presentación 502 puede manipular una vista predeterminada inicial para datos presentados al permitir el zoom (por ejemplo, acercamiento, alejamiento, etc.) y/o panorámica (panorámica hacia arriba, panorámica hacia abajo, panorámica a la derecha, panorámica a la izquierda, etc.) en donde tales vistas con zoom o panorámicas pueden incluir varias calidades de resolución. El procesador de presentación 502 permite que la información visual se navegue suavemente sin importar la cantidad de datos involucrados en el ancho de banda de una red. Además, el procesador de presentación 502 puede emplearse con cualquier presentación o pantalla adecuada (por ejemplo, dispositivo portátil, dispositivo celular, monitor, televisión de plasma, presentación de dispositivo, etc.). El procesador de presentación 502 además puede proporcionar al menos uno de los siguientes beneficios o «mejoras: 1) velocidad de navegación puede ser independiente de tamaño o número de objetos (por ejemplo, datos); 2) desempeño puede depender de una relación de ancho de banda a píxeles en una pantalla o presentación; 3) transiciones o entrevistas puede ser suave; y 4) escalar es casi perfecto y rápido para pantallas de cualquier resolución.
Por ejemplo, puede observarse una imagen en una vista predeterminada con una resolución especifica. Además, el procesador de presentación 502 puede permitir que la imagen tenga zoom y/o panorámica en múltiples vistas o escalas (en comparación con la vista predeterminada) con varias resoluciones. De esa forma, un usuario puede acercarse a una porción de la imagen para obtener una vista ampliada en una resolución igual o superior. Al permitir que la imagen se le realice zoom y/o panorámica, la imagen puede incluir virtualmente un espacio o volumen ilimitado que puede observarse o explorarse en varias escalas, niveles, o vistas con cada una incluyendo una o más resoluciones. En otras palabras, puede verse un imagen en un nivel más granular mientras mantiene la resolución con transiciones suaves independientes de panorámica, zoom, etc. Además, una primera vista puede no exponer porciones de información o datos en la imagen, hasta que se le realiza zoom o panorámica con el procesador de presentación 502.
Un procesador de navegación 504 también puede incluirse con el sistema 500. El procesador de navegación 504 puede influenciar el procesador de presentación 502 para implementar panorámica y/o zoom uniforme y suave para cualquiera de los datos adecuados navegados en conexión con al menos uno de Internet, una red, un servidor, un sitio web, una página web, el ambiente 3D (no mostrado), la imagen 3D, el objeto 3D, y similares. Se debe apreciar que el procesador de navegación 504 puede ser un componente independiente, incorporado en un navegador, utilizado con o en combinación con un navegador (por ejemplo, navegador de legado a través de un parche o actualización de firmware, software, hardware, etc.), y/o cualquier combinación adecuada de los mismos. Por ejemplo, el procesador de navegación 504 puede incorporar capacidades de navegación de Internet tal como panorámica y/o zoom uniforme a un navegador existente. Por ejemplo, el procesador de navegación 504 puede influenciar el procesador de presentación 502 con el fin de proporcionar navegación mejorada con zoom y/o panorámico uniforme en un objeto o imagen 3D, en donde pueden exponerse varias escalas o vistas por el zoom y/o panorámica suave.
Como se discutió, el sistema 500 puede incluir el agregador de contenido 102 que puede recolectar una pluralidad de contenido bidimensional (2D) (por ejemplo, datos de medios, imágenes, video, fotografías, metadatos, tarjetas de intercambio, etc.) para crear una imagen u objeto 3D que puede explorarse (por ejemplo, presentar cada imagen y punto de perspectiva) dentro del dispositivo 104 y/o un ambiente 3D (no mostrado). Con el fin de proporcionar una imagen u objeto 3D completo a un usuario, se combinan vistas auténticas (por ejemplo, vistas puras de imágenes) con vistas sintéticas (por ejemplo, interpolaciones entre contenido tal como una mezcla proyectada en el modelo 3D). Por ejemplo, el agregador de contenido 102 puede agregar una gran colección de fotografías de un lugar o un objeto, analizar tales fotografías para similitudes, y presentar tales fotografías en un espacio 3D reconstruido para crear un objeto 3D, que ilustra cómo se relaciona cada fotografía con la siguiente. Se debe apreciar el contenido recolectado puede ser desde varias ubicaciones (por ejemplo, Internet, datos locales, datos remotos, servidor, red, datos inalámbricamente recolectados, etc.). Por ejemplo, puede accederse rápidamente a grandes colecciones de contenido (por ejemplo, gigabytes, etc.) (por ejemplo, segundos, etc.) con el fin de ver una escena virtualmente desde cualquier ángulo en perspectiva. En otro ejemplo, el agregador de contenido 102 puede identificar contenido y son substancialmente similares para ampliar y enfocar en un detalle pequeño. El agregador de contenido 102 puede proporcionar al menos uno de los siguientes: 1) caminata o vuelo a través de una escena para ver contenido desde varios ángulos; 2) acercamiento o alejamiento de forma uniforme de contenido independiente de resolución (por ejemplo, megapíxeles, giga píxeles, etc.); 3) localizar en donde se capturó el contenido con relación a otro contenido; 4) localizar contenido similar a contenido actualmente visto; y 5) comunicar una colección o una vista particular de contenido a una entidad (por ejemplo, usuario, máquina, dispositivo, componente, etc.).
La Figura 6 ilustra un sistema 600 que emplea inteligencia para facilitar incorporar técnicas de agregación de contenido 2D en un dispositivo. El sistema 600 puede incluir el dispositivo 104, el agregador de contenido 104, la porción de imagen 106, y la porción de video 108, que puede ser substancialmente similar a dispositivos, agregadores, imágenes y video respectivos descritos en figuras previas. El sistema 600 además incluye un componente inteligente 602. El componente inteligente 602 puede utilizarse por el agregador de contenido 102 y/o el dispositivo 104 para facilitar capturar contenido 2D dentro de un dispositivo 104 con el fin de crear una imagen u objeto 3D. Por ejemplo, el componente inteligente 602 puede inferir contenido 2D para una imagen u objeto 3D, perspectivas no representadas dentro de una imagen u objeto 3D, contenido 2D complementario necesario para una imagen u objeto 3D, configuraciones optimizadas de dispositivo para agregación de contenido, guía o asistencia para dirección para capturar contenido 2D, rutas, mapas, orientaciones, perspectivas, puntos de vista, ángulos, ubicación geográfica, etiquetas para contenido 2D, metadatos para contenido 2D capturado, preferencias de usuario, configuraciones, etc.
El componente inteligente 602 puede emplear valor de cálculo de información (VOI) con el fin de identificar guía o asistencia óptima para capturar contenido 2D un dispositivo en una base por usuario. Por ejemplo, al utilizar cálculo VOI, la guía o asistencia más ideal y/o apropiada para capturar contenido 2D puede determinarse (por ejemplo, el usuario A prefiere direcciones de audio, el usuario B desea rutas en mapas, la ruta X es más ideal que la ruta Y, etc.).
Además, se entenderá que el componente inteligente 602 puede proporcionar racionamiento o inferir estados del sistema, ambiente, y/o usuario desde un grupo de observaciones como capturadas a través de eventos y/o datos. La inferencia puede emplearse para identificar un contexto vacío o acción específica, o puede generar una distribución de probabilidad sobre estados, por ejemplo. La inferencia puede ser probabilistica, es decir, el cálculo de una distribución de probabilidad sobre estados de interés basándose en una consideración de datos y eventos. La inferencia también puede referirse a técnicas empleadas para componer eventos de nivel superior a partir de un grupo de eventos y/o datos. Tal inferencia resulta en la construcción de nuevos eventos o acciones a partir de un grupo de eventos observados y/o datos de evento almacenados, ya sea que los eventos estén o no correlacionados en proximidad temporal cercana, y si los eventos y datos vienen de uno o varios eventos y fuentes de datos. Varios esquemas y/o sistemas de clasificación (explícita y/o implícitamente entrenado) (por ejemplo, máquinas de vector de soporte, redes neurales, sistemas expertos, redes de creencia Bayesiana, lógica confusa, procesadores de fusión de datos...) pueden emplearse en conexión con realizar acción automática y/o inferida en conexión con la materia objeto reclamada.
Un clasificador es una función que traza un vector de atributo de entrada, x = (x1, x2, x3, x4, xn), a una confianza de que la entrada pertenece a una clase, es decir, f (x) = conf ianza (clase). Tal clasificación puede emplear un análisis basado en probabilistica y/o estadística (por ejemplo, factorizar en las utilidades y costos de análisis) para pronosticar o inferir una acción que un usuario desea que se realice automáticamente. Una máquina de vector de soporte (SDM) es un ejemplo de un clasificador que puede emplearse. La SDM opera al encontrar una hípersuperficie en el espacio de posibles entradas, cuya hípersuperficie intenta dividir los criterios de activación de los eventos de no activación. Intuitivamente, esto hace la clasificación correcta para probar datos que están cercanos, pero no son idénticos a datos de entrenamiento. Otros acercamientos de clasificación de modelos dirigidos y no dirigidos incluyen, por ejemplo, Bayes natural, redes Bayesianas, árboles de decisión, redes neurales, modelos de lógica confusa, y modelos de clasificación probabilística que proporcionan diferentes patrones de independencia que pueden emplearse. La clasificación como se utiliza aquí también es inclusiva de regresión estadística que se utiliza para desarrollar modelos de prioridad.
El dispositivo 104 además puede utilizar un componente de presentación 604 que proporciona varios tipos de interfases de usuario para facilitar la interacción entre un usuario y cualquier componente acoplado al dispositivo 104. Como se ilustra, el componente de presentación 604 es una entidad separada que puede utilizarse con el dispositivo 104. Sin embargo, se debe apreciar que el componente de presentación 604 y/o componentes de vista similares pueden incorporarse en el dispositivo 104 y/o una unidad independiente. El componente de presentación 604 puede proporcionar una o más interfases de usuario gráficas (GUIs), interfases de línea de comando, y similares. Por ejemplo, una GUI puede presentarse y proporciona a un usuario una región o medio para cargar, importar, leer, etc., datos, y puede incluir una región para presentar los resultados de tales. Estas regiones pueden comprender regiones de texto y/o gráfico conocidas que comprenden cuadros de diálogo, controles estáticos, menús desplegables, cuadros, de lista, menús emergentes, como controles de edición, cuadros de combo, botones de radio, cuadros de revisión, botones para oprimir, y cuadros gráficos. Además, las utilidades para facilitar la presentación tal como barras de desplazamiento vertical y/u horizontal para navegación y botones de barra de herramientas para determinar si puede emplearse una región, serán visibles. Por ejemplo, él usuario puede interactuar con uno o más de los componentes acoplados y/o incorporados en el dispositivo 104.
El usuario también puede interactuar con las regiones para seleccionar y proporcionar información a través de varios dispositivos tal como un ratón, una seguibola, almohadilla táctil, un teclado numérico, un teclado, una pantalla táctil, una pluma y/o activación por voz, una detección de movimiento corporal, por ejemplo. Típicamente, puede emplearse un mecanismo tal como un botón para oprimir o la tecla de ingresar en el teclado subsecuente a ingresar la información con el fin de iniciar la búsqueda. Sin embargo, se debe apreciar que el tema reclamado no está limitado de esa forma. Por ejemplo, simplemente resaltar un cuadro de revisión puede iniciar en la transportación de información. En otro ejemplo, puede emplearse una interfase de línea de comando. Por ejemplo, la interfase de línea de comando puede impulsar (por ejemplo, a través de un mensaje de texto en una presentación y un tono de audio) al usuario por información a través de proporcionar un mensaje de texto. El usuario entonces puede proporcionar información adecuada, tal como entrada alfanumérica que corresponde una opción proporcionada en el impulso de interfase o una respuesta a una pregunta formulada en el impulso. Se debe apreciar que la interfase o linea de comando puede emplearse en conexión con una GUI y/o API. Además, la interfase de línea de comando puede emplearse en conexión con hardware (por ejemplo, tarjetas de video) y/o pantallas (por ejemplo, blanco y negro, EGA, VGA, SVGA, etc.) con soporte de gráficos limitado, y/o canales de comunicación de ancho de banda bajo.
Las Figuras 7-8 ilustran metodologías y/o diagramas de flujo de acuerdo con el tema reclamado. Para simplicidad de explicación, las metodologías se ilustran y describen como una serie de actos. Se debe entender y apreciar que la innovación en cuestión no está limitada por los actos ilustrados y/o por el orden de actos. Por ejemplo, los actos pueden ocurrir en varios órdenes y/o concurrentemente, y con otros actos no presentados y descritos aquí. Además, no todos los actos ilustrados pueden requerirse para implementar las metodologías de acuerdo con la materia objeto reclamada. Además, aquellos expertos en la técnica entenderán y apreciarán que las metodologías pueden representarse alternativamente como una serie de estados interrelacionados a través de un diagrama de estado o eventos. Adicionalmente, además se debe apreciar que las metodologías descritas en lo sucesivo y a través de esta especificación son capaces de almacenarse en un artículo de fabricación para facilitar transportar y transferir tales metodologías a computadoras. El término artículo de fabricación, como se utiliza aquí, pretende abarcar un programa de computadora accesible desde cualquier dispositivo legible por computadora, portador o medio.
La Figura 7 ilustra un método 700 que facilita capturar imágenes bidimensionales (2D) con un dispositivo con el fin de construir un objeto tridimensional (3D). En el número de referencia 702, puede capturarse una porción de contenido bidimensional (2D) con un dispositivo. El dispositivo puede ser cualquier dispositivo o componente adecuado que puede capturar o recolectar contenido 2D tal cómo, pero no limitado a, una cámara digital, una cámara de video, una cámara, un teléfono inteligente, un portátil, una cámara web, un dispositivo móvil, un asistente digital portátil (PDA), un dispositivo celular, una cámara desechable, una cámara integrada dentro de un dispositivo (por ejemplo, cámara de laptop, cámara de escritorio, cámara de automóvil, etc.), un dispositivo de cómputo con capacidades de captura de imagen, etc. Además, el contenido 2D puede ser imágenes, fotografías, videos (por ejemplo, un marco fijo de un video, etc.), audio, imágenes, datos de medios, fotografías, metadatos, tarjetas de intercambio, cualquier medio que representa una porción de un mundo real físico, una imagen de un objeto, un contenido que representa un artículo, un contenido que ilustra una entidad, un objeto corpóreo dentro del mundo real, etc.
En el número de referencia 704, puede crearse un objeto tridimensional al alinear dos o más porciones del contenido 2D basándose en perspectivas correspondientes. El contenido 2D puede combinarse de acuerdo con la perspectiva o punto de vista del contenido para ensamblar un objeto 3D que puede navegarse y verse (por ejemplo, el objeto 3D cómo un todo incluye una pluralidad de imágenes o contenido 2D). En el número de referencia 706, la creación del objeto 3D está provista con el dispositivo. En otras palabras, el dispositivo puede capturar contenido 2D y crear automáticamente un objeto 3D desde tal contenido 2D. Por ejemplo, las imágenes 2D de una pirámide (por ejemplo, una primer imagen de un primer lado, una segunda imagen de un segundo lado, una tercer imagen de un tercer lado, una cuarta imagen de un cuarto lado, y una quinta imagen de un lado inferior) pueden agregarse para ensamblar un objeto 3D que puede navegar o sobre explorarse en un ambiente virtual 3D basándose en alinear las imágenes con el punto de vista correspondiente y contenido traslapando. Se debe apreciar que el contenido 2D agregado o recolectado puede ser cualquier número adecuado de imágenes o contenido.
La Figura 8 ilustra un método 800 para facilitar recrear un objeto 3D o mejorar la colección de contenido 2D relacionada con un objeto 3D. En el número de referencia 802, puede recibirse una solicitud relacionada con capturar una porción de contenido bidimensional (2D). En el número de referencia 804, puede valorarse la solicitud para determinar si la captura 2D con un dispositivo está relacionada al menos con uno de una recreación en un objeto 3D existente o una complementación de un objeto 3D existente. En el número de referencia 806, se proporciona la guia a una ubicación y a una perspectiva para recolectar contenido 2D basándose en parte en la captura 2D determinada.
Por ejemplo, la asistencia o guia puede relacionarse con ubicaciones y/u orientaciones para el dispositivo con el fin de capturar contenido 2D. Al capturar el contenido con perspectivas identificadas, orientaciones, y similares, la imagen u objeto 3D puede crearse. Se debe apreciar que la asistencia o guía puede ser una porción de audio, una porción de video, una ruta, una porción de texto, una porción de un gráfico, un mapa, y/o cualquier otro dato adecuado que puede facilitar identificar una ubicación, una perspectiva, un ángulo, y/o una orientación para el dispositivo para capturar contenido de acuerdo con la captura 2D (por ejemplo, recreación o complementación). Por ejemplo, el dispositivo puede utilizar una presentación para ilustrar un mapa con rutas e instrucciones en donde capturar contenido 2D y desde que perspectiva, orientación, ángulo, etc.
Con el fin de proporcionar contexto adicional para implementar varios aspectos del tema reclamado, las Figuras 9-10 y la siguiente discusión pretenden proporcionar una breve descripción general de un ambiente de cómputo adecuado en donde pueden implementarse los varios aspectos de la innovación en cuestión. Por ejemplo, el dispositivo que comprende un agregador de contenido que construye una imagen u objeto 3D desde una colección de imágenes 2D, como se describe en las figuras previas, puede implementarse en tal ambiente de cómputo adecuado. Aunque el tema reclamado se describió anteriormente en el contexto general de instrucciones ejecutables por computadora de un programa de computadora que corre en una computadora local y/o computadora remota, aquellos expertos en la técnica reconocerán que la innovación en cuestión también puede implementarse en combinación con otros módulos de programa. Generalmente, los módulos de programa incluyen rutinas, programas, componentes, estructuras de datos, etc., que realizan tareas particulares y/o implementan tipos de datos abstractos particulares.
Además, aquellos expertos en la técnica apreciarán que los métodos inventivos pueden practicarse con otras configuraciones de sistema de computadora, incluyendo sistemas de computadora de procesador individual o de multiprocesador, minicomputadoras, macrocomputadoras, así como computadoras personales, dispositivos de cómputo portátiles, electrónica basada en microprocesador y/o de consumidor programable, y similares, cada uno de los cuales puede comunicarse operativamente con uno o más dispositivos asociados. Los aspectos ilustrados del tema reclamado también pueden practicarse en ambientes de cómputo distribuidos en donde se realizan ciertas tareas mediante dispositivos de procesamiento remoto que están enlazados a través de una red de comunicaciones. Sin embargo, algunos, sino es que todos los aspectos de la innovación en cuestión pueden practicarse en computadoras independientes. En un ambiente de cómputo distribuido, los módulos de programa pueden estar localizados en dispositivos de almacenamiento en memoria local y/o remota.
La Figura 9 es un diagrama de bloques esquemático de un ambiente de cómputo de muestra 900 con el cual puede interactuar el tema reclamado. El sistema 900 incluye uno o más cliente(s) 910. El cliente(s) 910 puede ser hardware y/o software (por ejemplo, secuencias, procedimientos, dispositivos de cómputo). El sistema 900 también incluye uno o más servidor(es) 920. El servidor(es) 920 puede ser hardware y/o software (por ejemplo, secuencias, procedimientos, dispositivos de cómputo). Los servidores 920 pueden alojar secuencias para realizar transformaciones al emplear la innovación en cuestión, por ejemplo.
Una comunicación posible entre un cliente 910 y un servidor 920 puede estar en la forma de un paquete de datos adaptado para transmitirse entre dos o más procedimientos de computadora. El sistema 900 incluye una estructura de comunicación 940 que puede emplearse para facilitar comunicaciones entre el cliente(s) 910 y el servidor(es) 920. El cliente(s) 910 está operativamente conectado con uno o más almacenamiento(s) de datos de cliente 950 que puede emplearse para almacenar información local para el cliente(s) 910. Similarmente, el servidor(es) 920 está operativamente conectado a uno o más almacenamiento(s) de datos de servidor 930 que pueden emplearse para almacenar información local para los servidores 920.
Con referencia a la Figura 10, un ambiente ilustrativo 1000 para implementar varios aspectos del tema reclamado incluye una computadora 1012. La computadora 1012 incluye una unidad de procesamiento 1014, una memoria de sistema 1016, y un conductor común de sistema 1018. El conductor común de sistema 1018 acopla componentes de sistema que incluyen, pero no están limitados a, la memoria de sistema 1016 a la unidad de procesamiento 1014. La unidad de procesamiento 1014 puede ser cualquiera de varios procesadores disponibles. También pueden emplearse microprocesadores dobles y otras arquitecturas de multiprocesador como la unidad de procesamiento 1014.
El conductor común de sistema 1018 puede ser cualquiera de varios tipos de estructura(s) de conductor común incluyendo el conductor común de memoria o controlador de memoria, un conductor común periférico o conductor común externo, y/o un conductor común local que utiliza cualquier variedad de arquitecturas de conductor común disponibles incluyendo, pero no limitándose a, Arquitectura Estándar Industrial (ISA), Arquitectura de Microcanal (MSA), ISA extendido (EISA), Electrónica de Unidad Inteligente (IDE), Conductor Común Local de VESA (VLB), Interconexión de Componente Periférico (PCI), Conductor Común de Tarjeta, Conductor Común en Serie Universal (USB), Puerto de Gráficos Avanzado (AGP), Conductor Común de Asociación Internacional de Tarjeta de Memoria de Computadora Personal (PCMCIA), Muro Contra Incendios (IEEE 1394), e Interfase de Sistemas de Computadora Pequeña (SCSI).
La memoria de sistema 1016 incluye memoria volátil 1020 y memoria no volátil 1022. El sistema de entrada/salida básico (BIOS), que contiene las rutinas básicas para transferir información entre elementos dentro de la computadora 1012, tal como durante el arranque, está almacenado en la memoria no volátil 1022. A manera de ilustración, y no de limitación, la memoria no volátil 1022 puede incluir memoria de sólo lectura (ROM), ROM programable (PROM), ROM eléctricamente programable (EPROM), ROM programable eléctricamente borrable (EEPROM), o memoria flash. La memoria volátil 1020 incluye memoria de acceso aleatorio (RAM), que actúa como memoria caché externa. A manera de ilustración y no de limitación, RAM está disponible en muchas formas tal como RAM estática (SRAM), RAM dinámica (DRAM), DRAM sincrónico (SDRAM), SDRAM de velocidad de datos doble (DDR SDRAM), SDRAM mejorada (ESDRAM), DRAM de enlace sincrónico (SLDRAM), RAM directo de conductor común de RAM (RDRAM), RAM dinámica de conductor común de RAM directa (DRDRAM), y RAM dinámica de conductor común de RAM (RDRAM).
La computadora 1012 también incluye medios de almacenamiento de computadora removibles/no removibles, volátiles/no volátiles. La Figura 10 ¡lustra, por ejemplo un almacenamiento de disco 1024. El almacenamiento de disco 1024, incluye pero no está limitado a, dispositivos como una unidad de disco magnético, unidad de disco flexible, unidad de cinta, unidad Jaz, unidad Zip, unidad LS-100, tarjeta de memoria flash, unidad de memoria. Además, el almacenamiento de disco 1024 puede incluir medios de almacenamiento separadamente o en combinación con otros medios de almacenamiento que incluyen, pero no están limitados a una unidad de disco óptico tal como dispositivo de ROM de disco compacto (CD-ROM), unidad grabable de CD (Unidad de CD-R), unidad reescribirle de CD (Unidad CD-RW) o una unidad de ROM de disco versátil digital (DVD-ROM). Para facilitar la conexión de los dispositivos de almacenamiento de disco 1024 al conductor común del sistema 1018, típicamente se utiliza una interfase removible o no removible tal como la interfase 1026.
Se debe apreciar que la Figura 10 describe software que actúa como un intermediario entre usuarios y los recursos de computadora básicos descritos en el ambiente operativo adecuado 1000. Tal ^software incluye un sistema operativo 1028. El sistema operativo 1028, que puede almacenarse en almacenamiento de disco 1024, actúa para controlar y distribuir recursos del sistema de computadora 1012. Las aplicaciones de sistema 1030 toman ventaja del manejo de recursos por el sistema operativo 1028 a través de módulos de programa 1032 y datos de programa 1034 almacenados en memoria de sistema 1016 ó en almacenamiento de disco 1024. Se apreciará que el tema reclamado puede implementarse con varios sistemas operativos o combinaciones de sistemas operativos.
Un usuario ingresa comandos o información en la computadora 1012 a través de dispositivo(s) de entrada 1036. Los dispositivos de entrada 1036 incluyen, pero no están limitados a, un dispositivo de señalamiento tal como un ratón, seguibola, aguja, almohadilla táctil, teclado, micrófono, palanca de mandos, almohadilla de juegos, antena parabólica, escáner, tarjeta de sintonizador de tv, cámara digital, cámara de video digital, cámara web, y similares. Estos y otros dispositivos de entrada se conectan a la unidad de procesamiento 1014 a través del conductor común de sistema 1018 a través del puerto(s) de interfase 1038. El puerto(es) de interfase 1038 incluye, por ejemplo, un puerto en serie, un puerto paralelo, un puerto de juegos, y un conductor común en serie universal (USB). El dispositivo(s) de salida 1040 utiliza alguno del mismo tipo de puertos que el dispositivo(s) de entrada 1036. De esa forma, por ejemplo, puede utilizarse un puerto de USB para proporcionar entrada a la computadora 1012, y para transmitir información desde la computadora 1012 a un dispositivo de salida 1040. El adaptador de salida 1042 se proporciona para ilustrar que existen algunos dispositivos de salida 1014 como monitores, bocinas, impresoras, entre otros dispositivos de salida 1040, que requieren adaptadores especiales. Los adaptadores de salida 1042 incluyen, a manera de ilustración y no de limitación, tarjetas de video y sonido que proporcionan un medio de conexión entre el dispositivo de salida 1040 y el conductor común de sistema 1018. Se debe notar que otros dispositivos y/o sistemas de dispositivos proporcionan tanto capacidades de entrada como de salida tal como computadora(s) remota 1044.
La computadora 1012 puede operar en un ambiente en red que utiliza conexiones lógicas a una o más computadoras remotas, tal como computadora(s) remota 1044. La computadora(s) remota 1044 puede ser una computadora personal, un servidor, un enrutador, una PC de red, un estación de trabajo, un aparato basado en microprocesador, un dispositivo par u otro nodo de red común y similares, y típicamente incluye muchos o todos los elementos descritos relativos a la computadora 1012. Para propósitos de brevedad, solamente se ilustra un dispositivo de almacenamiento de memoria 1046 con computadora(s) remota 1044. La computadora(s) remota 1044 está lógicamente conectada a la computadora 1012 a través de una interfase de red 1048 y entonces físicamente conectado a través de la conexión de comunicación 1050. La interfase de red 1048 abarca redes de comunicación por cable y/o inalámbricas tal como redes de área local (LAN) y redes de área ancha (WAN). Las tecnologías de LAN incluyen interfase de datos distribuida de fibra (FDDI), Interfase de datos distribuida de cobre (CDDI), Ethernet, anillo de fichas y similares. Las tecnologías de WAN incluyen, pero no están limitadas a, enlaces de punto a punto, redes de conmutación de circuito como Redes digitales de servicios integrados (ISDN) y variaciones en éstos, redes de conmutación de paquete, y Líneas de suscriptor digital (DSL).
La conexión(es) de comunicación 1050 se refiere al hardware/software empleado para conectar la interfase de red 1048 al conductor común 1018. Aunque la conexión de comunicación 1050 se muestra para claridad ilustrativa dentro de la computadora 1012, también puede ser externa a la computadora 1012. El hardware/software necesario para conexión a la interfase de red 1048 incluye, para propósitos ilustrativos solamente, tecnologías internas y externas tal como, módems que incluyen módems de grado de teléfono regular, módems de cable y módems de DSL, adaptadores de ISDN, y tarjetas de Ethernet.
Lo que se describe anteriormente incluye ejemplos de la innovación en cuestión. Por supuesto, no es posible describir toda combinación concebible de componentes o metodologías para propósitos de describir el tema reclamado, pero un experto en la técnica puede reconocer que son posibles muchas combinaciones y cambios adicionales de la innovación en cuestión. Por consiguiente, la materia objeto reclamada- pretende abarcar todas esas alteraciones, modificaciones, y variaciones que caen dentro del espíritu y alcance de las reivindicaciones anexas.
En particular y con respecto a las varias funciones realizadas por los componentes, dispositivos, circuitos, sistemas descritos anteriormente y similares, los términos (incluyendo una referencia a "medios") utilizados para describir tales componentes pretenden corresponder, a menos que se indique de otra forma, a cualquier componente que realiza la función especificada del componente descrito (por ejemplo, un equivalente funcional), incluso aunque no estructuralmente equivalente a la estructura descrita, que realiza la función en los aspectos ilustrativos aquí ilustrados del tema reclamado. Con respecto a esto, se reconocerá que la innovación incluye un sistema así como un medio legible por computadora que tiene instrucciones ejecutables por computadora para realizar los actos - y/o eventos de los varios métodos de la materia objeto reclamada.
Existen múltiples formas de implementar la presente innovación, por ejemplo, una API apropiada, un equipo de herramientas, un código de conductor, sistema operativo, control, objeto de software independiente o descargable, etc. que permite que las aplicaciones y servicios utilicen las técnicas de publicidad de la invención. El tema reclamado contempla el uso desde el punto de vista de una API (u otro objeto de software), así como desde un objeto de software o hardware que coopera de acuerdo con las técnicas de publicidad de acuerdo con la invención. De esa forma, varias implementaciones de la innovación aquí descrita pueden tener aspectos que están completamente en hardware, parcialmente en hardware y parcialmente en software, así como en software.
Los sistemas antes mencionados se describieron con respecto a la integración entre varios componentes. Se puede apreciar que tales sistemas y componentes pueden incluir aquellos componentes o sub-componentes especificados, algunos de los componentes o sub-componentes especificados, y/o componentes adicionales, y de acuerdo con varios cambios y combinaciones de los anteriores. Los sub-componentes también pueden implementarse como componentes comunicativamente acoplados a otros componentes en lugar de incluidos dentro dé componentes padre (jerárquico). Adicionalmente, se debe notar que pueden combinarse uno o más componentes en un componente individual al proporcionar funcionalidad agregada o dividida en varios sub-componentes separados, y cualquiera de una o más capas medias, tal como una capa de manejo, que puede proporcionarse para acoplarse comunicativamente a tales sub-componentes con el fin de proporcionar funcionalidad integrada. Cualquiera de los componentes aquí descritos también puede interactuar con uno o más de otros componentes no específicamente descritos aquí, sino generalmente conocidos por aquellos expertos en la técnica.
Además, aunque pudo haberse descrito una característica particular de la innovación en cuestión con respecto únicamente a una de las varias implementaciones, tal característica puede combinarse con una o más otras características de las implementaciones como puede desearse y ser ventajoso para cualquier aplicación dada o particular. Además, a la extensión que los términos "incluye", "que incluye", "tiene", "contiene", variaciones de los mismos, y otras palabras similares se utilizan en la descripción detallada o las reivindicaciones, estos términos pretenden ser inclusivos en una forma similar al término "que comprende" como una palabra de transición sin excluir ninguno de los elementos adicionales u otros. 5 10 15 20 25

Claims (15)

REIVINDICACIONES
1. - Un sistema que facilita capturar una porción de datos bidimensionales (2D) construcción de un objeto tridimensional (3D), que comprende: un dispositivo que captura una o más imágenes 2D, la imagen 2D es representativa de un objeto corpóreo desde una perspectiva dictada por una orientación del dispositivo (104); y el dispositivo comprende un agregador de contenido que construye un objeto 3D desde dos o más imágenes 2D recolectadas por el dispositivo, la construcción está basada al menos en parte en alinear cada perspectiva correspondiente asociada con cada imagen 2D (102).
2. - El sistema de acuerdo con la reivindicación 1, en donde el agregador de contenido presenta el objeto 3D al alinear dos o más imágenes 2D que incluyen al menos uno de una porción de imágenes substancialmente similares o una porción de perspectivas substancíalmente similares.
3. - El sistema de acuerdo con la reivindicación 1, en donde la imagen 2D es al menos una de una fotografía, una fotografía digital, una imagen de un objeto corpóreo, un marco de un segmento de video que captura el objeto corpóreo, o un marco de una porción de video.
4. - El sistema de acuerdo con la reivindicación 1, en donde el dispositivo además comprende un evaluador que analiza una solicitud de captura 2D, la solicitud de captura 2D define un contexto para capturar la imagen 2D y se relaciona con al menos uno de una creación de un nuevo objeto 3D, una recreación de un objeto 3D, o una complementación del objeto 3D existente.
5.- El sistema de acuerdo con la reivindicación 4, en donde el evaluador influencia un ambiente 3D que alojar remotamente al menos un objeto 3D para valorar si el objeto 3D es de al menos uno de un objeto 3D existente dentro del ambiente 3D, un objeto 3D previamente accedido, o un nuevo objeto 3D.
6.- El sistema de acuerdo con la reivindicación 5, en donde el dispositivo captura al menos una imagen 2D para la complementación de un objeto 3D existente, la imagen 2D capturada complementa un objeto 3D existente y está comunicado con el ambiente 3D.
7. - El sistema de acuerdo con la reivindicación 6, en donde el evaluador identifica una estructura predefinida para un objeto 3D existente o un objeto 3D previamente accedido, la estructura predefinida es un diseño que define contenido 2D y colocación de tal contenido 2D con el fin de construir un objeto 3D correspondiente.
8. - El sistema de acuerdo con la reivindicación 7, en donde el agregador de contenido crea una estructura predefinida para un nuevo objeto 3D en tiempo real basándose al menos en parte en evaluar el contenido presentado dentro de la imagen 2D.
9. - El sistema de acuerdo con la reivindicación 8, que además comprende un componente de navegación que proporciona una porción de guía que instruye a capturar una imagen 2D de acuerdo con la estructura predefinida con el fin de capturar contenido 2D para el objeto 3D, la porción de guía identifica al menos uno de una ubicación geográfica, una perspectiva, un ángulo para el dispositivo, una orientación para el dispositivo, o un nivel de acercamiento para el dispositivo.
10. - El sistema de acuerdo con la reivindicación 9, en donde la porción de guía es de al menos una de una porción de audio, una porción de video, una ruta, una ruta en un mapa geográfico, un grupo de direcciones geográficas, una porción de texto, o una porción de un gráfico.
11. - El sistema de acuerdo con la reivindicación 1, en donde el dispositivo además comprende un componente de etiquetación en tiempo real que anexa una imagen 2D capturada asociada con construcción de un objeto 3D con una porción de metadatos.
12.- Un método implementado por computadora que facilita incorporar la construcción de objeto tridimensional (3D) dentro de un dispositivo que captura contenido bidimensional (2D), que comprende: capturar una porción de contenido 2D con un dispositivo (702, 806); crear un objeto 3D al alinear dos o más porciones de contenido 2D basándose al menos en parte en las dos o más porciones de contenido 2D que tienen perspectivas correspondientes, la creación del objeto 3D se proporciona dentro del dispositivo (704, 706, 806).
13.- El método de acuerdo con la reivindicación 12, que además comprende: recibir una solicitud relacionada con capturar una porción del contenido 2D dentro del dispositivo; evaluar la solicitud para determinar un modo de captura 2D, el modo de captura 2D es al menos de una recreación de un objeto 3D existente o una complementación de un objeto 3D existente; y proporcionar guía a una ubicación y una perspectiva para recolectar una porción de contenido 2D basándose en parte en el modo de captura 2D determinado.
14.- El método de acuerdo con la reivindicación 12, que además comprende; anexar la porción capturada de contenido 2D con una porción de metadatos dentro del dispositivo; y optimizar una configuración de dispositivo basándose en la captura de contenido 2D para construcción de un objeto 3D.
15.- Un dispositivo, que comprende: medios para capturar una o más imágenes bidimensionales (2D), la imagen 2D es representativa de un objeto corpóreo desde una perspectiva dictada por una orientación de un dispositivo (104, 702); medios para construir un objeto tridimensional (3D) desde dos o más imágenes 2D recolectadas por el dispositivo, la construcción está basada al menos en parte en alinear cada perspectiva correspondiente asociada con cada imagen 2D (102, 704, 706); medios para generar una porción de guía a una ubicación geográfica con el fin de capturar una imagen 2D representativa de una porción de un objeto 3D (202, 806); medios para comunicar la porción de guía a través de al menos una presentación en el dispositivo o una bocina en el dispositivo (202, 208); medios para influenciar un componente de servicio de posicionamiento global (GPS) para identificar una ubicación para facilitar la generación de la porción de guía (202, 302); medios para utilizar un acelerómetro para identificar una orientación para que el dispositivo facilite generar la porción de guía (202); medios para anexar automáticamente la imagen 2D capturada con una porción de metadatos, los metadatos se refieren al menos a una ubicación geográfica, un contenido, o una relación a un objeto 3D (402); y medios para optimizar una configuración de dispositivo en el dispositivo basándose en una característica de la imagen 2D o en el objeto 3D construido (104, 102).
MX2010012826A 2008-06-12 2009-04-21 Agregacion de contenido 3d construido en dispositivos. MX2010012826A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/137,657 US8204299B2 (en) 2008-06-12 2008-06-12 3D content aggregation built into devices
PCT/US2009/041228 WO2009151794A1 (en) 2008-06-12 2009-04-21 3d content aggregation built into devices

Publications (1)

Publication Number Publication Date
MX2010012826A true MX2010012826A (es) 2010-12-07

Family

ID=41414841

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2010012826A MX2010012826A (es) 2008-06-12 2009-04-21 Agregacion de contenido 3d construido en dispositivos.

Country Status (13)

Country Link
US (1) US8204299B2 (es)
EP (1) EP2283466B1 (es)
JP (1) JP2011524571A (es)
KR (1) KR101557297B1 (es)
CN (2) CN107123141A (es)
AU (1) AU2009257959B2 (es)
BR (1) BRPI0912583B1 (es)
CA (1) CA2722924C (es)
MX (1) MX2010012826A (es)
MY (1) MY161994A (es)
RU (1) RU2491638C2 (es)
WO (1) WO2009151794A1 (es)
ZA (1) ZA201007423B (es)

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8346017B2 (en) * 2008-04-30 2013-01-01 Microsoft Corporation Intermediate point between images to insert/overlay ads
US8737721B2 (en) 2008-05-07 2014-05-27 Microsoft Corporation Procedural authoring
US8988439B1 (en) 2008-06-06 2015-03-24 Dp Technologies, Inc. Motion-based display effects in a handheld device
US8678925B1 (en) 2008-06-11 2014-03-25 Dp Technologies, Inc. Method and apparatus to provide a dice application
US8587601B1 (en) * 2009-01-05 2013-11-19 Dp Technologies, Inc. Sharing of three dimensional objects
EP2452228A4 (en) * 2009-07-10 2015-06-03 Front Street Invest Man Inc As Manager For Front Street Diversified Income Class METHOD AND APPARATUS FOR GENERATING THREE DIMENSIONAL IMAGE INFORMATION USING A SINGLE D IMAGING COURSE
US9030536B2 (en) 2010-06-04 2015-05-12 At&T Intellectual Property I, Lp Apparatus and method for presenting media content
US9787974B2 (en) 2010-06-30 2017-10-10 At&T Intellectual Property I, L.P. Method and apparatus for delivering media content
US8593574B2 (en) 2010-06-30 2013-11-26 At&T Intellectual Property I, L.P. Apparatus and method for providing dimensional media content based on detected display capability
US8918831B2 (en) 2010-07-06 2014-12-23 At&T Intellectual Property I, Lp Method and apparatus for managing a presentation of media content
US9049426B2 (en) 2010-07-07 2015-06-02 At&T Intellectual Property I, Lp Apparatus and method for distributing three dimensional media content
US9032470B2 (en) 2010-07-20 2015-05-12 At&T Intellectual Property I, Lp Apparatus for adapting a presentation of media content according to a position of a viewing apparatus
US9232274B2 (en) 2010-07-20 2016-01-05 At&T Intellectual Property I, L.P. Apparatus for adapting a presentation of media content to a requesting device
US9560406B2 (en) 2010-07-20 2017-01-31 At&T Intellectual Property I, L.P. Method and apparatus for adapting a presentation of media content
US8994716B2 (en) 2010-08-02 2015-03-31 At&T Intellectual Property I, Lp Apparatus and method for providing media content
US8438502B2 (en) 2010-08-25 2013-05-07 At&T Intellectual Property I, L.P. Apparatus for controlling three-dimensional images
US8947511B2 (en) 2010-10-01 2015-02-03 At&T Intellectual Property I, L.P. Apparatus and method for presenting three-dimensional media content
US20120197428A1 (en) * 2011-01-28 2012-08-02 Scott Weaver Method For Making a Piñata
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
US9310403B2 (en) * 2011-06-10 2016-04-12 Alliance For Sustainable Energy, Llc Building energy analysis tool
US9445046B2 (en) 2011-06-24 2016-09-13 At&T Intellectual Property I, L.P. Apparatus and method for presenting media content with telepresence
US9602766B2 (en) 2011-06-24 2017-03-21 At&T Intellectual Property I, L.P. Apparatus and method for presenting three dimensional objects with telepresence
US8947497B2 (en) 2011-06-24 2015-02-03 At&T Intellectual Property I, Lp Apparatus and method for managing telepresence sessions
US9030522B2 (en) 2011-06-24 2015-05-12 At&T Intellectual Property I, Lp Apparatus and method for providing media content
US8837813B2 (en) * 2011-07-01 2014-09-16 Sharp Laboratories Of America, Inc. Mobile three dimensional imaging system
US8587635B2 (en) 2011-07-15 2013-11-19 At&T Intellectual Property I, L.P. Apparatus and method for providing media services with telepresence
CN102411793A (zh) * 2011-08-10 2012-04-11 上海福家网络科技有限公司 一种三维场景中的物体显示方法
US9606992B2 (en) * 2011-09-30 2017-03-28 Microsoft Technology Licensing, Llc Personal audio/visual apparatus providing resource management
US20140307062A1 (en) * 2011-12-05 2014-10-16 Rotary View Ltd. System and method for generating a stereoscopic 3d presentation from picture sequence emanating from single lens source
WO2013086137A1 (en) 2011-12-06 2013-06-13 1-800 Contacts, Inc. Systems and methods for obtaining a pupillary distance measurement using a mobile computing device
US20140358917A1 (en) * 2012-01-23 2014-12-04 Duke University System and method for remote image organization and analysis
US9052208B2 (en) 2012-03-22 2015-06-09 Nokia Technologies Oy Method and apparatus for sensing based on route bias
US9286715B2 (en) 2012-05-23 2016-03-15 Glasses.Com Inc. Systems and methods for adjusting a virtual try-on
US9483853B2 (en) 2012-05-23 2016-11-01 Glasses.Com Inc. Systems and methods to display rendered images
US9235929B2 (en) 2012-05-23 2016-01-12 Glasses.Com Inc. Systems and methods for efficiently processing virtual 3-D data
US9311310B2 (en) * 2012-10-26 2016-04-12 Google Inc. System and method for grouping related photographs
US9177404B2 (en) * 2012-10-31 2015-11-03 Qualcomm Incorporated Systems and methods of merging multiple maps for computer vision based tracking
US9554049B2 (en) 2012-12-04 2017-01-24 Ebay Inc. Guided video capture for item listings
US9342929B2 (en) * 2013-01-22 2016-05-17 Microsoft Technology Licensing, Llc Mixed reality experience sharing
CN103079030A (zh) * 2013-01-30 2013-05-01 清华大学 存储卡及含有该存储卡的3d图像或视频的生成装置
US9417697B2 (en) 2013-03-08 2016-08-16 Qualcomm Incorporated 3D translator device
DK2973417T3 (da) * 2013-03-11 2020-09-07 Carestream Dental Tech Topco Ltd Fremgangsmåde og system til tre-dimensional billeddannelse
US10278584B2 (en) 2013-03-11 2019-05-07 Carestream Dental Technology Topco Limited Method and system for three-dimensional imaging
US9294757B1 (en) 2013-03-15 2016-03-22 Google Inc. 3-dimensional videos of objects
KR102482186B1 (ko) * 2013-04-08 2022-12-29 스냅 아이엔씨 멀티-카메라 장치를 사용하는 거리 추정
US9338440B2 (en) 2013-06-17 2016-05-10 Microsoft Technology Licensing, Llc User interface for three-dimensional modeling
US9201900B2 (en) * 2013-08-29 2015-12-01 Htc Corporation Related image searching method and user interface controlling method
US9582516B2 (en) 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
US9508172B1 (en) 2013-12-05 2016-11-29 Google Inc. Methods and devices for outputting a zoom sequence
WO2015167549A1 (en) * 2014-04-30 2015-11-05 Longsand Limited An augmented gaming platform
RU2596449C1 (ru) * 2015-06-26 2016-09-10 Общество с ограниченной ответственностью "Производственное объединение "Зарница" Учебный интерактивный стенд
US20170046891A1 (en) * 2015-08-12 2017-02-16 Tyco Fire & Security Gmbh Systems and methods for location identification and tracking using a camera
CA2948761A1 (en) 2015-11-23 2017-05-23 Wal-Mart Stores, Inc. Virtual training system
US10220172B2 (en) 2015-11-25 2019-03-05 Resmed Limited Methods and systems for providing interface components for respiratory therapy
US10732809B2 (en) 2015-12-30 2020-08-04 Google Llc Systems and methods for selective retention and editing of images captured by mobile image capture device
US10225511B1 (en) 2015-12-30 2019-03-05 Google Llc Low power framework for controlling image sensor mode in a mobile image capture device
US10523865B2 (en) * 2016-01-06 2019-12-31 Texas Instruments Incorporated Three dimensional rendering for surround view using predetermined viewpoint lookup tables
US10824320B2 (en) * 2016-03-07 2020-11-03 Facebook, Inc. Systems and methods for presenting content
WO2017218834A1 (en) 2016-06-17 2017-12-21 Kerstein Dustin System and method for capturing and viewing panoramic images having motion parralax depth perception without images stitching
US10008046B2 (en) * 2016-06-29 2018-06-26 Here Global B.V. Method, apparatus and computer program product for adaptive venue zooming in a digital map interface
US11546381B1 (en) * 2021-11-08 2023-01-03 Beijing Bytedance Network Technology Co., Ltd. Unified data security labeling framework

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5301117A (en) * 1991-10-30 1994-04-05 Giorgio Riga Method for creating a three-dimensional corporeal model from a very small original
US5748199A (en) * 1995-12-20 1998-05-05 Synthonics Incorporated Method and apparatus for converting a two dimensional motion picture into a three dimensional motion picture
GB2317007B (en) * 1996-09-04 2000-07-26 Spectrum Tech Ltd Contrast determining apparatus and methods
US6094215A (en) * 1998-01-06 2000-07-25 Intel Corporation Method of determining relative camera orientation position to create 3-D visual images
US6333749B1 (en) * 1998-04-17 2001-12-25 Adobe Systems, Inc. Method and apparatus for image assisted modeling of three-dimensional scenes
JP4119529B2 (ja) * 1998-06-17 2008-07-16 オリンパス株式会社 仮想環境生成方法および装置、並びに仮想環境生成プログラムを記録した記録媒体
US6434265B1 (en) * 1998-09-25 2002-08-13 Apple Computers, Inc. Aligning rectilinear images in 3D through projective registration and calibration
US6456287B1 (en) * 1999-02-03 2002-09-24 Isurftv Method and apparatus for 3D model creation based on 2D images
US7343195B2 (en) * 1999-05-18 2008-03-11 Mediguide Ltd. Method and apparatus for real time quantitative three-dimensional image reconstruction of a moving organ and intra-body navigation
US6571024B1 (en) * 1999-06-18 2003-05-27 Sarnoff Corporation Method and apparatus for multi-view three dimensional estimation
JP3387856B2 (ja) * 1999-08-06 2003-03-17 キヤノン株式会社 画像処理方法、画像処理装置および記憶媒体
US20020158873A1 (en) * 2001-01-26 2002-10-31 Todd Williamson Real-time virtual viewpoint in simulated reality environment
US7194112B2 (en) * 2001-03-12 2007-03-20 Eastman Kodak Company Three dimensional spatial panorama formation with a range imaging system
US7146576B2 (en) * 2001-10-30 2006-12-05 Hewlett-Packard Development Company, L.P. Automatically designed three-dimensional graphical environments for information discovery and visualization
US7046840B2 (en) * 2001-11-09 2006-05-16 Arcsoft, Inc. 3-D reconstruction engine
US7142726B2 (en) * 2003-03-19 2006-11-28 Mitsubishi Electric Research Labs, Inc. Three-dimensional scene reconstruction from labeled two-dimensional images
JP4266736B2 (ja) * 2003-07-31 2009-05-20 キヤノン株式会社 画像処理方法および装置
JP2005174024A (ja) * 2003-12-11 2005-06-30 Canon Inc 画像生成装置及び方法
CA2455359C (en) * 2004-01-16 2013-01-08 Geotango International Corp. System, computer program and method for 3d object measurement, modeling and mapping from single imagery
US7292257B2 (en) * 2004-06-28 2007-11-06 Microsoft Corporation Interactive viewpoint video system and process
CN1664884A (zh) * 2005-03-02 2005-09-07 西安四维航测遥感中心 城区三维可视与可量测立体地形图制作方法
KR20060131145A (ko) 2005-06-15 2006-12-20 엘지전자 주식회사 이차원 영상을 이용한 삼차원 물체의 렌더링 방법
US7840032B2 (en) * 2005-10-04 2010-11-23 Microsoft Corporation Street-side maps and paths
WO2007041696A2 (en) 2005-10-04 2007-04-12 Alexander Eugene J System and method for calibrating a set of imaging devices and calculating 3d coordinates of detected features in a laboratory coordinate system
US7605817B2 (en) * 2005-11-09 2009-10-20 3M Innovative Properties Company Determining camera motion
US7912257B2 (en) * 2006-01-20 2011-03-22 3M Innovative Properties Company Real time display of acquired 3D dental data
US7856125B2 (en) * 2006-01-31 2010-12-21 University Of Southern California 3D face reconstruction from 2D images
US20070237356A1 (en) * 2006-04-07 2007-10-11 John Dwinell Parcel imaging system and method
RU2006118145A (ru) * 2006-05-26 2007-12-20 Самсунг Электроникс Ко., Лтд. (KR) Способ и система видеонаблюдения
TWI286715B (en) * 2006-06-21 2007-09-11 Univ Feng Chia System of simulating 3D virtual reality navigation
CN100465999C (zh) * 2006-10-26 2009-03-04 上海交通大学 基于激光扫描的沉箱三维场景重建与挖掘机避碰***

Also Published As

Publication number Publication date
EP2283466A4 (en) 2011-10-26
BRPI0912583A2 (pt) 2015-10-13
AU2009257959A1 (en) 2009-12-17
RU2491638C2 (ru) 2013-08-27
BRPI0912583B1 (pt) 2020-02-18
EP2283466A1 (en) 2011-02-16
RU2010150798A (ru) 2012-06-20
US8204299B2 (en) 2012-06-19
US20090310851A1 (en) 2009-12-17
CA2722924C (en) 2016-08-30
EP2283466B1 (en) 2018-12-05
ZA201007423B (en) 2012-01-25
JP2011524571A (ja) 2011-09-01
WO2009151794A1 (en) 2009-12-17
CA2722924A1 (en) 2009-12-17
KR101557297B1 (ko) 2015-10-06
CN102057401A (zh) 2011-05-11
CN107123141A (zh) 2017-09-01
AU2009257959B2 (en) 2014-06-12
KR20110015593A (ko) 2011-02-16
MY161994A (en) 2017-05-31

Similar Documents

Publication Publication Date Title
MX2010012826A (es) Agregacion de contenido 3d construido en dispositivos.
US10217294B2 (en) Procedural authoring
US11632516B2 (en) Capture, analysis and use of building data from mobile devices
US9361943B2 (en) System and method for tagging objects in a panoramic video and associating functions and indexing panoramic images with same
US8447136B2 (en) Viewing media in the context of street-level images
US20090295791A1 (en) Three-dimensional environment created from video
US20090289937A1 (en) Multi-scale navigational visualtization
US10318820B2 (en) Image processing to identify selected individuals in a field of view
US20220375220A1 (en) Visual localization method and apparatus
Bauer et al. UASOL, a large-scale high-resolution outdoor stereo dataset
Zhang et al. Annotating and navigating tourist videos
CN109863746A (zh) 交互式数据可视化环境
Gomes Jr et al. Semi-automatic methodology for augmented panorama development in industrial outdoor environments
KR102520117B1 (ko) 복수의 비디오 이미지를 조합하여 파노라마 비디오 이미지를 생성하고, 생성된 파노라마 비디오 이미지에서 관심 영역을 설정하기 위한 장치 및 방법
Berger et al. Analyzing the benefits of utilizing 360 panoramic photo survey technology on a shell offshore platform
WO2024076362A1 (en) Stabilized object tracking at high magnification ratios
Lynch et al. A multimedia approach to visualize and interact with large scale mobile lidar data
Fletcher et al. Digitising the Campus
KR20100066343A (ko) 공간정보 디지털 컨텐츠의 갱신 장치 및 방법

Legal Events

Date Code Title Description
FG Grant or registration