MXPA03001029A - Tecnica de codificacion y conversion de imagen. - Google Patents

Tecnica de codificacion y conversion de imagen.

Info

Publication number
MXPA03001029A
MXPA03001029A MXPA03001029A MXPA03001029A MXPA03001029A MX PA03001029 A MXPA03001029 A MX PA03001029A MX PA03001029 A MXPA03001029 A MX PA03001029A MX PA03001029 A MXPA03001029 A MX PA03001029A MX PA03001029 A MXPA03001029 A MX PA03001029A
Authority
MX
Mexico
Prior art keywords
layer
depth
image
images
objects
Prior art date
Application number
MXPA03001029A
Other languages
English (en)
Inventor
Philip Harman
Original Assignee
Dynamic Digital Depth Res Pty
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from AUPQ9222A external-priority patent/AUPQ922200A0/en
Priority claimed from AUPR2757A external-priority patent/AUPR275701A0/en
Application filed by Dynamic Digital Depth Res Pty filed Critical Dynamic Digital Depth Res Pty
Publication of MXPA03001029A publication Critical patent/MXPA03001029A/es

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

La presente invencion se refiere a un metodo de produccion de imagenes para el ojo derecho e izquierdo de una visualizacion estereoscopica de una fuente en capas, incluyendo al menos una capa, y al menos un objeto en al menos una capa, que incluye los pasos de definir una caracteristica de profundidad de cada objeto o capa y desplazar respectivamente cada objeto o capa por una cantidad determinada en una direccion lateral como una funcion de la caracteristica de profundidad de cada capa.

Description

TÉCNICA DE CODIFICACIÓN Y CONVERSIÓN DE IMAGEN Campo de la Invención La presente invención se dirige hacia una técnica para convertir imágenes de 2D en 3D, y en particular un método para convertir imágenes de 2D las cuales se han formado a partir de una fuente en capas.
Antecedentes de la Invención La limitación de la anchura de banda en las ransmisiones es un problema bien conocido, y se han intentado muchas técnicas para permitir la cantidad máxima de datos a ser transferidos en el tiempo mas corto posible. Las demandas en la anchura de banda son particularmente evidentes en la transmisión de imágenes, incluyendo imágenes generadas por computadora . Un intento para dirigir el funcionamiento y anchura de banda emitidos con imágenes generadas por computadora o escenas animadas ha sido solamente para transferir los cambios en la imagen una vez que la escena original se ha transmitido. Esta técnica toma ventaja de la forma en la cual los dibujos animados se han creado tradicionalmente . Es decir, un animador puede crear la percepción de movimiento creando una serie de REF. 145070 vistas fijas las cuales contienen todas las etapas intermediarias, lo cual hace el movimiento a ser creado. Para la simplicidad y facilidad de corregir cada obpeto en una imagen usualmente se creará sobre una capa separada, y las capas se combinaran para formar la imagen. Es decir, se podrá dibujar un objeto en movimiento sobre una serie de hojas para demostrar el movimiento de este objeto. Sin embargo, ninguno de los otros objetos o fondo usualmente se podrá dibujar en esta hoja. De preferencia, el fondo, el cual no cambia, se podrá dibujar en una ho a separada, y las hojas se combinan para crear la imagen. Obviamente, en algunos casos se pueden usar muchas hojas para crear una vista fi a sencilla . Para los dibujos animados o imágenes animadas, las cuales se han creado usando una serie de capas diferentes es posible salvar la transmisión de datos transmitiendo solamente aquellas capas las cuales se han alterado. Por ejemplo, si el fondo no se ha cambiado, no existe la necesidad de retransmitir la capa de fondo. De preferencia, el medio de visualizacion se puede revelar para mantener la capa de fondo existente . Conjuntamente con el incremento en el uso de imágenes generadas por computadora o animadas, también ha habido un incremento en la demanda de imágenes estereoscópicas. La creación de imágenes estereoscópicas (en la etapa de filmación) mientras sea viable, es significativamente más costosa, difícil y consume tiempo que la de 2D. Por consiguiente, la cantidad de contenido estereoscópico en existencia es carente, y por lo tanto existe una demanda capaz de convertir imágenes de 2D existentes en imágenes de 3D. Los primeros intentos para convertir imágenes de 2D en imágenes de 3D involucraron seleccionar un objeto dentro de una imagen, y cortar y pegar este objeto en otra ubicación para crear el efecto de 3D. Sin embargo, se descubrió r pidamente que esta técnica fue inaceptable para cualquier publico o la industria, cuando la técnica en virtud del cortado y pegado creó áreas de "corte" en la imagen. Es decir, mediante el cortado y movimiento de objetos, se crearon áreas vacias sin datos de imagen. Para proporcionar un sistema para convertir imágenes de 2D en imágenes de 3D, los presentes Solicitantes crearon un sistema mediante el cual las imágenes estereoscópicas se crean a partir de una imagen de 2D original: a. identificando al menos un objeto dentro de la imagen original; b. contorneando cada objeto; c. definiendo una característica de profundidad para cada objeto; y d. desplazando respectivamente las áreas seleccionadas de cada objeto poi una cantidad determinada en una dirección lateral como una función de la característica de profundidad de cada objeto, para formar dos imágenes alargadas para ser vistas por los o os derecho e izquierdo del espectador . Este sistema se describe en PCT/AU96/00820 , los contenidos de la cual se incorporan aqu1 para referencia, ev_tdndo la creación de a eas de ^crte alarsando o deformando los objetos dentro de la imagen piincipal. Es decir, este sistema previo no crea el problema inaceptable de cortes, simplemente mueve un objeto creado. Mientras que el sistema previo de los Solicitantes se puede utilizar para convertir animaciones o dibujos animados de 2D, no es ideal en algunas circunstancias. Por ejemplo, si un sistema de visuali zacion solamente recibe alteraciones de la imagen de 2D cuando se contrapone a la imagen de 2D completa, el sistema previo de los Solicitantes necesitara crear la imagen para realizar las etapas anteriormente resumidas.
Ob-jeto de la Invención Por lo tanto, un objeto de la presente invención es proporcionar un proceso mejorado de conversión de 2D a 3D, el cual es aplicable para el uso con imágenes de 20 en capas tales como dibujos animados, animaciones u otras imágenes generadas por computadora, e incluyendo las imágenes creadas a partir de una fuente segmentada.
Breve Descripción de la Invención Con el objeto anterior en mente, la presente invención proporciona en un aspecto uri método de producción de imágenes en el ojo derecho e izquierdo para una visualizacion estereoscópica a partir de una fuente en capas que incluye al menos una capa, y al menos un objeto en al menos una capa, incluyendo los pasos de: definir una característ ca de profundidad para cada objeto o capa, y desplazar respectivamente cada objeto o capa por una cantidad determinada en una dirección lateral como una función de la característica de profundidad de cada capa. El sistema se puede modificar para segmentar adicionalmente los objetos en capas adicionales, e idealmente los objetos desplazados se podran procesar adicionalmente estirando o deformando la imagen para mejorar la imagen de 3D. Los parámetros almacenados para cada objeto se pueden modificar, por ejemplo se puede adicionar una marca adicional, la cual define las características de profundidad. En tales sistemas, la información de la marca también se puede usar para ayudar en el desplazamiento de los objetos. Para que la imagen sea compatible con los sistemas de 2D existentes, puede ser deseable procesar la imagen de 20 a la transmisión final, como lo opuesto a la recepción final, y se incrusta la información definiendo la característica de profundidad para cada objeto o capa en la imagen de 2D, de modo que el receptor luego pueda ya sea visualizar la imagen de 2D original o alternativamente la imagen de 3D convertida. Este sistema permite que las imágenes animadas e imágenes generadas de una fuente en capas sean efectivamente y eficientemente convertidas para ser vistas en 3D. Los datos adicionales ] os cuales se agregan a la imagen son relativamente pequeños comparados con el tamaño de la imaqen de 2D, aun asi hace posible la recepción final para proyectar una representación de 3D de la imagen de 2D. En el arreglo preferido, el sistema idealmente también permitirá que el espectador tenga cierto control sobre las características de 3D, tai como sensación de profundidad e intensidad etc.
Breve Descripción d? los Dibujos Para proporcionar un mejor entendimiento de la presente invención, se hace referencia a los dibujos acompañantes, los cuales ilustran una modalidad preferida de la presente invención. En los dibujos La Figura 1 muestra un ejemplo de imagen de 2D en capas compuesta. La Figura 2 muestra cómo la imagen compuesta en la Figura 1 se puede componer de objetos que existen en capas separadas . La Figura 3 muestra como se forman las imágenes en ol ojo derecho e izquierdo. La Figura 4 muestra un diagrama de flujo del proceso de la modalidad preferida de la presente invención.
Descripción Detallada de la Invención En la modalidad preferida, la técnica de conversión incluye las siguientes etapas: IDENTIFICAR CADA OBJETO EN CADA CAPA Y ASIGNAR UNA CARACTERÍSTICA DE PROFUNDIDAD A CADA OBJETO El proceso a ser descrito se propone para ser aplicado a imágenes de 2D que se derivan de una fuente en capas. Tales imágenes incluyen, pero no se limitan a, dibujos animados, secuencias de video MPEG (en particular imágenes de video procesadas usando MPEG4 donde a cada objeto se le ha asignado un Plano de Objeto de Video) e imágenes Multimedia propuestas para la transmisión via la Internet, por ejemplo imágenes presentadas en formato Macromedia "Flash". En tales formatos, los objetos originales en cada capa pueden ser representaciones vectoriales de cada objeto, y tienen marcas asociadas con los mismos. Estas marcas pueden describir las propiedades de cada objeto, por ejemplo, color, posición y textura. Tal ejemplo de imagen de 2D en capas se muestra en la Figura 1. La Figura 2 ilustra co o la imagen compuesta en la Figura 1 se puede componer de objetos que existen en capas separadas y se consolidan para formar una imagen única. Se apreciará por aquellos expertos en la técnica que las capas separadas que forman la imagen compuesta también se pueden representar en un formato digital o de video. En particular, se deberá notar que los objetos en las capas se pueden representar en un formato vectorial. Cuando sea necesario, los objetos en cada capa de la imagen de 2D a ser convertidos se pueden identificar por un operador humano usando la inspección visual. El operador típicamente marcará cada objeto, o grupo de objetos, en la imagen usando un ratón de computadora, lápiz óptico, stylus u otro dispositivo y asignará un número único al objeto. El número se puede crear manualmente por el operador o se genera automáticamente en una secuencia particular por una computadora. Un receptor también puede usar la información de identificación del objeto producida por otro operador ya sea trabajando en la misma secuencia o desde la conversión previa de las escenas similares. En donde más de un objeto está presente en una capa especifica, puede ser deseable segmentar adicionalmente los objetos en capas adicionales para mejorar el efecto de 30. Este es el caso donde una capa tiene objetos múltiples, y se desea tener aquellos objetos a diferentes profundidades. Es decir, si se tienen objetos múltiples en una capa única, y cada una necesita estar a una profundidad diferente, entonces se podrá sub-segmentar la capa en uno o más objetos y/o capas. En la modalidad preferida, a cada capa, y objeto dentro de la capa, se le asigna un identificador. Además, a cada objeto se le asigna una característica de profundidad de la manera previamente descrita en la solicitud PCT/AU98/01005 que se incluye por este medio para referencia. Para la representación vectorial se podria agregar una marca adicional a la representación vectorial para describir la profundidad del objeto. La descripción podría estar algunos y metros lejos o tener alguna profundidad comp-ie a, tal como una pendiente lineal. Se deberá señalar que la marca que describe la profundidad del objeto no necesita describir la profundidad directamente sino representar alguna función de la profundidad. Aquellos expertos en la técnica podrán apreciar que las representaciones incluyen, pero no se limitan a, mapas de arrastre y desigualdad. La profundidad de w~ ot tc u obietos se puede determinar ya sea manualmente, automáticamente o semi-automáticamente . La profundidad de los objetos se puede asignar usando cualquier información alfanumepca, visual, audible o táctil. En otra modalidad, se le puede asignar un valor numérico a la profundidad del objeto. Este valor puede ser positivo CD negativo, en una serie lineal o no lineal y contener dígitos sencillos o múltiples. En una modalidad preferida este valor variará de 0 a 255, para permitir que el valor sea codificado en un bitio único, donde 255 representa los objetos que aparecerán, una vez convertidos, en una posición de 3D más cercana al espectador y 0 para los objetos que están a la distancia de 3D mas lejana del espectador.
Obviamente este acuerdo se puede alterar, por ejemplo, se usa otro intervalo o se invierte. En la definición de profundidad manual el operador puede asignar la profundidad del objeto u objetos usando un ratón de computadora, lápiz óptico, stylus u otro dispositivo. El operador puede asignar la profundidad del objeto colocando el dispositivo señalador dentro del contorno del objeto e introduciendo un valor de profundidad. La profundidad se puede introducir por el operador como un valor numérico, alfanumérico o gráfico y se puede asignar por el operador o se asigna automáticamente por la computadora desde un intervalo predeterminado de valores permisibles. El operador también puede seleccionar la profundidad del objeto de una biblioteca o menú de las profundidades permisibles. El operador también puede asignar un intervalo de profundidades dentro de un objeto o un intervalo de profundidad que varia con el tiempo, ubicación del objeto o movimiento o cualquier combinación de estos factores. Por ejemplo, el objeto puede ser una tabla que idealmente tiene su borde más cercano hacia el espectador y su borde más lejano lejos del espectador. Cuando se convierte en 3D la profundidad aparente de la tabla debe variar a lo largo de su longitud. Para lograr esto, el operador puede dividir la tabla en un número de segmentos o capas y asignar a cada segmento una profundidad individual. Alternativamente, el operador puede asignar una profundidad continuamente variable dentro del objeto sombreando el objeto de modo que la cantidad de sombreado representa la profundidad a esta posición particular de la tabla. En este ejemplo un sombreado claro podria representar un objeto cercano y un sombreado oscuro un objeto distante. Para el ejemplo de la tabla, el borde más cercano podrá ser sombreado ligeramente, con el sombreado que se obtiene progresivamente más oscuro, hasta que se alcanza el borde más leíano. La variación de profundidad dentro de un objeto puede ser lineal o no lineal y puede variar con el tiempo, movimiento o ubicación del objeto o cualquier combinación de estos factores. La variación de profundidad dentro de un objeto puede estar en la forma de una pendiente. Una pendiente lineal podrá tener un punto inicial (A) y un punto final (B) . El color se define en el punto A y B. Un gradiente del Punto A al Punto B se aplica en la linea perpendicular. Una pendiente radial define una pendiente similar a una pendiente lineal aunque usa la distancia de un punto central (A) a un radio (B) . Por ejemplo, la profundidad radial se puede representar como: x, y, r, di, d2 , fn donde x y y son las coordenadas del punto central del radio, di es la profundidad al centro, d? es la profundidad al radio y fn es una función que describe como la profundidad varia de di a d2 , por ejemplo lineal, cuadrática, etc . Una extensión simple para la pendiente radial podria ser graduar la orilla externa, o permitir un punto central de tamaño variable. Una extensión lineal es la distancia de un segmento lineal cuando se opone a la distancia del perpendicular. En este ejemplo el color se define por el segmento lineal, y el color para el "exterior". El color a lo largo del segmento lineal se define, y el color se gradúa al color "externo". Una variedad de pendientes se puede codificar fácilmente. Las pendientes también pueden estar basadas en la mayoria de curvas complejas, ecuaciones, transparencia variable, etc. En otro ejemplo un objeto puede moverse del frente de la imagen a la parte trasera sobre un periodo de cuadros. El operador podria asignar una profundidad para el objeto en el primer cuadro y la profundidad del objeto en la última o subsiguiente escena. La computadora luego puede incorporar la profundidad del objeto sobre los cuadros sucesivos de una manera lineal u otra predeterminada. Este proceso también se puede automatizar completamente mediante el cual una computadora asigna la variación en la profundidad del objeto basado en el cambio de tamaño de un objeto cuando se mueve fuera del tiempo determinado. Una vez que al objeto se le ha asignado una profundidad especifica, el objeto luego se puede rastrear ya sea manualmente, automáticamente o semi-automáticamente cuando se mueve dentro de la imagen sobre los cuadros sucesivos. Por ejemplo, si un objeto se mueve o desplaza con cuidado una imagen fuera del tiempo determinado, se podría verificar este movimiento usando las representaciones vectoriales del objeto. Es decir, se podria verificar el tamaño de los vectores fuera del tiempo determinado y determinar si el objeto se hace más grande o más pequeño. Generalmente, mostrando si el objeto cuanto más grande se hace entonces tanto mas cercano se hace probablemente al espectador y viceversa. En la mayoria de los casos, el objeto será solamente el objeto sobre una capa particular . Un operador también puede usar las definiciones de profundidad producidas por otro operador ya sea trabajando en la misma secuencia o de la conversión previa de escenas similares . Para producir vistas de 3D más realistas algunas veces es deseable utilizar las definiciones de profundidad que son mas complejas que las pendientes simples o variaciones lineales. Particularmente es deseable para los objetos que tienen una estructura interna compleja con muchas variaciones de profundidad, por ejemplo, un árbol. El mapa de profundidad de tales objetos se podria producir agregando un mapa de resalto de textura al objeto. Por ejemplo, si se considera un rbol, primeramente se podrá asignar al árbol una profundidad. Luego se podría agregar un mapa de resalto de textura para dar a cada lámina sobre el árbol su propia profundidad individual. Se ha encontrado que tales mapas de textura son útiles para la presente invención para agregar detalle a objetos relativamente simples. Sin embargo, para detalles finos, tales como los dejados sobre un árbol u otros objetos complejos, este método no es preferido, para el método podria ser complicado además si el árbol, o similar, se deberá mover con el viento o el ángulo de la cámara cambia de cuadro a cuadro. Un método adicional y más preferido es usar la luminancia (o componentes blanco y negro) del objeto original para crear el mapa de resalto necesario. En general, los elementos del objeto que están cercanos al espectador deberán ser más claros y aquellos lejanos más oscuros. Por consiguiente, mediante la asignación de un valor dc lummancia ciara para acercar los elementos y luminancia oscura para alejar los elementos se puede crear automáticamente un mapa de resalto. La ventaja de esta técnica es que el objeto mismo se puede usar para crear su propio mapa de resalió y cualquier movimiento del objeto de cuadro a cuadro se rastrea automáticamente. Otros atributos de un obpeto también se pueden usar para crear un mapa de resalto, estos mcluyer pero no se limitan a, dominancia, saturación, agrupamiento de color, reflejos, sombras, focos, nitidez, etc. Los valores del mapa de resalto obtenidos de los atributos del objeto también preferiblemente serán clasificados de modo que los intervalos de variación de profundidad dentro del objeto son consistentes con el intervalo general de profundidades de la imagen completa. A cada capa, y a cada objeto se le asigna un identificador , y además a cada objeto se le asigna una característica de profundidad. Por lo tanto, el formato general de la definición del objeto es: <?dent?ficador de capaXident íficador de obj etoXcaracteristica de profundidad> en donde cada identificado! puede ser cualquier identificador alfanume ico y la característica de profundidad es como se describió previamente. Se deberá notar que la característica de profundidad puede incluir representaciones alfanumepcas de la profundidad del objeto. La presente invención describe la adición de u -identificador de característica de profundidad para protocolos de transmisión y almacenamiento ae imagen a base de capas existentes que puede fácilmente identificar los objetos dentro de una imagen por otros medios. En la ímplementacion mas simple, el ident íficador de capa se puede usar como una referencia directa o referida a la profundidad del objeto. Para ejemplo de proposito solamerte, considerar una imagen de 2D que consiste de 4 capas con cada capa que contiene un objeto sencillo. Las capas se pueden numerar de 1 a 4 y ordenar de modo que, cuando se despliega de forma estereoscópica, el objeto en la capa 1 aparece mas cerca al espectador, el objeto en la capa 2 aparece detrás del objeto en la capa 1 etc., de modo que el objeto en la capa 4 aparece mas lejano del espectador. Será obvio para aquellos expertos en la técnica que estas secuencias se podran invertir, es decir, la capa 4 podrá contener un objeto que este mas cerca del espectador y la capa 1 un objeto más lejano del espectadoi o sin profundidad secuencial o sin representaciones lineales aplicadas . Esta técnica de asignar el numero de capa como el valor de profundidad, es adecuada para imágenes relativamente simples donde el numero de objetos, capas y profundidades relativas no cambia durante la duración de la imagen. °?n embargo, esta modalidad tiene la desventaja de que se deberán introducir o remover capas adicionales durante la secuencia de 20, luego la profundidad completa de la imagen puede variar pitre las escenas. Por corisi au ente, l a forma general de la definición de rbjeto supera su limitación sepa ando los identificadores relacionados con la profundidad del objeto y capa.
DESPLAZAR LATERALMENTE CADA CAPA Para propósitos de explicación solamente, se asume que la imagen de 2D se compone de un numero de objetos que existen en capas separadas. También se asume que la imagen de 2D se convertirá a 3D se visualizara en una visualizacion estereoscópica que requiere separar las imágenes del ojo izquierdo y derecho. Las capas se ordenan en serie de modo que se requiere que el objeto en la capa 1 se observe mas cerca al espectador cuando se convierte en una imagen estereoscópica \ el objeto en la capa n mas lejano del espectador. Para propósitos de explicación solamente, también se asume que la profundidad del oojefo es igual a, o una función de, el número de capas. También se asume que el objeto mas próximo, es decir la capa 1, tendrá cero paralaje sobre el dispositivo de visión estereoscópica de modo que el objeto aparecerá en la superficie del dispositivo de visualizacion, ^ que todos los otros objetos en las capas consecutivas aparecerán de tras de los objetos sucesivos. Para producir la secuencia de imagen del ojo izquierdo se hace una copia de la capa I de la imagen de 2D. Luego se hace una copia de la capa 2 y se coloca debajo de la capa 1 con un desplazamiento lateral a la izquierda. La cantidad de desplazamiento lateral se determina para producir un efecto estereoscópico estéticamente satisfactorio o de acuerdo con alguna instrucción, convención o estándar previamente convenido. Las copias de las capas subsiguientes se hacen de una manera similar, cada una con el mismo desplazamiento lateral como la capa previa o un desplazamiento lateral incrementado cuando cada capa se adiciona. La cantidad de desplazamiento lateral determinara cuan lejos está el objeto del espectador. La identificación del objeto indica cual objeto se desplazara y la profundidad asignada indica cuanto . Para producir la secuencia de imagen del ojo derecho se hace una copia de la capa 1 de la imagen de 2D. Luego se hace una copia de la capa 2 y se coloca debajo de la capa 1 con un desplazamiento lateral a la derecha. En la modalidad preferida el desplazamiento lateral es igual y opuesto a aquel usado en el ojo izquierdo. Por ejemplo, la capa 2 se deberá desplazar a la izquierda por -2mm luego para el ojo derecho se podra usar un desplazamiento de +2mm. Se deberá apreciar que la unidad de medición del desplazamiento se relacionara al medio en que la imagen de 2D se representa y puede incluir, aunque no se limita a, pixeles, porcentaje de tamaño de imagen, porcentaje de tamaño de pantalla, etc. Luego se crea una imagen compuesta de las capas separadas para formar imágenes separadas en el ojo izquierdo y derecho que se pueden ver posteriormente como un par estereoscópico. Esto se ilustra en la Figura 3. En la explicación precedente es posible que la imagen en capas original se pueda usar para crear una visión del ojo como una alternativa para elaborar una copia. Es decir, la imagen original puede convertirse en la imagen del ojo derecho, y la imagen del ojo izquierdo se puede crear desplazando las capas respectivas. Se entenderá por aquellos expertos en la técnica que esta técnica se podrá aplicar a una secuencia de imágenes y para propósitos de explicación solamente, se ha ilustrado una imagen de 2D sencilla. Se entenderá por aquellos expertos en la técnica que los objetos en la imagen de 2D original se pueden describir diferente de las imágenes visibles, por ejemplo las representaciones de objetos basadas en vectores. Un objeto especifico de esta invención es que sea aplicable a todos los formatos de imagen que están compuestos de capas. Esto -ncluye, peso no se limita a, dibujos animados, imágenes basadas en vectores es decir, Macromedia Flash, imágenes codificadas por MPEG (en particular imágenes de formato MPEG 4 y MPEG 7) e imágenes basadas en grupos de caracteres. Refiriéndose ahora a la figura 4, se muestra un diagrama de flujo de la modalidad preferida de la presente invención. Después de recibir una imagen de una fuente en capas, el sistema selecciona la primera capa del material fuente. Se entenderá, que mientras tanto un objeto se puede ubicar en una capa separada, en algunos casos los objetos múltiples se pueden ubicar en la misma capa. Por ejemplo una capa la cual sirve solamente como un fondo puede de hecho tener un número de objetos ubicados en esta capa. Por consiguiente, la capa se analiza para determinar si o no una pluralidad de objetos están presentes en esta capa. Si la capa no tiene objetos múltiples, entonces es necesario determinar si cada uno de los objetos en esta capa aparecerá en la misma profundidad como cada otro objeto en esta capa. ?i se desea que al menos uno de los objetos en la capa aparezca a una profundidad diferente con otro objeto en la misma capa entonces se deberá crear una nueva capa para este objeto. De igual manera, si un número de los objetos en una capa única aparece cada une en profundidades diferentes, entonces se deberá crear una capa para cada profundidad, De esta forma, una capa solamente contendrá un objeto único, u objetos múltiples los cuales aparecen en la misma profundidad. Una vez que se ha determinado que una capa de objeto único, o una capa con objetos múltiples aparece en la misma profundidad, es necesario asignar una profundidad para aquellos objetos. Esta profundidad se puede asignar manualmente por un operador o por algunos otros medios tal como el conjunto de reglas predefinidas. Una vez que a los objetos sobre la capa se les ha asignado una característica de profundidad, es necesario modificar entonces los objetos y/o capas para crear una imagen estereoscópica.
La imagen estereoscópica incluirá tanto una imagen del ojo izquierdo como una imagen del o o derecho. Este sistema puede crear convenientemente la imagen del ojo izquierdo primero por desplazamiento lateral de la capa como una función de la característica de profundidad. Alternativamente, para versiones electrónicas de la imagen, puede ser mas simple desplazar lateralmente el objeto u objetos que lo que está sobre la capa. Por ejemplo, considerando una versión electrónica tal como Flash, entonces el objeto podria desplazarse ajustando las marcas asociadas con este objeto. Es decir, una de las marcas de objeto podria ser la coordenada x, y. Este sistema se puede configurar para modificar estas coordenadas x, y como una función de la característica de profundidad del objeto para desplazar lateralmente el objeto. Desplazando lateralmente el objeto y/o capa, se puede crear la imagen del ojo izquierdo. Para crear la imagen del ojo derecho se crea una nueva capa, y el objeto original y/o capa, es decir antes de que cualquier desplazamiento lateral se realice para crear la imagen del ojo izquierdo, luego se desplaza lateralmente en la dirección opuesta a aquella usada para crear la del ojo izquierdo. Por ejemplo, si el objeto para el ojo izquierdo se desplazó lateralmente 2 milímetros a la izquierda, entonces el mismo objeto se podría desplazar lateralmente 2 milímetros a la derecha para la imagen del o o derecho. De esta forma, se crea la imagen del o o derecho. Una vez que las imaqenes del ojo izquierdo y derecho se crean para el objeto u objetos en la capa, el sistema entonces selecciona la capa adjunta de la imagen y permite el mismo proceso. Sera obvio, que mas que seleccionar la primera capa este sistema podría elegir ísualmente la ultima capa para el proceso ímc almente . Una vez que cada capa se ha procesado como anteriormente, entonces es necesario combinar las capas respectivas para formar las imágenes del ojo izquierdo y derecho. Estas capas combinadas se pueden observar entonces por un espectador en una pantalla adecuada. Se prevé que el proceso de análisis sera determinado, y los datos incrustados en la imagen de 2D original previo a la transmisión. Estos datos podrían incluir la información requerida por el sistema de visualización para producir las imágenes estereoscópicas. De esta forma, la imagen original se puede transmitir, y se observa en 2D o 3D. Es decir, los sistemas de visualizacion estándar podrían ser capaces de recibir y procesar la imagen de 2D original y 3D capaz de visualizarse, también podría ser capaz de recibir la misma transmisión y visualizar las im genes estereoscópicas.
Los datos adicionales incrustados en la imagen de 2D pueden ser esencialmente un archivo de datos el cual contiene los datos necesarios para desplazar cada uno de los objetos y/o capas o alternativamente puede ser realmente marcas adicionales asociadas con cada objeto. En algunas aplicaciones el mero desplazamiento lateral de un objeto puede resultar en un objeto que tiene una vista plana y "figura de cartón" para el mismo. Esta apariencia es aceptable en algunas aplicaciones, por ejemplo caracteres del dibujo animado y animación. Sin embargo, en algunas aplicaciones es preferible procesar adicionalmente la imagen u objetos usando las técnicas de alargamiento previamente descritas asi como también el desplazamiento lateral. Es decir, no solo son los objetos y/o capas desplazadas lateralmente como una función de la característica de profundidad asignada al objeto, pero preferiblemente el objeto también se alarga usando las técnicas descritas en PCT/AU96/00820. En un sentido más practico, y considerando por ejemplo un archivo de animación Flash que comprende cuatro capas, Capa 1, Capa 2, Capa 3 y Capa 4 como se muestra en la Figura 1. El operador podrá cargar el archivo en el software Macromedia Flash. Los objetos mostrados en la Figura 2 existen en las capas respectivas. En una modalidad preferida el operado podria hacer clic con un ratón en cada objeto, por ejemplo el "personaje" en la Capa 1. El software entonces podria abrir un menú que permitiría al operador seleccionar una característica de profundidad para el objeto. El menú podría incluir selecciones simples tales como profundidad absoluta y relativa del espectador y profundidades complejas. Por ejemplo, el menú puede incluir un mapa de resalto predeterminado para un "personaje" tipo objeto que, junto con la profundidad seleccionada por el operado, se podria aplicar al objeto. Después de seleccionar las características de profundidad el sofware podría crear una nueva capa, Capa 5 en este ejemplo, y copiar el "personaje" con desplazamientos laterales necesarios y alargando esta nueva capa. La Capa 1 original también se podría modificar para tener los desplazamientos laterales necesarios y alargamiento. Este procedimiento se podría repetir para cada objeto en cada capa lo cual podría resultar en que se creen las capas 6, 7 y 8 adicionales. Las Capas 1 a 4 entonces podrían estar compuestas para formar por ejemplo la imagen del o o izquierdo y las capas 5 a 8 del ojo derecho. Se podría señalar que el sofware Macromedia Flash actualmente disponible, no soporta el equipo para asignar una característica de profundidad a un objeto y la funcionalidad se ha propuesto para propósitos ilustrativos únicamente. En donde a cada objeto se le ha asignado una capa separada, y un desplazamiento lateral simple es aplicado, entonces el proceso puede se automatizado. Por ejemplo, el operador puede asignar una profundidad para el objeto en la Capa 1 y el objeto en la capa n. El operador podria entonces describir la manera en la cual la profundidad varía entre la capa primera y n. La manera podría incluir, aunque no limitarse a, lineal, logarítmico, exponencial, etc. El software entonces podría crear automáticamente las nuevas capas y hacer la modificación necesaria a los objetos existentes en las capas originales. Se deberá señalar que se puede usar tanto el proceso manual como automático. Por ejemplo, se podría usar el proceso automático para las capas 1 a 4, manual en la capa 5, y automático en las capas 6 a n.
CODIFICACIÓN Y COMPRESIÓN En algunas circunstancias puede existir una redundancia significativa en la asignación de profundidad de los objetos. Por ejemplo, podria aparecer un objeto en las mismas coordenadas x,y y en la misma profundidad en cuadros de imagen subsecuentes entonces sólo es necesario registrar o transmitir esta información para la primera aparición del obj eto . Aquellos expertos en la técnica estarán familiarizados con técnicas para codificar y comprimir datos redundantes de esta naturaleza.
Modalidades Alternativas ?e apreciará que la técnica de desplazamiento lateral sólo se puede aplicar en donde los objetos en las capas subyacentes están descritos completamente. En donde este no sea el caso, por ejemplo, en donde la imagen de 2D no existe originalmente en la forma de capas, entonces se pueden aplicar las técnicas de alargamiento previamente descritas para crear las imágenes estereoscópicas. A este respecto, se señala que simplemente cortando y pegando un objeto, no es aceptable comercialmente y por lo tanto se podría requerir alguna técnica de alargamiento. Alternativamente, la fuente 2D sin capas se puede convertir en una fuente en capas usando técnicas de segmentación de imagen. En tales circunstancias la presente invención será entonces aplicable. Mediante el desplazamiento lateralmente simple de los objetos, la imagen de 3D resultante puede contener objetos que parecen ser planos o tener una característica de "figura de cartón". En algunas modalidades, esto puede hacer las vistas de imágenes de 3D planas e irreales. Sin embargo, para algunas aplicaciones esto puede ser preferido. Los dibujos animados, por ejemplo, producen resultados favorables. Aunque un efecto de 3D se puede crear, este puede no ser óptimo en algunas situaciones. Por consiguiente, es deseable dar a los objetos más cuerpo entonces los objetos y/o capas se pueden procesar adicionalmente aplicando las presentes técnicas de alargamiento previamente descritas, de los Solicitantes, de modo que el efecto de 3D puede ser mejorado. Por ejemplo, un objeto puede tener una característica de profundidad que combina un desplazamiento lateral y una pendiente de profundidad. Por lo tanto, el objeto resultante se podria colocar lateralmente como se describe en la presente invención como alargar como se describe en PCT/?U96/00820. En donde los objetos no existen en una forma en capas, y están parcialmente o completamente descritas, la técnica de alargamiento no se requiere para identificar y contornear objetos puesto que ya se ha asumido. Sin embargo, todavía se requiere la asignación de características de prof ndidad. ?e sabe por aquellos expertos en la técnica que las visualizaciones estereoscópicas que surgen de estas, no dependen de las imágenes del ojo izquierdo y del ojo derecho como una base de su operación. La intención de esta invención es que las técnicas descritas se puedan emplear por tecnologías existentes y de visualizacion futura. Por ejemplo, las visualizaciones que surgen de esta requieren una imagen de 2D mas un mapa de profundidad asociado. En este caso la imagen de 2D de cada ob?eto se puede convertir en un mapa de profundidad aplicando el identificador de características de profundidad previamente descrito para caaa objeto. Las capas individuales entonces st sobreponen para formar una imagen única que representa el mapa de profundidad para la imagen de 2D asociada. Se apreciara por aquellos expertos en la técnica que este proceso se puede aplicar ya sea previo a la visualizacion de las imágenes estereoscópicas o en tiempo real. Ademas, otro tipo de visualizacion que surqe de esta requiere mas im genes que simplemente un par estereoscópico. Por ejemplo, una pantalla de LCD autoestereoscopica fabricada por Phillips requiere 7 o 9 imágenes discretas en donde cada par de imagen adyecente consiste de un par estereoscópico. Se apreciara que la técnica de desplazamiento lateral descrita anteriormente también se puede usar para crear pares estereoscópicos múltiples adecuados para tales pantallas. Por ejemplo, para crear una secuencia de imagen adecuada para una pantalla aut oesteroscopica que requiere 7 vistas, la imagen de 2D original se podria usar para la vista central 4 y vistas 1 a 3 obtenidas por desplazamientos laterales sucesivos a la izquierda. Las vistas 5 a 7 se podrían formar a partir de desplazamientos laterales sucesivos a la derecha. Como se ha descrito previamente, las características dc profundidad se pueden incluir en la definición de la imagen de 2D oria-nal creando asi una imagen de 2D compatible con 3D. Proporcionando el tamaño menor de estos datos, la compatibilidad de 2D se obtiene con mínimos gastos de fabricación . También se ha descrito previamente que las características de profundidad se pueden incluir en las im genes de 2D originales o se pueden almacenar o transmitir separadamente . Aunque la presente invención ha descrito un sistema para convertir imágenes de 2D a partir de una fuente de capas, se entenderá que modificaciones y variaciones que podrían ser evidentes para un destinatario experto, se consideran dentro del alcance de la presente invención.
Se hace constar que con relación a esta fecha, el mejor método conocido por la solicitante para llevar a la práctica la citada invención, es el que resulta claro de la presente descripción de la invención.

Claims (12)

REIVINDICACIONES Habiéndose descrito la invención como antecede se reclama como propiedad lo contenido en las siguientes reivindicaciones :
1. Método de producción de imágenes para el ojo derecho e izquierdo para una visualización estereoscópica de una fuente en capas que incluye al menos una capa, y al menos un objeto y al menos una capa, caracterizado Dorque incluye los pasos de: definir una característica de profundidad para cada objeto o capa, y desplazar respectivamente cada objeto o capa por una cantidad determinada en una dirección lateral como una función de la característica de profundidad de cada capa.
2. Método de conformidad con la reivindicación 1, caracterizado porque al menos una capa a-ie tiene una pluralidad de objetos se segmenta en capas adicionales.
3. Método de conformidad con la reivindicación 2 , caracterizado porque se crea una capa adicional para cada objeto .
4. Método de conformidad con cualquier reivindicación precedente, caracterizado porque al menos se alarga un objeto para mejorar la imagen estereoscópica.
5. Método de conformidad con cualquier reivindicación precedente, caracterizado porque la marca asociada con cada objeto incluye las características de profundidad del objeto.
6. Método de conformidad con cualquier reivindicación precedente, caracterizado porque a cada objeto y capa se asigna un identificador y/o una característica de profundidad.
7. Método de conformidad con la reivindicación 6, caracterizado porque la identificación del objeto se puede definir como <?dent?ficador de capa> <?dent?ficedo de objeto> <característ?ca de profund?dad> .
8. Método de conformidad con la reivindicación 7, caracterizado porque el identificador es un identificador alf numérico .
9. Método de conformidad con la reivindicación 6, caracterizado porque el identificador de capas es una referencia a la característica de profundidad.
10. Sistema para transmitir imágenes -estereoscópicas producidas usando un método de conformidad con la reivindicación 1, caracterizado porque las características de profundidad para cada objeto o capa se incrustan en la fuente en capas.
11. Método de producción de imágenes para el ojo derecho e izquierdo de una visualización estereoscópica de una fuente en capas que incluye al menos una capa, y al menos un objeto en al menos una capa, caracterizado porque incluye los pasos de: duplicar cada capa para crear las imágenes para el ojo derecho e izquierdo; definir una característica de profundidad para cada objeto o capa, y desplazar respectivamente cada objeto o capa por una cantidad determinada en una dirección lateral como una función de la característica de profundidad de cada capa.
12. Método de conformidad con la reivindicación 11, caracterizado porque el desplazamiento de las imágenes para el ojo derecho e izquierdo está en una dirección igual y opuesta.
MXPA03001029A 2000-08-04 2001-08-03 Tecnica de codificacion y conversion de imagen. MXPA03001029A (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
AUPQ9222A AUPQ922200A0 (en) 2000-08-04 2000-08-04 Image conversion and encoding techniques
AUPR2757A AUPR275701A0 (en) 2001-01-29 2001-01-29 Image conversion and encoding technique
PCT/AU2001/000946 WO2002013143A1 (en) 2000-08-04 2001-08-03 Image conversion and encoding technique

Publications (1)

Publication Number Publication Date
MXPA03001029A true MXPA03001029A (es) 2003-05-27

Family

ID=25646396

Family Applications (1)

Application Number Title Priority Date Filing Date
MXPA03001029A MXPA03001029A (es) 2000-08-04 2001-08-03 Tecnica de codificacion y conversion de imagen.

Country Status (8)

Country Link
US (1) US20020118275A1 (es)
EP (1) EP1314138A1 (es)
JP (1) JP2004505394A (es)
KR (1) KR20030029649A (es)
CN (1) CN1462416A (es)
CA (1) CA2418089A1 (es)
MX (1) MXPA03001029A (es)
WO (1) WO2002013143A1 (es)

Families Citing this family (81)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7116323B2 (en) 1998-05-27 2006-10-03 In-Three, Inc. Method of hidden surface reconstruction for creating accurate three-dimensional images converted from two-dimensional images
US7116324B2 (en) 1998-05-27 2006-10-03 In-Three, Inc. Method for minimizing visual artifacts converting two-dimensional motion pictures into three-dimensional motion pictures
US9286941B2 (en) 2001-05-04 2016-03-15 Legend3D, Inc. Image sequence enhancement and motion picture project management system
JP2004145832A (ja) * 2002-08-29 2004-05-20 Sharp Corp コンテンツ作成装置、コンテンツ編集装置、コンテンツ再生装置、コンテンツ作成方法、コンテンツ編集方法、コンテンツ再生方法、コンテンツ作成プログラム、コンテンツ編集プログラム、および携帯通信端末
ATE433590T1 (de) * 2002-11-27 2009-06-15 Vision Iii Imaging Inc Abtastung der parallaxe durch manipulation der position der gegenstände in einer szene
US7403201B2 (en) * 2003-01-20 2008-07-22 Sanyo Electric Co., Ltd. Three-dimensional video providing method and three-dimensional video display device
US8531448B2 (en) * 2003-05-28 2013-09-10 Sanyo Electric Co., Ltd. Stereoscopic image display apparatus, text data processing apparatus, program, and storing medium
CN100414566C (zh) * 2003-06-19 2008-08-27 邓兴峰 平面图像全景重建立体图像的方法
US7710032B2 (en) * 2003-07-11 2010-05-04 Koninklijke Philips Electronics N.V. Encapsulation structure for display devices
GB0329312D0 (en) 2003-12-18 2004-01-21 Univ Durham Mapping perceived depth to regions of interest in stereoscopic images
JP3746506B2 (ja) * 2004-03-08 2006-02-15 一成 江良 立体視化パラメータ埋込装置及び立体視画像再生装置
US7643672B2 (en) * 2004-10-21 2010-01-05 Kazunari Era Image processing apparatus, image pickup device and program therefor
US20060087556A1 (en) * 2004-10-21 2006-04-27 Kazunari Era Stereoscopic image display device
JP4283785B2 (ja) * 2005-05-10 2009-06-24 株式会社マーキュリーシステム 立体視画像生成装置およびプログラム
WO2007063478A2 (en) * 2005-12-02 2007-06-07 Koninklijke Philips Electronics N.V. Stereoscopic image display method and apparatus, method for generating 3d image data from a 2d image data input and an apparatus for generating 3d image data from a 2d image data input
US7911467B2 (en) * 2005-12-30 2011-03-22 Hooked Wireless, Inc. Method and system for displaying animation with an embedded system graphics API
GB0613352D0 (en) * 2006-07-05 2006-08-16 Ashbey James A Improvements in stereoscopic imaging systems
JP4895372B2 (ja) * 2006-10-27 2012-03-14 サミー株式会社 二次元動画像生成装置、遊技機、及び画像生成プログラム
KR101506219B1 (ko) * 2008-03-25 2015-03-27 삼성전자주식회사 3차원 영상 컨텐츠 제공 방법, 재생 방법, 그 장치 및 그기록매체
JP2010028456A (ja) * 2008-07-18 2010-02-04 Sony Corp データ構造、再生装置および方法、並びにプログラム
CA2729995C (en) * 2008-07-24 2015-12-22 Panasonic Corporation Playback device capable of stereoscopic playback, playback method, and program
US9251621B2 (en) * 2008-08-14 2016-02-02 Reald Inc. Point reposition depth mapping
EP2319016A4 (en) * 2008-08-14 2012-02-01 Reald Inc STEREOSCOPIC DEPTH MAPPING
EP2340534B1 (en) * 2008-10-03 2013-07-24 RealD Inc. Optimal depth mapping
CN101960862A (zh) * 2008-11-06 2011-01-26 松下电器产业株式会社 再现装置、再现方法、再现程序及集成电路
US8335425B2 (en) * 2008-11-18 2012-12-18 Panasonic Corporation Playback apparatus, playback method, and program for performing stereoscopic playback
EP2387022A4 (en) * 2009-02-04 2013-05-29 Panasonic Corp IMAGE PROCESSING DEVICE AND IMAGE DISPLAY PROCESS
US9172940B2 (en) 2009-02-05 2015-10-27 Bitanimate, Inc. Two-dimensional video to three-dimensional video conversion based on movement between video frames
US9524700B2 (en) * 2009-05-14 2016-12-20 Pure Depth Limited Method and system for displaying images of various formats on a single display
US8437603B2 (en) * 2009-05-25 2013-05-07 Panasonic Corporation Recording medium, reproduction device, integrated circuit, reproduction method, and program
US20100303437A1 (en) * 2009-05-26 2010-12-02 Panasonic Corporation Recording medium, playback device, integrated circuit, playback method, and program
US8928682B2 (en) * 2009-07-07 2015-01-06 Pure Depth Limited Method and system of processing images for improved display
US9294751B2 (en) 2009-09-09 2016-03-22 Mattel, Inc. Method and system for disparity adjustment during stereoscopic zoom
US8502862B2 (en) * 2009-09-30 2013-08-06 Disney Enterprises, Inc. Method and system for utilizing pre-existing image layers of a two-dimensional image to create a stereoscopic image
US8947422B2 (en) * 2009-09-30 2015-02-03 Disney Enterprises, Inc. Gradient modeling toolkit for sculpting stereoscopic depth models for converting 2-D images into stereoscopic 3-D images
US8884948B2 (en) * 2009-09-30 2014-11-11 Disney Enterprises, Inc. Method and system for creating depth and volume in a 2-D planar image
US8638329B2 (en) * 2009-12-09 2014-01-28 Deluxe 3D Llc Auto-stereoscopic interpolation
US8538135B2 (en) 2009-12-09 2013-09-17 Deluxe 3D Llc Pulling keys from color segmented images
US20110157155A1 (en) * 2009-12-31 2011-06-30 Disney Enterprises, Inc. Layer management system for choreographing stereoscopic depth
US9042636B2 (en) * 2009-12-31 2015-05-26 Disney Enterprises, Inc. Apparatus and method for indicating depth of one or more pixels of a stereoscopic 3-D image comprised from a plurality of 2-D layers
GB2477793A (en) * 2010-02-15 2011-08-17 Sony Corp A method of creating a stereoscopic image in a client device
TW201130285A (en) * 2010-02-26 2011-09-01 Hon Hai Prec Ind Co Ltd System and method for controlling 3D images
TW201031179A (en) * 2010-04-15 2010-08-16 Xiu-Ping Zhou Image transform method, imaging methods and system for stereo vision
JP5143856B2 (ja) * 2010-04-16 2013-02-13 株式会社ソニー・コンピュータエンタテインメント 3次元画像表示装置、および3次元画像表示方法
KR20120063349A (ko) * 2010-12-07 2012-06-15 한국과학기술원 3d 입체 카툰 변환 방법 및 시스템, 이를 위한 기록매체
US10134150B2 (en) * 2010-08-10 2018-11-20 Monotype Imaging Inc. Displaying graphics in multi-view scenes
KR101688153B1 (ko) * 2010-08-11 2016-12-20 엘지전자 주식회사 3차원 영상의 편집 방법 및 이를 이용하는 이동 단말기
KR20120023268A (ko) * 2010-09-01 2012-03-13 삼성전자주식회사 디스플레이 장치 및 그 영상 생성 방법
JP2012053741A (ja) * 2010-09-02 2012-03-15 Sony Corp 画像処理装置、画像処理方法及びコンピュータプログラム
US8831273B2 (en) 2010-09-10 2014-09-09 Reald Inc. Methods and systems for pre-processing two-dimensional image files to be converted to three-dimensional image files
US9485497B2 (en) 2010-09-10 2016-11-01 Reald Inc. Systems and methods for converting two-dimensional images into three-dimensional images
JP5668385B2 (ja) * 2010-09-17 2015-02-12 ソニー株式会社 情報処理装置、プログラムおよび情報処理方法
JP2012094111A (ja) * 2010-09-29 2012-05-17 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP5438082B2 (ja) * 2010-11-16 2014-03-12 パナソニック株式会社 表示装置及び表示方法
JP5649169B2 (ja) 2010-11-22 2015-01-07 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation タッチパネルにおけるドラッグ操作でオブジェクトを移動させる方法、装置及びコンピュータプログラム
FR2969791B1 (fr) * 2010-12-23 2012-12-28 Thales Sa Procede de correction de l'hyperstereoscopie et systeme de visualisation de casque associe
US20120202187A1 (en) * 2011-02-03 2012-08-09 Shadowbox Comics, Llc Method for distribution and display of sequential graphic art
US9282321B2 (en) 2011-02-17 2016-03-08 Legend3D, Inc. 3D model multi-reviewer system
US9288476B2 (en) 2011-02-17 2016-03-15 Legend3D, Inc. System and method for real-time depth modification of stereo images of a virtual reality environment
US9241147B2 (en) 2013-05-01 2016-01-19 Legend3D, Inc. External depth map transformation method for conversion of two-dimensional images to stereoscopic images
US9407904B2 (en) 2013-05-01 2016-08-02 Legend3D, Inc. Method for creating 3D virtual reality from 2D images
JP5987267B2 (ja) * 2011-03-28 2016-09-07 ソニー株式会社 画像処理装置および画像処理方法
KR101777875B1 (ko) * 2011-04-28 2017-09-13 엘지디스플레이 주식회사 입체 영상 표시장치와 그 입체 영상 조절 방법
BR112013013035A8 (pt) * 2011-05-24 2017-07-11 Panasonic Corp Dispositivo de exibição de difusão de dados, método de exibição de difusão de dados, e programa de exibição de difusão de dados
US20130016098A1 (en) * 2011-07-17 2013-01-17 Raster Labs, Inc. Method for creating a 3-dimensional model from a 2-dimensional source image
JP2013058956A (ja) * 2011-09-09 2013-03-28 Sony Corp 情報処理装置、情報処理方法、プログラム及び情報処理システム
JP6017795B2 (ja) * 2012-02-10 2016-11-02 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム画像生成方法
US9007365B2 (en) 2012-11-27 2015-04-14 Legend3D, Inc. Line depth augmentation system and method for conversion of 2D images to 3D images
US9547937B2 (en) 2012-11-30 2017-01-17 Legend3D, Inc. Three-dimensional annotation system and method
US9007404B2 (en) 2013-03-15 2015-04-14 Legend3D, Inc. Tilt-based look around effect image enhancement method
US9438878B2 (en) 2013-05-01 2016-09-06 Legend3D, Inc. Method of converting 2D video to 3D video using 3D object models
RU2013141807A (ru) * 2013-09-11 2015-03-20 Челибанов Владимир Петрович Способ стереоскопии и устройство для его осуществления ("рамка горлова")
US10122992B2 (en) 2014-05-22 2018-11-06 Disney Enterprises, Inc. Parallax based monoscopic rendering
IL236420A (en) 2014-12-23 2016-06-30 Ron Schneider Methods and systems for producing an enlarged 3D image
US9992473B2 (en) 2015-01-30 2018-06-05 Jerry Nims Digital multi-dimensional image photon platform system and methods of use
US10033990B2 (en) 2015-01-30 2018-07-24 Jerry Nims Digital multi-dimensional image photon platform system and methods of use
CN104869389B (zh) * 2015-05-15 2016-10-05 北京邮电大学 离轴式虚拟摄像机参数确定方法及***
EP3417345A1 (en) * 2015-09-01 2018-12-26 Jerry Nims Digital multi-dimensional image photon platform system and methods of use
US9609307B1 (en) 2015-09-17 2017-03-28 Legend3D, Inc. Method of converting 2D video to 3D video using machine learning
KR102279143B1 (ko) * 2017-04-11 2021-07-19 돌비 레버러토리즈 라이쎈싱 코오포레이션 계층화된 증강 엔터테인먼트 경험
KR101990373B1 (ko) * 2017-09-29 2019-06-20 클릭트 주식회사 가상현실 영상 제공 방법 및 이를 이용한 프로그램

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4925294A (en) * 1986-12-17 1990-05-15 Geshwind David M Method to convert two dimensional motion pictures for three-dimensional systems
US4928301A (en) * 1988-12-30 1990-05-22 Bell Communications Research, Inc. Teleconferencing terminal with camera behind display screen
DE69417824T4 (de) * 1993-08-26 2000-06-29 Matsushita Electric Ind Co Ltd Stereoskopischer Abtastapparat
TW269094B (en) * 1994-11-11 1996-01-21 Nitendo Kk Three dimensional visual image display device and electric game apparatus, memory device thereof
US5790086A (en) * 1995-01-04 1998-08-04 Visualabs Inc. 3-D imaging system
US5819017A (en) * 1995-08-22 1998-10-06 Silicon Graphics, Inc. Apparatus and method for selectively storing depth information of a 3-D image
US6108005A (en) * 1996-08-30 2000-08-22 Space Corporation Method for producing a synthesized stereoscopic image
US6031564A (en) * 1997-07-07 2000-02-29 Reveo, Inc. Method and apparatus for monoscopic to stereoscopic image conversion
AUPO894497A0 (en) * 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
CA2252063C (en) * 1998-10-27 2009-01-06 Imax Corporation System and method for generating stereoscopic image data
JP3634677B2 (ja) * 1999-02-19 2005-03-30 キヤノン株式会社 画像の補間方法、画像処理方法、画像表示方法、画像処理装置、画像表示装置、及びコンピュータプログラム記憶媒体

Also Published As

Publication number Publication date
CN1462416A (zh) 2003-12-17
WO2002013143A1 (en) 2002-02-14
KR20030029649A (ko) 2003-04-14
CA2418089A1 (en) 2002-02-14
EP1314138A1 (en) 2003-05-28
US20020118275A1 (en) 2002-08-29
JP2004505394A (ja) 2004-02-19

Similar Documents

Publication Publication Date Title
MXPA03001029A (es) Tecnica de codificacion y conversion de imagen.
Wright Digital compositing for film and vídeo: Production Workflows and Techniques
JP4500614B2 (ja) 映像基盤レンダリングおよび編集の方法ならびにその装置
US7894633B1 (en) Image conversion and encoding techniques
US9485497B2 (en) Systems and methods for converting two-dimensional images into three-dimensional images
US8351689B2 (en) Apparatus and method for removing ink lines and segmentation of color regions of a 2-D image for converting 2-D images into stereoscopic 3-D images
US20110074784A1 (en) Gradient modeling toolkit for sculpting stereoscopic depth models for converting 2-d images into stereoscopic 3-d images
EP2755187A2 (en) 3d-animation effect generation method and system
KR20110090958A (ko) 이미지 속성들에 대한 오클루젼 데이터의 생성
Pearson et al. Plenoptic layer-based modeling for image based rendering
KR20120095059A (ko) 2d 이미지를 3d 입체 이미지로 전환시키는 방법
CN1524249A (zh) 用于自动进行二维和三维转换的方法
CN104103091A (zh) 3d智能建模方法和***及3d模型柔性制造***
WO2001001348A1 (en) Image conversion and encoding techniques
CN102609950A (zh) 一种二维视频深度图的生成方法
KR101785203B1 (ko) 깊이 이미지를 이용한 다시점 객체 분리 방법 및 시스템
US20230171506A1 (en) Increasing dynamic range of a virtual production display
KR20160107588A (ko) 2d 동영상으로부터 새로운 3d 입체 동영상 제작을 위한 장치 및 방법
CN103514593A (zh) 图像处理方法及装置
US20030038813A1 (en) Method of rendering a three-dimensional object using two-dimensional graphics
US20100164952A1 (en) Stereoscopic image production method and system
Feldman et al. Interactive 2D to 3D stereoscopic image synthesis
Panagou et al. An Investigation into the feasibility of Human Facial Modeling
Schneider et al. Semi-automatic digital landform mapping
RU2540786C2 (ru) Способ и система динамической генерации трехмерных анимационных эффектов