ES2271272T3 - Sistema de visualizacion de video interactivo. - Google Patents
Sistema de visualizacion de video interactivo. Download PDFInfo
- Publication number
- ES2271272T3 ES2271272T3 ES02739710T ES02739710T ES2271272T3 ES 2271272 T3 ES2271272 T3 ES 2271272T3 ES 02739710 T ES02739710 T ES 02739710T ES 02739710 T ES02739710 T ES 02739710T ES 2271272 T3 ES2271272 T3 ES 2271272T3
- Authority
- ES
- Spain
- Prior art keywords
- image
- influence
- detected
- visual presentation
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 230000002452 interceptive effect Effects 0.000 title description 8
- 230000000007 visual effect Effects 0.000 claims abstract description 73
- 238000000034 method Methods 0.000 claims abstract description 46
- 230000004044 response Effects 0.000 claims abstract description 7
- 230000007704 transition Effects 0.000 claims abstract description 4
- 238000012545 processing Methods 0.000 claims description 20
- 230000003993 interaction Effects 0.000 claims description 18
- 230000000694 effects Effects 0.000 claims description 17
- 238000001514 detection method Methods 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000005286 illumination Methods 0.000 claims description 3
- 238000001429 visible spectrum Methods 0.000 claims description 3
- 230000003044 adaptive effect Effects 0.000 claims 2
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 claims 1
- 238000000926 separation method Methods 0.000 claims 1
- 230000033001 locomotion Effects 0.000 description 24
- 238000004422 calculation algorithm Methods 0.000 description 9
- KRQUFUKTQHISJB-YYADALCUSA-N 2-[(E)-N-[2-(4-chlorophenoxy)propoxy]-C-propylcarbonimidoyl]-3-hydroxy-5-(thian-3-yl)cyclohex-2-en-1-one Chemical compound CCC\C(=N/OCC(C)OC1=CC=C(Cl)C=C1)C1=C(O)CC(CC1=O)C1CCCSC1 KRQUFUKTQHISJB-YYADALCUSA-N 0.000 description 4
- 230000009471 action Effects 0.000 description 4
- 239000003086 colorant Substances 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 239000000976 ink Substances 0.000 description 2
- 239000003973 paint Substances 0.000 description 2
- 239000000049 pigment Substances 0.000 description 2
- 229920000642 polymer Polymers 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 102100031680 Beta-catenin-interacting protein 1 Human genes 0.000 description 1
- 101000993469 Homo sapiens Beta-catenin-interacting protein 1 Proteins 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 125000003118 aryl group Chemical group 0.000 description 1
- 230000000386 athletic effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000005669 field effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/20—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/14—Details
- G03B21/26—Projecting separately subsidiary matter simultaneously with main image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1012—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1087—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
- A63F2300/1093—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/69—Involving elements of the real world in the game world, e.g. measurement in live races, real video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/33—Transforming infrared radiation
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Details Of Television Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Position Input By Displaying (AREA)
Abstract
Un sistema para detectar un objeto (1; 304) y generar como respuesta una presentación visual (302) en la que dicho objeto interactúa con al menos un elemento virtual (306) que se presenta visualmente en dicha presentación visual, de tal manera que el sistema comprende: una primera fuente (2), destinada a suministrar como salida energía electromagnética en un primer intervalo de longitudes de onda, hacia una posición que comprende dicho objeto (1); un detector (3), destinado a detectar una reflexión de la primera fuente de energía electromagnética en dicha posición; un procesador (5), acoplado al detector y proporcionado para implementar o llevar a la práctica un procedimiento para: detectar una imagen del objeto en dicha reflexión detectada; determinar una imagen de influencia del objeto (322, 324, 326, 328, 330), de tal manera que la imagen de influencia incluye una región en torno a la imagen del objeto detectada, estando la región compuesta por puntos de imagen o píxeles que tienen valores que los distinguen de la imagen detectada, y formando la región, en torno a la imagen detectada, una transición de valores de punto de imagen que hace posible el cálculo de un grado y una dirección de la influencia del objeto en al menos un elemento virtual; y generar una señal de presentación visual que incluye al menos un elemento virtual, de tal manera que la imagen de influencia interactúa con dicho al menos un elemento virtual; y una segunda fuente (7), destinada a suministrar como salida energía electromagnética en un segundo intervalo de longitudes de onda, de tal manera que la segunda fuente genera una presentación visual visible en respuesta a dicha señal de presentación visual, de modo que los primer y segundo intervalos de longitudes de onda son diferentes.
Description
Sistema de visualización de vídeo
interactivo.
La presente invención se refiere, en general, a
sistemas de tratamiento o procesamiento de imágenes y, más
específicamente, a un sistema para recibir y procesar una imagen de
una persona usuaria para permitir su interacción con presentaciones
visuales de vídeo.
El procesamiento de imágenes se utiliza en
muchos campos de análisis, educación, comercio y entretenimiento. Un
aspecto del procesamiento de imágenes incluye la interacción de
persona-computadora mediante la detección de formas
y movimientos humanos con el fin de permitir su interacción con
imágenes. Las aplicaciones de tal procesamiento pueden servirse de
modos eficaces o entretenidos de interactuar con imágenes con el fin
de definir formas u otros datos digitales, dotar a los objetos de
animación, crear formas expresivas, etc.
Se hace referencia a la detección de la posición
y del movimiento de un cuerpo humano como "captación del
movimiento". Con las técnicas de captación del movimiento, se
introducen en una computadora u otro sistema de procesamiento
descripciones matemáticas de los movimientos de un actor o
representador. Los movimientos naturales del cuerpo pueden ser
utilizados como datos de entrada a la computadora con el fin de
estudiar el movimiento atlético, captar datos para una reproducción
o simulación ulterior, mejorar el análisis con propósitos médicos,
etc.
Si bien la captación del movimiento proporciona
beneficios y ventajas, las técnicas de captación del movimiento
tienden a ser complejas. Algunas técnicas requieren que el actor
humano lleve trajes especiales con puntos de alta visibilidad en
diversas posiciones. Otras soluciones se sirven de emisores de
radiofrecuencia o de otros tipos de emisores, de sensores y
detectores múltiples, transparencias, cuantioso procesamiento
ulterior, etc. Ciertas técnicas que se basan en la simple captación
de imágenes con luz visible no son, por lo común, lo suficientemente
exactas como para proporcionar una captación bien definida y precisa
del movimiento.
Algunas aplicaciones de la captación del
movimiento permiten a un actor, o usuario, interaccionar con
imágenes que son creadas y presentadas visualmente por un sistema
informático. Por ejemplo, un actor puede permanecer frente a una
proyección de vídeo de varios objetos en una pantalla grande. El
actor puede mover o generar, modificar y manipular de otro modo los
objetos mediante el uso de movimientos corporales. Pueden computarse
por el sistema de procesamiento y visualizarse en la pantalla de
presentación visual diferentes efectos basados en los movimientos de
un actor. Por ejemplo, el sistema informático puede seguir un
recorrido del actor frente a la pantalla de presentación visual y
ofrecer una aproximación o una interpretación artística del
recorrido sobre la pantalla de presentación visual. Las imágenes con
las que interactúa el actor pueden ser, por ejemplo, sobre el suelo,
una pared u otra superficie; suspendido tridimensionalmente en el
espacio, y presentarse visualmente en uno o más monitores, pantallas
de proyección u otros dispositivos. Es posible utilizar cualquier
tipo de dispositivo de presentación visual o tecnología para
presentar imágenes que un usuario puede controlar o con las que
puede interactuar.
En algunas aplicaciones, tales como en puntos de
venta o en anuncios minoristas, en promociones, lugares de
entretenimiento en puestos callejeros o en mercadillos, etc., es
deseable captar el movimiento de un usuario no adiestrado (por
ejemplo, una persona que pasa por allí) de una forma muy poco
embarazosa o impositiva. Idealmente, el usuario no necesitará una
preparación o adiestramiento especial y el sistema no utilizará un
equipo excesivamente caro. Asimismo, el método y el sistema
utilizados para la captación del movimiento del actor habrán de ser,
preferiblemente, invisibles o indetectables por parte del usuario.
Muchas aplicaciones del mundo real deben trabajar en entornos en los
que existe un fondo, y objetos delante de ese fondo, complejos y
cambiantes, intervalos de tiempo cortos para la captación,
condiciones de luz cambiantes y otros factores que pueden hacer
difícil la captación del movimiento. El documento
US-A-5969754 describe un iluminador
para la mejora del contraste. El documento WO 98/38533 (SIEMENS)
describe un sistema en el cual un puntero de ratón no es desplazado
por unos medios de entrada tradicionales, tales como un ratón, sino
que es desplazado por la mano de un usuario. La divulgación de Penny
et al.: "``Trazas'': seguimiento inalámbrico de todo el
cuerpo en la cueva", Conferencia de realidad virtual de ICAT,
diciembre de 1999, Japón, describe la construcción de un modelo
corporal tridimensional de una persona en tiempo real o de forma
instantánea.
La presente invención permite la interacción
entre un usuario y un sistema informático de presentación visual
utilizando el movimiento y la posición del usuario (o de otro
objeto) como datos de entrada a una computadora. La computadora
genera una presentación visual que responde a la posición y al
movimiento del usuario. La presentación visual generada puede
incluir objetos o formas que pueden ser desplazados, modificados o
controlados de otra manera mediante los movimientos corporales de un
usuario.
En una realización preferida de la invención,
las imágenes visualmente presentadas se ven afectadas por las
acciones de un usuario de forma instantánea o en tiempo real. La
presentación visual puede ser proyectada en el entorno del usuario
de tal manera que las acciones del usuario crean efectos que emanan
del usuario y afectan a las áreas de presentación visual próximas al
usuario. O bien el usuario puede realizar un efecto en objetos de
vídeo tal como dando una patada a elementos contenidos en imágenes
de vídeo, empujándolos, desplazándolos, deformándolos, tocándolos,
etc. La interferencia entre la luz utilizada para presentar
visualmente imágenes interactivas y la luz utilizada para detectar
al usuario se minimiza mediante el uso de luz de longitudes de onda
sustancialmente diferentes.
En una realización, un usuario es iluminado con
luz infrarroja que no es visible para el ojo humano. Una cámara que
es sensible a la luz infrarroja se utiliza para captar una imagen
del usuario para el análisis de su posición y su movimiento. Se
proyecta luz visible por medio de un proyector en una pantalla,
vidrio u otra superficie con el fin de presentar visualmente
imágenes interactivas, objetos, patrones o diseños, u otras formas y
efectos. La superficie de presentación visual puede estar alineada
en torno al usuario de tal manera que la presencia física de éstos
dentro del dispositivo de presentación visual corresponde a su
presencia virtual, dando la sensación de tocar e interactuar
físicamente con objetos virtuales.
Un aspecto de la invención puede hacer uso de
iluminación con una cierta configuración o patrón en lugar de una
simple "luz fluyente" invisible y uniforme. Con la iluminación
con cierto patrón, se proyecta un patrón tal como un patrón de
tablero de ajedrez, de puntos distribuidos aleatoriamente, etc. El
patrón se utiliza mediante la ejecución de un procedimiento en una
computadora con el fin de interpretar una imagen de cámara y
detectar un objeto a partir de un fondo y/u otros elementos de una
escena. El patrón puede ser generado como un fondo (de tal modo que
no incide en un objeto que se ha de detectar), o bien el patrón
puede proyectarse sobre la totalidad de la escena visible por la
cámara, de tal manera que ilumina el fondo, el plano situado por
delante de él y los objetos que se han de detectar y cuyos
movimientos se han de captar.
Una forma de conseguir la iluminación dotada de
un cierto patrón incluye el uso de un conjunto o grupo de LEDs de
infrarrojos u otra fuente de luz no visible en un proyector de
diapositivas. Otra solución puede servirse de un haz de láser
infrarrojo que es desviado, obturado, sometido a un barrido, etc.
para producir un cierto patrón.
Otra forma de conseguir la iluminación dotada de
un cierto patrón consiste en utilizar una "luz fluyente"
uniforme, aunque marcando el patrón anteriormente mencionado sobre
el área visible de la cámara con el uso de tinta, pigmento o pintura
que sea, bien oscura o bien altamente reflectante para la frecuencia
respectiva de la cámara. Esta tinta, pigmento o pintura puede
hacerse de modo que sea invisible para el ojo humano, de tal manera
que se mejore la estética de la presentación visual.
Otro aspecto de la invención utiliza una
solución de gradiente para determinar la interacción de
objeto-imagen. Se crea una "imagen de
influencia" mediante la creación de un aura en gradiente, o
transición de escala de grises, en torno al objeto detectado. A
medida que el objeto detectado se mueve, el aura en gradiente es
calculada en tiempo real. Conforme el aura en gradiente incide en
una imagen o elemento de vídeo, se calculan el brillo y el gradiente
en la región del elemento donde incide o de incidencia. La
intensidad y la dirección de la interacción (por ejemplo, un empuje
sobre el elemento) es función del brillo y del gradiente,
respectivamente, de la región de incidencia.
En una realización, la invención proporciona un
sistema para detectar un objeto y generar una presentación visual
como respuesta, de tal modo que el sistema comprende una primera
fuente, destinada a suministrar como salida energía electromagnética
dentro de un primer intervalo de longitudes de onda, un detector
para detectar una reflexión de la primera fuente de energía
electromagnética en un objeto, un procesador, acoplado al detector
con el fin de utilizar la reflexión detectada para generar una señal
de presentación visual, una segunda fuente, destinada a suministrar
como salida energía electromagnética dentro de un segundo intervalo
de longitudes de onda, de tal modo que la segunda fuente genera una
presentación visual visible en respuesta a la señal de presentación
visual, de manera que los primer y segundo intervalos de longitudes
de onda son diferentes.
En otra realización, la invención proporciona un
método para detectar un objeto en una imagen captada con una cámara,
de tal modo que el método comprende utilizar una iluminación con una
cierta configuración o patrón para iluminar un fondo de forma
diferente desde el objeto; y utilizar un sistema de tratamiento o
procesamiento para definir el objeto aparte del fondo.
En otra realización, la invención proporciona un
método para computar una interacción de un objeto con un elemento de
vídeo, de tal modo que el método comprende utilizar un procesador
para determinar un gradiente para el objeto; utilizar un procesador
para determinar un límite o perímetro para el elemento de vídeo; e
identificar una integración mediante el uso del gradiente y del
perímetro.
La Figura 1 muestra una primera configuración de
una realización preferida que utiliza un proyector y una cámara
situados correlativamente;
La Figura 2 muestra una configuración de
proyección desde arriba;
La Figura 3 muestra una configuración de
proyección desde atrás;
La Figura 4 muestra una configuración de
proyección lateral;
La Figura 5A ilustra un sujeto bajo una
iluminación uniforme;
La Figura 5B ilustra un fondo bajo una
iluminación de configuración o patrón de puntos aleatorios;
La Figura 5C ilustra un sujeto y un fondo bajo
una iluminación de patrón de puntos aleatorios;
La Figura 5D muestra un resultado de detectar un
sujeto desde un fondo utilizando una iluminación de patrón de puntos
aleatorios;
La Figura 6A muestra un usuario humano que
interactúa con un objeto de vídeo; y
La Figura 6B ilustra una imagen de
influencia.
Se describen en lo que sigue varias
configuraciones de la invención. En general, la presente invención
se sirve de una primera fuente de luz para iluminar a un usuario u
otro objeto. La primera fuente de luz utiliza luz que no es visible
para las personas. Es posible utilizar, por ejemplo, luz infrarroja
o ultravioleta. Una cámara que es sensible a la luz en el intervalo
de longitudes de onda de la primera fuente de luz se emplea para
detectar a un usuario que es iluminado por la primera fuente de luz.
Se utiliza una computadora (u otro sistema de procesamiento) para
tratar o procesar la imagen de objeto detectada y para generar
imágenes para su presentación visual. Una segunda fuente de luz (por
ejemplo, un proyector, una pantalla de vídeo, etc.) se utiliza para
presentar visualmente las imágenes de presentación visual generadas
a personas usuarias o espectadores. Las imágenes visualmente
presentadas se encuentran en las longitudes de onda que minimizan la
interferencia con la detección de objeto de la cámara. Típicamente,
el espectro visible se utiliza para presentar visualmente las
imágenes.
En una realización preferida, la presentación
visual rodea al usuario de tal manera que la presencia virtual del
usuario queda alineada con la presencia física del usuario. De esta
forma, la escena virtual de la presentación visual tiene una
posición física situada en torno al usuario, y el movimiento del
usuario dentro de la presentación visual provocará un movimiento
idéntico de la representación del usuario dentro de la escena
virtual. Por ejemplo, el usuario puede incidir en la posición física
de un objeto virtual y saber que esto hará que su representación
virtual toque el objeto virtual dentro del sistema informático. El
uso del término "tocar" o de la expresión "que toca" en
esta memoria no significa un contacto físico con un objeto, tal como
una persona, un elemento de imagen. En lugar de ello, la noción de
tocar significa que la posición del objeto y la acción en el espacio
físico se traduce en un efecto en una imagen generada, que incluye
efectos de desplazamiento de elementos en las imágenes
generadas.
Las imágenes o los elementos visualmente
presentados pueden incluir objetos, configuraciones o patrones,
formas o cualquier patrón visual, efecto, etc. Pueden utilizarse
ciertos aspectos de la invención para aplicaciones tales como
efectos de iluminación interactiva para la gente que se encuentra en
clubs o en acontecimientos, presentaciones visuales de anuncios
interactivos, caracteres o personajes y objetos virtuales que
reaccionan ante los movimientos de los transeúntes, iluminación de
ambiente interactiva para espacios públicos tales como restaurantes,
centros comerciales, instalaciones deportivas, comercios minoristas,
vestíbulos y parques, sistemas de videojuegos y dispositivos de
presentación visual informativos interactivos. Son posibles otras
aplicaciones y se encuentran dentro del ámbito de la invención.
La Figura 1 muestra una realización de
proyección frontal de la invención que utiliza una cámara y un
proyector situados correlativamente. En la Figura 1, una persona 1
es iluminada por una lámpara de infrarrojos 2 (o de otra luz no
visible). La imagen de la persona es fotografiada por una cámara de
infrarrojos 3 (o de otra luz no visible). La señal es transmitida de
forma instantánea o en tiempo real, 4, a una computadora 5. La
computadora lleva a efecto el algoritmo de detección de objetos y
genera el efecto de vídeo en tiempo real. El efecto es transmitido
en tiempo real, 6, a un proyector de vídeo 7. El proyector proyecta
la imagen resultante en una pantalla 8 ó en alguna otra superficie.
El efecto de vídeo se presenta entonces visualmente, 7, en la
pantalla, en tiempo real, y se alinea con la persona.
La Figura 2 muestra una configuración de
proyección desde arriba del sistema. El componente 10 incluye el
sistema anteriormente mencionado. El componente 10 se muestra aquí
montado verticalmente, pero la cámara, el proyector y la fuente de
luz abarcados por la referencia 10 pueden estar también montados
horizontalmente y ser entonces redirigidos hacia abajo con un
espejo. Una persona que se desplaza sobre el suelo 11 puede tener la
señal de vídeo proyectada en el suelo en el entorno de ella, 12. La
propia sombra de la persona oscurece una cantidad mínima de la
imagen cuando el proyector se encuentra justamente encima.
Las Figuras 3 y 4 muestran dos configuraciones
alternativas más para la cámara y el proyector: en ambas Figuras, la
cámara 20 capta objetos tales como una persona 22 enfrente de una
pantalla 23. El ángulo visto por la cámara se muestra por la
referencia 21. En la Figura 2, el proyector 25 se encuentra situado
por detrás de la pantalla. La luz dirigida desde el proyector 24
puede ser observada en la pantalla desde ambos lados. En la Figura
4, el proyector 25 se encuentra en un ángulo oblicuo con respecto a
la pantalla; se muestra su cono de luz 24. Estas dos configuraciones
hacen más probable que no haya sombras que obstruyan la imagen
proyectada.
Como se ha descrito en las configuraciones
anteriores, se utiliza una cámara de vídeo para captar la escena en
una posición particular para su introducción en la computadora. En
la mayor parte de las configuraciones del dispositivo, la cámara ve
parte de la presentación visual de vídeo de salida. Con el fin de
evitar una retroalimentación de vídeo indeseada, la cámara puede
funcionar a una longitud de onda que no es utilizada por el
dispositivo de presentación visual de vídeo. En la mayoría de los
casos, el dispositivo de presentación visual utilizará el espectro
de luz visible. En este caso, la cámara debe fotografiar en una
longitud de onda no visible, tal como infrarrojos, de manera que no
se detecte la presentación visual suministrada como salida.
La escena que está siendo grabada en vídeo ha de
ser iluminada con luz de la longitud de onda de la videocámara. En
el caso de fuentes de infrarrojos que incluyen luz solar, puede
utilizarse una lámpara de calor o LEDs de infrarrojos para iluminar
la escena. Estas luces pueden colocarse en cualquier parte; sin
embargo, la visión por parte de la cámara de sombras espurias
procedentes de estas luces puede minimizarse situando la fuente de
luz próxima a la cámara. Una fuente de luz, tal como una o más
luces, puede iluminar objetos con una iluminación uniforme, en
contraposición a la iluminación dotada de un cierto patrón que se
explica más adelante. En una realización preferida, la señal de
vídeo es exportada en tiempo real a la computadora. Sin embargo,
otras realizaciones no necesitan alcanzar un funcionamiento en
tiempo real o en tiempo casi real y pueden procesar imágenes de
objeto o de vídeo (es decir, imágenes de presentación visual) en
tiempo considerablemente anteriores a la presentación visual de las
imágenes.
Este componente se ha diseñado de modo que sea
modular-, puede utilizarse aquí cualquier software o programación
informática que utilice la entrada de vídeo procedente del
componente previo y suministre como salida los resultados a un
dispositivo de presentación visual de vídeo.
En la mayor parte de los casos, este componente
tendrá dos partes: la primera parte se encarga de la detección de
objetos móviles con respecto a un fondo estático, en tanto que la
segunda parte utiliza la información de objeto para generar una
salida de vídeo. Se describirán aquí numerosos casos de cada parte;
se pretende sencillamente que estos casos sean ejemplos, y de ningún
modo son exhaustivos.
En la primera parte, la imagen en vivo
procedente de la cámara de vídeo es procesada en tiempo real con el
fin de separar objetos móviles (por ejemplo, gente) del fondo
estático, con independencia del fondo de que se trate. El
procesamiento puede realizarse como sigue:
En primer lugar, tramas de entrada procedentes
de la cámara de vídeo son convertidas en escala de grises para
reducir la cantidad de datos y simplificar el procedimiento de
detección. A continuación, pueden borrarse o desvanecerse
ligeramente para reducir el ruido.
Cualquier objeto que no se mueva a lo largo de
un periodo de tiempo prolongado se supone que es fondo; por tanto,
el sistema es capaz de adaptarse eventualmente a una iluminación o
condiciones de fondo cambiantes. Puede generarse una imagen de
modelo del fondo por numerosos métodos, cada uno de los cuales
examina las tramas de entrada a lo largo de un cierto intervalo de
tiempo. En uno de los métodos, se examinan varias últimas tramas de
entrada (o un subconjunto de las mismas) con el fin de generar un
modelo del fondo, ya sea a través del promediado, de la generación
de la mediana, de la detección de periodos de brillo constante o de
otros procedimientos heurísticos. La longitud de tiempo a lo largo
de la cual son examinadas las tramas de entrada determina la
velocidad a la que el modelo del fondo se adapta a los cambios en la
imagen de entrada.
En otro método, el modelo del fondo se genera en
cada paso o etapa temporal (o más infrecuentemente) mediante la
computación de un promedio ponderado de la trama presente en ese
instante y del modelo del fondo procedente de la etapa temporal
previa. El peso de la trama de ese instante es relativamente pequeño
en este cálculo; así pues, los cambios en el fondo real son
asimilados gradualmente en el modelo del fondo. Este peso puede ser
ajustado para cambiar la velocidad a la cual el modelo del fondo se
adapta a los cambios en la imagen de entrada.
Se presume que un objeto de interés difiere en
brillo con respecto al fondo. Con el fin de encontrar objetos en
cada etapa temporal, la entrada de vídeo presente en ese momento se
resta de la imagen del modelo del fondo. Si el valor absoluto de
esta diferencia en una posición particular es mayor que un umbral
concreto, entonces esa posición se clasifica como un objeto; en caso
contrario, se clasifica como fondo.
La segunda parte puede ser cualquier programa
que tome como datos de entrada la clasificación como objeto/fondo de
una imagen (posiblemente, además de otros datos), y suministre como
salida una imagen de vídeo basada en estos datos de entrada,
posiblemente en tiempo real. Este programa puede darse en un número
infinito de formas, y se define, pues, de un modo tan amplio como
una aplicación informática. Por ejemplo, este componente puede ser
tan simple como la producción de un punto de luz con la forma de los
objetos que se detectan, o tan complicado como un programa de
pintura controlado por medio de gestos hechos por personas que son
detectadas como objetos. Además, las aplicaciones pueden utilizar
otras formas de datos de entrada, tales como sonido, temperatura,
entrada por teclado, etc., así como formas adicionales de salida,
tales como de audio, táctiles, de realidad virtual, aromáticas,
etc.
Una clase importante de aplicaciones incluye
efectos especiales que utilizan como datos de entrada la
clasificación como objeto/fondo. Por ejemplo, pueden dibujarse en la
imagen de vídeo de salida estrellas, líneas u otras formas en una
porción aleatoria de las posiciones que fueron clasificadas como
"objeto". Estas formas pueden entonces ajustarse de tal manera
que se desvanezcan y desaparezcan gradualmente con el tiempo, de
modo que las personas dejen trazas o formas de tránsito tras ellas a
medida que se mueven por el lugar. Los siguientes son ejemplos de
otros efectos de la misma clase:
- contornos y ondulaciones que rodean a los
objetos;
- una malla que se ve deformada por la presencia
de objetos;
- simulaciones de llamas y viento, y otras
convoluciones matriciales aplicadas a objetos;
- efectos especiales que laten al ritmo de la
música, que se detecta de forma independiente.
Otra clase principal de aplicaciones permite que
los objetos reales interactúen con objetos y personajes virtuales.
Por ejemplo, puede programarse una imagen que muestra un grupo de
patitos de manera que vaya detrás de cualquier objeto real (por
ejemplo, una persona) que camine enfrente del dispositivo de
presentación visual.
Además, los juegos informáticos a los que se
puede jugar por parte de personas que se mueven enfrente de la
cámara, constituyen otra clase de aplicaciones.
Sin embargo, la lista no es exclusiva; este
componente está diseñado para ser programable y, de esta forma,
puede ejecutar o hacer funcionar cualquier aplicación.
La salida del software de procesamiento
procedente del componente previo se muestra visualmente. Posibles
dispositivos de presentación visual incluyen proyectores de vídeo,
televisores, dispositivos de presentación visual de plasma y
espectáculos de láser, si bien no están limitados por éstos. La
imagen visualmente presentada puede alinearse con el alcance de la
captación o entrada de la cámara de vídeo, de tal manera que los
efectos de vídeo se alineen con las posiciones de las personas que
los causan. Como algunas configuraciones de la cámara de vídeo
pueden detectar objetos con luz no visible, se evita el problema de
la interferencia del dispositivo de presentación visual con la
cámara.
Existe un gran número de configuraciones
posibles para los diferentes componentes. Por ejemplo, la cámara y
un proyector de vídeo pueden encontrarse en la misma posición y
apuntar en la misma dirección. La cámara y el proyector pueden
apuntarse entonces hacia una pared, según se muestra en la Figura 1,
apuntarse hacia el suelo, redirigirse con un espejo, tal y como se
muestra en la Figura 2, ó apuntarse hacia cualquier otra superficie.
Alternativamente, el proyector puede situarse por detrás de la
pantalla según se muestra en la Figura 3, de tal manera que la
presentación visual es idéntica a la de la Figura 1, pero la persona
ya no está en el camino de la proyección, de modo que no crea
ninguna sombra. Puede evitarse también la sombra colocando el
proyector en un ángulo oblicuo con respecto a la pantalla, tal y
como se muestra en la Figura 4. El dispositivo de presentación
visual de vídeo puede ser también una gran pantalla de TV, un
dispositivo de presentación visual de plasma o una pared de
proyección de vídeo o vídeo-pared. Si bien las
configuraciones anteriormente mencionadas tienen, todas ellas, el
dispositivo de presentación visual de vídeo alineado con la entrada
de vídeo, esto no es necesario; el dispositivo de presentación
visual de vídeo puede situarse en cualquier lugar. La lista anterior
no es exhaustiva; existen numerosas configuraciones posibles
adicionales.
El sistema global puede ser conectado a una red,
lo que permite intercambiar entre sistemas información de visión e
información de estado de software de procesamiento. De esta forma,
un objeto detectado en la señal de visión de uno de los sistemas
puede tener un efecto en el software de procesamiento de otro
sistema. Además, un elemento virtual situado en la presentación
visual de uno de los sistemas puede trasladarse a otros sistemas. Si
se alinean unos con otros los dispositivos de presentación visual de
múltiples sistemas, de tal manera que formen un único dispositivo de
presentación visual mayor, entonces los múltiples sistemas pueden
hacerse funcionar como si se tratase de un único sistema muy grande,
con los objetos e interacciones desplazándose sin discontinuidades o
empalmes a través de los perímetros de los dispositivos de
presentación visual.
Un problema común con el sistema de visión es
que, en los casos en que existe una iluminación de ambiente
incontrolable (por ejemplo, la luz del sol) del área visible por la
cámara desde un ángulo significativamente diferente del de la
cámara, los objetos arrojan sombras sobre el fondo. Si estas sombras
son lo suficientemente intensas, el sistema de visión puede
confundirlas con objetos. Estas sombras pueden ser detectadas y
suprimidas activando y desactivando estroboscópicamente la fuente de
luz de la cámara. Al sustraer o restar una imagen de entrada de una
cámara que tiene solamente luz ambiental, de una imagen de entrada
de la cámara que tiene tanto la luz ambiental como la luz de la
cámara, el sistema ofrece una imagen que capta la escena como si
sólo se estuviera utilizando la luz de la cámara, eliminándose de
esta forma las sombras detectables con origen en la luz
ambiental.
Puede obtenerse una precisión adicional en la
detección de objetos con las imágenes captadas por la cámara,
mediante el uso de una iluminación con una cierta configuración o
patrón, o de marcas con un cierto patrón.
Una desventaja de utilizar un sencillo sistema
de iluminación de luz fluyente para la visión computerizada es que,
si los colores de los objetos que está viendo la cámara son muy
similares, entonces los objetos pueden ser muy difíciles de
detectar. Si la cámara funciona en monocromo, es mucho más probable
que el objeto y el fondo parezcan ser lo mismo.
El uso de un objeto dotado de una cierta
configuración para cubrir el área visible por la cámara puede
mejorar la detección de objetos. Si se utiliza una configuración que
contenga dos o más colores entrelazados en estrecha proximidad, es
altamente improbable que otros objetos tengan un aspecto similar,
puesto que al menos uno de los colores de la configuración tendrá un
aspecto diferente con respecto al color de los objetos circundantes.
En el caso de que se utilice un objeto dotado de una cierta
configuración, tal como una pantalla, como fondo ante el cual se han
de detectar los objetos, entonces los objetos que pasan por delante
de la pantalla dotada de una cierta configuración son más fácilmente
detectados por el algoritmo de visión.
Por ejemplo, en una aplicación de visión por
infrarrojos, el objeto dotado de una cierta configuración puede ser
una rejilla o estera de fondo que parece blanca para el ojo humano
pero que contiene una configuración en tablero de ajedrez luminosa y
oscura que es invisible para el ojo humano pero visible por la
cámara. Mediante el uso de una configuración que no se encuentra en
el espectro de luz visible, la estera dotada de una cierta
configuración no interferirá con la estética del sistema. El sistema
de presentación visual (por ejemplo, el vídeo de proyección) puede
proyectar imágenes de salida sobre la estera, según se ha descrito
en lo anterior. Un procedimiento que se lleva a cabo en un sistema
de procesamiento tal como un sistema informático puede ser dotado
con la configuración de fondo, de manera que se realiza la detección
de un objeto frente a la estera más fácilmente, si bien el sistema
puede aprender o asimilar el fondo dotado de cierta configuración de
la misma forma que el algoritmo de visión aprende cualquier otro
fondo. Asimismo, la capacidad del sistema para adaptarse a los
cambios en el brillo de la luz de fondo no se vería afectada
adversamente.
Puede proyectarse también una iluminación dotada
de una cierta configuración o patrón procedente de una fuente de
luz, sobre el área visible por la cámara. Siempre y cuando la cámara
y la fuente de luz visible se encuentren en posiciones diferentes y
descentradas o desplazadas entre sí, los efectos de paralaje harán
que la visión por parte de la cámara del patrón que se proyecta
resulte distorsionada a medida que los objetos se desplazan a través
del área de visión de la cámara. Esta distorsión contribuye a hacer
que los objetos que tienen colores similares se distingan unos con
respecto a otros. Si se toma la diferencia entre las dos imágenes
vistas por la cámara, el resultado mostrará la forma de cualquier
objeto que haya aparecido, desaparecido o se haya desplazado entre
las dos imágenes. Si la imagen de un objeto situado frente al fondo
se resta de una imagen de sólo el fondo, el resultado es una imagen
que es cero o nula donde se encuentra el fondo y no nula donde
existen otros objetos. Esta técnica puede utilizarse en combinación
con otros aspectos de la invención aquí explicados.
Una fuente de luz dotada de un cierto patrón
puede conseguirse a través de diversos medios. Uno de los métodos
consiste en utilizar un conjunto o grupo de diodos de luz infrarroja
(LED) u otra fuente de luz no visible en un proyector de
diapositivas. Se utilizará un conjunto de lentes para enfocar la
fuente de luz a través de una diapositiva que contiene el patrón
deseado, por lo que se arroja la imagen del patrón sobre el área de
visión de la cámara. En otro método, podría hacerse brillar un haz
de láser de infrarrojos sobre un generador de patrón de láser u otro
dispositivo de dispersión con el fin de producir un patrón de luz
sobre el área de visión de la cámara. La luz puede ser desviada,
obturada, sometida a un barrido, etc., con el fin de obtener un
cierto patrón. Son posibles muchas otras soluciones.
Una fuente de luz dotada de un cierto patrón
resulta también útil para la visión computerizada tridimensional.
Las técnicas de visión computerizada tridimensional, tales como el
algoritmo de Marr-Poggio, toman como entrada dos
imágenes de la misma escena obtenidas desde ángulos ligeramente
diferentes. Se hacen coincidir los patrones existentes sobre las
imágenes con el fin de determinar la magnitud del desplazamiento y,
por tanto, la distancia desde la cámara, en cada punto de la imagen.
El comportamiento de este algoritmo se degrada cuando se tratan
objetos de un color uniforme, debido a que el color uniforme hace
difícil hacer coincidir las secciones correspondientes en el par de
imagen. De esta forma, la fuente de luz dotada de cierto patrón
puede mejorar las estimaciones de distancia de algunos algoritmos de
visión computerizada tridimensional.
Las dos imágenes de entrada a estos algoritmos
de visión en tres dimensiones se generan por lo común mediante el
uso de un par de cámaras apuntadas u orientadas hacia una escena.
Sin embargo, será también posible utilizar tan solo una cámara. La
segunda imagen podría ser una versión completamente sin distorsionar
del patrón proyectado, que se conoce con antelación. Esta imagen del
patrón es esencialmente idéntica a lo que vería una segunda cámara
si estuviese situada exactamente en la misma posición que la fuente
de luz dotada de un cierto patrón. De esta forma, la visión de la
única cámara y el patrón proyectado pueden utilizarse conjuntamente
como datos de entrada al algoritmo de visión tridimensional.
Alternativamente, la segunda imagen podría ser una imagen sólo del
fondo, tomada desde la misma cámara.
Si bien pueden utilizarse muchas clases
diferentes de patrones, un patrón de puntos aleatorios de alta
resolución ofrece ciertas ventajas para la visión tanto en dos
dimensiones como en tres dimensiones. Debido a la aleatoriedad del
patrón de puntos, es altamente improbable que cada sección con un
tamaño significativo del patrón de puntos tenga el mismo aspecto que
cualquier otra sección de la configuración. Así pues, es altamente
improbable que el patrón desplazado provocado por la presencia de un
objeto en el área de visión parezca lo mismo que el patrón sin el
objeto allí. Esto maximiza la capacidad del algoritmo de visión para
detectar desplazamientos en el patrón, y, por tanto, objetos. El uso
de un patrón rectangular tal como una malla puede causar alguna
dificultad debido a que diferentes secciones del patrón son
idénticas, lo que provoca que el patrón desplazado tenga a menudo el
mismo aspecto que el patrón no desplazado.
Las Figuras 5A-D muestran la
utilidad de un patrón de puntos aleatorios a la hora de detectar un
objeto. La Figura 5A muestra una imagen de una persona bajo una
iluminación normal. La persona tiene un brillo similar al del fondo,
lo que hace difícil la detección. En la Figura 5B, se proyecta un
patrón de puntos aleatorio sobre el fondo desde una fuente de luz
próxima a la cámara. Cuando la persona permanece frente a este
patrón, el patrón reflejado en la persona es desplazado, como se
muestra en la Figura 5C. Al tomar la diferencia entre las imágenes
de las Figuras 5B y 5C, se obtiene la imagen de la Figura 5D, que
define el área de imagen de la persona con una señal intensa.
Pueden utilizarse otras soluciones para mejorar
la detección de los objetos. Por ejemplo, una fuente de luz puede
"hacerse funcionar estroboscópicamente" o encenderse y apagarse
periódicamente de tal manera que la detección de las sombras debidas
a otras fuentes de luz (por ejemplo, la luz ambiental) se haga más
sencilla.
Una vez que se ha detectado y definido un
objeto, la realización preferida se sirve de un aura en gradiente
para determinar el grado y la dirección de la interacción del objeto
con un elemento de imagen visualmente presentado.
La Figura 6A muestra a un usuario humano
interactuando con un objeto de vídeo.
En la Figura 6A, se ha detectado un objeto 304 y
éste se muestra en forma de contorno. Una representación del objeto
dentro del procesamiento de una computadora puede servirse de la
definición de contorno que se ilustra en la Figura 6A. La pantalla
de vídeo 302 ilustra visualmente varios elementos de imagen, tales
como la imagen 306 de un balón.
La Figura 6B ilustra una imagen de influencia
para la zona designada con la referencia 308 de la Figura 6A.
En la Figura 6B, se utiliza la imagen de
contorno del pie 320 y de la parte inferior de la pierna del usuario
para generar áreas de contorno sucesivamente más grandes. A la
región del área de contorno original 320 se le asigna un valor de
brillo de punto de imagen o píxel más grande, correspondiente al
blanco. A cada área de contorno sucesiva, 322, 324, 326, 328, 330 se
le asigna un valor progresivamente más bajo, de tal manera que un
punto más alejado del área de contorno inicial (blanca) tendrá un
valor de punto de imagen más bajo. Nótese que es posible utilizar
cualquier número de áreas de contorno. Asimismo, el tamaño y los
incrementos de las áreas de contorno pueden variarse según se desee.
Por ejemplo, es posible utilizar un gradiente continuo en lugar de
áreas discretas. Se hace referencia a la colección de todas las
áreas de contorno como la "imagen de influencia".
La imagen de influencia se compara con
diferentes elementos de imagen. En la Figura 6B, el elemento de
balón 306 incide en las áreas en gradiente 326, 328 y 330. Como se
conoce en la técnica, las líneas de dirección se determinan según la
dirección del gradiente del campo de los valores de puntos de imagen
para las zonas de incidencia. La Figura 6B muestra tres líneas de
dirección proporcionadas a modo de ejemplo dentro del elemento 306.
Las líneas de dirección pueden ser combinadas, por ejemplo, mediante
el promediado, o bien puede utilizarse una única línea seleccionada.
El procesamiento detecta también que el área de contorno más
brillante en la que incide el elemento es el área de contorno 326.
Son posibles otras soluciones. Por ejemplo, pueden promediarse el
brillo y el gradiente en cada punto situado en el área del elemento
de imagen, o bien en un subconjunto de esos puntos. También, algunas
realizaciones pueden incluir la duración de contacto como un factor
añadido al brillo y al gradiente.
La interacción entre un objeto, tal como una
persona, y un elemento situado en la pantalla se computa utilizando
tanto el brillo de las zonas de contorno de incidencia como la
dirección, según es computada utilizando una o más líneas de
dirección. El brillo de incidencia corresponde a la intensidad con
la que el usuario está "tocando" el elemento. El gradiente
corresponde a la dirección en la que (o desde la cual, dependiendo
del signo del cálculo) está siendo tocado el elemento.
Si bien la invención se ha explicado con
referencia a realizaciones específicas de la misma, estas
realizaciones son ilustrativas, y no restrictivas, de la invención.
Por ejemplo, aunque las realizaciones preferidas se sirven de una
cámara como detector, es posible emplear diferentes tipos de
dispositivos de detección. La cámara puede ser digital o analógica.
Puede utilizarse una cámara estéreo con el fin de proporcionar
información de profundidad así como de posición. En los casos en que
el procesamiento y la presentación visual no se hacen en tiempo
real, pueden utilizarse película y otros tipos de medios, y seguirse
con una conversión digital antes de suministrar los datos como
entrada a un procesador. Pueden utilizarse sensores o detectores de
luz. Por ejemplo, puede utilizarse una matriz de
foto-detectores en lugar de una cámara. Es posible
utilizar otros detectores no contemplados aquí con resultados
adecuados.
En general, puede utilizarse cualquier tipo de
dispositivo de presentación visual con la presente invención. Por
ejemplo, si bien se han descrito dispositivos de vídeo en las
diversas realizaciones y configuraciones, pueden utilizarse otros
tipos de dispositivos de presentación visual. Es posible emplear una
matriz o conjunto ordenado de diodos emisores de luz (LED
-"light-emitting diode"), un LED orgánico (OLED
-"organic LED"), un polímero emisor de luz (LEP
-"light-emitting polymer"), un sistema de
presentación visual electromagnético, de rayos catódicos, de plasma,
mecánico u otro sistema de presentación visual.
Pueden emplearse dispositivos de presentación
visual de realidad virtual, tridimensionales o de otros tipos. Por
ejemplo, un usuario puede llevar gafas de formación de imágenes o
una capucha, de tal manera que quede inmerso en un entorno generado.
En esta solución, la presentación visual generada puede alinearse
con la percepción por parte del usuario de su entorno con el fin de
crear una realidad aumentada o mejorada. Una realización puede
permitir a un usuario interaccionar con una imagen de un personaje.
El personaje puede ser generado por computadora, representado por un
actor humano, etc. El personaje puede reaccionar a las acciones y a
la posición corporal del usuario. Las interacciones pueden incluir
el habla, la manipulación conjunta de objetos, etc. Pueden
interconectarse sistemas múltiples a través de, por ejemplo, una red
digital. Pueden utilizarse, por ejemplo, una Ethernet, un Bus en
Serie Universal (USB -"Universal Serial Bus"), el IEEE 1394
("Firewire" -Estándar multiplataforma para entrada/salida de
datos en serie), etc. Es posible emplear enlaces de comunicación sin
hilos o inalámbricos, tales como los definidos por la especificación
802. 11b, etc. Mediante el uso de sistemas múltiples, los usuarios
situados en diferentes posiciones geográficas pueden cooperar,
competir o interaccionar entre sí de otra manera a través de las
imágenes generadas. Las imágenes generadas por dos o más sistemas
pueden ser "empalmadas" unas con otras o combinadas de otra
forma para producir presentaciones visuales conglomeradas.
Pueden utilizarse otros tipos de iluminación en
contraposición a la luz. Es posible utilizar, por ejemplo, señales
de radar, microondas u otras ondas electromagnéticas de forma
ventajosa en situaciones en las que un objeto que se ha de detectar
(por ejemplo, un objeto metálico) es altamente reflectante de dichas
ondas. Es posible adaptar ciertos aspectos del sistema a otras
formas de detección, tal como mediante el uso de ondas acústicas en
el aire o en el agua.
Si bien se han descrito los sistemas
informáticos para recibir y procesar las señales de imagen de los
objetos y para generar señales de presentación visual, es posible
utilizar cualquier otro tipo de sistema de procesamiento. Puede
emplearse, por ejemplo, un sistema de procesamiento que no utilice
una computadora de propósito general. Pueden resultar adecuados para
su uso con la presente invención los sistemas de procesamiento que
utilizan diseños basados en circuitos o chips personalizados o
semi-personalizados, en circuitos integrados
específicos de la aplicación (ASICs -"application specific
integrated circuits"), en conjuntos ordenados o matrices de
puertas programables por efecto de campo (FPGAs
-"field-programmable gate arrays"), en
multiprocesador, asíncronos, o en cualquier tipo de diseño de
arquitectura o metodología.
Así pues, el ámbito de la invención se ha de
determinar únicamente por las reivindicaciones que se acompañan.
Claims (32)
1. Un sistema para detectar un objeto (1;
304) y generar como respuesta una presentación visual (302) en la
que dicho objeto interactúa con al menos un elemento virtual (306)
que se presenta visualmente en dicha presentación visual, de tal
manera que el sistema comprende:
una primera fuente (2), destinada a suministrar
como salida energía electromagnética en un primer intervalo de
longitudes de onda, hacia una posición que comprende dicho objeto
(1);
un detector (3), destinado a detectar una
reflexión de la primera fuente de energía electromagnética en dicha
posición;
un procesador (5), acoplado al detector y
proporcionado para implementar o llevar a la práctica un
procedimiento para:
detectar una imagen del objeto en dicha
reflexión detectada;
determinar una imagen de influencia del objeto
(322, 324, 326, 328, 330), de tal manera que la imagen de influencia
incluye una región en torno a la imagen del objeto detectada,
estando la región compuesta por puntos de imagen o píxeles que
tienen valores que los distinguen de la imagen detectada, y formando
la región, en torno a la imagen detectada, una transición de valores
de punto de imagen que hace posible el cálculo de un grado y una
dirección de la influencia del objeto en al menos un elemento
virtual; y
generar una señal de presentación visual que
incluye al menos un elemento virtual, de tal manera que la imagen de
influencia interactúa con dicho al menos un elemento virtual; y
una segunda fuente (7), destinada a suministrar
como salida energía electromagnética en un segundo intervalo de
longitudes de onda, de tal manera que la segunda fuente genera una
presentación visual visible en respuesta a dicha señal de
presentación visual, de modo que los primer y segundo intervalos de
longitudes de onda son diferentes.
2. El sistema de acuerdo con la
reivindicación 1, en el cual la generación de la señal de
presentación visual comprende:
generar un elemento virtual;
detectar una incidencia del elemento virtual en
la imagen de influencia; y
deducir la interacción de la imagen de
influencia sobre el elemento virtual a partir de la incidencia
detectada.
3. El sistema de acuerdo con la
reivindicación 1 ó la reivindicación 2, en el cual la imagen
detectada del objeto es una imagen de contorno del objeto.
4. El sistema de acuerdo con cualquiera de
las reivindicaciones 1 a 3, en el que la primera fuente suministra
como salida luz que no se encuentra en el espectro visible, tal como
luz infrarroja, y en el cual la segunda fuente suministra como
salida luz que se encuentra en el espectro visible.
5. Un sistema de acuerdo con las
reivindicaciones 1 a 4, en el cual el objeto (1; 11; 22; 304)
incluye un a usuario humano y en el que la segunda fuente (7)
incluye un proyector de vídeo con el propósito de proyectar imágenes
sobre una superficie (8; 23) adyacente al objeto (1; 22), de tal
manera que la superficie (23) forma parte de uno de entre:
un sistema de proyección desde arriba;
un sistema de proyección desde detrás; y
un sistema de proyección desde delante.
6. El sistema de acuerdo con las
reivindicaciones 1 a 5, en el cual la primera fuente incluye una
configuración o patrón (B) de iluminación, tal como un patrón de
puntos aleatorios; y comprende adicionalmente medios para generar el
patrón de iluminación, tales como un conjunto o grupo de diodos
emisores de luz infrarrojos, a fin de generar el patrón de
iluminación.
7. El sistema de acuerdo con una
cualquiera de las reivindicaciones 1 a 6, en el cual la imagen de
influencia (322, 324, 326, 328, 330) del objeto comprende cualquier
número de áreas de contorno sucesivamente mayores.
8. El sistema de acuerdo con la
reivindicación 7, en el cual la imagen de influencia (322, 324, 326,
328, 330) del objeto comprende más de un área de contorno.
9. El sistema de acuerdo con cualquiera de
las reivindicaciones 7 u 8, en cual a cada una de las áreas de
contorno sucesivamente mayores se le asigna un valor progresivamente
menor, de tal manera que a un área de contorno más alejada del
contorno del objeto se le asigna un valor inferior.
10. El sistema de acuerdo con la
reivindicación 8 ó la reivindicación 9, en el cual la imagen de
influencia comprende al menos un área de contorno más grande, a
cuyos puntos de imagen o píxeles se les asignan de forma continua
unos valores progresivamente más bajos, de tal manera que a un punto
de imagen más alejado del contorno del objeto se le asigna un valor
más bajo.
11. El sistema de acuerdo con cualquiera de
las reivindicaciones 8 a 10, en el cual el cálculo de una dirección
de la interacción comprende determinar líneas de dirección en la
dirección de un gradiente de los valores de punto de imagen para
áreas de incidencia situadas entre la imagen de influencia y el
elemento virtual.
12. El sistema de acuerdo con cualquiera de
las reivindicaciones 8 a 11, en el cual el grado de la influencia
del objeto en el elemento virtual es una intensidad deducida de los
valores asociados a los puntos de imagen de las áreas de contorno
sobre las que incide el elemento virtual.
13. El sistema de acuerdo con cualquiera de
las reivindicaciones 11 ó 12, en el cual el valor y el gradiente de
los puntos de imagen se promedian en al menos un subconjunto de los
puntos de imagen de las áreas de contorno en las que incide el
elemento virtual.
14. El sistema de acuerdo con cualquiera de
las reivindicaciones 8 a 13, en el cual se considera la duración del
contacto entre el elemento virtual y la imagen de influencia con el
fin de determinar la influencia del objeto en el elemento
virtual.
15. El sistema de acuerdo con cualquiera de
las reivindicaciones 1 a 14, en el cual se ha proporcionado el
procesador con el fin de detectar la imagen del objeto separando el
objeto de un fondo de la reflexión detectada, de tal manera que la
separación del objeto del fondo comprende generar un modelo
adaptativo de dicho fondo mediante el análisis de los cambios a lo
largo del tiempo de la reflexión detectada.
16. Un sistema de acuerdo con la
reivindicación 15, en el cual generar un modelo adaptativo de dicho
fondo incluye computar un promedio ponderado de una reflexión
detectada en ese momento y de reflexiones detectadas anteriormente,
y en el que separar el objeto del fondo incluye restar dicho
promedio ponderado de la reflexión detectada en ese momento.
17. El sistema de acuerdo con la
reivindicación 1, en el cual dicho procedimiento comprende
adicionalmente:
un procedimiento para determinar un gradiente de
la imagen de influencia; y
un procedimiento para utilizar el gradiente para
determinar la interacción entre el objeto (304) y dicho elemento
virtual (306).
18. El sistema de acuerdo con las
reivindicaciones 1 a 17, en el cual dicho elemento virtual incluye
una representación de dicho objeto.
19. El sistema de acuerdo con la
reivindicación 1, en el cual dicho procedimiento comprende: utilizar
una iluminación (B) dotada de una cierta configuración o patrón, tal
como uno de entre:
un patrón de puntos aleatorios; y
un patrón de tablero de ajedrez, a fin de
iluminar un fondo; y
utilizar un sistema de procesamiento con el fin
de definir el objeto separadamente del fondo.
20. El sistema de acuerdo con la
reivindicación 17, en el cual
el procedimiento para utilizar el gradiente con
el fin de determinar la interacción entre el objeto (304) y dicho
elemento virtual (306) comprende: utilizar un procesador para
determinar un límite o perímetro para el elemento virtual; e
identificar una interacción mediante el uso del
gradiente y del perímetro.
21. El sistema de acuerdo con la
reivindicación 20, en el cual dicho procedimiento comprende
adicionalmente:
utilizar un procesador para determinar un brillo
de un área deducida a partir del objeto; y
identificar una interacción mediante el uso del
brillo del área y del perímetro.
22. El sistema de acuerdo con la
reivindicación 20 ó la reivindicación 21, en el cual la interacción
es una de entre:
una persona que empuja el elemento;
una persona que toca el elemento;
una persona que deforma el elemento; y
una persona que manipula el elemento;
y que comprende, además, características
adicionales tales como una salida de audio para proporcionar audio
como salida.
23. Un método para detectar un objeto (1;
304) y generar como respuesta una presentación visual (302) en la
que dicho objeto interactúa con al menos un elemento virtual (306)
que se presenta visualmente en dicha presentación visual, de tal
forma que el método comprende:
utilizar luz de una primera longitud de onda
para iluminar una posición que comprende dicho objeto;
utilizar una cámara (3), sensible a la luz de
una primera longitud de onda, para detectar una reflexión de dicha
luz en dicha posición;
utilizar un procesador (5), conectado a la
cámara, para implementar o llevar a cabo un procedimiento para:
detectar una imagen del objeto en dicha
reflexión detectada;
determinar una imagen de influencia del objeto
(322, 324, 326, 328, 330), de tal manera que la imagen de influencia
incluye una región en torno a la imagen del objeto (320) detectada,
estando la región compuesta por puntos de imagen o píxeles que
tienen valores que los distinguen de la imagen detectada, y formando
la región, en torno a la imagen detectada, una transición de valores
de punto de imagen que hace posible el cálculo de un grado y una
dirección de la influencia del objeto en al menos un elemento
virtual; y
generar una señal de presentación visual que
incluye al menos un elemento virtual, de tal manera que dicha imagen
de influencia del objeto interactúa con dicho al menos un elemento
virtual; y
utilizar luz de una segunda longitud de onda
diferente de dicha primera longitud de onda, con el fin de generar
una imagen presentada visualmente a partir de dicha señal de
presentación visual.
24. El método de acuerdo con la
reivindicación 23, en el cual el objeto es un usuario humano (304) y
en el que generar la señal de presentación visual comprende utilizar
un proyector de vídeo con el propósito de proyectar imágenes sobre
una superficie (8; 23) adyacente al objeto (1; 22), de tal manera
que la superficie (23) forma parte de uno de entre:
un sistema de proyección desde arriba;
un sistema de proyección desde detrás; y
un sistema de proyección desde delante.
25. El método de acuerdo con una de las
reivindicaciones 23 ó 24, en el cual se utilizan múltiples cámaras y
en el que se utilizan al menos dos cámaras para producir un efecto
estéreo.
26. El método de acuerdo con cualquiera de
las reivindicaciones 23 a 25, en el cual se utiliza una pantalla de
plasma para generar la imagen que se presenta visualmente.
27. El método de acuerdo con cualquiera de
las reivindicaciones 23 a 26, en el cual la imagen que se presenta
visualmente incluye anuncios.
28. El método de acuerdo con cualquiera de
las reivindicaciones 23 a 26, en el cual la imagen que se presenta
visualmente forma parte de un videojuego.
29. El método de acuerdo con cualquiera de
las reivindicaciones 23 a 28, que comprende adicionalmente:
emitir estroboscópicamente la luz en una primera
longitud de onda.
30. El método de acuerdo con cualquiera de
las reivindicaciones 23 a 29, que comprende adicionalmente:
interconectar múltiples sistemas de tal forma
que pueda transferirse entre los sistemas información acerca de la
detección y presentaciones visuales de imágenes.
31. El método de acuerdo con la
reivindicación 30, que comprende adicionalmente:
utilizar la información transferida para crear
una única presentación visual a partir de dos o más presentaciones
visuales.
32. El método de acuerdo con cualquiera de
las reivindicaciones 23 a 31, en el cual el procedimiento para
detectar dicha imagen del usuario humano en dicha primera imagen
comprende:
utilizar un fondo dotado de una cierta
configuración o patrón; y
utilizar un sistema de procesamiento para
definir la imagen del usuario humano separadamente del fondo.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US29618901P | 2001-06-05 | 2001-06-05 | |
US296189P | 2001-06-05 | ||
US10/160,217 US7259747B2 (en) | 2001-06-05 | 2002-05-28 | Interactive video display system |
US160217 | 2002-05-28 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2271272T3 true ES2271272T3 (es) | 2007-04-16 |
Family
ID=26856697
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES02739710T Expired - Lifetime ES2271272T3 (es) | 2001-06-05 | 2002-06-04 | Sistema de visualizacion de video interactivo. |
Country Status (14)
Country | Link |
---|---|
US (2) | US7259747B2 (es) |
EP (1) | EP1393549B1 (es) |
JP (1) | JP4077787B2 (es) |
KR (1) | KR100847795B1 (es) |
CN (2) | CN102033608B (es) |
AT (1) | ATE336860T1 (es) |
BR (1) | BR0210162A (es) |
CA (1) | CA2449300C (es) |
DE (1) | DE60213975T2 (es) |
ES (1) | ES2271272T3 (es) |
IL (1) | IL159207A0 (es) |
MX (1) | MXPA03011203A (es) |
RU (1) | RU2298294C2 (es) |
WO (1) | WO2002100094A2 (es) |
Families Citing this family (545)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8352400B2 (en) | 1991-12-23 | 2013-01-08 | Hoffberg Steven M | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore |
US7904187B2 (en) | 1999-02-01 | 2011-03-08 | Hoffberg Steven M | Internet appliance system and method |
US6982649B2 (en) | 1999-05-04 | 2006-01-03 | Intellimats, Llc | Floor display system with interactive features |
US7009523B2 (en) * | 1999-05-04 | 2006-03-07 | Intellimats, Llc | Modular protective structure for floor display |
US8035612B2 (en) | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
US8300042B2 (en) | 2001-06-05 | 2012-10-30 | Microsoft Corporation | Interactive video display system using strobed light |
US7259747B2 (en) | 2001-06-05 | 2007-08-21 | Reactrix Systems, Inc. | Interactive video display system |
US7088684B2 (en) * | 2001-07-16 | 2006-08-08 | International Business Machines Corporation | Methods and arrangements for dynamically modifying subsource address multicast data distribution trees |
US20030063052A1 (en) * | 2001-09-28 | 2003-04-03 | Rebh Richard G. | Methods and systems of conveying information with an electroluminescent display |
US6990639B2 (en) | 2002-02-07 | 2006-01-24 | Microsoft Corporation | System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration |
US20050122308A1 (en) * | 2002-05-28 | 2005-06-09 | Matthew Bell | Self-contained interactive video display system |
US7710391B2 (en) | 2002-05-28 | 2010-05-04 | Matthew Bell | Processing an image utilizing a spatially varying pattern |
US7646372B2 (en) * | 2003-09-15 | 2010-01-12 | Sony Computer Entertainment Inc. | Methods and systems for enabling direction detection when interfacing with a computer program |
WO2004042666A2 (en) * | 2002-11-05 | 2004-05-21 | Disney Enterprises, Inc. | Video actuated interactive environment |
US7671843B2 (en) * | 2002-11-12 | 2010-03-02 | Steve Montellese | Virtual holographic input method and device |
WO2004055776A1 (en) | 2002-12-13 | 2004-07-01 | Reactrix Systems | Interactive directed light/sound system |
US20100262489A1 (en) * | 2002-12-13 | 2010-10-14 | Robert Salinas | Mobile enabled advertising and marketing methods for computer games, simulations, demonstrations, and the like |
US6840627B2 (en) | 2003-01-21 | 2005-01-11 | Hewlett-Packard Development Company, L.P. | Interactive display device |
JP3849654B2 (ja) * | 2003-02-21 | 2006-11-22 | 株式会社日立製作所 | 投射型表示装置 |
US7665041B2 (en) | 2003-03-25 | 2010-02-16 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US8745541B2 (en) | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
IL157156A0 (en) * | 2003-07-29 | 2004-08-31 | Rafael Armament Dev Authority | Predictive display for system having delayed feedback of a command issued |
US7428997B2 (en) * | 2003-07-29 | 2008-09-30 | Microvision, Inc. | Method and apparatus for illuminating a field-of-view and capturing an image |
GB2406634A (en) * | 2003-10-02 | 2005-04-06 | Mathmos Ltd | An object sensing lighting apparatus |
JP4794453B2 (ja) | 2003-10-24 | 2011-10-19 | インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー | インタラクティブ・ビデオ・ディスプレイ・システムを管理する方法及びシステム |
WO2005041579A2 (en) * | 2003-10-24 | 2005-05-06 | Reactrix Systems, Inc. | Method and system for processing captured image information in an interactive video display system |
KR100588042B1 (ko) * | 2004-01-14 | 2006-06-09 | 한국과학기술연구원 | 인터액티브 프레젠테이션 시스템 |
JP4559092B2 (ja) * | 2004-01-30 | 2010-10-06 | 株式会社エヌ・ティ・ティ・ドコモ | 携帯通信端末及びプログラム |
JP2005276139A (ja) * | 2004-02-23 | 2005-10-06 | Aruze Corp | 情報入力装置 |
CN100573548C (zh) * | 2004-04-15 | 2009-12-23 | 格斯图尔泰克股份有限公司 | 跟踪双手运动的方法和设备 |
US7467380B2 (en) * | 2004-05-05 | 2008-12-16 | Microsoft Corporation | Invoking applications with virtual objects on an interactive display |
US20050265580A1 (en) * | 2004-05-27 | 2005-12-01 | Paul Antonucci | System and method for a motion visualizer |
WO2005118998A1 (en) | 2004-06-01 | 2005-12-15 | Vesely Michael A | Horizontal perspective simulator |
KR100616532B1 (ko) * | 2004-06-07 | 2006-08-28 | 조열 | 광고 콘텐츠 제공방법 |
US7593593B2 (en) | 2004-06-16 | 2009-09-22 | Microsoft Corporation | Method and system for reducing effects of undesired signals in an infrared imaging system |
EP1793600B1 (en) * | 2004-09-21 | 2011-11-02 | Nikon Corporation | Projector device, mobile telephone, and camera |
WO2006050197A2 (en) * | 2004-10-28 | 2006-05-11 | Accelerated Pictures, Llc | Camera and animation controller, systems and methods |
US20060126925A1 (en) * | 2004-11-30 | 2006-06-15 | Vesely Michael A | Horizontal perspective representation |
US8508710B2 (en) * | 2004-12-02 | 2013-08-13 | Hewlett-Packard Development Company, L.P. | Display panel |
EP1856470B1 (en) | 2005-01-07 | 2013-02-27 | Qualcomm Incorporated | Detecting and tracking objects in images |
US20070189544A1 (en) * | 2005-01-15 | 2007-08-16 | Outland Research, Llc | Ambient sound responsive media player |
EP1851749B1 (en) * | 2005-01-21 | 2012-03-28 | Qualcomm Incorporated | Motion-based tracking |
WO2006085834A1 (en) * | 2005-01-28 | 2006-08-17 | Microvision, Inc. | Method and apparatus for illuminating a field-of-view and capturing an image |
US20060170871A1 (en) * | 2005-02-01 | 2006-08-03 | Dietz Paul H | Anti-blinding safety feature for projection systems |
CN101536494B (zh) | 2005-02-08 | 2017-04-26 | 奥布隆工业有限公司 | 用于基于姿势的控制***的***和方法 |
US7760962B2 (en) * | 2005-03-30 | 2010-07-20 | Casio Computer Co., Ltd. | Image capture apparatus which synthesizes a plurality of images obtained by shooting a subject from different directions, to produce an image in which the influence of glare from a light is reduced |
BRPI0608668A2 (pt) * | 2005-04-05 | 2010-01-19 | Google Inc | mÉtodo e sistema que suporta relatàrio auditado de impressÕes de propaganda em videogames |
US9128519B1 (en) | 2005-04-15 | 2015-09-08 | Intellectual Ventures Holding 67 Llc | Method and system for state-based control of objects |
US20060241864A1 (en) * | 2005-04-22 | 2006-10-26 | Outland Research, Llc | Method and apparatus for point-and-send data transfer within an ubiquitous computing environment |
US8717423B2 (en) * | 2005-05-09 | 2014-05-06 | Zspace, Inc. | Modifying perspective of stereoscopic images based on changes in user viewpoint |
US7907167B2 (en) | 2005-05-09 | 2011-03-15 | Infinite Z, Inc. | Three dimensional horizontal perspective workstation |
CN100359437C (zh) * | 2005-05-11 | 2008-01-02 | 凌阳科技股份有限公司 | 交互式影像游戏*** |
US20060262188A1 (en) * | 2005-05-20 | 2006-11-23 | Oded Elyada | System and method for detecting changes in an environment |
US20060267952A1 (en) * | 2005-05-26 | 2006-11-30 | Steve Alcorn | Interactive display table top |
US8081822B1 (en) | 2005-05-31 | 2011-12-20 | Intellectual Ventures Holding 67 Llc | System and method for sensing a feature of an object in an interactive video display |
JP2007017364A (ja) * | 2005-07-11 | 2007-01-25 | Kyoto Univ | シルエット抽出装置及び該方法並びに3次元形状データ生成装置及び該方法 |
US20070018989A1 (en) * | 2005-07-20 | 2007-01-25 | Playmotion, Llc | Sensory integration therapy system and associated method of use |
FR2889303B1 (fr) * | 2005-07-26 | 2008-07-11 | Airbus France Sas | Procede de mesure d'une anomalie de forme sur un panneau d'une structure d'aeronef et systeme de mise en oeuvre |
US8625845B2 (en) * | 2005-08-06 | 2014-01-07 | Quantum Signal, Llc | Overlaying virtual content onto video stream of people within venue based on analysis of the people within the video stream |
TWI412392B (zh) * | 2005-08-12 | 2013-10-21 | Koninkl Philips Electronics Nv | 互動式娛樂系統及其操作方法 |
US7911444B2 (en) | 2005-08-31 | 2011-03-22 | Microsoft Corporation | Input method for surface of interactive display |
US20070063981A1 (en) * | 2005-09-16 | 2007-03-22 | Galyean Tinsley A Iii | System and method for providing an interactive interface |
US8176101B2 (en) | 2006-02-07 | 2012-05-08 | Google Inc. | Collaborative rejection of media for physical establishments |
US7917148B2 (en) | 2005-09-23 | 2011-03-29 | Outland Research, Llc | Social musical media rating system and method for localized establishments |
US7697827B2 (en) | 2005-10-17 | 2010-04-13 | Konicek Jeffrey C | User-friendlier interfaces for a camera |
US8098277B1 (en) | 2005-12-02 | 2012-01-17 | Intellectual Ventures Holding 67 Llc | Systems and methods for communication between a reactive video system and a mobile communication device |
US20070145680A1 (en) * | 2005-12-15 | 2007-06-28 | Outland Research, Llc | Shake Responsive Portable Computing Device for Simulating a Randomization Object Used In a Game Of Chance |
AT503008B1 (de) * | 2005-12-16 | 2008-09-15 | Dobler & Stampfl Audite Oeg | Interaktives optisches system und verfahren zum extrahieren und verwerten von interaktionen in einem optischen system |
US7630002B2 (en) * | 2007-01-05 | 2009-12-08 | Microsoft Corporation | Specular reflection reduction using multiple cameras |
DE102006002602A1 (de) | 2006-01-13 | 2007-07-19 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Kalibrierungsverfahren und Kalibrierungssystem |
JP5201999B2 (ja) * | 2006-02-03 | 2013-06-05 | パナソニック株式会社 | 入力装置、及びその方法 |
US9075441B2 (en) * | 2006-02-08 | 2015-07-07 | Oblong Industries, Inc. | Gesture based control using three-dimensional information extracted over an extended depth of field |
US9910497B2 (en) * | 2006-02-08 | 2018-03-06 | Oblong Industries, Inc. | Gestural control of autonomous and semi-autonomous systems |
US8537111B2 (en) | 2006-02-08 | 2013-09-17 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
US9823747B2 (en) | 2006-02-08 | 2017-11-21 | Oblong Industries, Inc. | Spatial, multi-modal control device for use with spatial operating system |
US8531396B2 (en) * | 2006-02-08 | 2013-09-10 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
US8537112B2 (en) * | 2006-02-08 | 2013-09-17 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
US8370383B2 (en) | 2006-02-08 | 2013-02-05 | Oblong Industries, Inc. | Multi-process interactive systems and methods |
ITRM20060136A1 (it) * | 2006-03-10 | 2007-09-11 | Link Formazione S R L | Sistema multimediale interattivo |
US8930834B2 (en) * | 2006-03-20 | 2015-01-06 | Microsoft Corporation | Variable orientation user interface |
WO2007107874A2 (en) * | 2006-03-22 | 2007-09-27 | Home Focus Development Ltd | Interactive playmat |
US8139059B2 (en) * | 2006-03-31 | 2012-03-20 | Microsoft Corporation | Object illumination in a virtual environment |
KR100742664B1 (ko) * | 2006-05-10 | 2007-07-25 | 주식회사 플러 | 인터랙티브 영상의 디스플레이 시스템 및 방법 |
CN101657825B (zh) * | 2006-05-11 | 2014-02-19 | 普莱姆传感有限公司 | 根据深度图对人形进行建模 |
US7724952B2 (en) * | 2006-05-15 | 2010-05-25 | Microsoft Corporation | Object matting using flash and no-flash images |
EP2023812B1 (en) | 2006-05-19 | 2016-01-27 | The Queen's Medical Center | Motion tracking system for real time adaptive imaging and spectroscopy |
US7735730B2 (en) | 2006-05-24 | 2010-06-15 | International Business Machines Corporation | System and method for state-based execution and recovery in a payment system |
US20070292033A1 (en) * | 2006-06-19 | 2007-12-20 | Chao-Wang Hsiung | Passive and interactive real-time image recognition software method |
US8001613B2 (en) * | 2006-06-23 | 2011-08-16 | Microsoft Corporation | Security using physical objects |
US20080040692A1 (en) * | 2006-06-29 | 2008-02-14 | Microsoft Corporation | Gesture input |
JP5028038B2 (ja) * | 2006-07-06 | 2012-09-19 | クラリオン株式会社 | 車載表示装置および車載表示装置の表示方法 |
JP4707034B2 (ja) * | 2006-07-07 | 2011-06-22 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理方法、入力インタフェース装置 |
US8589824B2 (en) * | 2006-07-13 | 2013-11-19 | Northrop Grumman Systems Corporation | Gesture recognition interface system |
US8180114B2 (en) * | 2006-07-13 | 2012-05-15 | Northrop Grumman Systems Corporation | Gesture recognition interface system with vertical display |
US8972902B2 (en) * | 2008-08-22 | 2015-03-03 | Northrop Grumman Systems Corporation | Compound gesture recognition |
US9696808B2 (en) | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
US8234578B2 (en) * | 2006-07-25 | 2012-07-31 | Northrop Grumman Systems Corporatiom | Networked gesture collaboration system |
WO2008014487A2 (en) * | 2006-07-28 | 2008-01-31 | Accelerated Pictures, Inc. | Scene organization in computer-assisted filmmaking |
US7880770B2 (en) * | 2006-07-28 | 2011-02-01 | Accelerated Pictures, Inc. | Camera control |
US8432448B2 (en) * | 2006-08-10 | 2013-04-30 | Northrop Grumman Systems Corporation | Stereo camera intrusion detection system |
US7693331B2 (en) * | 2006-08-30 | 2010-04-06 | Mitsubishi Electric Research Laboratories, Inc. | Object segmentation using visible and infrared images |
WO2008058277A2 (en) * | 2006-11-09 | 2008-05-15 | Smartdrive Systems, Inc. | Video event recorders having integrated illumination sources |
WO2008083205A2 (en) | 2006-12-29 | 2008-07-10 | Gesturetek, Inc. | Manipulation of virtual objects using enhanced interactive system |
US8212857B2 (en) | 2007-01-26 | 2012-07-03 | Microsoft Corporation | Alternating light sources to reduce specular reflection |
CN101617271B (zh) * | 2007-02-15 | 2015-07-15 | 高通股份有限公司 | 使用闪烁电磁辐射的增强输入 |
US8005238B2 (en) | 2007-03-22 | 2011-08-23 | Microsoft Corporation | Robust adaptive beamforming with enhanced noise suppression |
US9171399B2 (en) * | 2013-03-12 | 2015-10-27 | Autodesk, Inc. | Shadow rendering in a 3D scene based on physical light sources |
WO2008124820A1 (en) * | 2007-04-10 | 2008-10-16 | Reactrix Systems, Inc. | Display using a three dimensional vision system |
US20080262909A1 (en) * | 2007-04-18 | 2008-10-23 | Microsoft Corporation | Intelligent information display |
WO2008134452A2 (en) | 2007-04-24 | 2008-11-06 | Oblong Industries, Inc. | Proteins, pools, and slawx in processing environments |
WO2008134745A1 (en) | 2007-04-30 | 2008-11-06 | Gesturetek, Inc. | Mobile video-based therapy |
US8005237B2 (en) | 2007-05-17 | 2011-08-23 | Microsoft Corp. | Sensor array beamformer post-processor |
US7808532B2 (en) | 2007-05-29 | 2010-10-05 | Microsoft Corporation | Strategies for extracting foreground information using flash and no-flash image pairs |
EP2017526A1 (en) * | 2007-06-13 | 2009-01-21 | Royal College Of Art | Directable light |
US20110001935A1 (en) * | 2007-06-25 | 2011-01-06 | Spotless, Llc | Digital image projection system |
US20080316432A1 (en) * | 2007-06-25 | 2008-12-25 | Spotless, Llc | Digital Image Projection System |
US8726194B2 (en) | 2007-07-27 | 2014-05-13 | Qualcomm Incorporated | Item selection using enhanced control |
US20090059094A1 (en) * | 2007-09-04 | 2009-03-05 | Samsung Techwin Co., Ltd. | Apparatus and method for overlaying image in video presentation system having embedded operating system |
US8230367B2 (en) | 2007-09-14 | 2012-07-24 | Intellectual Ventures Holding 67 Llc | Gesture-based user interactions with status indicators for acceptable inputs in volumetric zones |
US8218811B2 (en) | 2007-09-28 | 2012-07-10 | Uti Limited Partnership | Method and system for video interaction based on motion swarms |
US20090086027A1 (en) * | 2007-10-01 | 2009-04-02 | Benjamin Antonio Chaykin | Method And System For Providing Images And Graphics |
US8629976B2 (en) | 2007-10-02 | 2014-01-14 | Microsoft Corporation | Methods and systems for hierarchical de-aliasing time-of-flight (TOF) systems |
US7874681B2 (en) | 2007-10-05 | 2011-01-25 | Huebner Kenneth J | Interactive projector system and method |
US8139110B2 (en) * | 2007-11-01 | 2012-03-20 | Northrop Grumman Systems Corporation | Calibration of a gesture recognition interface system |
US9377874B2 (en) * | 2007-11-02 | 2016-06-28 | Northrop Grumman Systems Corporation | Gesture recognition light and video image projector |
US8159682B2 (en) | 2007-11-12 | 2012-04-17 | Intellectual Ventures Holding 67 Llc | Lens system |
US20090124382A1 (en) * | 2007-11-13 | 2009-05-14 | David Lachance | Interactive image projection system and method |
KR101079598B1 (ko) * | 2007-12-18 | 2011-11-03 | 삼성전자주식회사 | 디스플레이장치 및 그 제어방법 |
US9035876B2 (en) | 2008-01-14 | 2015-05-19 | Apple Inc. | Three-dimensional user interface session control |
US8166421B2 (en) * | 2008-01-14 | 2012-04-24 | Primesense Ltd. | Three-dimensional user interface |
US8933876B2 (en) | 2010-12-13 | 2015-01-13 | Apple Inc. | Three dimensional user interface session control |
EP2257911B1 (en) * | 2008-02-27 | 2018-10-10 | Sony Computer Entertainment America LLC | Methods for capturing depth data of a scene and applying computer actions |
US20090219253A1 (en) * | 2008-02-29 | 2009-09-03 | Microsoft Corporation | Interactive Surface Computer with Switchable Diffuser |
US7946922B2 (en) | 2008-03-05 | 2011-05-24 | Howard Hung Yin | Advertising funded gaming system |
US8259163B2 (en) | 2008-03-07 | 2012-09-04 | Intellectual Ventures Holding 67 Llc | Display with built in 3D sensing |
US8194233B2 (en) | 2008-04-11 | 2012-06-05 | Microsoft Corporation | Method and system to reduce stray light reflection error in time-of-flight sensor arrays |
US10642364B2 (en) | 2009-04-02 | 2020-05-05 | Oblong Industries, Inc. | Processing tracking and recognition data in gestural recognition systems |
US9740293B2 (en) | 2009-04-02 | 2017-08-22 | Oblong Industries, Inc. | Operating environment with gestural control and multiple client devices, displays, and users |
US8723795B2 (en) | 2008-04-24 | 2014-05-13 | Oblong Industries, Inc. | Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes |
US9684380B2 (en) | 2009-04-02 | 2017-06-20 | Oblong Industries, Inc. | Operating environment with gestural control and multiple client devices, displays, and users |
US9952673B2 (en) | 2009-04-02 | 2018-04-24 | Oblong Industries, Inc. | Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control |
US9740922B2 (en) | 2008-04-24 | 2017-08-22 | Oblong Industries, Inc. | Adaptive tracking system for spatial input devices |
US9495013B2 (en) | 2008-04-24 | 2016-11-15 | Oblong Industries, Inc. | Multi-modal gestural interface |
US8405727B2 (en) * | 2008-05-01 | 2013-03-26 | Apple Inc. | Apparatus and method for calibrating image capture devices |
CN101306249B (zh) * | 2008-05-30 | 2011-09-14 | 北京中星微电子有限公司 | 动作分析装置和方法 |
US8595218B2 (en) | 2008-06-12 | 2013-11-26 | Intellectual Ventures Holding 67 Llc | Interactive display management systems and methods |
KR101652535B1 (ko) * | 2008-06-18 | 2016-08-30 | 오블롱 인더스트리즈, 인크 | 차량 인터페이스를 위한 제스처 기반 제어 시스템 |
US8385557B2 (en) | 2008-06-19 | 2013-02-26 | Microsoft Corporation | Multichannel acoustic echo reduction |
US8345920B2 (en) * | 2008-06-20 | 2013-01-01 | Northrop Grumman Systems Corporation | Gesture recognition interface system with a light-diffusive screen |
US8325909B2 (en) | 2008-06-25 | 2012-12-04 | Microsoft Corporation | Acoustic echo suppression |
US8203699B2 (en) | 2008-06-30 | 2012-06-19 | Microsoft Corporation | System architecture design for time-of-flight system having reduced differential pixel size, and time-of-flight systems so designed |
US7515136B1 (en) | 2008-07-31 | 2009-04-07 | International Business Machines Corporation | Collaborative and situationally aware active billboards |
RU2461143C2 (ru) * | 2008-08-13 | 2012-09-10 | Александр Львович Шведов | Способ создания эффекта виртуального присутствия с комбинированным видеоизображением |
US8538084B2 (en) * | 2008-09-08 | 2013-09-17 | Apple Inc. | Method and apparatus for depth sensing keystoning |
US8508671B2 (en) | 2008-09-08 | 2013-08-13 | Apple Inc. | Projection systems and methods |
WO2010027291A1 (ru) * | 2008-09-08 | 2010-03-11 | Rurin Oleg Stanislavovich | Способ отображения информации |
US20100064213A1 (en) * | 2008-09-10 | 2010-03-11 | Zhou Ye | Operation device for a graphical user interface |
US8527908B2 (en) | 2008-09-26 | 2013-09-03 | Apple Inc. | Computer user interface system and methods |
US7881603B2 (en) * | 2008-09-26 | 2011-02-01 | Apple Inc. | Dichroic aperture for electronic imaging device |
US8610726B2 (en) * | 2008-09-26 | 2013-12-17 | Apple Inc. | Computer systems and methods with projected display |
US20100079426A1 (en) * | 2008-09-26 | 2010-04-01 | Apple Inc. | Spatial ambient light profiling |
US9134540B2 (en) * | 2008-10-28 | 2015-09-15 | Koninklijke Philips N.V. | Three dimensional display system |
US9586135B1 (en) | 2008-11-12 | 2017-03-07 | David G. Capper | Video motion capture for wireless gaming |
US9383814B1 (en) | 2008-11-12 | 2016-07-05 | David G. Capper | Plug and play wireless video game |
US10086262B1 (en) | 2008-11-12 | 2018-10-02 | David G. Capper | Video motion capture for wireless gaming |
GB2466497B (en) | 2008-12-24 | 2011-09-14 | Light Blue Optics Ltd | Touch sensitive holographic displays |
US8903191B2 (en) * | 2008-12-30 | 2014-12-02 | Intel Corporation | Method and apparatus for noise reduction in video |
US8681321B2 (en) | 2009-01-04 | 2014-03-25 | Microsoft International Holdings B.V. | Gated 3D camera |
KR20100084338A (ko) * | 2009-01-16 | 2010-07-26 | 삼성전자주식회사 | 이미지 드로잉 방법 및 장치 |
US8577085B2 (en) | 2009-01-30 | 2013-11-05 | Microsoft Corporation | Visual target tracking |
US9652030B2 (en) | 2009-01-30 | 2017-05-16 | Microsoft Technology Licensing, Llc | Navigation of a virtual plane using a zone of restriction for canceling noise |
US8577084B2 (en) | 2009-01-30 | 2013-11-05 | Microsoft Corporation | Visual target tracking |
US8588465B2 (en) | 2009-01-30 | 2013-11-19 | Microsoft Corporation | Visual target tracking |
US8565476B2 (en) | 2009-01-30 | 2013-10-22 | Microsoft Corporation | Visual target tracking |
US8267781B2 (en) | 2009-01-30 | 2012-09-18 | Microsoft Corporation | Visual target tracking |
US20100199231A1 (en) | 2009-01-30 | 2010-08-05 | Microsoft Corporation | Predictive determination |
US8294767B2 (en) | 2009-01-30 | 2012-10-23 | Microsoft Corporation | Body scan |
US8448094B2 (en) | 2009-01-30 | 2013-05-21 | Microsoft Corporation | Mapping a natural input device to a legacy system |
US8565477B2 (en) | 2009-01-30 | 2013-10-22 | Microsoft Corporation | Visual target tracking |
US8682028B2 (en) | 2009-01-30 | 2014-03-25 | Microsoft Corporation | Visual target tracking |
US8487938B2 (en) | 2009-01-30 | 2013-07-16 | Microsoft Corporation | Standard Gestures |
US8295546B2 (en) | 2009-01-30 | 2012-10-23 | Microsoft Corporation | Pose tracking pipeline |
US7996793B2 (en) | 2009-01-30 | 2011-08-09 | Microsoft Corporation | Gesture recognizer system architecture |
US8624962B2 (en) * | 2009-02-02 | 2014-01-07 | Ydreams—Informatica, S.A. Ydreams | Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images |
US8773355B2 (en) | 2009-03-16 | 2014-07-08 | Microsoft Corporation | Adaptive cursor sizing |
US8988437B2 (en) | 2009-03-20 | 2015-03-24 | Microsoft Technology Licensing, Llc | Chaining animations |
US9256282B2 (en) | 2009-03-20 | 2016-02-09 | Microsoft Technology Licensing, Llc | Virtual object manipulation |
US8291328B2 (en) * | 2009-03-24 | 2012-10-16 | Disney Enterprises, Inc. | System and method for synchronizing a real-time performance with a virtual object |
US8375311B2 (en) * | 2009-03-24 | 2013-02-12 | Disney Enterprises, Inc. | System and method for determining placement of a virtual object according to a real-time performance |
ITRM20090153A1 (it) * | 2009-04-01 | 2010-10-02 | Stark Srl | Modulo integrato di proiettore interattivo |
US9313376B1 (en) | 2009-04-01 | 2016-04-12 | Microsoft Technology Licensing, Llc | Dynamic depth power equalization |
US9317128B2 (en) | 2009-04-02 | 2016-04-19 | Oblong Industries, Inc. | Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control |
US10824238B2 (en) | 2009-04-02 | 2020-11-03 | Oblong Industries, Inc. | Operating environment with gestural control and multiple client devices, displays, and users |
US9015638B2 (en) | 2009-05-01 | 2015-04-21 | Microsoft Technology Licensing, Llc | Binding users to a gesture based system and providing feedback to the users |
US9498718B2 (en) | 2009-05-01 | 2016-11-22 | Microsoft Technology Licensing, Llc | Altering a view perspective within a display environment |
US8942428B2 (en) | 2009-05-01 | 2015-01-27 | Microsoft Corporation | Isolate extraneous motions |
US9898675B2 (en) | 2009-05-01 | 2018-02-20 | Microsoft Technology Licensing, Llc | User movement tracking feedback to improve tracking |
US8253746B2 (en) | 2009-05-01 | 2012-08-28 | Microsoft Corporation | Determine intended motions |
US9377857B2 (en) | 2009-05-01 | 2016-06-28 | Microsoft Technology Licensing, Llc | Show body position |
US8340432B2 (en) | 2009-05-01 | 2012-12-25 | Microsoft Corporation | Systems and methods for detecting a tilt angle from a depth image |
US8638985B2 (en) * | 2009-05-01 | 2014-01-28 | Microsoft Corporation | Human body pose estimation |
US8649554B2 (en) | 2009-05-01 | 2014-02-11 | Microsoft Corporation | Method to control perspective for a camera-controlled computer |
US20100277470A1 (en) * | 2009-05-01 | 2010-11-04 | Microsoft Corporation | Systems And Methods For Applying Model Tracking To Motion Capture |
US8660303B2 (en) | 2009-05-01 | 2014-02-25 | Microsoft Corporation | Detection of body and props |
US8181123B2 (en) | 2009-05-01 | 2012-05-15 | Microsoft Corporation | Managing virtual port associations to users in a gesture-based computing environment |
US8503720B2 (en) | 2009-05-01 | 2013-08-06 | Microsoft Corporation | Human body pose estimation |
US20100295782A1 (en) | 2009-05-21 | 2010-11-25 | Yehuda Binder | System and method for control based on face ore hand gesture detection |
US8418085B2 (en) | 2009-05-29 | 2013-04-09 | Microsoft Corporation | Gesture coach |
US8744121B2 (en) | 2009-05-29 | 2014-06-03 | Microsoft Corporation | Device for identifying and tracking multiple humans over time |
US9383823B2 (en) | 2009-05-29 | 2016-07-05 | Microsoft Technology Licensing, Llc | Combining gestures beyond skeletal |
US8542252B2 (en) | 2009-05-29 | 2013-09-24 | Microsoft Corporation | Target digitization, extraction, and tracking |
US8320619B2 (en) | 2009-05-29 | 2012-11-27 | Microsoft Corporation | Systems and methods for tracking a model |
US8379101B2 (en) | 2009-05-29 | 2013-02-19 | Microsoft Corporation | Environment and/or target segmentation |
US8693724B2 (en) | 2009-05-29 | 2014-04-08 | Microsoft Corporation | Method and system implementing user-centric gesture control |
US8856691B2 (en) | 2009-05-29 | 2014-10-07 | Microsoft Corporation | Gesture tool |
US9182814B2 (en) | 2009-05-29 | 2015-11-10 | Microsoft Technology Licensing, Llc | Systems and methods for estimating a non-visible or occluded body part |
US8509479B2 (en) | 2009-05-29 | 2013-08-13 | Microsoft Corporation | Virtual object |
US9400559B2 (en) | 2009-05-29 | 2016-07-26 | Microsoft Technology Licensing, Llc | Gesture shortcuts |
US8625837B2 (en) | 2009-05-29 | 2014-01-07 | Microsoft Corporation | Protocol and format for communicating an image from a camera to a computing environment |
US8487871B2 (en) | 2009-06-01 | 2013-07-16 | Microsoft Corporation | Virtual desktop coordinate transformation |
US8223196B2 (en) * | 2009-06-10 | 2012-07-17 | Disney Enterprises, Inc. | Projector systems and methods for producing digitally augmented, interactive cakes and other food products |
JP5553546B2 (ja) * | 2009-07-07 | 2014-07-16 | キヤノン株式会社 | 画像投影装置、及びその制御方法 |
US8390680B2 (en) | 2009-07-09 | 2013-03-05 | Microsoft Corporation | Visual representation expression based on player expression |
US9159151B2 (en) | 2009-07-13 | 2015-10-13 | Microsoft Technology Licensing, Llc | Bringing a visual representation to life via learned input from the user |
TW201104494A (en) * | 2009-07-20 | 2011-02-01 | J Touch Corp | Stereoscopic image interactive system |
US8727875B2 (en) * | 2009-07-27 | 2014-05-20 | Obscura Digital, Inc. | Automated enhancements for billiards and the like |
US8992315B2 (en) * | 2009-07-27 | 2015-03-31 | Obscura Digital, Inc. | Automated enhancements for billiards and the like |
US8847984B2 (en) * | 2009-07-27 | 2014-09-30 | Disney Enterprises, Inc. | System and method for forming a composite image in a portable computing device having a dual screen display |
US8616971B2 (en) | 2009-07-27 | 2013-12-31 | Obscura Digital, Inc. | Automated enhancements for billiards and the like |
KR101276199B1 (ko) * | 2009-08-10 | 2013-06-18 | 한국전자통신연구원 | 시청자 참여의 iptv 원격 방송 시스템 및 그 서비스 제공 방법 |
US8565479B2 (en) * | 2009-08-13 | 2013-10-22 | Primesense Ltd. | Extraction of skeletons from 3D maps |
US8264536B2 (en) | 2009-08-25 | 2012-09-11 | Microsoft Corporation | Depth-sensitive imaging via polarization-state mapping |
US9141193B2 (en) | 2009-08-31 | 2015-09-22 | Microsoft Technology Licensing, Llc | Techniques for using human gestures to control gesture unaware programs |
US8508919B2 (en) | 2009-09-14 | 2013-08-13 | Microsoft Corporation | Separation of electrical and optical components |
US8330134B2 (en) | 2009-09-14 | 2012-12-11 | Microsoft Corporation | Optical fault monitoring |
US8760571B2 (en) | 2009-09-21 | 2014-06-24 | Microsoft Corporation | Alignment of lens and image sensor |
US8428340B2 (en) | 2009-09-21 | 2013-04-23 | Microsoft Corporation | Screen space plane identification |
US8976986B2 (en) | 2009-09-21 | 2015-03-10 | Microsoft Technology Licensing, Llc | Volume adjustment based on listener position |
US9014546B2 (en) | 2009-09-23 | 2015-04-21 | Rovi Guides, Inc. | Systems and methods for automatically detecting users within detection regions of media devices |
US8502926B2 (en) * | 2009-09-30 | 2013-08-06 | Apple Inc. | Display system having coherent and incoherent light sources |
US8619128B2 (en) | 2009-09-30 | 2013-12-31 | Apple Inc. | Systems and methods for an imaging system using multiple image sensors |
US8452087B2 (en) | 2009-09-30 | 2013-05-28 | Microsoft Corporation | Image selection techniques |
US8723118B2 (en) | 2009-10-01 | 2014-05-13 | Microsoft Corporation | Imager for constructing color and depth images |
US8564534B2 (en) | 2009-10-07 | 2013-10-22 | Microsoft Corporation | Human tracking system |
US8547327B2 (en) | 2009-10-07 | 2013-10-01 | Qualcomm Incorporated | Proximity object tracker |
US8867820B2 (en) | 2009-10-07 | 2014-10-21 | Microsoft Corporation | Systems and methods for removing a background of an image |
US8963829B2 (en) | 2009-10-07 | 2015-02-24 | Microsoft Corporation | Methods and systems for determining and tracking extremities of a target |
US7961910B2 (en) | 2009-10-07 | 2011-06-14 | Microsoft Corporation | Systems and methods for tracking a model |
US9971807B2 (en) | 2009-10-14 | 2018-05-15 | Oblong Industries, Inc. | Multi-process interactive systems and methods |
US9933852B2 (en) | 2009-10-14 | 2018-04-03 | Oblong Industries, Inc. | Multi-process interactive systems and methods |
US9400548B2 (en) | 2009-10-19 | 2016-07-26 | Microsoft Technology Licensing, Llc | Gesture personalization and profile roaming |
US8988432B2 (en) | 2009-11-05 | 2015-03-24 | Microsoft Technology Licensing, Llc | Systems and methods for processing an image for target tracking |
US8843857B2 (en) | 2009-11-19 | 2014-09-23 | Microsoft Corporation | Distance scalable no touch computing |
US8672763B2 (en) * | 2009-11-20 | 2014-03-18 | Sony Computer Entertainment Inc. | Controller for interfacing with a computing program using position, orientation, or motion |
WO2011069148A1 (en) * | 2009-12-04 | 2011-06-09 | Next Holdings Limited | Methods and systems for position detection using an interactive volume |
US9244533B2 (en) | 2009-12-17 | 2016-01-26 | Microsoft Technology Licensing, Llc | Camera navigation for presentations |
US20110150271A1 (en) | 2009-12-18 | 2011-06-23 | Microsoft Corporation | Motion detection using depth images |
US8320621B2 (en) | 2009-12-21 | 2012-11-27 | Microsoft Corporation | Depth projector system with integrated VCSEL array |
US8687070B2 (en) | 2009-12-22 | 2014-04-01 | Apple Inc. | Image capture device having tilt and/or perspective correction |
US8631355B2 (en) | 2010-01-08 | 2014-01-14 | Microsoft Corporation | Assigning gesture dictionaries |
US9268404B2 (en) | 2010-01-08 | 2016-02-23 | Microsoft Technology Licensing, Llc | Application gesture interpretation |
US9019201B2 (en) * | 2010-01-08 | 2015-04-28 | Microsoft Technology Licensing, Llc | Evolving universal gesture sets |
US8334842B2 (en) | 2010-01-15 | 2012-12-18 | Microsoft Corporation | Recognizing user intent in motion capture system |
US8933884B2 (en) | 2010-01-15 | 2015-01-13 | Microsoft Corporation | Tracking groups of users in motion capture system |
US8676581B2 (en) | 2010-01-22 | 2014-03-18 | Microsoft Corporation | Speech recognition analysis via identification information |
US8265341B2 (en) | 2010-01-25 | 2012-09-11 | Microsoft Corporation | Voice-body identity correlation |
KR101005599B1 (ko) * | 2010-01-27 | 2011-01-05 | 주식회사 미디어프론트 | 인터랙티브 영상처리 시스템 및 방법, 그리고 인터랙티브 영상처리장치 |
US8717360B2 (en) | 2010-01-29 | 2014-05-06 | Zspace, Inc. | Presenting a view within a three dimensional scene |
US8864581B2 (en) | 2010-01-29 | 2014-10-21 | Microsoft Corporation | Visual based identitiy tracking |
US8891067B2 (en) | 2010-02-01 | 2014-11-18 | Microsoft Corporation | Multiple synchronized optical sources for time-of-flight range finding systems |
US8619122B2 (en) | 2010-02-02 | 2013-12-31 | Microsoft Corporation | Depth camera compatibility |
US8687044B2 (en) | 2010-02-02 | 2014-04-01 | Microsoft Corporation | Depth camera compatibility |
US8717469B2 (en) | 2010-02-03 | 2014-05-06 | Microsoft Corporation | Fast gating photosurface |
US8659658B2 (en) | 2010-02-09 | 2014-02-25 | Microsoft Corporation | Physical interaction zone for gesture-based user interfaces |
US8499257B2 (en) | 2010-02-09 | 2013-07-30 | Microsoft Corporation | Handles interactions for human—computer interface |
US8633890B2 (en) | 2010-02-16 | 2014-01-21 | Microsoft Corporation | Gesture detection based on joint skipping |
US8928579B2 (en) | 2010-02-22 | 2015-01-06 | Andrew David Wilson | Interacting with an omni-directionally projected display |
NL2004273C2 (en) * | 2010-02-22 | 2010-12-28 | Valeri Mischenko | Embedding humans and objects in virtual reality environments. |
US8787663B2 (en) * | 2010-03-01 | 2014-07-22 | Primesense Ltd. | Tracking body parts by combined color image and depth processing |
JP5740822B2 (ja) * | 2010-03-04 | 2015-07-01 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
US8655069B2 (en) | 2010-03-05 | 2014-02-18 | Microsoft Corporation | Updating image segmentation following user input |
US8422769B2 (en) | 2010-03-05 | 2013-04-16 | Microsoft Corporation | Image segmentation using reduced foreground training data |
US8411948B2 (en) | 2010-03-05 | 2013-04-02 | Microsoft Corporation | Up-sampling binary images for segmentation |
US20110223995A1 (en) | 2010-03-12 | 2011-09-15 | Kevin Geisner | Interacting with a computer based application |
US8279418B2 (en) * | 2010-03-17 | 2012-10-02 | Microsoft Corporation | Raster scanning for depth detection |
US8213680B2 (en) | 2010-03-19 | 2012-07-03 | Microsoft Corporation | Proxy training data for human body tracking |
US8514269B2 (en) | 2010-03-26 | 2013-08-20 | Microsoft Corporation | De-aliasing depth images |
US8523667B2 (en) | 2010-03-29 | 2013-09-03 | Microsoft Corporation | Parental control settings based on body dimensions |
US8605763B2 (en) | 2010-03-31 | 2013-12-10 | Microsoft Corporation | Temperature measurement and control for laser and light-emitting diodes |
US9098873B2 (en) | 2010-04-01 | 2015-08-04 | Microsoft Technology Licensing, Llc | Motion-based interactive shopping environment |
US9646340B2 (en) | 2010-04-01 | 2017-05-09 | Microsoft Technology Licensing, Llc | Avatar-based virtual dressing room |
US8917905B1 (en) * | 2010-04-15 | 2014-12-23 | Don K. Dill | Vision-2-vision control system |
EP2378394A3 (en) * | 2010-04-15 | 2015-03-25 | Electronics and Telecommunications Research Institute | User interface device and method for recognizing user interaction using same |
US8351651B2 (en) | 2010-04-26 | 2013-01-08 | Microsoft Corporation | Hand-location post-process refinement in a tracking system |
US20110267264A1 (en) * | 2010-04-29 | 2011-11-03 | Mccarthy John | Display system with multiple optical sensors |
US8379919B2 (en) | 2010-04-29 | 2013-02-19 | Microsoft Corporation | Multiple centroid condensation of probability distribution clouds |
US8284847B2 (en) | 2010-05-03 | 2012-10-09 | Microsoft Corporation | Detecting motion for a multifunction sensor device |
US8498481B2 (en) | 2010-05-07 | 2013-07-30 | Microsoft Corporation | Image segmentation using star-convexity constraints |
US8885890B2 (en) | 2010-05-07 | 2014-11-11 | Microsoft Corporation | Depth map confidence filtering |
US8457353B2 (en) | 2010-05-18 | 2013-06-04 | Microsoft Corporation | Gestures and gesture modifiers for manipulating a user-interface |
US8594425B2 (en) | 2010-05-31 | 2013-11-26 | Primesense Ltd. | Analysis of three-dimensional scenes |
US8803888B2 (en) | 2010-06-02 | 2014-08-12 | Microsoft Corporation | Recognition system for sharing information |
US8751215B2 (en) | 2010-06-04 | 2014-06-10 | Microsoft Corporation | Machine based sign language interpreter |
US9008355B2 (en) | 2010-06-04 | 2015-04-14 | Microsoft Technology Licensing, Llc | Automatic depth camera aiming |
US9557574B2 (en) | 2010-06-08 | 2017-01-31 | Microsoft Technology Licensing, Llc | Depth illumination and detection optics |
US8330822B2 (en) | 2010-06-09 | 2012-12-11 | Microsoft Corporation | Thermally-tuned depth camera light source |
US8749557B2 (en) | 2010-06-11 | 2014-06-10 | Microsoft Corporation | Interacting with user interface via avatar |
US8675981B2 (en) | 2010-06-11 | 2014-03-18 | Microsoft Corporation | Multi-modal gender recognition including depth data |
US9384329B2 (en) | 2010-06-11 | 2016-07-05 | Microsoft Technology Licensing, Llc | Caloric burn determination from body movement |
US8982151B2 (en) | 2010-06-14 | 2015-03-17 | Microsoft Technology Licensing, Llc | Independently processing planes of display data |
US8558873B2 (en) | 2010-06-16 | 2013-10-15 | Microsoft Corporation | Use of wavefront coding to create a depth image |
US8670029B2 (en) | 2010-06-16 | 2014-03-11 | Microsoft Corporation | Depth camera illuminator with superluminescent light-emitting diode |
US8296151B2 (en) | 2010-06-18 | 2012-10-23 | Microsoft Corporation | Compound gesture-speech commands |
US8381108B2 (en) | 2010-06-21 | 2013-02-19 | Microsoft Corporation | Natural user input for driving interactive stories |
US8416187B2 (en) | 2010-06-22 | 2013-04-09 | Microsoft Corporation | Item navigation using motion-capture data |
JP5395956B2 (ja) * | 2010-07-02 | 2014-01-22 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理システムおよび情報処理方法 |
US9789392B1 (en) * | 2010-07-09 | 2017-10-17 | Open Invention Network Llc | Action or position triggers in a game play mode |
JP5791131B2 (ja) | 2010-07-20 | 2015-10-07 | アップル インコーポレイテッド | 自然な相互作用のための相互作用的現実拡張 |
US9201501B2 (en) | 2010-07-20 | 2015-12-01 | Apple Inc. | Adaptive projector |
US8497897B2 (en) | 2010-08-17 | 2013-07-30 | Apple Inc. | Image capture using luminance and chrominance sensors |
US9075434B2 (en) | 2010-08-20 | 2015-07-07 | Microsoft Technology Licensing, Llc | Translating user motion into multiple object responses |
US8613666B2 (en) | 2010-08-31 | 2013-12-24 | Microsoft Corporation | User selection and navigation based on looped motions |
US20120058824A1 (en) | 2010-09-07 | 2012-03-08 | Microsoft Corporation | Scalable real-time motion recognition |
US8437506B2 (en) | 2010-09-07 | 2013-05-07 | Microsoft Corporation | System for fast, probabilistic skeletal tracking |
US8582867B2 (en) | 2010-09-16 | 2013-11-12 | Primesense Ltd | Learning-based pose estimation from depth maps |
US8638364B2 (en) * | 2010-09-23 | 2014-01-28 | Sony Computer Entertainment Inc. | User interface system and method using thermal imaging |
US8988508B2 (en) | 2010-09-24 | 2015-03-24 | Microsoft Technology Licensing, Llc. | Wide angle field of view active illumination imaging system |
US8538132B2 (en) | 2010-09-24 | 2013-09-17 | Apple Inc. | Component concentricity |
US8959013B2 (en) | 2010-09-27 | 2015-02-17 | Apple Inc. | Virtual keyboard for a non-tactile three dimensional user interface |
US8681255B2 (en) | 2010-09-28 | 2014-03-25 | Microsoft Corporation | Integrated low power depth camera and projection device |
US9805617B2 (en) * | 2010-09-29 | 2017-10-31 | Hae-Yong Choi | System for screen dance studio |
US8548270B2 (en) | 2010-10-04 | 2013-10-01 | Microsoft Corporation | Time-of-flight depth imaging |
US9484065B2 (en) | 2010-10-15 | 2016-11-01 | Microsoft Technology Licensing, Llc | Intelligent determination of replays based on event identification |
US9195345B2 (en) * | 2010-10-28 | 2015-11-24 | Microsoft Technology Licensing, Llc | Position aware gestures with visual feedback as input method |
BR112013010520B1 (pt) * | 2010-11-01 | 2021-01-12 | Interdigital Ce Patent Holdings | método e dispositivo para detectar entradas por gesto |
US8592739B2 (en) | 2010-11-02 | 2013-11-26 | Microsoft Corporation | Detection of configuration changes of an optical element in an illumination system |
US8866889B2 (en) | 2010-11-03 | 2014-10-21 | Microsoft Corporation | In-home depth camera calibration |
US8667519B2 (en) | 2010-11-12 | 2014-03-04 | Microsoft Corporation | Automatic passive and anonymous feedback system |
US10726861B2 (en) | 2010-11-15 | 2020-07-28 | Microsoft Technology Licensing, Llc | Semi-private communication in open environments |
US9349040B2 (en) | 2010-11-19 | 2016-05-24 | Microsoft Technology Licensing, Llc | Bi-modal depth-image analysis |
GB2487043B (en) * | 2010-12-14 | 2013-08-14 | Epson Norway Res And Dev As | Camera-based multi-touch interaction and illumination system and method |
US10234545B2 (en) | 2010-12-01 | 2019-03-19 | Microsoft Technology Licensing, Llc | Light source module |
US8872762B2 (en) | 2010-12-08 | 2014-10-28 | Primesense Ltd. | Three dimensional user interface cursor control |
US8553934B2 (en) | 2010-12-08 | 2013-10-08 | Microsoft Corporation | Orienting the position of a sensor |
US8618405B2 (en) | 2010-12-09 | 2013-12-31 | Microsoft Corp. | Free-space gesture musical instrument digital interface (MIDI) controller |
US8408706B2 (en) | 2010-12-13 | 2013-04-02 | Microsoft Corporation | 3D gaze tracker |
US9171264B2 (en) | 2010-12-15 | 2015-10-27 | Microsoft Technology Licensing, Llc | Parallel processing machine learning decision tree training |
US8920241B2 (en) | 2010-12-15 | 2014-12-30 | Microsoft Corporation | Gesture controlled persistent handles for interface guides |
US8884968B2 (en) | 2010-12-15 | 2014-11-11 | Microsoft Corporation | Modeling an object from image data |
US8448056B2 (en) | 2010-12-17 | 2013-05-21 | Microsoft Corporation | Validation analysis of human target |
US8803952B2 (en) | 2010-12-20 | 2014-08-12 | Microsoft Corporation | Plural detector time-of-flight depth mapping |
US9848106B2 (en) | 2010-12-21 | 2017-12-19 | Microsoft Technology Licensing, Llc | Intelligent gameplay photo capture |
US8385596B2 (en) | 2010-12-21 | 2013-02-26 | Microsoft Corporation | First person shooter control with virtual skeleton |
US8994718B2 (en) | 2010-12-21 | 2015-03-31 | Microsoft Technology Licensing, Llc | Skeletal control of three-dimensional virtual world |
US9821224B2 (en) | 2010-12-21 | 2017-11-21 | Microsoft Technology Licensing, Llc | Driving simulator control with virtual skeleton |
US9823339B2 (en) | 2010-12-21 | 2017-11-21 | Microsoft Technology Licensing, Llc | Plural anode time-of-flight sensor |
US8905551B1 (en) | 2010-12-23 | 2014-12-09 | Rawles Llc | Unpowered augmented reality projection accessory display device |
US8845107B1 (en) * | 2010-12-23 | 2014-09-30 | Rawles Llc | Characterization of a scene with structured light |
US9123316B2 (en) | 2010-12-27 | 2015-09-01 | Microsoft Technology Licensing, Llc | Interactive content creation |
US8488888B2 (en) | 2010-12-28 | 2013-07-16 | Microsoft Corporation | Classification of posture states |
US9247238B2 (en) | 2011-01-31 | 2016-01-26 | Microsoft Technology Licensing, Llc | Reducing interference between multiple infra-red depth cameras |
US8401225B2 (en) | 2011-01-31 | 2013-03-19 | Microsoft Corporation | Moving object segmentation using depth images |
US8401242B2 (en) | 2011-01-31 | 2013-03-19 | Microsoft Corporation | Real-time camera tracking using depth maps |
US8587583B2 (en) | 2011-01-31 | 2013-11-19 | Microsoft Corporation | Three-dimensional environment reconstruction |
US8724887B2 (en) * | 2011-02-03 | 2014-05-13 | Microsoft Corporation | Environmental modifications to mitigate environmental factors |
EP3527121B1 (en) | 2011-02-09 | 2023-08-23 | Apple Inc. | Gesture detection in a 3d mapping environment |
US8942917B2 (en) | 2011-02-14 | 2015-01-27 | Microsoft Corporation | Change invariant scene recognition by an agent |
US8497838B2 (en) | 2011-02-16 | 2013-07-30 | Microsoft Corporation | Push actuation of interface controls |
US9551914B2 (en) | 2011-03-07 | 2017-01-24 | Microsoft Technology Licensing, Llc | Illuminator with refractive optical element |
US9067136B2 (en) | 2011-03-10 | 2015-06-30 | Microsoft Technology Licensing, Llc | Push personalization of interface controls |
DE102011013708B4 (de) * | 2011-03-11 | 2012-12-13 | Automate Images Gmbh | Verfahren zur freigestellten Abbildung eines Objekts |
US8571263B2 (en) | 2011-03-17 | 2013-10-29 | Microsoft Corporation | Predicting joint positions |
US9470778B2 (en) | 2011-03-29 | 2016-10-18 | Microsoft Technology Licensing, Llc | Learning from high quality depth measurements |
US9760566B2 (en) | 2011-03-31 | 2017-09-12 | Microsoft Technology Licensing, Llc | Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof |
US9298287B2 (en) | 2011-03-31 | 2016-03-29 | Microsoft Technology Licensing, Llc | Combined activation for natural user interface systems |
US10642934B2 (en) | 2011-03-31 | 2020-05-05 | Microsoft Technology Licensing, Llc | Augmented conversational understanding architecture |
US9842168B2 (en) | 2011-03-31 | 2017-12-12 | Microsoft Technology Licensing, Llc | Task driven user intents |
KR20120113058A (ko) | 2011-04-04 | 2012-10-12 | 한국전자통신연구원 | 현실-가상 융합 공간 기반의 교육 장치 및 방법 |
US8824749B2 (en) | 2011-04-05 | 2014-09-02 | Microsoft Corporation | Biometric recognition |
US8503494B2 (en) | 2011-04-05 | 2013-08-06 | Microsoft Corporation | Thermal management system |
US8620113B2 (en) | 2011-04-25 | 2013-12-31 | Microsoft Corporation | Laser diode modes |
US8702507B2 (en) | 2011-04-28 | 2014-04-22 | Microsoft Corporation | Manual and camera-based avatar control |
US9259643B2 (en) | 2011-04-28 | 2016-02-16 | Microsoft Technology Licensing, Llc | Control of separate computer game elements |
US10671841B2 (en) | 2011-05-02 | 2020-06-02 | Microsoft Technology Licensing, Llc | Attribute state classification |
US8888331B2 (en) | 2011-05-09 | 2014-11-18 | Microsoft Corporation | Low inductance light source module |
US9064006B2 (en) | 2012-08-23 | 2015-06-23 | Microsoft Technology Licensing, Llc | Translating natural language utterances to keyword search queries |
US9137463B2 (en) | 2011-05-12 | 2015-09-15 | Microsoft Technology Licensing, Llc | Adaptive high dynamic range camera |
US8786529B1 (en) | 2011-05-18 | 2014-07-22 | Zspace, Inc. | Liquid crystal variable drive voltage |
US8788973B2 (en) | 2011-05-23 | 2014-07-22 | Microsoft Corporation | Three-dimensional gesture controlled avatar configuration interface |
CN103548073B (zh) * | 2011-05-25 | 2016-09-14 | 皇家飞利浦有限公司 | 用于表面的识别*** |
US8760395B2 (en) | 2011-05-31 | 2014-06-24 | Microsoft Corporation | Gesture recognition techniques |
US8526734B2 (en) | 2011-06-01 | 2013-09-03 | Microsoft Corporation | Three-dimensional background removal for vision system |
US9594430B2 (en) | 2011-06-01 | 2017-03-14 | Microsoft Technology Licensing, Llc | Three-dimensional foreground selection for vision system |
US8929612B2 (en) | 2011-06-06 | 2015-01-06 | Microsoft Corporation | System for recognizing an open or closed hand |
US9208571B2 (en) | 2011-06-06 | 2015-12-08 | Microsoft Technology Licensing, Llc | Object digitization |
US10796494B2 (en) | 2011-06-06 | 2020-10-06 | Microsoft Technology Licensing, Llc | Adding attributes to virtual representations of real-world objects |
US8597142B2 (en) | 2011-06-06 | 2013-12-03 | Microsoft Corporation | Dynamic camera based practice mode |
US9013489B2 (en) | 2011-06-06 | 2015-04-21 | Microsoft Technology Licensing, Llc | Generation of avatar reflecting player appearance |
US8897491B2 (en) | 2011-06-06 | 2014-11-25 | Microsoft Corporation | System for finger recognition and tracking |
US9724600B2 (en) | 2011-06-06 | 2017-08-08 | Microsoft Technology Licensing, Llc | Controlling objects in a virtual environment |
US9098110B2 (en) | 2011-06-06 | 2015-08-04 | Microsoft Technology Licensing, Llc | Head rotation tracking from depth-based center of mass |
US9597587B2 (en) | 2011-06-08 | 2017-03-21 | Microsoft Technology Licensing, Llc | Locational node device |
CN102221887B (zh) * | 2011-06-23 | 2016-05-04 | 康佳集团股份有限公司 | 互动投影***及方法 |
US9377865B2 (en) | 2011-07-05 | 2016-06-28 | Apple Inc. | Zoom-based gesture user interface |
US8881051B2 (en) | 2011-07-05 | 2014-11-04 | Primesense Ltd | Zoom-based gesture user interface |
US9459758B2 (en) | 2011-07-05 | 2016-10-04 | Apple Inc. | Gesture-based interface with enhanced features |
US8228315B1 (en) | 2011-07-12 | 2012-07-24 | Google Inc. | Methods and systems for a virtual input device |
US9069164B2 (en) | 2011-07-12 | 2015-06-30 | Google Inc. | Methods and systems for a virtual input device |
RU2486403C2 (ru) * | 2011-07-28 | 2013-06-27 | Александр Викторович Белокопытов | Способ освещения изображения, система для освещения изображения и машиночитаемый носитель |
JP6126594B2 (ja) | 2011-07-29 | 2017-05-10 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー.Hewlett‐Packard Development Company, L.P. | 視覚的なレイヤリングシステム及びその方法 |
CN104024936A (zh) | 2011-07-29 | 2014-09-03 | 惠普发展公司,有限责任合伙企业 | 投影捕获***,程序和方法 |
US9521276B2 (en) | 2011-08-02 | 2016-12-13 | Hewlett-Packard Development Company, L.P. | Portable projection capture device |
US8971572B1 (en) | 2011-08-12 | 2015-03-03 | The Research Foundation For The State University Of New York | Hand pointing estimation for human computer interaction |
US9030498B2 (en) | 2011-08-15 | 2015-05-12 | Apple Inc. | Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface |
US8786730B2 (en) | 2011-08-18 | 2014-07-22 | Microsoft Corporation | Image exposure using exclusion regions |
RU2486608C2 (ru) * | 2011-08-23 | 2013-06-27 | Федеральное государственное автономное образовательное учреждение высшего профессионального образования "Национальный исследовательский университет "МИЭТ" | Устройство для организации интерфейса с объектом виртуальной реальности |
US9122311B2 (en) | 2011-08-24 | 2015-09-01 | Apple Inc. | Visual feedback for tactile and non-tactile user interfaces |
US9218063B2 (en) | 2011-08-24 | 2015-12-22 | Apple Inc. | Sessionless pointing user interface |
US9606209B2 (en) | 2011-08-26 | 2017-03-28 | Kineticor, Inc. | Methods, systems, and devices for intra-scan motion correction |
US9002099B2 (en) | 2011-09-11 | 2015-04-07 | Apple Inc. | Learning-based estimation of hand and finger pose |
JP2013061552A (ja) * | 2011-09-14 | 2013-04-04 | Ricoh Co Ltd | プロジェクタ装置および操作検出方法 |
JP5834690B2 (ja) * | 2011-09-22 | 2015-12-24 | カシオ計算機株式会社 | 投影装置、投影制御方法及びプログラム |
US9557836B2 (en) | 2011-11-01 | 2017-01-31 | Microsoft Technology Licensing, Llc | Depth image compression |
US9117281B2 (en) | 2011-11-02 | 2015-08-25 | Microsoft Corporation | Surface segmentation from RGB and depth images |
US8854426B2 (en) | 2011-11-07 | 2014-10-07 | Microsoft Corporation | Time-of-flight camera with guided light |
US9106903B2 (en) * | 2011-11-18 | 2015-08-11 | Zspace, Inc. | Head tracking eyewear system |
US8724906B2 (en) | 2011-11-18 | 2014-05-13 | Microsoft Corporation | Computing pose and/or shape of modifiable entities |
US8509545B2 (en) | 2011-11-29 | 2013-08-13 | Microsoft Corporation | Foreground subject detection |
US8803800B2 (en) | 2011-12-02 | 2014-08-12 | Microsoft Corporation | User interface control based on head orientation |
US8635637B2 (en) | 2011-12-02 | 2014-01-21 | Microsoft Corporation | User interface presenting an animated avatar performing a media reaction |
US9100685B2 (en) | 2011-12-09 | 2015-08-04 | Microsoft Technology Licensing, Llc | Determining audience state or interest using passive sensor data |
JP2015504204A (ja) * | 2011-12-13 | 2015-02-05 | アルカテル−ルーセント | コンピュータアプリケーションの対話型制御の方法 |
US8630457B2 (en) | 2011-12-15 | 2014-01-14 | Microsoft Corporation | Problem states for pose tracking pipeline |
US8971612B2 (en) | 2011-12-15 | 2015-03-03 | Microsoft Corporation | Learning image processing tasks from scene reconstructions |
US8879831B2 (en) | 2011-12-15 | 2014-11-04 | Microsoft Corporation | Using high-level attributes to guide image processing |
US8811938B2 (en) | 2011-12-16 | 2014-08-19 | Microsoft Corporation | Providing a user interface experience based on inferred vehicle state |
US9342139B2 (en) | 2011-12-19 | 2016-05-17 | Microsoft Technology Licensing, Llc | Pairing a computing device to a user |
US9720089B2 (en) | 2012-01-23 | 2017-08-01 | Microsoft Technology Licensing, Llc | 3D zoom imager |
US9229534B2 (en) | 2012-02-28 | 2016-01-05 | Apple Inc. | Asymmetric mapping for tactile and non-tactile user interfaces |
CN107665042B (zh) | 2012-03-26 | 2021-05-07 | 苹果公司 | 增强的虚拟触摸板和触摸屏 |
JP5550670B2 (ja) * | 2012-03-28 | 2014-07-16 | 株式会社デンソーアイティーラボラトリ | 情報処理装置 |
US8898687B2 (en) | 2012-04-04 | 2014-11-25 | Microsoft Corporation | Controlling a media program based on a media reaction |
US9025111B2 (en) | 2012-04-20 | 2015-05-05 | Google Inc. | Seamless display panel using fiber optic carpet |
US20130285919A1 (en) * | 2012-04-25 | 2013-10-31 | Sony Computer Entertainment Inc. | Interactive video system |
US9183676B2 (en) | 2012-04-27 | 2015-11-10 | Microsoft Technology Licensing, Llc | Displaying a collision between real and virtual objects |
CN102637397B (zh) * | 2012-05-02 | 2014-07-23 | 大连工业大学 | 一种具有照明功能的互动媒体设施 |
US9047507B2 (en) | 2012-05-02 | 2015-06-02 | Apple Inc. | Upper-body skeleton extraction from depth maps |
US9210401B2 (en) | 2012-05-03 | 2015-12-08 | Microsoft Technology Licensing, Llc | Projected visual cues for guiding physical movement |
CA2775700C (en) | 2012-05-04 | 2013-07-23 | Microsoft Corporation | Determining a future portion of a currently presented media program |
IL219639A (en) | 2012-05-08 | 2016-04-21 | Israel Aerospace Ind Ltd | Remote object tracking |
KR20130140295A (ko) * | 2012-06-14 | 2013-12-24 | 엘지이노텍 주식회사 | 거리측정 장치 및 방법 |
US9682321B2 (en) * | 2012-06-20 | 2017-06-20 | Microsoft Technology Licensing, Llc | Multiple frame distributed rendering of interactive content |
EP2864961A4 (en) | 2012-06-21 | 2016-03-23 | Microsoft Technology Licensing Llc | AVATAR CONSTRUCTION USING A DEPTH CAMERA |
US9836590B2 (en) | 2012-06-22 | 2017-12-05 | Microsoft Technology Licensing, Llc | Enhanced accuracy of user presence status determination |
SE1200428A1 (sv) * | 2012-07-09 | 2012-10-22 | Electrolux Ab | Anordning för köket |
US20140018169A1 (en) * | 2012-07-16 | 2014-01-16 | Zhong Yuan Ran | Self as Avatar Gaming with Video Projecting Device |
US9696427B2 (en) | 2012-08-14 | 2017-07-04 | Microsoft Technology Licensing, Llc | Wide angle depth detection |
KR20140029864A (ko) * | 2012-08-30 | 2014-03-11 | 삼성디스플레이 주식회사 | 표시 장치 및 이를 이용한 에어 터치 인식 방법 및 이를 이용한 입체 영상 표시 방법 |
US8933970B2 (en) * | 2012-09-11 | 2015-01-13 | Longsand Limited | Controlling an augmented reality object |
TWI590099B (zh) * | 2012-09-27 | 2017-07-01 | 緯創資通股份有限公司 | 互動系統及移動偵測方法 |
US9195320B1 (en) | 2012-10-22 | 2015-11-24 | Google Inc. | Method and apparatus for dynamic signage using a painted surface display system |
US9014417B1 (en) | 2012-10-22 | 2015-04-21 | Google Inc. | Method and apparatus for themes using photo-active surface paint |
US9164596B1 (en) | 2012-10-22 | 2015-10-20 | Google Inc. | Method and apparatus for gesture interaction with a photo-active painted surface |
US9833707B2 (en) * | 2012-10-29 | 2017-12-05 | Sony Interactive Entertainment Inc. | Ambient light control and calibration via a console |
US9019267B2 (en) | 2012-10-30 | 2015-04-28 | Apple Inc. | Depth mapping with enhanced resolution |
US8882310B2 (en) | 2012-12-10 | 2014-11-11 | Microsoft Corporation | Laser die light source module with low inductance |
TW201423484A (zh) | 2012-12-14 | 2014-06-16 | Pixart Imaging Inc | 動態偵測系統 |
TWI454968B (zh) | 2012-12-24 | 2014-10-01 | Ind Tech Res Inst | 三維互動裝置及其操控方法 |
US9857470B2 (en) | 2012-12-28 | 2018-01-02 | Microsoft Technology Licensing, Llc | Using photometric stereo for 3D environment modeling |
WO2014111923A1 (en) | 2013-01-15 | 2014-07-24 | Israel Aerospace Industries Ltd | Remote tracking of objects |
IL224273B (en) | 2013-01-17 | 2018-05-31 | Cohen Yossi | Delay compensation during remote sensor control |
US10327708B2 (en) | 2013-01-24 | 2019-06-25 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US9717461B2 (en) | 2013-01-24 | 2017-08-01 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US9251590B2 (en) | 2013-01-24 | 2016-02-02 | Microsoft Technology Licensing, Llc | Camera pose estimation for 3D reconstruction |
US9305365B2 (en) | 2013-01-24 | 2016-04-05 | Kineticor, Inc. | Systems, devices, and methods for tracking moving targets |
US9782141B2 (en) | 2013-02-01 | 2017-10-10 | Kineticor, Inc. | Motion tracking system for real time adaptive motion compensation in biomedical imaging |
US9052746B2 (en) | 2013-02-15 | 2015-06-09 | Microsoft Technology Licensing, Llc | User center-of-mass and mass distribution extraction using depth images |
US9940553B2 (en) | 2013-02-22 | 2018-04-10 | Microsoft Technology Licensing, Llc | Camera/object pose from predicted coordinates |
US10134267B2 (en) | 2013-02-22 | 2018-11-20 | Universal City Studios Llc | System and method for tracking a passive wand and actuating an effect based on a detected wand path |
US9498885B2 (en) | 2013-02-27 | 2016-11-22 | Rockwell Automation Technologies, Inc. | Recognition-based industrial automation control with confidence-based decision support |
US9798302B2 (en) | 2013-02-27 | 2017-10-24 | Rockwell Automation Technologies, Inc. | Recognition-based industrial automation control with redundant system input support |
US9804576B2 (en) | 2013-02-27 | 2017-10-31 | Rockwell Automation Technologies, Inc. | Recognition-based industrial automation control with position and derivative decision reference |
US9393695B2 (en) | 2013-02-27 | 2016-07-19 | Rockwell Automation Technologies, Inc. | Recognition-based industrial automation control with person and object discrimination |
US9524028B2 (en) | 2013-03-08 | 2016-12-20 | Fastvdo Llc | Visual language for human computer interfaces |
US9135516B2 (en) | 2013-03-08 | 2015-09-15 | Microsoft Technology Licensing, Llc | User body angle, curvature and average extremity positions extraction using depth images |
US9092657B2 (en) | 2013-03-13 | 2015-07-28 | Microsoft Technology Licensing, Llc | Depth image processing |
US9274606B2 (en) | 2013-03-14 | 2016-03-01 | Microsoft Technology Licensing, Llc | NUI video conference controls |
CN104076988B (zh) * | 2013-03-27 | 2017-12-01 | 联想(北京)有限公司 | 一种显示方法、显示控制方法及电子设备 |
US9953213B2 (en) | 2013-03-27 | 2018-04-24 | Microsoft Technology Licensing, Llc | Self discovery of autonomous NUI devices |
CN203165407U (zh) * | 2013-04-16 | 2013-08-28 | 宋戈 | 自媒体玻璃橱窗 |
US9442186B2 (en) | 2013-05-13 | 2016-09-13 | Microsoft Technology Licensing, Llc | Interference reduction for TOF systems |
US9829984B2 (en) * | 2013-05-23 | 2017-11-28 | Fastvdo Llc | Motion-assisted visual language for human computer interfaces |
US9356061B2 (en) | 2013-08-05 | 2016-05-31 | Apple Inc. | Image sensor with buried light shield and vertical gate |
CN103455141B (zh) * | 2013-08-15 | 2016-07-06 | 无锡触角科技有限公司 | 互动投影***及其深度传感器和投影仪的校准方法 |
US9778546B2 (en) * | 2013-08-15 | 2017-10-03 | Mep Tech, Inc. | Projector for projecting visible and non-visible images |
US9462253B2 (en) | 2013-09-23 | 2016-10-04 | Microsoft Technology Licensing, Llc | Optical modules that reduce speckle contrast and diffraction artifacts |
US9443310B2 (en) | 2013-10-09 | 2016-09-13 | Microsoft Technology Licensing, Llc | Illumination modules that emit structured light |
US9674563B2 (en) | 2013-11-04 | 2017-06-06 | Rovi Guides, Inc. | Systems and methods for recommending content |
US9769459B2 (en) | 2013-11-12 | 2017-09-19 | Microsoft Technology Licensing, Llc | Power efficient laser diode driver circuit and method |
US9508385B2 (en) | 2013-11-21 | 2016-11-29 | Microsoft Technology Licensing, Llc | Audio-visual project generator |
RU2016124466A (ru) * | 2013-12-27 | 2017-12-25 | Сони Корпорейшн | Устройство управления, способ управления и компьютерная программа |
US9971491B2 (en) | 2014-01-09 | 2018-05-15 | Microsoft Technology Licensing, Llc | Gesture library for natural user input |
US9990046B2 (en) | 2014-03-17 | 2018-06-05 | Oblong Industries, Inc. | Visual collaboration interface |
WO2015148391A1 (en) | 2014-03-24 | 2015-10-01 | Thomas Michael Ernst | Systems, methods, and devices for removing prospective motion correction from medical imaging scans |
CN110996080B (zh) * | 2014-04-22 | 2021-10-08 | 日本电信电话株式会社 | 视频呈现装置、视频呈现方法、以及记录介质 |
US10025990B2 (en) | 2014-05-21 | 2018-07-17 | Universal City Studios Llc | System and method for tracking vehicles in parking structures and intersections |
US10061058B2 (en) | 2014-05-21 | 2018-08-28 | Universal City Studios Llc | Tracking system and method for use in surveying amusement park equipment |
US10207193B2 (en) | 2014-05-21 | 2019-02-19 | Universal City Studios Llc | Optical tracking system for automation of amusement park elements |
US10593113B2 (en) | 2014-07-08 | 2020-03-17 | Samsung Electronics Co., Ltd. | Device and method to display object with visual effect |
US9993733B2 (en) | 2014-07-09 | 2018-06-12 | Lumo Interactive Inc. | Infrared reflective device interactive projection effect system |
US9734589B2 (en) | 2014-07-23 | 2017-08-15 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US9693040B2 (en) | 2014-09-10 | 2017-06-27 | Faro Technologies, Inc. | Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device |
US9602811B2 (en) * | 2014-09-10 | 2017-03-21 | Faro Technologies, Inc. | Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device |
TWI569085B (zh) * | 2014-09-10 | 2017-02-01 | Ophaya Electronics Corp | A projection system with optical image recognition function, a projection device and a projector to be projected |
DE102014013677B4 (de) | 2014-09-10 | 2017-06-22 | Faro Technologies, Inc. | Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und unterteiltem Display |
DE102014013678B3 (de) | 2014-09-10 | 2015-12-03 | Faro Technologies, Inc. | Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten |
EP3219097A4 (en) | 2014-11-13 | 2018-06-27 | Hewlett-Packard Development Company, L.P. | Image projection |
US10321100B2 (en) * | 2014-12-02 | 2019-06-11 | Ademco Inc. | System and method of foreground extraction for digital cameras |
US10122976B2 (en) * | 2014-12-25 | 2018-11-06 | Panasonic Intellectual Property Management Co., Ltd. | Projection device for controlling a position of an image projected on a projection surface |
US10187635B2 (en) | 2014-12-31 | 2019-01-22 | Alt Llc | Method and system for displaying three-dimensional objects |
US9843744B2 (en) * | 2015-01-13 | 2017-12-12 | Disney Enterprises, Inc. | Audience interaction projection system |
US20160216778A1 (en) * | 2015-01-27 | 2016-07-28 | Industrial Technology Research Institute | Interactive projector and operation method thereof for determining depth information of object |
GB201503832D0 (en) * | 2015-03-06 | 2015-04-22 | Compurants Ltd | Inamo big book V3 |
KR20160121287A (ko) * | 2015-04-10 | 2016-10-19 | 삼성전자주식회사 | 이벤트에 기반하여 화면을 디스플레이하는 방법 및 장치 |
US9943247B2 (en) | 2015-07-28 | 2018-04-17 | The University Of Hawai'i | Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan |
IN2015CH03967A (es) | 2015-07-31 | 2015-08-14 | Wipro Ltd | |
US10844457B2 (en) * | 2015-08-17 | 2020-11-24 | Nippon Steel Chemical & Material Co., Ltd. | Ferritic stainless steel foil |
EP3339461A4 (en) * | 2015-08-19 | 2019-01-16 | Nippon Steel & Sumikin Materials Co., Ltd. | STAINLESS STEEL SHEET |
WO2017091479A1 (en) | 2015-11-23 | 2017-06-01 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US10043279B1 (en) | 2015-12-07 | 2018-08-07 | Apple Inc. | Robust detection and classification of body parts in a depth map |
US10412280B2 (en) | 2016-02-10 | 2019-09-10 | Microsoft Technology Licensing, Llc | Camera with light valve over sensor array |
US10257932B2 (en) | 2016-02-16 | 2019-04-09 | Microsoft Technology Licensing, Llc. | Laser diode chip on printed circuit board |
US10462452B2 (en) | 2016-03-16 | 2019-10-29 | Microsoft Technology Licensing, Llc | Synchronizing active illumination cameras |
CA3021079A1 (en) | 2016-04-21 | 2017-10-26 | Magic Leap, Inc. | Visual aura around field of view |
US10529302B2 (en) | 2016-07-07 | 2020-01-07 | Oblong Industries, Inc. | Spatially mediated augmentations of and interactions among distinct devices and applications via extended pixel manifold |
JP6739059B2 (ja) | 2016-08-30 | 2020-08-12 | パナソニックIpマネジメント株式会社 | 照明装置 |
US10366278B2 (en) | 2016-09-20 | 2019-07-30 | Apple Inc. | Curvature-based face detector |
KR102393299B1 (ko) * | 2017-08-09 | 2022-05-02 | 삼성전자주식회사 | 이미지 처리 방법 및 그에 따른 장치 |
ES2728787B2 (es) * | 2018-04-25 | 2021-02-09 | Defensya Ingenieria Int S L | Sistema y procedimiento para crear, modular y detectar sombras en sistemas con control basado en un sistema de visualizacion remota |
US20200014909A1 (en) | 2018-07-03 | 2020-01-09 | Faro Technologies, Inc. | Handheld three dimensional scanner with autofocus or autoaperture |
US11247099B2 (en) * | 2018-12-05 | 2022-02-15 | Lombro James Ristas | Programmed control of athletic training drills |
US10924639B2 (en) | 2019-05-29 | 2021-02-16 | Disney Enterprises, Inc. | System and method for polarization and wavelength gated transparent displays |
JP7414707B2 (ja) * | 2020-12-18 | 2024-01-16 | トヨタ自動車株式会社 | 画像表示システム |
RU2760179C1 (ru) * | 2021-01-20 | 2021-11-22 | Виктор Александрович Епифанов | Система дополненной реальности |
CN114973333B (zh) * | 2022-07-13 | 2023-07-25 | 北京百度网讯科技有限公司 | 人物交互检测方法、装置、设备以及存储介质 |
Family Cites Families (136)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5794672A (en) | 1980-12-05 | 1982-06-12 | Hitachi Ltd | Method for inspecting whether parts are present or not |
DE3176016D1 (en) | 1980-12-30 | 1987-04-23 | Ibm | System for remotely displaying and sensing information using shadow parallax |
JPS59182688A (ja) | 1983-03-31 | 1984-10-17 | Toshiba Corp | ステレオ視処理装置 |
GB8421783D0 (en) | 1984-08-29 | 1984-10-03 | Atomic Energy Authority Uk | Stereo camera |
US5001558A (en) | 1985-06-11 | 1991-03-19 | General Motors Corporation | Night vision system with color video camera |
US4843568A (en) * | 1986-04-11 | 1989-06-27 | Krueger Myron W | Real time perception of and response to the actions of an unencumbered participant/user |
US4887898A (en) | 1988-04-13 | 1989-12-19 | Rowe Furniture Corporation | Fabric projection system |
US4948371A (en) | 1989-04-25 | 1990-08-14 | The United States Of America As Represented By The United States Department Of Energy | System for training and evaluation of security personnel in use of firearms |
CA2030139C (en) | 1989-11-20 | 2002-04-23 | David M. Durlach | 3-d amusement and display device |
CA2040273C (en) * | 1990-04-13 | 1995-07-18 | Kazu Horiuchi | Image displaying system |
US5138304A (en) * | 1990-08-02 | 1992-08-11 | Hewlett-Packard Company | Projected image light pen |
US5239373A (en) * | 1990-12-26 | 1993-08-24 | Xerox Corporation | Video computational shared drawing space |
US5534917A (en) * | 1991-05-09 | 1996-07-09 | Very Vivid, Inc. | Video image based control system |
US5325473A (en) * | 1991-10-11 | 1994-06-28 | The Walt Disney Company | Apparatus and method for projection upon a three-dimensional object |
US5861881A (en) | 1991-11-25 | 1999-01-19 | Actv, Inc. | Interactive computer system for providing an interactive presentation with personalized video, audio and graphics responses for multiple viewers |
US5444462A (en) * | 1991-12-16 | 1995-08-22 | Wambach; Mark L. | Computer mouse glove with remote communication |
EP0553700B1 (de) | 1992-01-29 | 1997-06-04 | Deutsche Thomson-Brandt GmbH | Videokamera, wahlweise als Projektor betreibbar |
US5982352A (en) * | 1992-09-18 | 1999-11-09 | Pryor; Timothy R. | Method for providing human input to a computer |
US6008800A (en) | 1992-09-18 | 1999-12-28 | Pryor; Timothy R. | Man machine interfaces for entering data into a computer |
US5436639A (en) * | 1993-03-16 | 1995-07-25 | Hitachi, Ltd. | Information processing system |
JPH07135623A (ja) | 1993-10-27 | 1995-05-23 | Kinseki Ltd | 網膜直接表示装置 |
US5510828A (en) * | 1994-03-01 | 1996-04-23 | Lutterbach; R. Steven | Interactive video display system |
US5426474A (en) | 1994-03-22 | 1995-06-20 | Innersense, Inc. | Light projection system using randomized fiber optic bundle |
US5528263A (en) * | 1994-06-15 | 1996-06-18 | Daniel M. Platzker | Interactive projected video image display system |
US5682468A (en) * | 1995-01-23 | 1997-10-28 | Intergraph Corporation | OLE for design and modeling |
US5548694A (en) | 1995-01-31 | 1996-08-20 | Mitsubishi Electric Information Technology Center America, Inc. | Collision avoidance system for voxel-based object representation |
JP3539788B2 (ja) * | 1995-04-21 | 2004-07-07 | パナソニック モバイルコミュニケーションズ株式会社 | 画像間対応付け方法 |
US5633691A (en) | 1995-06-07 | 1997-05-27 | Nview Corporation | Stylus position sensing and digital camera with a digital micromirror device |
US5882204A (en) * | 1995-07-13 | 1999-03-16 | Dennis J. Lannazzo | Football interactive simulation trainer |
US5591972A (en) * | 1995-08-03 | 1997-01-07 | Illumination Technologies, Inc. | Apparatus for reading optical information |
US5574511A (en) | 1995-10-18 | 1996-11-12 | Polaroid Corporation | Background replacement for an image |
US6308565B1 (en) * | 1995-11-06 | 2001-10-30 | Impulse Technology Ltd. | System and method for tracking and assessing movement skills in multidimensional space |
US6176782B1 (en) * | 1997-12-22 | 2001-01-23 | Philips Electronics North America Corp. | Motion-based command generation technology |
US5828485A (en) | 1996-02-07 | 1998-10-27 | Light & Sound Design Ltd. | Programmable light beam shape altering device using programmable micromirrors |
US6084979A (en) * | 1996-06-20 | 2000-07-04 | Carnegie Mellon University | Method for creating virtual reality |
US6400374B2 (en) * | 1996-09-18 | 2002-06-04 | Eyematic Interfaces, Inc. | Video superposition system and method |
US5969754A (en) | 1996-12-09 | 1999-10-19 | Zeman; Herbert D. | Contrast enhancing illuminator |
US6118888A (en) | 1997-02-28 | 2000-09-12 | Kabushiki Kaisha Toshiba | Multi-modal interface apparatus and method |
DE19708240C2 (de) | 1997-02-28 | 1999-10-14 | Siemens Ag | Anordnung und Verfahren zur Detektion eines Objekts in einem von Wellen im nichtsichtbaren Spektralbereich angestrahlten Bereich |
US6088612A (en) | 1997-04-04 | 2000-07-11 | Medtech Research Corporation | Method and apparatus for reflective glare removal in digital photography useful in cervical cancer detection |
US6058397A (en) | 1997-04-08 | 2000-05-02 | Mitsubishi Electric Information Technology Center America, Inc. | 3D virtual environment creation management and delivery system |
JPH10334270A (ja) * | 1997-05-28 | 1998-12-18 | Mitsubishi Electric Corp | 動作認識装置及び動作認識プログラムを記録した記録媒体 |
US6075895A (en) * | 1997-06-20 | 2000-06-13 | Holoplex | Methods and apparatus for gesture recognition based on templates |
JP3968477B2 (ja) * | 1997-07-07 | 2007-08-29 | ソニー株式会社 | 情報入力装置及び情報入力方法 |
JP2942222B2 (ja) * | 1997-08-11 | 1999-08-30 | 株式会社つくばソフト研究所 | カラー画像及び濃淡画像の通信装置 |
US6720949B1 (en) * | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
JP3795647B2 (ja) | 1997-10-29 | 2006-07-12 | 株式会社竹中工務店 | ハンドポインティング装置 |
JP3794180B2 (ja) * | 1997-11-11 | 2006-07-05 | セイコーエプソン株式会社 | 座標入力システム及び座標入力装置 |
US6166744A (en) * | 1997-11-26 | 2000-12-26 | Pathfinder Systems, Inc. | System for combining virtual images with real-world scenes |
US6611241B1 (en) | 1997-12-02 | 2003-08-26 | Sarnoff Corporation | Modular display system |
US6388657B1 (en) | 1997-12-31 | 2002-05-14 | Anthony James Francis Natoli | Virtual reality keyboard system and method |
US6198844B1 (en) | 1998-01-28 | 2001-03-06 | Konica Corporation | Image processing apparatus |
US6349301B1 (en) | 1998-02-24 | 2002-02-19 | Microsoft Corporation | Virtual environment bystander updating in client server architecture |
US6266053B1 (en) | 1998-04-03 | 2001-07-24 | Synapix, Inc. | Time inheritance scene graph for representation of media content |
JP3970520B2 (ja) * | 1998-04-13 | 2007-09-05 | アイマティック・インターフェイシズ・インコーポレイテッド | 人間の姿を与えたものを動画化するためのウェーブレットに基づく顔の動きの捕捉 |
US6263339B1 (en) | 1998-08-25 | 2001-07-17 | Informix Software, Inc. | Dynamic object visualization and code generation |
JP2000163196A (ja) | 1998-09-25 | 2000-06-16 | Sanyo Electric Co Ltd | ジェスチャ認識装置及びジェスチャ認識機能を有する指示認識装置 |
DE19845030A1 (de) | 1998-09-30 | 2000-04-20 | Siemens Ag | Bildsystem |
US6501515B1 (en) * | 1998-10-13 | 2002-12-31 | Sony Corporation | Remote control system |
US6106119A (en) | 1998-10-16 | 2000-08-22 | The Board Of Trustees Of The Leland Stanford Junior University | Method for presenting high level interpretations of eye tracking data correlated to saved display images |
AU1930700A (en) * | 1998-12-04 | 2000-06-26 | Interval Research Corporation | Background estimation and segmentation based on range and color |
GB9902235D0 (en) | 1999-02-01 | 1999-03-24 | Emuse Corp | Interactive system |
US6333735B1 (en) | 1999-03-16 | 2001-12-25 | International Business Machines Corporation | Method and apparatus for mouse positioning device based on infrared light sources and detectors |
JP3644295B2 (ja) | 1999-03-17 | 2005-04-27 | セイコーエプソン株式会社 | 投写型表示装置 |
US6292171B1 (en) | 1999-03-31 | 2001-09-18 | Seiko Epson Corporation | Method and apparatus for calibrating a computer-generated projected image |
US6614422B1 (en) * | 1999-11-04 | 2003-09-02 | Canesta, Inc. | Method and apparatus for entering data using a virtual input device |
US6545706B1 (en) | 1999-07-30 | 2003-04-08 | Electric Planet, Inc. | System, method and article of manufacture for tracking a head of a camera-generated image of a person |
JP3905670B2 (ja) | 1999-09-10 | 2007-04-18 | 株式会社リコー | 座標入力検出装置、情報記憶媒体及び座標入力検出方法 |
US6826727B1 (en) | 1999-11-24 | 2004-11-30 | Bitstream Inc. | Apparatus, methods, programming for automatically laying out documents |
JP3760068B2 (ja) * | 1999-12-02 | 2006-03-29 | 本田技研工業株式会社 | 画像認識装置 |
GB2356996A (en) | 1999-12-03 | 2001-06-06 | Hewlett Packard Co | Improvements to digital cameras |
JP4332964B2 (ja) * | 1999-12-21 | 2009-09-16 | ソニー株式会社 | 情報入出力システム及び情報入出力方法 |
WO2001056010A1 (en) * | 2000-01-26 | 2001-08-02 | New York University | Method and system for facilitating wireless, full-body, real-time user interaction with digitally generated text data |
AU2001249994A1 (en) | 2000-02-25 | 2001-09-03 | Interval Research Corporation | Method and system for selecting advertisements |
JP3842515B2 (ja) * | 2000-03-24 | 2006-11-08 | セイコーエプソン株式会社 | 多重解像度画像解析による指示位置検出 |
JP4402262B2 (ja) | 2000-06-07 | 2010-01-20 | オリンパス株式会社 | プリンタ装置及び電子カメラ |
US7149262B1 (en) | 2000-07-06 | 2006-12-12 | The Trustees Of Columbia University In The City Of New York | Method and apparatus for enhancing data resolution |
US7227526B2 (en) * | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
JP4666808B2 (ja) * | 2000-07-27 | 2011-04-06 | キヤノン株式会社 | 画像表示システム、画像表示方法、及び記憶媒体、プログラム |
US6754370B1 (en) | 2000-08-14 | 2004-06-22 | The Board Of Trustees Of The Leland Stanford Junior University | Real-time structured light range scanning of moving scenes |
US7103838B1 (en) | 2000-08-18 | 2006-09-05 | Firstrain, Inc. | Method and apparatus for extracting relevant data |
US6707444B1 (en) | 2000-08-18 | 2004-03-16 | International Business Machines Corporation | Projector and camera arrangement with shared optics and optical marker for use with whiteboard systems |
US6654734B1 (en) | 2000-08-30 | 2003-11-25 | International Business Machines Corporation | System and method for query processing and optimization for XML repositories |
US7058204B2 (en) | 2000-10-03 | 2006-06-06 | Gesturetek, Inc. | Multiple camera control system |
JP3467017B2 (ja) * | 2000-11-30 | 2003-11-17 | キヤノン株式会社 | 位置姿勢の決定方法及び装置並びに記憶媒体 |
US6431711B1 (en) * | 2000-12-06 | 2002-08-13 | International Business Machines Corporation | Multiple-surface display projector with interactive input capability |
JP2002222424A (ja) | 2001-01-29 | 2002-08-09 | Nec Corp | 指紋照合システム |
US6621483B2 (en) | 2001-03-16 | 2003-09-16 | Agilent Technologies, Inc. | Optical screen pointing device with inertial properties |
US20020178440A1 (en) * | 2001-03-28 | 2002-11-28 | Philips Electronics North America Corp. | Method and apparatus for automatically selecting an alternate item based on user behavior |
US6912313B2 (en) | 2001-05-31 | 2005-06-28 | Sharp Laboratories Of America, Inc. | Image background replacement method |
US7259747B2 (en) | 2001-06-05 | 2007-08-21 | Reactrix Systems, Inc. | Interactive video display system |
US8300042B2 (en) | 2001-06-05 | 2012-10-30 | Microsoft Corporation | Interactive video display system using strobed light |
EP1689172B1 (en) | 2001-06-05 | 2016-03-09 | Microsoft Technology Licensing, LLC | Interactive video display system |
US8035612B2 (en) | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
US7190832B2 (en) | 2001-07-17 | 2007-03-13 | Amnis Corporation | Computational methods for the segmentation of images of objects from background in a flow imaging instrument |
US7274800B2 (en) | 2001-07-18 | 2007-09-25 | Intel Corporation | Dynamic gesture recognition from stereo sequences |
US7068274B2 (en) | 2001-08-15 | 2006-06-27 | Mitsubishi Electric Research Laboratories, Inc. | System and method for animating real objects with projected images |
JP2003173237A (ja) | 2001-09-28 | 2003-06-20 | Ricoh Co Ltd | 情報入出力システム、プログラム及び記憶媒体 |
US8561095B2 (en) * | 2001-11-13 | 2013-10-15 | Koninklijke Philips N.V. | Affective television monitoring and control in response to physiological data |
US7006055B2 (en) | 2001-11-29 | 2006-02-28 | Hewlett-Packard Development Company, L.P. | Wireless multi-user multi-projector presentation system |
US7307636B2 (en) | 2001-12-26 | 2007-12-11 | Eastman Kodak Company | Image format including affective information |
US20030128389A1 (en) | 2001-12-26 | 2003-07-10 | Eastman Kodak Company | Method for creating and using affective information in a digital imaging system cross reference to related applications |
JP4027118B2 (ja) | 2002-02-25 | 2007-12-26 | 富士通株式会社 | 本人認証方法、プログラム及び装置 |
US6607275B1 (en) | 2002-03-20 | 2003-08-19 | The Neiman Marcus Group, Inc. | Merchandise display case and system |
US6707054B2 (en) | 2002-03-21 | 2004-03-16 | Eastman Kodak Company | Scannerless range imaging system having high dynamic range |
US6831664B2 (en) | 2002-03-22 | 2004-12-14 | Koninklijke Philips Electronics N.V. | Low cost interactive program control system and method |
US7710391B2 (en) | 2002-05-28 | 2010-05-04 | Matthew Bell | Processing an image utilizing a spatially varying pattern |
US7170492B2 (en) | 2002-05-28 | 2007-01-30 | Reactrix Systems, Inc. | Interactive video display system |
US7348963B2 (en) | 2002-05-28 | 2008-03-25 | Reactrix Systems, Inc. | Interactive video display system |
US20050122308A1 (en) | 2002-05-28 | 2005-06-09 | Matthew Bell | Self-contained interactive video display system |
EP1552427A4 (en) | 2002-06-13 | 2009-12-16 | Mark Logic Corp | PARENT-CHILD QUERY INDEX FOR XML DATA BANKS |
US7574652B2 (en) | 2002-06-20 | 2009-08-11 | Canon Kabushiki Kaisha | Methods for interactively defining transforms and for generating queries by manipulating existing query data |
WO2004055776A1 (en) | 2002-12-13 | 2004-07-01 | Reactrix Systems | Interactive directed light/sound system |
US7576727B2 (en) | 2002-12-13 | 2009-08-18 | Matthew Bell | Interactive directed light/sound system |
US6999600B2 (en) | 2003-01-30 | 2006-02-14 | Objectvideo, Inc. | Video scene background maintenance using change detection and classification |
JP4068622B2 (ja) | 2003-04-25 | 2008-03-26 | 富士通株式会社 | 指紋照合装置、指紋照合方法および指紋照合プログラム |
CA2429880C (en) | 2003-05-27 | 2009-07-07 | York University | Collaborative pointing devices |
FR2856963B1 (fr) | 2003-07-03 | 2006-09-01 | Antolin Grupo Ing Sa | Siege de vehicule automobile |
WO2005041579A2 (en) | 2003-10-24 | 2005-05-06 | Reactrix Systems, Inc. | Method and system for processing captured image information in an interactive video display system |
JP4794453B2 (ja) | 2003-10-24 | 2011-10-19 | インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー | インタラクティブ・ビデオ・ディスプレイ・システムを管理する方法及びシステム |
US7681114B2 (en) | 2003-11-21 | 2010-03-16 | Bridgeborn, Llc | Method of authoring, deploying and using interactive, data-driven two or more dimensional content |
WO2005091651A2 (en) | 2004-03-18 | 2005-09-29 | Reactrix Systems, Inc. | Interactive video display system |
CN100573548C (zh) | 2004-04-15 | 2009-12-23 | 格斯图尔泰克股份有限公司 | 跟踪双手运动的方法和设备 |
US7382897B2 (en) | 2004-04-27 | 2008-06-03 | Microsoft Corporation | Multi-image feature matching using multi-scale oriented patches |
US7394459B2 (en) | 2004-04-29 | 2008-07-01 | Microsoft Corporation | Interaction between objects and a virtual environment display |
US20050265587A1 (en) | 2004-06-01 | 2005-12-01 | Schneider John K | Fingerprint image database and method of matching fingerprint sample to fingerprint images |
US7330584B2 (en) | 2004-10-14 | 2008-02-12 | Sony Corporation | Image processing apparatus and method |
WO2006081428A2 (en) | 2005-01-27 | 2006-08-03 | Symyx Technologies, Inc. | Parser for generating structure data |
US20060184993A1 (en) | 2005-02-15 | 2006-08-17 | Goldthwaite Flora P | Method and system for collecting and using data |
US7570249B2 (en) | 2005-03-30 | 2009-08-04 | Microsoft Corporation | Responding to change of state of control on device disposed on an interactive display surface |
US7428542B1 (en) | 2005-05-31 | 2008-09-23 | Reactrix Systems, Inc. | Method and system for combining nodes into a mega-node |
WO2008124820A1 (en) | 2007-04-10 | 2008-10-16 | Reactrix Systems, Inc. | Display using a three dimensional vision system |
US8230367B2 (en) | 2007-09-14 | 2012-07-24 | Intellectual Ventures Holding 67 Llc | Gesture-based user interactions with status indicators for acceptable inputs in volumetric zones |
US8159682B2 (en) | 2007-11-12 | 2012-04-17 | Intellectual Ventures Holding 67 Llc | Lens system |
US20100039500A1 (en) | 2008-02-15 | 2010-02-18 | Matthew Bell | Self-Contained 3D Vision System Utilizing Stereo Camera and Patterned Illuminator |
US8259163B2 (en) | 2008-03-07 | 2012-09-04 | Intellectual Ventures Holding 67 Llc | Display with built in 3D sensing |
-
2002
- 2002-05-28 US US10/160,217 patent/US7259747B2/en not_active Expired - Lifetime
- 2002-06-04 BR BR0210162-9A patent/BR0210162A/pt not_active IP Right Cessation
- 2002-06-04 CA CA2449300A patent/CA2449300C/en not_active Expired - Lifetime
- 2002-06-04 AT AT02739710T patent/ATE336860T1/de not_active IP Right Cessation
- 2002-06-04 KR KR1020037015990A patent/KR100847795B1/ko active IP Right Grant
- 2002-06-04 DE DE60213975T patent/DE60213975T2/de not_active Expired - Lifetime
- 2002-06-04 CN CN201010266853.1A patent/CN102033608B/zh not_active Expired - Lifetime
- 2002-06-04 MX MXPA03011203A patent/MXPA03011203A/es unknown
- 2002-06-04 CN CN028152069A patent/CN1582567B/zh not_active Expired - Lifetime
- 2002-06-04 RU RU2003137846/09A patent/RU2298294C2/ru not_active IP Right Cessation
- 2002-06-04 EP EP02739710A patent/EP1393549B1/en not_active Revoked
- 2002-06-04 WO PCT/US2002/017843 patent/WO2002100094A2/en active IP Right Grant
- 2002-06-04 IL IL15920702A patent/IL159207A0/xx unknown
- 2002-06-04 JP JP2003501936A patent/JP4077787B2/ja not_active Expired - Lifetime
- 2002-06-04 ES ES02739710T patent/ES2271272T3/es not_active Expired - Lifetime
-
2006
- 2006-08-21 US US11/507,976 patent/US7834846B1/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
EP1393549B1 (en) | 2006-08-16 |
DE60213975D1 (de) | 2006-09-28 |
BR0210162A (pt) | 2004-04-27 |
ATE336860T1 (de) | 2006-09-15 |
CN102033608B (zh) | 2014-02-12 |
JP4077787B2 (ja) | 2008-04-23 |
CN1582567B (zh) | 2010-10-13 |
KR20040029998A (ko) | 2004-04-08 |
CA2449300A1 (en) | 2002-12-12 |
RU2298294C2 (ru) | 2007-04-27 |
RU2003137846A (ru) | 2005-05-27 |
CN102033608A (zh) | 2011-04-27 |
US7259747B2 (en) | 2007-08-21 |
EP1393549A2 (en) | 2004-03-03 |
WO2002100094A3 (en) | 2003-05-22 |
MXPA03011203A (es) | 2004-10-28 |
KR100847795B1 (ko) | 2008-07-23 |
CN1582567A (zh) | 2005-02-16 |
US20020186221A1 (en) | 2002-12-12 |
CA2449300C (en) | 2013-04-23 |
WO2002100094A2 (en) | 2002-12-12 |
DE60213975T2 (de) | 2007-02-15 |
JP2005500719A (ja) | 2005-01-06 |
US7834846B1 (en) | 2010-11-16 |
IL159207A0 (en) | 2004-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2271272T3 (es) | Sistema de visualizacion de video interactivo. | |
US8300042B2 (en) | Interactive video display system using strobed light | |
EP1689172B1 (en) | Interactive video display system | |
US10990189B2 (en) | Processing of gesture-based user interaction using volumetric zones | |
JP5879353B2 (ja) | 頭の位置及び向きのトラッキング | |
CN105027190A (zh) | 用于虚拟或增强介导视觉的射出空间成像数字眼镜 | |
JP2009037620A (ja) | 三次元バーチャルインプットとシミュレートの装置 | |
CN107102736A (zh) | 实现增强现实的方法 | |
Sueishi et al. | Lumipen 2: Dynamic projection mapping with mirror-based robust high-speed tracking against illumination changes | |
Poulsen et al. | Controlling urban lighting by human motion patterns results from a full scale experiment | |
ES2332561B1 (es) | Sistema de inmersion visual interactiva. | |
KR20120114767A (ko) | 사물 투척형 게임 디스플레이 시스템 및 그 방법 | |
AU2002312346A1 (en) | Interactive video display system | |
JP2018163566A (ja) | 生成装置及び情報処理システム |