DE60213975T2 - Interaktives video-anzeigesystem - Google Patents
Interaktives video-anzeigesystem Download PDFInfo
- Publication number
- DE60213975T2 DE60213975T2 DE60213975T DE60213975T DE60213975T2 DE 60213975 T2 DE60213975 T2 DE 60213975T2 DE 60213975 T DE60213975 T DE 60213975T DE 60213975 T DE60213975 T DE 60213975T DE 60213975 T2 DE60213975 T2 DE 60213975T2
- Authority
- DE
- Germany
- Prior art keywords
- image
- virtual element
- influence
- detected
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 230000002452 interceptive effect Effects 0.000 title abstract description 11
- 230000003993 interaction Effects 0.000 claims abstract description 21
- 238000012545 processing Methods 0.000 claims abstract description 20
- 230000000694 effects Effects 0.000 claims abstract description 16
- 238000005286 illumination Methods 0.000 claims abstract description 13
- 238000000034 method Methods 0.000 claims description 47
- 238000001514 detection method Methods 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 5
- 230000007704 transition Effects 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000001429 visible spectrum Methods 0.000 claims description 3
- 230000003044 adaptive effect Effects 0.000 claims 2
- 238000009877 rendering Methods 0.000 claims 1
- 238000000926 separation method Methods 0.000 claims 1
- 230000033001 locomotion Effects 0.000 abstract description 23
- 230000009471 action Effects 0.000 abstract description 6
- 238000009434 installation Methods 0.000 abstract 1
- 238000004422 calculation algorithm Methods 0.000 description 9
- 238000013459 approach Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 6
- KRQUFUKTQHISJB-YYADALCUSA-N 2-[(E)-N-[2-(4-chlorophenoxy)propoxy]-C-propylcarbonimidoyl]-3-hydroxy-5-(thian-3-yl)cyclohex-2-en-1-one Chemical compound CCC\C(=N/OCC(C)OC1=CC=C(Cl)C=C1)C1=C(O)CC(CC1=O)C1CCCSC1 KRQUFUKTQHISJB-YYADALCUSA-N 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 102100031680 Beta-catenin-interacting protein 1 Human genes 0.000 description 1
- 208000001613 Gambling Diseases 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 101000993469 Homo sapiens Beta-catenin-interacting protein 1 Proteins 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 125000003118 aryl group Chemical group 0.000 description 1
- 230000000386 athletic effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000003623 enhancer Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 229920000642 polymer Polymers 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/20—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/14—Details
- G03B21/26—Projecting separately subsidiary matter simultaneously with main image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1012—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1087—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
- A63F2300/1093—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/69—Involving elements of the real world in the game world, e.g. measurement in live races, real video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/33—Transforming infrared radiation
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Details Of Television Systems (AREA)
- Position Input By Displaying (AREA)
Description
- Die vorliegende Erfindung betrifft allgemein Bildverarbeitungssysteme und im Besonderen ein System zum Empfangen und Verarbeiten eines Bilds eines menschlichen Benutzers, um eine Interaktion mit Videoanzeigen zu ermöglichen.
- Die Bildverarbeitung kommt in vielen Bereichen der Analyse, der Bildung, des Handels und der Unterhaltung zum Einsatz. Ein Aspekt der Bildverarbeitung beinhaltet die Interaktion zwischen Mensch und Computer, indem menschliche Formen und Bewegungen detektiert werden, um eine Interaktion mit Bildern zu ermöglichen. Anwendungen einer derartigen Verarbeitung können effiziente oder unterhaltende Methoden der Interaktion mit Bildern einsetzen, um digitale Formen oder Daten zu definieren, um Objekte zu animieren, um ausdrucksstarke Formen zu erzeugen, etc.
- Das Detektieren der Position und der Bewegung eines menschlichen Körpers wird als „Bewegtbildaufzeichnung" oder auf Englisch als „Motion Capture" bezeichnet. Bei den Techniken der Bewegtbildaufzeichnung werden mathematische Beschreibungen der Bewegungen eines menschlichen Darstellers in einen Computer oder ein anderes Verarbeitungssystem eingegeben. Natürliche Körperbewegungen können als Eingaben in den Computer verwendet werden, um athletische Bewegungen zu studieren, um Daten zur späteren Wiedergabe oder Simulation zu erfassen bzw. aufzuzeichnen, um die Analyse für medizinische Zwecke zu verbessern, etc.
- Die Bewegtbildaufzeichnung sieht zwar Vorzüge und Vorteile vor, allerdings neigen die Bewegtbildaufzeichnungstechniken zu einer relativen Komplexität. Bestimmte Techniken erfordern es, dass der menschliche Darsteller spezielle Kleidung bzw. Anzüge trägt, die an verschiedenen Stellen Punkte mit hoher Sichtbarkeit aufweisen. Bei anderen Ansätzen werden Hochfrequenzemitter oder andersartige Emitter eingesetzt, mehrere Sensoren und Detektoren, Bluescreens, umfassende Nachbearbeitungen, etc. Techniken, die auf der einfachen Bildaufzeichnung mit sichtbarem Licht basieren, sind für gewöhnlich nicht ausreichend präzise, um eine gut definierte und präzise Bewegtbildaufzeichnung vorzusehen.
- Bestimmte Bewegtbildaufzeichnungsanwendungen ermöglichen es einem Darsteller oder Anwender, mit erzeugten Bildern zu interagieren, die durch ein Computersystem angezeigt werden. Zum Beispiel kann ein Darsteller bzw. Schauspieler vor einer großen Videobildschirmprojektion verschiedener Objekte stehen. Der Schauspieler kann die Objekte unter Verwendung von Körperbewegungen bewegen, oder die Objekte anderweitig erzeugen, modifizieren und manipulieren. Verschiedene Effekte, die auf den Bewegungen eines Schauspielers basieren, können durch das Verarbeitungssystem berechnete und auf dem Anzeigeschirm angezeigt werden. Zum Beispiel kann das Computersystem einen Pfad bzw. Weg des Schauspielers vor dem Anzeigeschirm verfolgen und eine Annäherung oder eine künstlerische Interpretation des Pfads auf dem Anzeigeschirm wiedergeben. Die Bilder, mit denen der Schauspieler bzw. Darsteller interagiert, können zum Beispiel auf dem Boden, an einer and oder einer anderen Oberfläche angezeigt werden; sie können dreidimensional im Raum schweben, sie können auf einem oder mehreren Monitoren, Projektionsschirmen oder anderen Vorrichtungen angezeigt werden. Jede Art von Anzeigevorrichtung oder Technologie kann zur Darstellung von Bildern verwendet werden, mit denen ein Benutzer Steuerungen oder Interaktionen ausführen kann.
- Bei bestimmten Anwendungen, wie etwa an Point-of-Sale-Standorten, an Einzelhandelswerbestandorten, an Promotionstandorten, in Spielotheken bzw. Spielhallen, etc., ist es wünschenswert, die Bewegung eines ungeschulten bzw. ungeübten Benutzers (z.B. eines Passanten) sehr unauffällig bzw. mit sehr wenig Aufwand aufzuzeichnen. Im Idealfall benötigt der Benutzer bzw. Anwender keinerlei besondere Vorbereitung oder Training, und das System verwendet keine übermäßig teure Ausrüstung. Ferner sollten das Verfahren und das System, die für die Bewegtbildaufzeichnung des Schauspielers eingesetzt werden, für den Benutzer unsichtbar und nicht detektierbar sein. Viele Anwendungen in der realen Welt müssen in Umgebungen funktionsfähig sein, die komplexe und sich verändernde Hintergrund- und Vordergrundobjekte aufweisen, kurze Zeitintervalle für die Aufzeichnung, sich verändernde Lichtbedingungen und andere Faktoren, welche die Bewegtbildaufzeichnung schwierig gestalten können.
- Das U.S. Patent US-A-5.969.754 offenbart eine den Kontrast verbessernde Beleuchtungseinrichtung.
- WO98/38533 (Siemens) offenbart ein System, bei dem ein Mauszeiger nicht durch eine herkömmliche Eingabeeinrichtung, wie etwa eine Maus, bewegt wird, sondern durch die Hand eines Benutzers bzw. Anwenders.
- „Traces": Wireless Full Body Tracking in the Cave, von Penny et al., ICAT Virtual Reality Conference, Dezember 1999, Japan, offenbart ein dreidimensionales Körpermodell einer Person in Echtzeit.
- KURZE ZUSAMMENFASSUNG DER ERFINDUNG
- Die vorliegende Erfindung ermöglicht die Interaktion zwischen einem Anwender und einem Computeranzeigesystem unter Verwendung der Bewegung des Benutzers (oder eines anderen Objekts) und der Position als Eingabe in einen Computer. Der Computer erzeugt eine Anzeige, die der Position und der Bewegung des Benutzers entspricht. Die erzeugte Anzeige kann Objekte oder Formen aufweisen, die bewegt, modifiziert oder anderweitig durch die Körperbewegungen eines Benutzers gesteuert werden können.
- In einem bevorzugten Ausführungsbeispiel der Erfindung werden angezeigte Bilder durch Aktionen eines Benutzers in Echtzeit beeinflusst. Die Anzeige kann um den Anwender bzw. Benutzer projiziert werden, so dass die Handlungen bzw. Aktionen des Benutzers Effekte erzeugen, die von dem Benutzer ausstrahlen und Anzeigebereiche in der Nähe des Benutzers beeinflussen. Oder der Benutzer kann Videoobjekte beeinflussen, indem er Elemente in Videobildern tritt, schiebt, bewegt, verformt, berührt, etc. Die Interferenz zwischen dem zum Anzeigen interaktiver Bilder verwendeten Licht und dem Licht, das zum Detektieren des Benutzers verwendet wird, wird dadurch minimiert, dass Licht mit im Wesentlichen unterschiedlichen Wellenlängen verwendet wird.
- In einem Ausführungsbeispiel wird ein Benutzer mit Infrarotlicht, das für das menschliche Auge nicht sichtbar ist, beleuchtet. Eine in Bezug auf Infrarotlicht empfindliche Kamera wird für die Aufzeichnung eines Bilds des Benutzers für eine Analyse der Position und der Bewegung eingesetzt. Sichtbares Licht wird von einem Projektor auf einen Bildschirm bzw. eine Leinwand, Glas oder eine andere Oberfläche zum Anzeigen interaktiver Bilder, Objekte, Muster oder anderer Formen und Effekte eingesetzt. Die Anzeigeoberfläche kann um die Benutzer ausgerichtet werden, so dass deren körperliche Präsenz in der Anzeige ihrer virtuellen Präsenz entspricht, wodurch das Erlebnis des körperlichen Berührens und der Interaktion mit virtuellen Objekten vermittelt wird.
- Ein Aspekt der vorliegenden Erfindung kann eine gemusterte Beleuchtung an Stelle eines einfachen, nicht sichtbaren, einheitlichen „Flutlichts" bzw. „Scheinwerferlichts" verwenden. Bei der bemusterten bzw. mit Muster versehenen Beleuchtung wird ein Muster projiziert, wie zum Beispiel ein Schachbrettmuster, ein wahlfreies Punktmuster, etc. Das Muster wird von Verfahren verwendet, die auf einem Computer ausgeführt werden, um ein Kamerabild zu interpretieren und um ein Objekt aus einem Hintergrund und/oder andere Elemente in einer Szene zu detektieren. Das Muster kann als ein Hintergrund erzeugt werden (so dass es nicht auf einem zu detektierenden Objekt auftrifft), oder das Muster kann über die ganze sichtbare Szene bzw. das ganze sichtbare Motiv der Kamera projiziert werden, so dass es den Hintergrund, den Vordergrund und zu detektierende Objekte und aufgezeichnete Bewegtbilder beleuchtet.
- Eine Möglichkeit, die gemusterte Beleuchtung bzw. Illumination zu erreichen, umfasst den Einsatz eines Infrarot-LED-Clusters oder einer anderen Quelle von nicht sichtbarem Licht in einem Diaprojektor. Ein weiterer Ansatz kann einen Infrarot-Laserstrahl verwenden, der abgelenkt, durch Blenden geleitet, abgetastet, etc. wird, um ein Muster zu erzeugen.
- Eine weitere Möglichkeit, die gemusterte Beleuchtung zu erreichen, ist der Einsatz eines normalen „Flut- bzw. Scheinwerferlichts", wobei jedoch das vorstehend genannte Muster unter Verwendung einer dunklen oder in der Empfangsfrequenz der Kamera in hohem Maße reflektierenden Tinte, eines Farbstoffs oder einer Farbe in dem sichtbaren Bereich der Kamera markiert bzw. angezeichnet wird. Diese Tinte, dieser Farbstoff oder diese Farbe kann für das menschliche Auge sichtbar gemacht werden, um die Ästhetik der Anzeige zu verbessern.
- Ein weiterer Aspekt der vorliegenden Erfindung verwendet einen Gradienten- bzw. Verlaufsansatz, um die Interaktion zwischen Objekt und Bild zu bestimmen. Ein „Einflussbild" wird durch Erzeugen einer Gradienten- bzw. Verlaufsaura oder eines Graustufenübergangs um ein detektiertes Objekt erzeugt. Wenn sich das detektierte Objekt bewegt, wird die Verlaufsaura in Echtzeit berechnet. Wenn die Gradientenaura auf einem Videobild oder einem Element auftrifft, so werden die Helligkeit und der Gradient in dem Bereich des aufgetroffenen Elements berechnet. Die Stärke und die Richtung der Interaktion (z.B. das Schieben des Elements) sind eine Funktion der Helligkeit bzw. des Gradienten des aufgetroffenen Bereichs.
- Vorgesehen ist in einem Ausführungsbeispiel der Erfindung ein System zum Detektieren eines Objekts und zum Erzeugen einer Anzeige als Reaktion darauf, wobei das System folgendes umfasst: eine erste Quelle zur Ausgabe elektromagnetischer Energie in einem ersten Wellenlängenbereich; einen Detektor zum Detektieren einer Reflexion der ersten Quelle elektromagnetischer Energie von einem Objekt; einen Prozessor, der mit dem Detektor gekoppelt ist, um die detektierte Reflexion zum Erzeugen eines Anzeigesignals zu verwenden; eine zweite Quelle zur Ausgabe elektromagnetischer Energie in einem zweiten Wellenlängenbereich, wobei die zweite Quelle als Reaktion auf das Anzeigesignal eine sichtbare Anzeige erzeugt, wobei sich der erste und der zweite Wellenlängenbereich voneinander unterscheiden.
- Vorgesehen ist gemäß einem weiteren Ausführungsbeispiel ein Verfahren zum Detektieren eines Objekts in einem mit einer Kamera aufgezeichneten Bild, wobei das Verfahren den Einsatz von in einem Muster vorgesehener Beleuchtung umfasst, um einen Hintergrund anders als das Objekt zu beleuchten; sowie den Einsatz eines Verarbeitungssystems zum Definieren des Objekts getrennt von dem Hintergrund.
- Vorgesehen ist gemäß einem weiteren Ausführungsbeispiel der Erfindung ein Verfahren zum Berechnen einer Interaktion eines Objekts mit einem Videoelement, wobei das Verfahren den Einsatz eines Prozessors umfasst, um einen Gradienten für das Objekt zu bestimmen; den Einsatz eines Prozessors zum Bestimmen einer Begrenzung für das Videoelement; und das Identifizieren einer Interaktion unter Verwendung des Gradienten bzw. Verlaufs und der Begrenzung.
- KURZE BESCHREIBUNG DER ZEICHNUNGEN
- Es zeigen:
-
1 eine erste Konfiguration eines bevorzugten Ausführungsbeispiels unter Verwendung eines Projektors und einer Kamera in gemeinsamer Anordnung; -
2 eine Konfiguration einer Overheadprojektion; -
3 eine Konfiguration einer Rückprojektion; -
4 eine Konfiguration einer Seitenprojektion; -
5A ein Objekt mit: gleichmäßiger Beleuchtung; -
5B ein Hintergrund mit Beleuchtung eines Zufallspunktmusters; -
5C ein Objekt bzw. Motiv und Hintergrund mit Zufallspunktmusterbeleuchtung; -
5D ein Ergebnis des Detektierens eines Motivs bzw. Objekts aus einem Hintergrund unter Verwendung von Zufallspunktmusterbeleuchtung; -
6A einen menschlichen Benutzer in Interaktion mit einem Videoobjekt; und -
6B ein Einflussbild. - GENAUE BESCHREIBUNG DER ERFINDUNG
- Nachstehend sind verschiedene Konfigurationen der Erfindung beschrieben. Im Allgemeinen verwendet die vorliegende Erfindung eine erste Lichtquelle zum Beleuchten eines Benutzers oder eines anderen Objekts. Die erste Lichtquelle verwendet Licht, das für Menschen nicht sichtbar ist. Zum Beispiel kann Infrarot- oder ultraviolettes Licht verwendet werden. Eine Kamera mit einer Empfindlichkeit in Bezug auf Licht in dem Wellenlängenbereich der ersten Lichtquelle wird verwendet, um einen Benutzer zu detektieren, der durch die erste Lichtquelle beleuchtet wird. Ein Computer (oder ein anderes Verarbeitungssystem) wird dazu eingesetzt, das detektierte Objektbild zu verarbeiten und Bilder zur Anzeige zu erzeugen. Eine zweige Lichtquelle (z.B. ein Projektor, ein Videobildschirm, etc.) wird dazu eingesetzt, die erzeugten Anzeigebilder für einen menschlichen Benutzer oder Betrachter anzuzeigen. Die angezeigten Bilder weisen Wellenlängen auf, welche die Interferenz mit der Erkennung des Objekts der Kamera minimieren. Für gewöhnlich wird der sichtbare Bereich bzw. das sichtbare Spektrum zum Anzeigen der Bilder verwendet.
- In einem bevorzugten Ausführungsbeispiel umgibt die Anzeige den Benutzer, so dass die virtuelle Präsenz des Benutzers mit der physischen Präsenz des Benutzers ausgerichtet ist. Somit weist die virtuelle Szene auf der Anzeige eine physische Anordnung um den Benutzer herum auf, und die Bewegung des Benutzers innerhalb der Anzeige bewirkt eine identische Bewegung der Darstellung des Benutzers in der virtuellen Szene. Zum Beispiel kann der Benutzer auf der physischen Position eines virtuellen Objekts auftreffen und wissen, dass dies bewirkt, dass die virtuelle Darstellung das virtuelle Objekt in dem Computersystem berührt. Mit dem in der vorliegenden Patentschrift verwendeten Begriff „berühren" oder „berührend" ist keine physische bzw. körperliche Berührung bzw. kein körperlicher Kontakt mit einem Objekt wie etwa einer Person und einem Bildelement gemeint. Vielmehr ist mit berührend gemeint, dass die Position des Objekts und die Aktion in dem physischen Raum in einen Effekt in einem erzeugten Bild umgewandelt werden, einschließlich der Effekte des Bewegens von Objekten bzw. von Elementen in den erzeugten Bildern.
- Die angezeigten Bilder oder Elemente können Objekte, Muster, Formen und jedes andere visuelle Muster, jeden Effekt, etc. umfassen. Die Aspekte der vorliegenden Erfindung können etwa für folgende Anwendungen verwendet werden: interaktive Lichteffekte für Menschen in Clubs oder auf Veranstaltungen, interaktive Werbedisplays, Figuren und virtuelle Objekte, die auf die Bewegungen von Passanten reagieren, interaktive Umgebungsbeleuchtung für öffentliche Räume wie etwa Restaurants, Einkaufszentren, Sportstätten, Einzelhandelsgeschäfte, Lobbys und Parks, Videospielsysteme und interaktive Informationsdisplays. Andere Anwendungen sind ebenfalls gemäß dem Umfang der Erfindung möglich.
- Die Abbildung aus
1 zeigt ein Ausführungsbeispiel der Erfindung eines Aufprojektionssystems unter Verwendung einer an einem Standort angeordneten Kamera und eines Projektors. In der Abbildung aus1 wird eine Peson1 durch eine Infrarotlampe2 (oder eine andere nicht sichtbare Lichtlampe) beleuchtet. Das Bild der Person wird durch eine Infrarotkamera (oder eine andere sichtbare Lichtkamera)3 fotografiert bzw. aufgenommen. Das Signal wird in Echtzeit4 zu dem Computer5 übertragen. Der Computer führt einen Objektdetektionsalgorithmus aus und erzeugt den Videoeffekt in Echtzeit. Der Effekt wird in Echtzeit6 zu dem Video- bzw. Bildprojektor7 übertragen. Der Projektor projiziert das resultierende Bild auf einen Schirm8 oder eine andere Oberfläche. Der Videoeffekt9 wird danach auf dem Schirm in Echtzeit und mit der Person ausgerichtet angezeigt. - Die Abbildung aus
2 zeigt eine Konfiguration einer Overheadprojektion des Systems. Die Komponente10 weist das vorstehend genannte System auf. Die Komponente10 ist hier vertikal angebracht, wobei die Kamera, der Projektor und die Lichtquelle in10 auch horizontal angebracht und mit einem Spiegel danach abwärts neu ausgerichtet werden kann. Eine sich auf dem Boden11 bewegende Person kann das Videosignal auf dem Boden um sich herum projiziert bekommen12 . Der eigene Schatten der Person verdeckt einen minimalen Teil des Bilds, wenn sich der Projektor direkt darüber befindet. - Die Abbildungen der
3 und4 zeigen zwei weitere alternative Konfigurationen für die Kamera und den Projektor. In beiden Abbildungen zeichnet die Kamera20 Objekte, wie etwa eine Person22 , vor einem Schirm bzw. einer Leinwand23 . Der Sichtwinkel der Kamera ist mit21 bezeichnet. In der Abbildung aus3 ist der Projektor25 hinter der Leinwand bzw. dem Projektionsschirm angeordnet. Das Licht von dem Projektor24 ist von beiden Seiten auf dem Projektionsschirm sichtbar. In der Abbildung aus4 weist der Projektor25 einen schrägen Winkel zu dem Projektionsschirm auf; wobei der Lichtkegel24 abgebildet ist. Diese beiden Konfigurationen machen es wahrscheinlicher, dass das projizierte Bild durch keine Schatten verdeckt wird. - Wie dies in den vorstehenden Konfigurationen beschrieben ist, wird eine Videokamera zum Aufzeichnen der Szene an einer bestimmten Stelle zur Eingabe in den Computer verwendet. Bei den meisten Konfigurationen der Vorrichtung betrachtet die Kamera einen Teil der Ausgangsvideoanzeige. Um unerwünschte Videorückkopplungen zu verhindern, kann die Kamera auf einer Wellenlänge arbeiten, die von der Videoanzeige nicht verwendet wird. In den meisten Fällen verwendet die Anzeige das sichtbare Lichtspektrum. In diesem Fall muss die Kamera in einer nicht sichtbaren Wellenlänge aufzeichnen, wie etwa Infrarot, so dass die Videoanzeigeausgabe nicht detektiert wird.
- Die auf Videoband aufgezeichnete Szene muss mit Licht der Wellenlänge der Kamera beleuchtet werden. Im Falle von Infrarotlicht können Quellen zur Beleuchtung bzw. Ausleuchtung der Szene verwendet werden, zu denen Sonnenlicht, eine Wärmelampe oder Infrarot-LEDs zählen. Diese Lichtquellen können an jedem beliebigen Ort positioniert werden; wobei die Ansicht von Schattenstörungen von diesen Lichtern der Kamera minimiert werden kann, indem die Lichtquelle nah an der Kamera platziert wird. Eine Lichtquelle, wie etwa ein Licht oder mehrere Lichter bzw. Leuchten, können Objekte einheitlich ausleuchten, im Gegensatz zu der nachstehend beschriebenen gemusterten Beleuchtung. In einem bevorzugten Ausführungsbeispiel wird das Videosignal in Echtzeit zu dem Computer exportiert. Andere Ausführungsbeispiele müssen jedoch die Echtzeit oder nahe Echtzeit nicht erreichen, und sie können Objekt- oder Videobilder (d.h. Anzeigebilder) zeitlich deutlich vor dem Anzeigen der Bilder verarbeiten.
- Diese Komponente ist modular gestaltet; wobei dabei jede Computersoftware verwendet werden kann, welche den Videoeingang von der vorherigen Komponente verwendet und die Ergebnisse an eine Videoanzeige ausgibt.
- In den meisten Fällen weist diese Komponente zwei Teile auf: der erste Teil behandelt das Detektieren mobiler Objekte vor statischem Hintergrund, während der zweite Teil die Objektinformationen zur Erzeugung einer Videoausgabe verwendet. Hierin werden zahlreiche Vorkommen jedes Teils beschrieben; wobei es sich dabei jeweils nur um Beispiele handelt, die in keinem Fall als umfassend bzw. einschränkend auszulegen sind.
- In dem ersten Teil wird das Live-Bild von der Videokamera in Echtzeit verarbeitet, um mobile Objekte (z.B. Menschen) von dem statischen Hintergrund zu trennen, unabhängig davon, was der Hintergrund ist. Deise Verarbeitung kann wie folgt erfolgen:
Zuerst werden Eingangsbilder der Videokamera in Graustufen umgewandelt, um die Datenmenge zu reduzieren und um das Erkennungsverfahren zu vereinfachen. Als nächstes können sie unscharf gestaltet werten, um Rauschen zu unterdrücken. - Jedes Objekt, das sich nicht über einen längeren Zeitraum bewegt, gilt als Hintergrund; somit ist das System in der Lage, sich letztlich an sich verändernde Beleuchtungs- bzw. Licht- und Hintergrundbedingungen anzupassen. Ein Modellbild des Hintergrunds kann durch zahlreiche Verfahren erzeugt werden, die jeweils die Eingangsbilder über einen Zeitraum untersuchen. Bei einem Verfahren werden die letzten mehreren Eingangsbilder (oder einer Teilgruppe dieser) untersucht, um ein Modell des Hintergrunds zu erzeugen, entweder durch Mittelwertbildung, durch Erzeugen eines Medians, durch Detektieren von Perioden der konstanten Helligkeit oder andere Heuristiken. Die Länge des Zeitraums, über den Eingangsbilder untersucht werden, bestimmt die Rate, mit der sich das Modell des Hintergrunds an Veränderungen des Eingangsbilds anpasst.
- Bei einem anderen Verfahren wird das Hintergrundmodell zu jedem zeitlichen Schritt erzeugt (oder seltener), indem ein gewichteter Durchschnitt des aktuellen Bilds und des Hintergrundmodells aus dem vorherigen Zeitschritt berechnet wird. Diese Gewichtung kann so abgestimmt werden, dass sie die Rate verändert, mit der sich das Hintergrundmodell an Veränderungen des Eingangsbilds anpasst.
- Es wird davon ausgegangen, dass sich ein relevantes Objekt hinsichtlich der Helligkeit von dem Hintergrund unterscheidet.
- Um die Objekte zu jedem zeitlichen Schritt zu finden, wird der aktuelle Videoeingang von dem Modellbild des Hintergrunds subtrahiert. Wenn der Absolutwert dieser Differenz an einer bestimmten Stelle größer ist als ein spezieller Schwellenwert, so wird diese Stelle als ein Objekt klassifiziert; wobei sie im anderen Fall als Hintergrund klassifiziert wird.
- Der zweite Teil kann jedes Programm darstellen, das die Objekt-/Hintergrund-Klassifizierung eines Bilds (möglicherweise zusätzlich zu anderen Daten) als Eingabe bzw. Eingang verwendet und ein Videobild auf der Basis dieses Eingangs ausgibt, möglicherweise in Echtzeit. Das Programm kann unendlich viele Formen annehmen, und es ist somit ebenso weit gefasst definiert wie eine Computeranwendung. Diese Komponente kann zum Beispiel so einfach sein, dass sie ein Spotlight in Form der detektierten Objekte erzeugt, wobei sie aber auch so kompliziert sein kann wie ein Malprogramm, das durch Gestiken von Menschen gesteuert wird, die als Objekte detektiert werden. Darüber hinaus können Anwendungen andere Formen von Eingängen bzw. Eingaben verwenden, wie etwa Ton-, Temperatur-, Tastatureingaben, etc. sowie zusätzliche Formen von Ausgaben wie etwa akustisch, fühlbar, als virtuelle Realität, aromatisch, etc.
- Eine Hauptklasse der Anwendungen umfasst Spezialeffekte, die eine Objekt-/Hintergrund-Klassifikation als Eingabe verwenden. Zum Beispiel können Sterne, Linien oder andere Formen in einem wahlfreien Abschnitt der Positionen in das Ausgangsvideobild gezeichnet werden, die als „Objekt" klassifiziert worden sind. Diese Formen können danach so festgelegt werden, dass sie im Zeitverlauf allmählich verschwinden, so dass Personen Übergangsspuren der Formen hinter sich herziehen, wenn sie sich bewegen. Dies sind weitere Beispiele für andere Effekte in der gleichen Klasse:
- – Konturen und Welligkeiten, welche das Objekt umgeben;
- – ein Raster bzw. Gitter, das durch die Gegenwart von Objekten verformt wird;
- – Simulationen von Flamme und Wind und andere Matrixfaltungen, die auf Objekte angewendet werden;
- – Spezialeffekte, welche den Rhythmus der Musik takten, der separat detektiert wird.
- Eine weitere Hauptanwendungsklasse ermöglicht eine Interaktion realer Objekte mit virtuellen Objekten und Charakteren bzw. Figuren. Zum Beispiel kann ein Bild, dass eine Entenkükengruppe zeigt, so programmiert werden, dass es hinter einem realen Objekt (z.B. einer Person) folgt, die vor der Anzeige geht.
- Darüber hinaus bilden Computerspiele, die von Personen gespielt werden können, die sich vor der Kamera bewegen, eine weitere Klasse von Anwendungen.
- Diese Liste ist jedoch nicht umfassend bzw. abschließend, vielmehr ist die Komponente so gestaltet, dass sie programmierbar ist und somit jede Anwendung ausführen kann.
- Die Ausgabe der Verarbeitungssoftware der vorherigen Komponente wird visuell angezeigt. Mögliche anzeigen umfassen unter anderem Videoprojektoren, Fernseher, Plasmamonitore und Lasershows. Das angezeigte Bild kann mit dem Eingangsbereich der Kamera ausgerichtet werden, so dass die Videoeffekte mit den Positionen der sie verursachenden Personen ausgerichtet werden. Da einige Konfigurationen der Videokamera Objekte in nicht sichtbarem Licht detektieren können, wird das Problem der die Kamera störenden Anzeige verhindert bzw. vermieden.
- Es gibt zahlreiche mögliche Konfigurationen für die verschiedenen Komponenten. Zum Beispiel können sich die Kamera und der Videoprojektor an der gleichen Stelle befinden und in die gleiche Richtung zeigen. Die Kamera und der Projektor können dabei auf eine Wand gerichtet sein, wie dies in der Abbildung aus
1 dargestellt ist, sie können auf den Boden gerichtet sein, mit einem Spiegel gemäß der Abbildung aus2 neu ausgerichtet werden oder sie können auf jede andere Oberfläche gerichtet sein. Alternativ kann der Projektor hinter der Leinwand platziert werden, wie dies in der Abbildung aus3 dargestellt ist, so dass die Anzeige mit der Anzeige aus1 identisch ist, wobei sich die Person jedoch nicht mehr in dem Projektionspfad befindet, so dass sie keinen Schatten wirft. Der Schatten kann auch verhindert werden, indem der Projektor in einem schiefen Winkel zu der Leinwand platziert wird, wie dies in der Abbildung aus4 dargestellt ist. Die Videoanzeige kann einen Großbildschirmfernseher, einen Plasmamonitor oder eine Videowand darstellen. Bei den vorstehenden Konfigurationen ist die Videoanzeige jeweils mit dem Videoeingang ausgerichtet, wobei dies jedoch nicht erforderlich ist; die Videoanzeige kann auch anderweitig platziert werden. Die vorstehende Auflistung ist nicht umfassend; wobei es zahlreiche zusätzliche mögliche Konfigurationen gibt. - Das System insgesamt kann vernetzt bzw. in ein Netzwerk eingebunden werden, was es ermöglicht visuelle Informationen und Informationen zum Zustand der Verarbeitungssoftware zwischen Systemen auszutauschen. Somit kann ein in dem Bildsignal eines Systems detektiertes Objekt die Verarbeitungssoftware in einem anderen System beeinflussen. Darüber hinaus kann sich ein virtuelles Element in der Anzeige eines Systems zu anderen Systemen bewegen. Wenn die Anzeigen mehrerer Systeme gemeinsam ausgerichtet werden, so dass sie eine einzige größere Anzeige bilden, so kann die Mehrzahl von Systemen dazu gebracht werden, dass sie so funktionieren, als würde es sich um ein einzelnes, sehr großes System handeln, wobei sich Objekte und Interaktionen nahtlos über die Anzeigegrenzen bewegen.
- Ein übliches Problem des Bildsystems ist es, dass in Fällen mit einer nicht steuerbaren Umgebungsbeleuchtung (z.B. Sonnenlicht) des sichtbaren Bereichs der Kamera aus einem deutlich anderen Winkel als dem der Kamera, Objekte Schatten auf den Hintergrund werfen können. Wenn diese Schatten stark genug sind, kann das Bildsystem sie versehentlich für Objekte halten. Diese Schatten können detektiert und entfernt werden, indem die Lichtquelle der Kamera gepulst wird. Durch Subtrahieren eines Kameraeingangsbilds mit Umgebungslicht alleine von einem Kameraeingangsbild, sowohl in Verbindung mit dem Umgebungslicht und dem Licht der Kamera, ergibt das System ein Bild, das die Szene aufnimmt, so als würde nur das Licht der Kamera verwendet werden, wodurch die detektierbaren Schatten aus dem Umgebungslicht entfernt werden.
- Eine zusätzliche Präzision beim Detektieren von Objekten in Verbindung mit den durch die Kamera aufgezeichneten Bildern kann unter Verwendung einer gemusterten Beleuchtung oder gemusterter Markierungen erreicht werden.
- Eine Unzulänglichkeit des Einsatzes eines einfachen Scheinwerferlicht-Beleuchtungssystems für die Computervision ist es, dass für den Fall, dass die Farben der durch die Kamera betrachteten Objekte sehr ähnlich sind, die Objekte unter Umständen nur schwer detektierbar sind. Wenn die Kamera im monochromen Modus arbeitet, ist es deutlich wahrscheinlicher, dass das Objekt und der Hintergrund ähnlich aussehen.
- Der Einsatz eines gemusterten bzw. mit Muster versehenen Objekts zur Abdeckung des sichtbaren Bereichs der Kamera kann die Objekterkennung verbessern. Wenn ein Muster verwendet wird, das zwei oder mehr vermischte Farben aufweist, die eng aneinander angeordnet sind, so ist es sehr unwahrscheinlich, dass andere Objekte ähnlich erscheinen, da mindestens eine Farbe des Musters deutlich anders aussieht als die Farbe der umgebenden Objekte. Wenn ein gemustertes Objekt, wie etwa ein Projektionsschirm, als Hintergrund verwendet wird, vor dem sich die zu detektierenden Objekte befinden, so lassen sich die Objekte, die vor dem mit Muster versehenen Projektionsschirm passieren, leichter durch den Bild- bzw. Visionsalgorithmus detektieren.
- Bei einer Infrarotvideoanwendung kann es sich bei dem gemusterten Objekt um eine Hintergrundmatte handeln, die für das menschliche Auge weiß erscheint, die jedoch ein hell und dunkel geflecktes Muster aufweist, das für das menschliche Auge nicht sichtbar ist, jedoch für die Kamera schon sichtbar ist. Unter Verwendung eines Musters in dem nicht sichtbaren Lichtspektrum beeinträchtigt die gemusterte Matte nicht die Ästhetik des Systems. Das Anzeigesystem (z.B. Projektionsvideo) kann Ausgangsbilder auf die Matte projizieren, wie dies bereits vorstehend im Text beschrieben worden ist. Ein Prozess, der auf einem Verarbeitungssystem wie etwa einem Computersystem ausgeführt wird, kann mit dem Hintergrundmuster versehen werden, was die Detektion eines Objekts vor der Matte einfacher gestaltet, obgleich das System den gemusterten Hintergrund auf die gleiche Art und Weise lernen kann, wie der Videoalgorithmus jeden anderen Hintergrund lernt. Ferner würde dies die Fähigkeit des Systems nicht nachteilig beeinflussen, sich an Änderungen der Helligkeit des Hintergrundlichts anzupassen.
- Eine gemusterte Beleuchtung kann auch von einer Lichtquelle auf den sichtbaren Bereich der Kamera projiziert werden. Solange die Kamera und die Quelle für das sichtbare Licht unterschiedlich sind, bewirken versetzte Orte, Parallaxeneffekte, Verzerrungen des projizierten Musters des Sichtfelds der Kamera, wenn sich Objekte durch das Sichtfeld der Kamera bewegen. Die Verzerrung unterstützt es, dass Objekte, die ähnliche Farben aufweisen, sich deutlich voneinander abheben. Wenn der Unterschied verwendet wird, den die beiden von der Kamera gesehenen Bilder aufweisen, so zeigt das Ergebnis die Form jedes Objekts, dass erschienen, verschwunden oder sich zwischen den beiden Bildern bewegt hat. Wenn das Bild eines Objekts vor dem Hintergrund von einem Bild des Hintergrunds alleine subtrahiert wird, so handelt es sich bei dem Ergebnis um ein Bild, das dort, wo Hintergrund ist, Null ist, und das ungleich Null ist, dort wo sich Objekte befinden. Diese Technik kann in Kombination mit anderen hierin beschriebenen Aspekten der vorliegenden Erfindung eingesetzt werden.
- Eine gemusterte Lichtquelle kann auf unterschiedliche Art und Weise erreicht werden. Ein Verfahren ist der Einsatz eines Lumineszenzdioden-Clusters (LED-Cluster) oder einer anderen nicht sichtbaren Lichtquelle in einem Diaprojektor. Eine Reihe von Linsen würde dabei eingesetzt, um die Lichtquelle durch ein Dia zu fokussieren, das das gewünschte Muster aufweist, wodurch das Bild des Musters auf den sichtbaren Bereich der Kamera geworfen wird. Gemäß einem anderen Verfahren kann ein Infrarot-Laserstrahl auf einen Lasermustergenerator scheinen oder eine andere Streueinrichtung, um ein Lichtmuster in dem sichtbaren Bereich der Kamera zu erzeugen. Licht kann abgelenkt, durch Blenden geführt, abgetastet, etc. werden, um ein Muster zu erreichen. Viele andere Ansätze sind ebenfalls möglich.
- Eine gemusterte Lichtquelle eignet sich ebenfalls für dreidimensionales maschinelles Sehen. Dreidimensionale Techniken für das maschinelle Sehen, wie etwa der Marr-Poggio-Algorithmus, verwenden als Eingang zwei Bilder der gleichen Szene aus leicht unterschiedlichen Winkeln. Die Muster auf den Bildern werden abgestimmt, um die Höhe des Versatzes zu bestimmen und somit die Entfernung von der Kamera an jedem Punkt des Bilds. Die Leistung des Algorithmus verschlechtert sich, wenn Objekte mit einheitlicher Farbe behandelt werden, da die einheitliche Farbe die Abstimmung der entsprechenden Abschnitte in dem Bildpaar erschwert. Somit kann die gemusterte Lichtquelle die Abstandsschätzwerte einiger Algorithmen für das dreidimensionale maschinelle Sehen verbessern.
- Die beiden Eingangsbilder dieser Algorithmen des dreidimensionalen Sehens werden für gewöhnlich unter Verwendung eines auf die Szene gerichteten Kamerapaares erzeugt. Es wäre aber auch möglich, nur eine Kamera zu verwenden. Das zweite Bild kann eine vollständig verzerrungsfreie Version des projizierten Musters sein, das vorab bekannt ist. Das Bild des Musters ist im Wesentlichen identisch mit dem Bild, das eine zweite Kamera sehen würde, wenn sie an der genau gleichen Position platziert wäre wie die gemusterte Lichtquelle. Somit können das Sichtfeld der einzelnen Kamera und das projizierte Muster gemeinsam als eine Eingabe in den Algorithmus für das dreidimensionale Sehen verwendet werden. Alternativ kann das zweite Bild ein Bild des Hintergrunds alleine darstellen, aufgenommen von der gleichen Kamera.
- Zwar können viele verschiedene Arten von Mustern verwendet werden, wobei ein hoch auflösendes Zufallspunktmuster jedoch bestimmte Vorteile sowohl für das zweidimensionale als auch das dreidimensionale Sehen aufweist. Durch die Zufälligkeit des Punktmusters ist es höchst unwahrscheinlich, dass ein signifikant bemessener Abschnitt des Punktmusters ohne das vorhandene Objekt dem Muster ähnlich sieht. Dies maximiert die Fähigkeit, dass der Visionsalgorithmus Verschiebungen in dem Muster detektiert und somit Objekte. Die Verwendung eines regelmäßigen Musters wie etwa eines Rasters bzw. eines Gitters kann bestimmte Schwierigkeiten erzeugen, da verschiedene Abschnitte des Musters identisch sind, was bewirkt, dass das verschobene bzw. versetzte Muster häufig wie das nicht verschobene Muster aussieht.
- Die Abbildungen der
5A bis D zeigen die Nützlichkeit eines Zufallspunktmusters beim Detektieren eines Objekts. Die Abbildung aus5A zeigt ein Bild einer Person bei normaler Beleuchtung. Die Person weist eine ähnliche Helligkeit auf wie der Hintergrund, was die Erkennung schwierig gestaltet. In der Abbildung aus5B wird ein Zufallspunktmuster auf den Hintergrund projiziert, und zwar von einer Lichtquelle in der Nähe der Kamera. Wenn eine Person vor diesem Muster steht, so wird das von der Person reflektierte Muster verschoben, wie dies in der Abbildung aus5C dargestellt ist. Durch die Verwendung der Differenz zwischen den Bildern der5B und5C wird das Bild aus5D erhalten, das den Bildbereich der Person mit einem starken Signal definiert. - Andere Ansätze können verwendet werden, um die Objekterkennung zu verbessern. Zum Beispiel kann eine Lichtquelle „abgetastet" oder periodisch ein- und ausgeschaltet werden, so dass die Detektion von Schatten durch andere Lichtquellen (z.B. Umgebungslicht) erleichtert wird.
- Nachdem ein Objekt detektiert und definiert worden ist, verwendet das bevorzugte Ausführungsbeispiel eine Gradientenaura bzw. eine Verlaufsaura, um den Grad und die Richtung der Interaktion des Objekts mit einem angezeigten Bildelement zu bestimmen.
- Die Abbildung aus
6A zeigt einen menschlichen Benutzer, der mit einem Videoobjekt interagiert. - In der Abbildung aus
6A wurde das Objekt304 detektiert und ist in Umrissform dargestellt. Eine Darstellung des Objekts in der Verarbeitung eines Computers kann die in der Abbildung aus6A dargestellte Umrissdefinition verwenden. Der Videoschirm302 zeigt verschiedene Bildelemente an, wie etwa ein Bild306 eines Balls. - Die Abbildung aus
6B veranschaulicht ein Einflussbild für die Region308 aus6A . - In der Abbildung aus
6B werden das Umrissbild des Fußes320 des Benutzers und des Unterschenkels für die Erzeugung sukzessive größerer Umrissbereiche verwendet. Dem Bereich des ursprünglichen Umrissbereichs320 ist ein hoher Pixelhelligkeitswert zugeordnet, der weiß entspricht. Jede folgende Umrissbereich322 ,324 ,326 ,328 ,330 ist einem progressive niedrigeren Wert zugeordnet, so dass ein weit von dem ursprünglichen Umrissbereich (weiß) entfernter Punkt einen niedrigeren Pixelwert aufweist. Hiermit wird festgestellt, dass jede Anzahl von Umrissbereichen bzw. Umrissflächen verwendet werden kann. Ferner können die Größe und die Inkremente der Umrissbereiche nach Wunsch variieren. Zum Beispiel ist es möglich, einen ununterbrochenen Gradienten zu verwenden, an Stelle von diskreten Bereichen. Die Menge aller Umrissbereiche wird als das „Einflussbild" bezeichnet. - Das Einflussbild wird mit verschiedenen Bildelementen verglichen. In der Abbildung aus
6B trifft ein Ballelement306 auf die Gradientenbereiche326 ,328 und330 auf. Wie dies im Fach bekannt ist, werden die Richtungslinien in der Richtung des Verlaufs des Pixelwertfelds für die Auftreffbereiche bestimmt. Die Abbildung aus6B zeigt drei beispielhafte Richtungslinien in dem Element306 . Die Richtungslinien können kombiniert werden, wie zum Beispiel durch Mittelwertbildung, wobei aber auch eine einzelne Linie verwendet werden kann. Die Verarbeitung detektiert ferner, dass es sich bei dem hellsten Umrissbereich, auf den das Element trifft, um den Umrissbereich326 handelt. Andere Ansätze sind ebenso möglich. Zum Beispiel kann ein Mittelwert der Helligkeit und des Gradienten über jeden Punkt in dem Bereich des Bildelements oder an einer Teilmenge dieser Punkte vorgenommen werden. Ferner können bestimmte Ausführungsbeispiele die Dauer des Kontakts als einen Faktor aufweisen, zusätzlich zu der Helligkeit und dem Gradient. - Die Interaktion zwischen einem Objekt, wie etwa einer Person, und einem Element auf dem Schirm, wird unter Verwendung sowohl der Helligkeit der Aufprallumrissbereiche als auch der Richtung berechnet, die unter Verwendung von einer oder mehreren Richtungslinien berechnet wird. Die Aufprallhelligkeit entspricht der Stärke, mit welcher der Benutzer das Element „berührt". Der Gradient entspricht der Richtung (oder von, abhängig von dem Vorzeichen der Berechnung), in welche das Element berührt wird.
- Die vorliegende Erfindung wurde vorstehend zwar in Bezug auf besondere Ausführungsbeispiele der Erfindung beschrieben, wobei diese Ausführungsbeispiele jedoch nur Zwecken der Veranschaulichung dienen und nicht einschränken. Zum Beispiel verwenden die bevorzugten Ausführungsbeispiele der Erfindung zwar eine Kamera als Detektor, wobei jedoch auch andere Arten von Erkennungsvorrichtungen eingesetzt werden können. Die Kamera kann digital oder analog sein. Eine Stereokamera kann verwendet werden, um zusätzlich zu Positionsinformationen auch Tiefeninformationen bereitstellen. In Fällen, in denen die Verarbeitung und die Anzeige nicht in Echtzeit vorgenommen werden, können Film und andersartige Medien eingesetzt und durch digitale Umwandlung gefolgt werden, bevor die Eingabe der Daten in einen Prozessor erfolgt. Lichtsensoren oder Detektoren können eingesetzt werden. Zum Beispiel kann an Stelle einer Kamera eine Anordnung von Fotodetektoren verwendet werden. Andere hierin nicht erwägte Detektoren können ebenfalls mit entsprechend geeigneten Ergebnissen verwendet werden.
- Im Allgemeinen kann jede Art von Anzeigevorrichtung in Verbindung mit der vorliegenden Erfindung eingesetzt werden. Zum Beispiel wurden zwar Videovorrichtungen in verschiedenen Ausführungsbeispielen und Konfigurationen beschrieben, wobei aber auch andersartige visuelle Darstellungsvorrichtungen verwendet werden können. Eingesetzt werden können eine Lumineszenzdiodenanordnung (LED), organische LED- (OLED), Licht emittierende Polymer- (LEP), elektromagnetische, Kathodenstrahl-, Plasma-, mechanische oder andere Anzeigesysteme.
- Anzeigen der virtuellen Realität, dreidimensionale Anzeigen oder andersartige Anzeigen können eingesetzt werden. Zum Beispiel kann ein Benutzer eine Sichtbrille oder eine Kapuze tragen, so dass er in eine erzeugte Umgebung eintauchen kann. Bei diesem Ansatz kann die erzeugte Anzeige ausgerichtet werden mit der Wahrnehmung der Umgebung durch den Benutzer, um eine verbesserte oder optimierte Realität zu erzeugen. Ein Ausführungsbeispiel kann es einem Benutzer ermöglichen, mit einem Bild eines Charakters bzw. einer Figur zu interagieren. Die Figur kann durch Computer erzeugt werden, von einem menschlichen Schauspieler gespielt werden, etc. Die Figur bzw. der Charakter kann auf die Aktionen und die Körperposition des Benutzers reagieren. Die Interaktionen können Sprache, die gemeinsame Manipulation von Objekten, etc. aufweisen.
- Mehrere Systeme können miteinander verbunden werden, wie zum Beispiel durch ein digitales Netzwerk. Zum Beispiel können Ethernet, Universal Serial Bus (USB), IEEE 1394 (Firewire), etc. eingesetzt werden. Kabellose Vermittlungsabschnitte können ebenfalls eingesetzt werden, wie sie etwa durch 802.11b, etc. definiert sind. Unter Verwendung mehrerer Systeme können Benutzer an unterschiedlichen geographischen Standorten zusammenwirken, konkurrieren oder anderweitig durch erzeugte Bilder miteinander in Interaktion treten. Bilder, die durch zwei oder mehr Systeme erzeugt werden, können wie „Kacheln" zusammengefügt werden oder anderweitig kombiniert werden, um zusammengesetzte Anzeigen zu erzeugen.
- Es können auch andere Arten der Beleuchtung als Licht eingesetzt werden. Zum Beispiel können Radarsignale, Mikrowellen oder andere elektromagnetische Wellen in Situationen vorteilhaft eingesetzt werden, in denen ein zu erkennendes Objekt (z.B. ein Metallobjekt) diese Wellen in hohem Maße reflektiert. Es ist möglich, Aspekte des Systems an andere Arten der Erkennung anzupassen, wie etwa unter Verwendung akustischer Wellen in Luft oder Wasser.
- Obgleich Computersysteme so beschrieben worden sind, dass sie die Objektbildsignale empfangen und verarbeiten und Anzeigesignale erzeugen, kann jedes andersartige Verarbeitungssystem verwendet werden. Zum Beispiel kann ein Verarbeitungssystem eingesetzt werden, das keinen Allround-Computer einsetzt. Verarbeitungssysteme, die Designs auf der Basis individueller oder semi-individueller Schaltkreisanordnungen oder Chips, anwendungsspezifischer integrierter Schaltungen (ASICs), feldprogrammierbarer Gate-Arrays (FPGAs), Mikroprozessoren, einem asynchronen Design oder eines beliebigen Architekturdesigns oder Methoden verwenden, können sich ebenfalls zur Verwendung in Verbindung mit der vorliegenden Erfindung eignen.
- Der Umfang der vorliegenden Erfindung ist somit ausschließlich durch die anhängigen Ansprüche definiert.
Claims (32)
- System zum Detektieren eines Objekts (
1 ;304 ) und zum Erzeugen einer Anzeige (302 ) als Reaktion darauf, wobei das genannte Objekt mit mindestens einem virtuellen Element (306 ) interagiert, das auf der genannten Anzeige angezeigt wird, wobei das System folgendes umfasst: eine erste Quelle (2 ) zur Ausgabe elektromagnetischer Energie in einem ersten Wellenlängenbereich in Richtung einer Position, die das genannte Objekt (1 ) umfasst; einen Detektor (3 ) zum Detektieren einer Reflexion der ersten Quelle elektromagnetischer Energie von der genannten Position; einen Prozessor (5 ), der mit dem Detektor gekoppelt ist und zur Implementierung eines Verfahrens zu folgenden Zwecken bereitgestellt ist: zum Detektieren eines Bilds des Objekts in der genannten detektierten Reflexion; zum Bestimmen eines Einflussbilds des Objekts (322 ,324 ,326 ,328 ,330 ), wobei das Einflussbild einen Bereich um das detektierte Bild des Objekts aufweist, wobei der Bereich Pixel mit Werten umfasst, die sie von dem detektierten Bild unterscheiden, und wobei der Bereich um das detektierte Bild einen Pixelwertübergang bildet, der die Berechnung eines Grads und einer Richtung des Einflusses des Objekts auf mindestens ein virtuelles Element bereitstellt; und zum Erzeugen eines Anzeigesignals, das mindestens ein virtuelles Element aufweist, wobei das Einflussbild mit dem genannten mindestens einen virtuellen Element interagiert; und eine zweite Quelle (7 ) zur Ausgabe elektromagnetischer Energie in einem zweiten Wellenlängenbereich, wobei die zweite Quelle als Reaktion auf das genannte Anzeigesignal eine sichtbare Anzeige erzeugt, wobei sich der erste und der zweite Wellenlängenbereich voneinander unterscheiden. - System nach Anspruch 1, wobei das Erzeugen des Anzeigesignals folgendes umfasst: das Erzeugen eines virtuellen Elements; das Detektieren des Auftreffens des virtuellen Elements auf das Einflussbild; und das Ableiten der Interaktion des Einflussbilds auf das virtuelle Element von dem detektierten Auftreffen.
- System nach Anspruch 1 oder 2, wobei das detektierte Objekt ein Umrissbild des Objekts darstellt.
- System nach einem der Ansprüche 1 bis 3, wobei die erste Quelle Licht ausgibt, das sich nicht in dem sichtbaren Spektrum befindet, wie etwa Infrarotlicht, und wobei die zweite Quelle Licht ausgibt, das sich in dem sichtbaren Spektrum befindet.
- System nach einem der Ansprüche 1 bis 4, wobei das Objekt (
1 ;11 ;22 ;304 ) einen menschlichen Benutzer aufweist, und wobei die zweite Quelle (7 ) einen Videoprojektor aufweist, wie etwa zum Projizieren von Bildern auf eine Oberfläche (8 ;23 ) angrenzend an das Objekt (1 ;22 ), wobei die Oberfläche (23 ) Bestandteil ist von: einem Abwärtsprojektionssystem; einem Rückprojektionssystem; und einem Aufprojektionssystem. - System nach einem der Ansprüche 1 bis 5, wobei die erste Quelle ein Muster (B) der Beleuchtung aufweist, wie etwa ein Zufallspunktmuster; ferner mit einer Einrichtung zum Erzeugen des Musters der Beleuchtung, wie etwa eines Infrarot-Lumineszenzdioden-Clusters zum Erzeugen des Beleuchtungsmusters.
- System nach einem der Ansprüche 1 bis 6, wobei das Einflussbild (
322 ,324 ,326 ,328 ,330 ) des Objekts eine beliebige Anzahl sukzessive größerer Umrissbereiche umfasst. - System nach Anspruch 7, wobei das Einflussbild (
322 ,324 ,326 ,328 ,330 ) des Objekts mehr als einen Umrissbereich umfasst. - System nach einem der Ansprüche 7 oder 8, wobei jeder sukzessive größere Umrissbereich einem progressiv niedrigeren Wert zugeordnet ist, so dass einem weiter von dem Objektumriss entfernten Umrissbereich ein niedrigerer Wert zugeordnet ist.
- System nach einem der Ansprüche 8 oder 9, wobei das Einflussbild mindestens einen größeren Umrissbereich umfasst, dessen Pixel kontinuierlich ein progressiv niedrigerer Wert zugeordnet wird, so dass einem weiter von dem Objektumriss angeordneten Pixel ein niedrigerer Wert zugeordnet ist.
- System nach einem der Ansprüche 8 bis 10, wobei das Berechnen einer Richtung der Interaktion das Bestimmen von Richtungslinien in der Richtung eines Gradienten der Pixelwerte für Auftreffbereiche zwischen dem Einflussbild und dem virtuellen Element umfasst.
- System nach einem der Ansprüche 8 bis 11, wobei der Grad des Einflusses des Objekts auf das virtuelle Element eine Stärke darstellt, die von Werten abgeleitet wird, die den Pixeln der Umrissbereiche zugeordnet sind, in denen das virtuelle Element auftrifft.
- System nach einem der Ansprüche 11 oder 12, wobei für den Wert und den Gradienten der Pixel Mittelwerte über zumindest eine Teilmenge der Pixel der Umrissbereiche gebildet werden, in denen das virtuelle Element auftrifft.
- System nach einem der Ansprüche 8 bis 13, wobei die Dauer des Kontakts zwischen dem virtuellen Element und dem Einflussbild zur Bestimmung des Einflusses des Objekts auf das virtuelle Element berücksichtigt wird.
- System nach einem der Ansprüche 1 bis 14, wobei der Prozessor bereitgestellt ist, um das Bild des Objekts dadurch zu detektieren, dass das Objekt von einem Hintergrund der detektierten Reflexion getrennt wird, wobei das Trennen des Objekts von dem Hintergrund das Erzeugen eines adaptiven Modells des genannten Hintergrunds umfasst, indem Veränderungen der detektierten Reflexion im Zeitverlauf analysiert werden.
- System nach Anspruch 15, wobei das Erzeugen eines adaptiven Modells des genannten Hintergrunds das Berechnen eines gewichteten Mittelwerts einer aktuell detektierten Reflexion und vorher detektierter Reflexionen aufweist, und wobei das Trennen des Objekts von dem Hintergrund das Subtrahieren des gewichteten Mittelwerts von der aktuell detektierten Reflexion aufweist.
- System nach Anspruch 1, wobei das genannte Verfahren ferner folgendes umfasst: ein Verfahren zum Bestimmen eines Gradienten des Einflussbilds; und ein Verfahren zur Verwendung des Gradienten zum Bestimmen der Interaktion zwischen dem Objekt (
304 ) und dem genannten virtuellen Element (306 ). - System nach einem der Ansprüche 1 bis 17, wobei das genannte virtuelle Element ein Rendering des genannten Objekts aufweist.
- System nach Anspruch 1, wobei das genannte Verfahren folgendes umfasst: das Verwenden einer in einem Muster vorgesehenen Beleuchtung (B), wie etwa: eines Zufallspunktmusters, und eines Schachbrettmusters, zur Beleuchtung eines Hintergrunds; und das Verwenden eines Verarbeitungssystems zum Definieren des Objekts getrennt von dem Hintergrund.
- System nach Anspruch 17, wobei das Verfahren zum Verwenden des Gradienten zum Bestimmen der Interaktion zwischen dem Objekt (
304 ) und dem genannten virtuellen Element (306 ) folgendes umfasst: das Verwenden eines Prozessors zum Bestimmen einer Begrenzung für das virtuelle Element; und das Identifizieren einer Interaktion durch den Einsatz des Gradienten und der Begrenzung. - System nach Anspruch 20, wobei das genannte Verfahren ferner folgendes umfasst: das Verwenden eines Prozessors zum Bestimmen einer Helligkeit eines von dem Objekt abgeleiteten Bereichs; und das Identifizieren einer Interaktion durch den Einsatz der Helligkeit des Bereichs und der Begrenzung.
- System nach Anspruch 20 oder 21, wobei es sich bei der Interaktion um eine der folgenden Interaktionen handelt: eine Person schiebt das Element; eine Person berührt das Element; eine Person verformt das Element; und eine Person manipuliert das Element; und und wobei es ferner zusätzliche Merkmale wie etwa einen Audioausgang für die Ausgabe von Ton umfasst.
- Verfahren zum Detektieren eines Objekts (
1 ;304 ) und zum Erzeugen einer Anzeige (302 ) als Reaktion darauf, wobei das genannte Objekt mit mindestens einem virtuellen Element (306 ) interagiert, das auf der genannten Anzeige angezeigt wird, wobei das Verfahren folgendes umfasst: das Verwenden von Licht mit einer ersten Wellenlänge zum Beleuchten einer Position, welche das genannte Objekt umfasst; das Verwenden einer Kamera (3 ), die auf das Licht mit einer ersten Wellenlänge anspricht, so dass eine Reflexion des genannten Lichts von der genannten Position detektiert wird; das Verwenden eines Prozessors (5 ), der mit der Kamera gekoppelt ist, um ein Verfahren zu folgenden Zwecken zu implementieren: zum Detektieren eines Bilds des Objekts in der genannten detektierten Reflexion; zum Bestimmen eines Einflussbilds des Objekts (322 ,324 ,326 ,328 ,330 ), wobei das Einflussbild einen Bereich um das detektierte Bild des Objekts aufweist, wobei der Bereich Pixel mit Werten umfasst, die sie von dem detektierten Bild unterscheiden, und wobei der Bereich um das detektierte Bild einen Pixelwertübergang bildet, der die Berechnung eines Grads und einer Richtung des Einflusses des Objekts auf mindestens ein virtuelles Element bereitstellt; und zum Erzeugen eines Anzeigesignals, das mindestens ein virtuelles Element aufweist, wobei das Einflussbild mit dem genannten mindestens einen virtuellen Element interagiert; und das Verwenden von Licht mit einer zweiten Wellenlänge, die sich von der ersten Wellenlänge unterscheidet, um aus dem genannten Anzeigesignal ein angezeigtes Bild zu erzeugen. - Verfahren nach Anspruch 23, wobei das Objekt einen menschlichen Benutzer (
304 ) darstellt, und wobei das Erzeugen des Anzeigesignals den Einsatz eines Videoprojektors aufweist, wie etwa zum Projizieren von Bildern auf eine Oberfläche (8 ;23 ) angrenzend an das Objekt (1 ;22 ), wobei die Oberfläche (23 ) Bestandteil ist von: einem Abwärtsprojektionssystem; einem Rückprojektionssystem; und einem Aufprojektionssystem. - Verfahren nach einem der Ansprüche 23 oder 24, wobei mehrere Kameras verwendet werden, und wobei mindestens zwei Kameras verwendet werden, um einen Stereoeffekt zu erzeugen.
- Verfahren nach einem der Ansprüche 23 bis 25, wobei ein Plasmabildschirm zum Erzeugen des angezeigten Bilds verwendet wird.
- Verfahren nach einem der Ansprüche 23 bis 26, wobei das angezeigte Bild Werbung aufweist.
- Verfahren nach einem der Ansprüche 23 bis 26, wobei das angezeigte Bild Teil eines Videospiels ist.
- Verfahren nach einem der Ansprüche 23 bis 28, wobei das Verfahren ferner folgendes umfasst: das Stroben des Lichts mit einer ersten Wellenlänge.
- Verfahren nach einem der Ansprüche 23 bis 29, wobei das Verfahren ferner folgendes umfasst: das Verbinden mehrerer Systeme miteinander, so dass Informationen zur Bilddetektierung und Anzeigen zwischen den Systemen übertragen werden können.
- Verfahren nach Anspruch 30, wobei das Verfahren ferner folgendes umfasst: das Verwenden der übertragenen Informationen zum Erzeugen einer einzigen Anzeige von zwei oder mehr Anzeigen.
- Verfahren nach einem der Ansprüche 23 bis 31, wobei das Verfahren zum Detektieren des genannten Bilds des menschlichen Benutzers in dem genannten ersten Bild folgendes umfasst: das Verwenden eines in einem Muster vorgesehenen Hintergrunds; und das Verwenden eines Verarbeitungssystems zum Definieren des Bilds des menschlichen Benutzers getrennt von dem Hintergrund.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US29618901P | 2001-06-05 | 2001-06-05 | |
US296189P | 2001-06-05 | ||
US10/160,217 US7259747B2 (en) | 2001-06-05 | 2002-05-28 | Interactive video display system |
US160217 | 2002-05-28 | ||
PCT/US2002/017843 WO2002100094A2 (en) | 2001-06-05 | 2002-06-04 | Interactive video display system |
Publications (2)
Publication Number | Publication Date |
---|---|
DE60213975D1 DE60213975D1 (de) | 2006-09-28 |
DE60213975T2 true DE60213975T2 (de) | 2007-02-15 |
Family
ID=26856697
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE60213975T Expired - Lifetime DE60213975T2 (de) | 2001-06-05 | 2002-06-04 | Interaktives video-anzeigesystem |
Country Status (14)
Country | Link |
---|---|
US (2) | US7259747B2 (de) |
EP (1) | EP1393549B1 (de) |
JP (1) | JP4077787B2 (de) |
KR (1) | KR100847795B1 (de) |
CN (2) | CN102033608B (de) |
AT (1) | ATE336860T1 (de) |
BR (1) | BR0210162A (de) |
CA (1) | CA2449300C (de) |
DE (1) | DE60213975T2 (de) |
ES (1) | ES2271272T3 (de) |
IL (1) | IL159207A0 (de) |
MX (1) | MXPA03011203A (de) |
RU (1) | RU2298294C2 (de) |
WO (1) | WO2002100094A2 (de) |
Families Citing this family (545)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8352400B2 (en) | 1991-12-23 | 2013-01-08 | Hoffberg Steven M | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore |
US7966078B2 (en) | 1999-02-01 | 2011-06-21 | Steven Hoffberg | Network media appliance system and method |
US6982649B2 (en) | 1999-05-04 | 2006-01-03 | Intellimats, Llc | Floor display system with interactive features |
US7009523B2 (en) * | 1999-05-04 | 2006-03-07 | Intellimats, Llc | Modular protective structure for floor display |
US7259747B2 (en) | 2001-06-05 | 2007-08-21 | Reactrix Systems, Inc. | Interactive video display system |
US8035612B2 (en) | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
US8300042B2 (en) | 2001-06-05 | 2012-10-30 | Microsoft Corporation | Interactive video display system using strobed light |
US7088684B2 (en) * | 2001-07-16 | 2006-08-08 | International Business Machines Corporation | Methods and arrangements for dynamically modifying subsource address multicast data distribution trees |
US20030063052A1 (en) * | 2001-09-28 | 2003-04-03 | Rebh Richard G. | Methods and systems of conveying information with an electroluminescent display |
US6990639B2 (en) | 2002-02-07 | 2006-01-24 | Microsoft Corporation | System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration |
US20050122308A1 (en) * | 2002-05-28 | 2005-06-09 | Matthew Bell | Self-contained interactive video display system |
US7710391B2 (en) | 2002-05-28 | 2010-05-04 | Matthew Bell | Processing an image utilizing a spatially varying pattern |
US7646372B2 (en) * | 2003-09-15 | 2010-01-12 | Sony Computer Entertainment Inc. | Methods and systems for enabling direction detection when interfacing with a computer program |
AU2003291320A1 (en) * | 2002-11-05 | 2004-06-07 | Disney Enterprises, Inc. | Video actuated interactive environment |
US7671843B2 (en) * | 2002-11-12 | 2010-03-02 | Steve Montellese | Virtual holographic input method and device |
WO2004055776A1 (en) | 2002-12-13 | 2004-07-01 | Reactrix Systems | Interactive directed light/sound system |
US20100262489A1 (en) * | 2002-12-13 | 2010-10-14 | Robert Salinas | Mobile enabled advertising and marketing methods for computer games, simulations, demonstrations, and the like |
US6840627B2 (en) | 2003-01-21 | 2005-01-11 | Hewlett-Packard Development Company, L.P. | Interactive display device |
JP3849654B2 (ja) * | 2003-02-21 | 2006-11-22 | 株式会社日立製作所 | 投射型表示装置 |
US8745541B2 (en) | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US7665041B2 (en) | 2003-03-25 | 2010-02-16 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US7428997B2 (en) * | 2003-07-29 | 2008-09-30 | Microvision, Inc. | Method and apparatus for illuminating a field-of-view and capturing an image |
IL157156A0 (en) * | 2003-07-29 | 2004-08-31 | Rafael Armament Dev Authority | Predictive display for system having delayed feedback of a command issued |
GB2406634A (en) * | 2003-10-02 | 2005-04-06 | Mathmos Ltd | An object sensing lighting apparatus |
WO2005041579A2 (en) * | 2003-10-24 | 2005-05-06 | Reactrix Systems, Inc. | Method and system for processing captured image information in an interactive video display system |
WO2005041578A2 (en) * | 2003-10-24 | 2005-05-06 | Reactrix Systems, Inc. | Method and system for managing an interactive video display system |
KR100588042B1 (ko) * | 2004-01-14 | 2006-06-09 | 한국과학기술연구원 | 인터액티브 프레젠테이션 시스템 |
JP4559092B2 (ja) * | 2004-01-30 | 2010-10-06 | 株式会社エヌ・ティ・ティ・ドコモ | 携帯通信端末及びプログラム |
JP2005276139A (ja) * | 2004-02-23 | 2005-10-06 | Aruze Corp | 情報入力装置 |
EP1743277A4 (de) * | 2004-04-15 | 2011-07-06 | Gesturetek Inc | Verfolgung bimanueller bewegungen |
US7467380B2 (en) * | 2004-05-05 | 2008-12-16 | Microsoft Corporation | Invoking applications with virtual objects on an interactive display |
US20050265580A1 (en) * | 2004-05-27 | 2005-12-01 | Paul Antonucci | System and method for a motion visualizer |
EP1759379A2 (de) | 2004-06-01 | 2007-03-07 | Michael A. Vesely | Horizontale perspektivische anzeige |
KR100616532B1 (ko) * | 2004-06-07 | 2006-08-28 | 조열 | 광고 콘텐츠 제공방법 |
US7593593B2 (en) | 2004-06-16 | 2009-09-22 | Microsoft Corporation | Method and system for reducing effects of undesired signals in an infrared imaging system |
US20080259289A1 (en) * | 2004-09-21 | 2008-10-23 | Nikon Corporation | Projector Device, Portable Telephone and Camera |
US7433760B2 (en) | 2004-10-28 | 2008-10-07 | Accelerated Pictures, Inc. | Camera and animation controller, systems and methods |
US20060126926A1 (en) * | 2004-11-30 | 2006-06-15 | Vesely Michael A | Horizontal perspective representation |
US8508710B2 (en) | 2004-12-02 | 2013-08-13 | Hewlett-Packard Development Company, L.P. | Display panel |
CN101622630B (zh) * | 2005-01-07 | 2012-07-04 | 高通股份有限公司 | 检测和跟踪图像中的物体 |
US20070189544A1 (en) | 2005-01-15 | 2007-08-16 | Outland Research, Llc | Ambient sound responsive media player |
CN101147188B (zh) * | 2005-01-21 | 2010-09-29 | 格斯图尔泰克股份有限公司 | 图像处理中基于运动的跟踪的方法和*** |
WO2006085834A1 (en) * | 2005-01-28 | 2006-08-17 | Microvision, Inc. | Method and apparatus for illuminating a field-of-view and capturing an image |
US20060170871A1 (en) * | 2005-02-01 | 2006-08-03 | Dietz Paul H | Anti-blinding safety feature for projection systems |
CN101536494B (zh) * | 2005-02-08 | 2017-04-26 | 奥布隆工业有限公司 | 用于基于姿势的控制***的***和方法 |
US7760962B2 (en) * | 2005-03-30 | 2010-07-20 | Casio Computer Co., Ltd. | Image capture apparatus which synthesizes a plurality of images obtained by shooting a subject from different directions, to produce an image in which the influence of glare from a light is reduced |
US9180369B2 (en) * | 2005-04-05 | 2015-11-10 | Google Inc. | Method and system supporting audited reporting of advertising impressions from video games |
US9128519B1 (en) | 2005-04-15 | 2015-09-08 | Intellectual Ventures Holding 67 Llc | Method and system for state-based control of objects |
US20060241864A1 (en) * | 2005-04-22 | 2006-10-26 | Outland Research, Llc | Method and apparatus for point-and-send data transfer within an ubiquitous computing environment |
US8717423B2 (en) | 2005-05-09 | 2014-05-06 | Zspace, Inc. | Modifying perspective of stereoscopic images based on changes in user viewpoint |
US20060250391A1 (en) | 2005-05-09 | 2006-11-09 | Vesely Michael A | Three dimensional horizontal perspective workstation |
CN100359437C (zh) * | 2005-05-11 | 2008-01-02 | 凌阳科技股份有限公司 | 交互式影像游戏*** |
US20060262188A1 (en) * | 2005-05-20 | 2006-11-23 | Oded Elyada | System and method for detecting changes in an environment |
US20060267952A1 (en) * | 2005-05-26 | 2006-11-30 | Steve Alcorn | Interactive display table top |
US8081822B1 (en) | 2005-05-31 | 2011-12-20 | Intellectual Ventures Holding 67 Llc | System and method for sensing a feature of an object in an interactive video display |
JP2007017364A (ja) * | 2005-07-11 | 2007-01-25 | Kyoto Univ | シルエット抽出装置及び該方法並びに3次元形状データ生成装置及び該方法 |
US20070018989A1 (en) * | 2005-07-20 | 2007-01-25 | Playmotion, Llc | Sensory integration therapy system and associated method of use |
FR2889303B1 (fr) * | 2005-07-26 | 2008-07-11 | Airbus France Sas | Procede de mesure d'une anomalie de forme sur un panneau d'une structure d'aeronef et systeme de mise en oeuvre |
US8625845B2 (en) * | 2005-08-06 | 2014-01-07 | Quantum Signal, Llc | Overlaying virtual content onto video stream of people within venue based on analysis of the people within the video stream |
TWI412392B (zh) * | 2005-08-12 | 2013-10-21 | Koninkl Philips Electronics Nv | 互動式娛樂系統及其操作方法 |
US7911444B2 (en) | 2005-08-31 | 2011-03-22 | Microsoft Corporation | Input method for surface of interactive display |
US20070063981A1 (en) * | 2005-09-16 | 2007-03-22 | Galyean Tinsley A Iii | System and method for providing an interactive interface |
US8176101B2 (en) | 2006-02-07 | 2012-05-08 | Google Inc. | Collaborative rejection of media for physical establishments |
US7917148B2 (en) | 2005-09-23 | 2011-03-29 | Outland Research, Llc | Social musical media rating system and method for localized establishments |
US7697827B2 (en) | 2005-10-17 | 2010-04-13 | Konicek Jeffrey C | User-friendlier interfaces for a camera |
US8098277B1 (en) | 2005-12-02 | 2012-01-17 | Intellectual Ventures Holding 67 Llc | Systems and methods for communication between a reactive video system and a mobile communication device |
US20070145680A1 (en) * | 2005-12-15 | 2007-06-28 | Outland Research, Llc | Shake Responsive Portable Computing Device for Simulating a Randomization Object Used In a Game Of Chance |
AT503008B1 (de) * | 2005-12-16 | 2008-09-15 | Dobler & Stampfl Audite Oeg | Interaktives optisches system und verfahren zum extrahieren und verwerten von interaktionen in einem optischen system |
US7630002B2 (en) * | 2007-01-05 | 2009-12-08 | Microsoft Corporation | Specular reflection reduction using multiple cameras |
DE102006002602A1 (de) | 2006-01-13 | 2007-07-19 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Kalibrierungsverfahren und Kalibrierungssystem |
EP1983402A4 (de) * | 2006-02-03 | 2013-06-26 | Panasonic Corp | Eingabeeinrichtung und verfahren dafür |
US9823747B2 (en) | 2006-02-08 | 2017-11-21 | Oblong Industries, Inc. | Spatial, multi-modal control device for use with spatial operating system |
US8537112B2 (en) * | 2006-02-08 | 2013-09-17 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
US8537111B2 (en) * | 2006-02-08 | 2013-09-17 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
US9075441B2 (en) * | 2006-02-08 | 2015-07-07 | Oblong Industries, Inc. | Gesture based control using three-dimensional information extracted over an extended depth of field |
US9910497B2 (en) * | 2006-02-08 | 2018-03-06 | Oblong Industries, Inc. | Gestural control of autonomous and semi-autonomous systems |
US8531396B2 (en) | 2006-02-08 | 2013-09-10 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
US8370383B2 (en) | 2006-02-08 | 2013-02-05 | Oblong Industries, Inc. | Multi-process interactive systems and methods |
ITRM20060136A1 (it) * | 2006-03-10 | 2007-09-11 | Link Formazione S R L | Sistema multimediale interattivo |
US8930834B2 (en) * | 2006-03-20 | 2015-01-06 | Microsoft Corporation | Variable orientation user interface |
WO2007107874A2 (en) * | 2006-03-22 | 2007-09-27 | Home Focus Development Ltd | Interactive playmat |
US8139059B2 (en) * | 2006-03-31 | 2012-03-20 | Microsoft Corporation | Object illumination in a virtual environment |
KR100742664B1 (ko) * | 2006-05-10 | 2007-07-25 | 주식회사 플러 | 인터랙티브 영상의 디스플레이 시스템 및 방법 |
CN103778635B (zh) * | 2006-05-11 | 2016-09-28 | 苹果公司 | 用于处理数据的方法和装置 |
US7724952B2 (en) * | 2006-05-15 | 2010-05-25 | Microsoft Corporation | Object matting using flash and no-flash images |
EP2023812B1 (de) | 2006-05-19 | 2016-01-27 | The Queen's Medical Center | Bewegungsverfolgungssystem für adaptive echtzeitabbildung und -spektroskopie |
US7735730B2 (en) | 2006-05-24 | 2010-06-15 | International Business Machines Corporation | System and method for state-based execution and recovery in a payment system |
US20070292033A1 (en) * | 2006-06-19 | 2007-12-20 | Chao-Wang Hsiung | Passive and interactive real-time image recognition software method |
US8001613B2 (en) * | 2006-06-23 | 2011-08-16 | Microsoft Corporation | Security using physical objects |
US20080040692A1 (en) * | 2006-06-29 | 2008-02-14 | Microsoft Corporation | Gesture input |
JP5028038B2 (ja) * | 2006-07-06 | 2012-09-19 | クラリオン株式会社 | 車載表示装置および車載表示装置の表示方法 |
JP4707034B2 (ja) * | 2006-07-07 | 2011-06-22 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理方法、入力インタフェース装置 |
US8180114B2 (en) * | 2006-07-13 | 2012-05-15 | Northrop Grumman Systems Corporation | Gesture recognition interface system with vertical display |
US8589824B2 (en) * | 2006-07-13 | 2013-11-19 | Northrop Grumman Systems Corporation | Gesture recognition interface system |
US9696808B2 (en) | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
US8972902B2 (en) * | 2008-08-22 | 2015-03-03 | Northrop Grumman Systems Corporation | Compound gesture recognition |
US8234578B2 (en) * | 2006-07-25 | 2012-07-31 | Northrop Grumman Systems Corporatiom | Networked gesture collaboration system |
US20080028312A1 (en) * | 2006-07-28 | 2008-01-31 | Accelerated Pictures, Inc. | Scene organization in computer-assisted filmmaking |
WO2008014486A2 (en) * | 2006-07-28 | 2008-01-31 | Accelerated Pictures, Inc. | Improved camera control |
US8432448B2 (en) * | 2006-08-10 | 2013-04-30 | Northrop Grumman Systems Corporation | Stereo camera intrusion detection system |
US7693331B2 (en) * | 2006-08-30 | 2010-04-06 | Mitsubishi Electric Research Laboratories, Inc. | Object segmentation using visible and infrared images |
WO2008058277A2 (en) * | 2006-11-09 | 2008-05-15 | Smartdrive Systems, Inc. | Video event recorders having integrated illumination sources |
EP2613281B1 (de) | 2006-12-29 | 2014-08-13 | Qualcomm Incorporated | Bearbeitung virtueller Objekte mithilfe eines erweiterten interaktiven Systems |
US8212857B2 (en) | 2007-01-26 | 2012-07-03 | Microsoft Corporation | Alternating light sources to reduce specular reflection |
US8116518B2 (en) * | 2007-02-15 | 2012-02-14 | Qualcomm Incorporated | Enhanced input using flashing electromagnetic radiation |
US8005238B2 (en) | 2007-03-22 | 2011-08-23 | Microsoft Corporation | Robust adaptive beamforming with enhanced noise suppression |
US9171399B2 (en) * | 2013-03-12 | 2015-10-27 | Autodesk, Inc. | Shadow rendering in a 3D scene based on physical light sources |
US20080252596A1 (en) * | 2007-04-10 | 2008-10-16 | Matthew Bell | Display Using a Three-Dimensional vision System |
US20080262909A1 (en) * | 2007-04-18 | 2008-10-23 | Microsoft Corporation | Intelligent information display |
KR101545360B1 (ko) | 2007-04-24 | 2015-08-19 | 오블롱 인더스트리즈, 인크 | 프로세싱 환경에서의 프로틴, 풀 및 슬럭스 |
WO2008134745A1 (en) * | 2007-04-30 | 2008-11-06 | Gesturetek, Inc. | Mobile video-based therapy |
US8005237B2 (en) | 2007-05-17 | 2011-08-23 | Microsoft Corp. | Sensor array beamformer post-processor |
US7808532B2 (en) | 2007-05-29 | 2010-10-05 | Microsoft Corporation | Strategies for extracting foreground information using flash and no-flash image pairs |
EP2017526A1 (de) * | 2007-06-13 | 2009-01-21 | Royal College Of Art | Lenkbares Licht |
US20080316432A1 (en) * | 2007-06-25 | 2008-12-25 | Spotless, Llc | Digital Image Projection System |
US20110001935A1 (en) * | 2007-06-25 | 2011-01-06 | Spotless, Llc | Digital image projection system |
US8726194B2 (en) | 2007-07-27 | 2014-05-13 | Qualcomm Incorporated | Item selection using enhanced control |
US20090059094A1 (en) * | 2007-09-04 | 2009-03-05 | Samsung Techwin Co., Ltd. | Apparatus and method for overlaying image in video presentation system having embedded operating system |
JP5430572B2 (ja) | 2007-09-14 | 2014-03-05 | インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー | ジェスチャベースのユーザインタラクションの処理 |
US8218811B2 (en) | 2007-09-28 | 2012-07-10 | Uti Limited Partnership | Method and system for video interaction based on motion swarms |
US20090086027A1 (en) * | 2007-10-01 | 2009-04-02 | Benjamin Antonio Chaykin | Method And System For Providing Images And Graphics |
US8629976B2 (en) | 2007-10-02 | 2014-01-14 | Microsoft Corporation | Methods and systems for hierarchical de-aliasing time-of-flight (TOF) systems |
US7874681B2 (en) * | 2007-10-05 | 2011-01-25 | Huebner Kenneth J | Interactive projector system and method |
US8139110B2 (en) * | 2007-11-01 | 2012-03-20 | Northrop Grumman Systems Corporation | Calibration of a gesture recognition interface system |
US9377874B2 (en) * | 2007-11-02 | 2016-06-28 | Northrop Grumman Systems Corporation | Gesture recognition light and video image projector |
US8159682B2 (en) | 2007-11-12 | 2012-04-17 | Intellectual Ventures Holding 67 Llc | Lens system |
US20090124382A1 (en) * | 2007-11-13 | 2009-05-14 | David Lachance | Interactive image projection system and method |
KR101079598B1 (ko) * | 2007-12-18 | 2011-11-03 | 삼성전자주식회사 | 디스플레이장치 및 그 제어방법 |
US8166421B2 (en) * | 2008-01-14 | 2012-04-24 | Primesense Ltd. | Three-dimensional user interface |
US9035876B2 (en) | 2008-01-14 | 2015-05-19 | Apple Inc. | Three-dimensional user interface session control |
US8933876B2 (en) | 2010-12-13 | 2015-01-13 | Apple Inc. | Three dimensional user interface session control |
KR101335346B1 (ko) * | 2008-02-27 | 2013-12-05 | 소니 컴퓨터 엔터테인먼트 유럽 리미티드 | 장면의 심도 데이터를 포착하고, 컴퓨터 액션을 적용하기 위한 방법들 |
US20090219253A1 (en) * | 2008-02-29 | 2009-09-03 | Microsoft Corporation | Interactive Surface Computer with Switchable Diffuser |
US7946922B2 (en) * | 2008-03-05 | 2011-05-24 | Howard Hung Yin | Advertising funded gaming system |
US8259163B2 (en) | 2008-03-07 | 2012-09-04 | Intellectual Ventures Holding 67 Llc | Display with built in 3D sensing |
US8194233B2 (en) | 2008-04-11 | 2012-06-05 | Microsoft Corporation | Method and system to reduce stray light reflection error in time-of-flight sensor arrays |
US10642364B2 (en) | 2009-04-02 | 2020-05-05 | Oblong Industries, Inc. | Processing tracking and recognition data in gestural recognition systems |
US9684380B2 (en) | 2009-04-02 | 2017-06-20 | Oblong Industries, Inc. | Operating environment with gestural control and multiple client devices, displays, and users |
US9952673B2 (en) | 2009-04-02 | 2018-04-24 | Oblong Industries, Inc. | Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control |
US9740922B2 (en) | 2008-04-24 | 2017-08-22 | Oblong Industries, Inc. | Adaptive tracking system for spatial input devices |
US8723795B2 (en) | 2008-04-24 | 2014-05-13 | Oblong Industries, Inc. | Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes |
US9740293B2 (en) | 2009-04-02 | 2017-08-22 | Oblong Industries, Inc. | Operating environment with gestural control and multiple client devices, displays, and users |
US9495013B2 (en) | 2008-04-24 | 2016-11-15 | Oblong Industries, Inc. | Multi-modal gestural interface |
US8405727B2 (en) * | 2008-05-01 | 2013-03-26 | Apple Inc. | Apparatus and method for calibrating image capture devices |
CN101306249B (zh) * | 2008-05-30 | 2011-09-14 | 北京中星微电子有限公司 | 动作分析装置和方法 |
US8595218B2 (en) | 2008-06-12 | 2013-11-26 | Intellectual Ventures Holding 67 Llc | Interactive display management systems and methods |
KR101652535B1 (ko) * | 2008-06-18 | 2016-08-30 | 오블롱 인더스트리즈, 인크 | 차량 인터페이스를 위한 제스처 기반 제어 시스템 |
US8385557B2 (en) | 2008-06-19 | 2013-02-26 | Microsoft Corporation | Multichannel acoustic echo reduction |
US8345920B2 (en) * | 2008-06-20 | 2013-01-01 | Northrop Grumman Systems Corporation | Gesture recognition interface system with a light-diffusive screen |
US8325909B2 (en) | 2008-06-25 | 2012-12-04 | Microsoft Corporation | Acoustic echo suppression |
US8203699B2 (en) | 2008-06-30 | 2012-06-19 | Microsoft Corporation | System architecture design for time-of-flight system having reduced differential pixel size, and time-of-flight systems so designed |
US7515136B1 (en) | 2008-07-31 | 2009-04-07 | International Business Machines Corporation | Collaborative and situationally aware active billboards |
RU2461143C2 (ru) * | 2008-08-13 | 2012-09-10 | Александр Львович Шведов | Способ создания эффекта виртуального присутствия с комбинированным видеоизображением |
WO2010027291A1 (ru) * | 2008-09-08 | 2010-03-11 | Rurin Oleg Stanislavovich | Способ отображения информации |
US8508671B2 (en) | 2008-09-08 | 2013-08-13 | Apple Inc. | Projection systems and methods |
US8538084B2 (en) * | 2008-09-08 | 2013-09-17 | Apple Inc. | Method and apparatus for depth sensing keystoning |
US20100064213A1 (en) * | 2008-09-10 | 2010-03-11 | Zhou Ye | Operation device for a graphical user interface |
US8610726B2 (en) * | 2008-09-26 | 2013-12-17 | Apple Inc. | Computer systems and methods with projected display |
US8527908B2 (en) | 2008-09-26 | 2013-09-03 | Apple Inc. | Computer user interface system and methods |
US7881603B2 (en) * | 2008-09-26 | 2011-02-01 | Apple Inc. | Dichroic aperture for electronic imaging device |
US20100079426A1 (en) * | 2008-09-26 | 2010-04-01 | Apple Inc. | Spatial ambient light profiling |
US9134540B2 (en) * | 2008-10-28 | 2015-09-15 | Koninklijke Philips N.V. | Three dimensional display system |
US9383814B1 (en) | 2008-11-12 | 2016-07-05 | David G. Capper | Plug and play wireless video game |
US9586135B1 (en) | 2008-11-12 | 2017-03-07 | David G. Capper | Video motion capture for wireless gaming |
US10086262B1 (en) | 2008-11-12 | 2018-10-02 | David G. Capper | Video motion capture for wireless gaming |
GB2466497B (en) | 2008-12-24 | 2011-09-14 | Light Blue Optics Ltd | Touch sensitive holographic displays |
US8903191B2 (en) * | 2008-12-30 | 2014-12-02 | Intel Corporation | Method and apparatus for noise reduction in video |
US8681321B2 (en) | 2009-01-04 | 2014-03-25 | Microsoft International Holdings B.V. | Gated 3D camera |
KR20100084338A (ko) * | 2009-01-16 | 2010-07-26 | 삼성전자주식회사 | 이미지 드로잉 방법 및 장치 |
US8588465B2 (en) | 2009-01-30 | 2013-11-19 | Microsoft Corporation | Visual target tracking |
US8487938B2 (en) | 2009-01-30 | 2013-07-16 | Microsoft Corporation | Standard Gestures |
US8565477B2 (en) | 2009-01-30 | 2013-10-22 | Microsoft Corporation | Visual target tracking |
US8565476B2 (en) | 2009-01-30 | 2013-10-22 | Microsoft Corporation | Visual target tracking |
US7996793B2 (en) | 2009-01-30 | 2011-08-09 | Microsoft Corporation | Gesture recognizer system architecture |
US8267781B2 (en) | 2009-01-30 | 2012-09-18 | Microsoft Corporation | Visual target tracking |
US8448094B2 (en) | 2009-01-30 | 2013-05-21 | Microsoft Corporation | Mapping a natural input device to a legacy system |
US8294767B2 (en) | 2009-01-30 | 2012-10-23 | Microsoft Corporation | Body scan |
US8682028B2 (en) | 2009-01-30 | 2014-03-25 | Microsoft Corporation | Visual target tracking |
US8577085B2 (en) | 2009-01-30 | 2013-11-05 | Microsoft Corporation | Visual target tracking |
US8295546B2 (en) | 2009-01-30 | 2012-10-23 | Microsoft Corporation | Pose tracking pipeline |
US9652030B2 (en) | 2009-01-30 | 2017-05-16 | Microsoft Technology Licensing, Llc | Navigation of a virtual plane using a zone of restriction for canceling noise |
US8577084B2 (en) | 2009-01-30 | 2013-11-05 | Microsoft Corporation | Visual target tracking |
US20100199231A1 (en) | 2009-01-30 | 2010-08-05 | Microsoft Corporation | Predictive determination |
US8624962B2 (en) * | 2009-02-02 | 2014-01-07 | Ydreams—Informatica, S.A. Ydreams | Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images |
US8773355B2 (en) | 2009-03-16 | 2014-07-08 | Microsoft Corporation | Adaptive cursor sizing |
US8988437B2 (en) | 2009-03-20 | 2015-03-24 | Microsoft Technology Licensing, Llc | Chaining animations |
US9256282B2 (en) | 2009-03-20 | 2016-02-09 | Microsoft Technology Licensing, Llc | Virtual object manipulation |
US8291328B2 (en) * | 2009-03-24 | 2012-10-16 | Disney Enterprises, Inc. | System and method for synchronizing a real-time performance with a virtual object |
US8375311B2 (en) * | 2009-03-24 | 2013-02-12 | Disney Enterprises, Inc. | System and method for determining placement of a virtual object according to a real-time performance |
US9313376B1 (en) | 2009-04-01 | 2016-04-12 | Microsoft Technology Licensing, Llc | Dynamic depth power equalization |
ITRM20090153A1 (it) * | 2009-04-01 | 2010-10-02 | Stark Srl | Modulo integrato di proiettore interattivo |
US10824238B2 (en) | 2009-04-02 | 2020-11-03 | Oblong Industries, Inc. | Operating environment with gestural control and multiple client devices, displays, and users |
US9317128B2 (en) | 2009-04-02 | 2016-04-19 | Oblong Industries, Inc. | Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control |
US8503720B2 (en) | 2009-05-01 | 2013-08-06 | Microsoft Corporation | Human body pose estimation |
US9015638B2 (en) | 2009-05-01 | 2015-04-21 | Microsoft Technology Licensing, Llc | Binding users to a gesture based system and providing feedback to the users |
US8638985B2 (en) * | 2009-05-01 | 2014-01-28 | Microsoft Corporation | Human body pose estimation |
US9377857B2 (en) | 2009-05-01 | 2016-06-28 | Microsoft Technology Licensing, Llc | Show body position |
US8942428B2 (en) | 2009-05-01 | 2015-01-27 | Microsoft Corporation | Isolate extraneous motions |
US20100277470A1 (en) * | 2009-05-01 | 2010-11-04 | Microsoft Corporation | Systems And Methods For Applying Model Tracking To Motion Capture |
US8660303B2 (en) | 2009-05-01 | 2014-02-25 | Microsoft Corporation | Detection of body and props |
US8181123B2 (en) | 2009-05-01 | 2012-05-15 | Microsoft Corporation | Managing virtual port associations to users in a gesture-based computing environment |
US8253746B2 (en) | 2009-05-01 | 2012-08-28 | Microsoft Corporation | Determine intended motions |
US9898675B2 (en) | 2009-05-01 | 2018-02-20 | Microsoft Technology Licensing, Llc | User movement tracking feedback to improve tracking |
US9498718B2 (en) | 2009-05-01 | 2016-11-22 | Microsoft Technology Licensing, Llc | Altering a view perspective within a display environment |
US8649554B2 (en) | 2009-05-01 | 2014-02-11 | Microsoft Corporation | Method to control perspective for a camera-controlled computer |
US8340432B2 (en) | 2009-05-01 | 2012-12-25 | Microsoft Corporation | Systems and methods for detecting a tilt angle from a depth image |
US20100295782A1 (en) | 2009-05-21 | 2010-11-25 | Yehuda Binder | System and method for control based on face ore hand gesture detection |
US8418085B2 (en) | 2009-05-29 | 2013-04-09 | Microsoft Corporation | Gesture coach |
US8379101B2 (en) | 2009-05-29 | 2013-02-19 | Microsoft Corporation | Environment and/or target segmentation |
US9400559B2 (en) | 2009-05-29 | 2016-07-26 | Microsoft Technology Licensing, Llc | Gesture shortcuts |
US9383823B2 (en) | 2009-05-29 | 2016-07-05 | Microsoft Technology Licensing, Llc | Combining gestures beyond skeletal |
US8693724B2 (en) | 2009-05-29 | 2014-04-08 | Microsoft Corporation | Method and system implementing user-centric gesture control |
US8509479B2 (en) | 2009-05-29 | 2013-08-13 | Microsoft Corporation | Virtual object |
US8542252B2 (en) | 2009-05-29 | 2013-09-24 | Microsoft Corporation | Target digitization, extraction, and tracking |
US8744121B2 (en) | 2009-05-29 | 2014-06-03 | Microsoft Corporation | Device for identifying and tracking multiple humans over time |
US8320619B2 (en) | 2009-05-29 | 2012-11-27 | Microsoft Corporation | Systems and methods for tracking a model |
US8856691B2 (en) | 2009-05-29 | 2014-10-07 | Microsoft Corporation | Gesture tool |
US9182814B2 (en) | 2009-05-29 | 2015-11-10 | Microsoft Technology Licensing, Llc | Systems and methods for estimating a non-visible or occluded body part |
US8625837B2 (en) | 2009-05-29 | 2014-01-07 | Microsoft Corporation | Protocol and format for communicating an image from a camera to a computing environment |
US8487871B2 (en) | 2009-06-01 | 2013-07-16 | Microsoft Corporation | Virtual desktop coordinate transformation |
US8223196B2 (en) * | 2009-06-10 | 2012-07-17 | Disney Enterprises, Inc. | Projector systems and methods for producing digitally augmented, interactive cakes and other food products |
JP5553546B2 (ja) * | 2009-07-07 | 2014-07-16 | キヤノン株式会社 | 画像投影装置、及びその制御方法 |
US8390680B2 (en) | 2009-07-09 | 2013-03-05 | Microsoft Corporation | Visual representation expression based on player expression |
US9159151B2 (en) | 2009-07-13 | 2015-10-13 | Microsoft Technology Licensing, Llc | Bringing a visual representation to life via learned input from the user |
TW201104494A (en) * | 2009-07-20 | 2011-02-01 | J Touch Corp | Stereoscopic image interactive system |
US8727875B2 (en) * | 2009-07-27 | 2014-05-20 | Obscura Digital, Inc. | Automated enhancements for billiards and the like |
US8847984B2 (en) * | 2009-07-27 | 2014-09-30 | Disney Enterprises, Inc. | System and method for forming a composite image in a portable computing device having a dual screen display |
US8616971B2 (en) | 2009-07-27 | 2013-12-31 | Obscura Digital, Inc. | Automated enhancements for billiards and the like |
US8992315B2 (en) * | 2009-07-27 | 2015-03-31 | Obscura Digital, Inc. | Automated enhancements for billiards and the like |
KR101276199B1 (ko) * | 2009-08-10 | 2013-06-18 | 한국전자통신연구원 | 시청자 참여의 iptv 원격 방송 시스템 및 그 서비스 제공 방법 |
US8565479B2 (en) * | 2009-08-13 | 2013-10-22 | Primesense Ltd. | Extraction of skeletons from 3D maps |
US8264536B2 (en) | 2009-08-25 | 2012-09-11 | Microsoft Corporation | Depth-sensitive imaging via polarization-state mapping |
US9141193B2 (en) | 2009-08-31 | 2015-09-22 | Microsoft Technology Licensing, Llc | Techniques for using human gestures to control gesture unaware programs |
US8508919B2 (en) | 2009-09-14 | 2013-08-13 | Microsoft Corporation | Separation of electrical and optical components |
US8330134B2 (en) | 2009-09-14 | 2012-12-11 | Microsoft Corporation | Optical fault monitoring |
US8428340B2 (en) | 2009-09-21 | 2013-04-23 | Microsoft Corporation | Screen space plane identification |
US8976986B2 (en) | 2009-09-21 | 2015-03-10 | Microsoft Technology Licensing, Llc | Volume adjustment based on listener position |
US8760571B2 (en) | 2009-09-21 | 2014-06-24 | Microsoft Corporation | Alignment of lens and image sensor |
US9014546B2 (en) | 2009-09-23 | 2015-04-21 | Rovi Guides, Inc. | Systems and methods for automatically detecting users within detection regions of media devices |
US8452087B2 (en) | 2009-09-30 | 2013-05-28 | Microsoft Corporation | Image selection techniques |
US8619128B2 (en) | 2009-09-30 | 2013-12-31 | Apple Inc. | Systems and methods for an imaging system using multiple image sensors |
US8502926B2 (en) * | 2009-09-30 | 2013-08-06 | Apple Inc. | Display system having coherent and incoherent light sources |
US8723118B2 (en) | 2009-10-01 | 2014-05-13 | Microsoft Corporation | Imager for constructing color and depth images |
US8564534B2 (en) | 2009-10-07 | 2013-10-22 | Microsoft Corporation | Human tracking system |
US8963829B2 (en) | 2009-10-07 | 2015-02-24 | Microsoft Corporation | Methods and systems for determining and tracking extremities of a target |
US7961910B2 (en) | 2009-10-07 | 2011-06-14 | Microsoft Corporation | Systems and methods for tracking a model |
US8547327B2 (en) * | 2009-10-07 | 2013-10-01 | Qualcomm Incorporated | Proximity object tracker |
US8867820B2 (en) * | 2009-10-07 | 2014-10-21 | Microsoft Corporation | Systems and methods for removing a background of an image |
US9933852B2 (en) | 2009-10-14 | 2018-04-03 | Oblong Industries, Inc. | Multi-process interactive systems and methods |
US9971807B2 (en) | 2009-10-14 | 2018-05-15 | Oblong Industries, Inc. | Multi-process interactive systems and methods |
US9400548B2 (en) | 2009-10-19 | 2016-07-26 | Microsoft Technology Licensing, Llc | Gesture personalization and profile roaming |
US8988432B2 (en) | 2009-11-05 | 2015-03-24 | Microsoft Technology Licensing, Llc | Systems and methods for processing an image for target tracking |
US8843857B2 (en) | 2009-11-19 | 2014-09-23 | Microsoft Corporation | Distance scalable no touch computing |
US8672763B2 (en) | 2009-11-20 | 2014-03-18 | Sony Computer Entertainment Inc. | Controller for interfacing with a computing program using position, orientation, or motion |
EP2507684A2 (de) * | 2009-12-04 | 2012-10-10 | Next Holdings Limited | Verfahren und systeme zur positionserfassung |
US9244533B2 (en) | 2009-12-17 | 2016-01-26 | Microsoft Technology Licensing, Llc | Camera navigation for presentations |
US20110150271A1 (en) | 2009-12-18 | 2011-06-23 | Microsoft Corporation | Motion detection using depth images |
US8320621B2 (en) | 2009-12-21 | 2012-11-27 | Microsoft Corporation | Depth projector system with integrated VCSEL array |
US8687070B2 (en) | 2009-12-22 | 2014-04-01 | Apple Inc. | Image capture device having tilt and/or perspective correction |
US9268404B2 (en) | 2010-01-08 | 2016-02-23 | Microsoft Technology Licensing, Llc | Application gesture interpretation |
US8631355B2 (en) | 2010-01-08 | 2014-01-14 | Microsoft Corporation | Assigning gesture dictionaries |
US9019201B2 (en) * | 2010-01-08 | 2015-04-28 | Microsoft Technology Licensing, Llc | Evolving universal gesture sets |
US8334842B2 (en) | 2010-01-15 | 2012-12-18 | Microsoft Corporation | Recognizing user intent in motion capture system |
US8933884B2 (en) | 2010-01-15 | 2015-01-13 | Microsoft Corporation | Tracking groups of users in motion capture system |
US8676581B2 (en) | 2010-01-22 | 2014-03-18 | Microsoft Corporation | Speech recognition analysis via identification information |
US8265341B2 (en) | 2010-01-25 | 2012-09-11 | Microsoft Corporation | Voice-body identity correlation |
KR101005599B1 (ko) * | 2010-01-27 | 2011-01-05 | 주식회사 미디어프론트 | 인터랙티브 영상처리 시스템 및 방법, 그리고 인터랙티브 영상처리장치 |
US8864581B2 (en) | 2010-01-29 | 2014-10-21 | Microsoft Corporation | Visual based identitiy tracking |
US8717360B2 (en) | 2010-01-29 | 2014-05-06 | Zspace, Inc. | Presenting a view within a three dimensional scene |
US8891067B2 (en) | 2010-02-01 | 2014-11-18 | Microsoft Corporation | Multiple synchronized optical sources for time-of-flight range finding systems |
US8619122B2 (en) | 2010-02-02 | 2013-12-31 | Microsoft Corporation | Depth camera compatibility |
US8687044B2 (en) | 2010-02-02 | 2014-04-01 | Microsoft Corporation | Depth camera compatibility |
US8717469B2 (en) | 2010-02-03 | 2014-05-06 | Microsoft Corporation | Fast gating photosurface |
US8659658B2 (en) | 2010-02-09 | 2014-02-25 | Microsoft Corporation | Physical interaction zone for gesture-based user interfaces |
US8499257B2 (en) | 2010-02-09 | 2013-07-30 | Microsoft Corporation | Handles interactions for human—computer interface |
US8633890B2 (en) | 2010-02-16 | 2014-01-21 | Microsoft Corporation | Gesture detection based on joint skipping |
NL2004273C2 (en) * | 2010-02-22 | 2010-12-28 | Valeri Mischenko | Embedding humans and objects in virtual reality environments. |
US8928579B2 (en) | 2010-02-22 | 2015-01-06 | Andrew David Wilson | Interacting with an omni-directionally projected display |
US8787663B2 (en) * | 2010-03-01 | 2014-07-22 | Primesense Ltd. | Tracking body parts by combined color image and depth processing |
JP5740822B2 (ja) * | 2010-03-04 | 2015-07-01 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
US8422769B2 (en) | 2010-03-05 | 2013-04-16 | Microsoft Corporation | Image segmentation using reduced foreground training data |
US8411948B2 (en) | 2010-03-05 | 2013-04-02 | Microsoft Corporation | Up-sampling binary images for segmentation |
US8655069B2 (en) | 2010-03-05 | 2014-02-18 | Microsoft Corporation | Updating image segmentation following user input |
US20110223995A1 (en) | 2010-03-12 | 2011-09-15 | Kevin Geisner | Interacting with a computer based application |
US8279418B2 (en) * | 2010-03-17 | 2012-10-02 | Microsoft Corporation | Raster scanning for depth detection |
US8213680B2 (en) | 2010-03-19 | 2012-07-03 | Microsoft Corporation | Proxy training data for human body tracking |
US8514269B2 (en) | 2010-03-26 | 2013-08-20 | Microsoft Corporation | De-aliasing depth images |
US8523667B2 (en) | 2010-03-29 | 2013-09-03 | Microsoft Corporation | Parental control settings based on body dimensions |
US8605763B2 (en) | 2010-03-31 | 2013-12-10 | Microsoft Corporation | Temperature measurement and control for laser and light-emitting diodes |
US9646340B2 (en) | 2010-04-01 | 2017-05-09 | Microsoft Technology Licensing, Llc | Avatar-based virtual dressing room |
US9098873B2 (en) | 2010-04-01 | 2015-08-04 | Microsoft Technology Licensing, Llc | Motion-based interactive shopping environment |
US8917905B1 (en) * | 2010-04-15 | 2014-12-23 | Don K. Dill | Vision-2-vision control system |
EP2378394A3 (de) * | 2010-04-15 | 2015-03-25 | Electronics and Telecommunications Research Institute | Benutzerschnittstellenvorrichtung und Verfahren zur Erkennung der Benutzerinteraktion damit |
US8351651B2 (en) | 2010-04-26 | 2013-01-08 | Microsoft Corporation | Hand-location post-process refinement in a tracking system |
US8379919B2 (en) | 2010-04-29 | 2013-02-19 | Microsoft Corporation | Multiple centroid condensation of probability distribution clouds |
US20110267264A1 (en) * | 2010-04-29 | 2011-11-03 | Mccarthy John | Display system with multiple optical sensors |
US8284847B2 (en) | 2010-05-03 | 2012-10-09 | Microsoft Corporation | Detecting motion for a multifunction sensor device |
US8885890B2 (en) | 2010-05-07 | 2014-11-11 | Microsoft Corporation | Depth map confidence filtering |
US8498481B2 (en) | 2010-05-07 | 2013-07-30 | Microsoft Corporation | Image segmentation using star-convexity constraints |
US8457353B2 (en) | 2010-05-18 | 2013-06-04 | Microsoft Corporation | Gestures and gesture modifiers for manipulating a user-interface |
US8594425B2 (en) | 2010-05-31 | 2013-11-26 | Primesense Ltd. | Analysis of three-dimensional scenes |
US8803888B2 (en) | 2010-06-02 | 2014-08-12 | Microsoft Corporation | Recognition system for sharing information |
US9008355B2 (en) | 2010-06-04 | 2015-04-14 | Microsoft Technology Licensing, Llc | Automatic depth camera aiming |
US8751215B2 (en) | 2010-06-04 | 2014-06-10 | Microsoft Corporation | Machine based sign language interpreter |
US9557574B2 (en) | 2010-06-08 | 2017-01-31 | Microsoft Technology Licensing, Llc | Depth illumination and detection optics |
US8330822B2 (en) | 2010-06-09 | 2012-12-11 | Microsoft Corporation | Thermally-tuned depth camera light source |
US8749557B2 (en) | 2010-06-11 | 2014-06-10 | Microsoft Corporation | Interacting with user interface via avatar |
US9384329B2 (en) | 2010-06-11 | 2016-07-05 | Microsoft Technology Licensing, Llc | Caloric burn determination from body movement |
US8675981B2 (en) | 2010-06-11 | 2014-03-18 | Microsoft Corporation | Multi-modal gender recognition including depth data |
US8982151B2 (en) | 2010-06-14 | 2015-03-17 | Microsoft Technology Licensing, Llc | Independently processing planes of display data |
US8670029B2 (en) | 2010-06-16 | 2014-03-11 | Microsoft Corporation | Depth camera illuminator with superluminescent light-emitting diode |
US8558873B2 (en) | 2010-06-16 | 2013-10-15 | Microsoft Corporation | Use of wavefront coding to create a depth image |
US8296151B2 (en) | 2010-06-18 | 2012-10-23 | Microsoft Corporation | Compound gesture-speech commands |
US8381108B2 (en) | 2010-06-21 | 2013-02-19 | Microsoft Corporation | Natural user input for driving interactive stories |
US8416187B2 (en) | 2010-06-22 | 2013-04-09 | Microsoft Corporation | Item navigation using motion-capture data |
JP5395956B2 (ja) * | 2010-07-02 | 2014-01-22 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理システムおよび情報処理方法 |
US9789392B1 (en) * | 2010-07-09 | 2017-10-17 | Open Invention Network Llc | Action or position triggers in a game play mode |
CN102959616B (zh) | 2010-07-20 | 2015-06-10 | 苹果公司 | 自然交互的交互真实性增强 |
US9201501B2 (en) | 2010-07-20 | 2015-12-01 | Apple Inc. | Adaptive projector |
US8497897B2 (en) | 2010-08-17 | 2013-07-30 | Apple Inc. | Image capture using luminance and chrominance sensors |
US9075434B2 (en) | 2010-08-20 | 2015-07-07 | Microsoft Technology Licensing, Llc | Translating user motion into multiple object responses |
US8613666B2 (en) | 2010-08-31 | 2013-12-24 | Microsoft Corporation | User selection and navigation based on looped motions |
US20120058824A1 (en) | 2010-09-07 | 2012-03-08 | Microsoft Corporation | Scalable real-time motion recognition |
US8437506B2 (en) | 2010-09-07 | 2013-05-07 | Microsoft Corporation | System for fast, probabilistic skeletal tracking |
US8582867B2 (en) | 2010-09-16 | 2013-11-12 | Primesense Ltd | Learning-based pose estimation from depth maps |
US8638364B2 (en) * | 2010-09-23 | 2014-01-28 | Sony Computer Entertainment Inc. | User interface system and method using thermal imaging |
US8538132B2 (en) | 2010-09-24 | 2013-09-17 | Apple Inc. | Component concentricity |
US8988508B2 (en) | 2010-09-24 | 2015-03-24 | Microsoft Technology Licensing, Llc. | Wide angle field of view active illumination imaging system |
US8959013B2 (en) | 2010-09-27 | 2015-02-17 | Apple Inc. | Virtual keyboard for a non-tactile three dimensional user interface |
US8681255B2 (en) | 2010-09-28 | 2014-03-25 | Microsoft Corporation | Integrated low power depth camera and projection device |
US9805617B2 (en) * | 2010-09-29 | 2017-10-31 | Hae-Yong Choi | System for screen dance studio |
US8548270B2 (en) | 2010-10-04 | 2013-10-01 | Microsoft Corporation | Time-of-flight depth imaging |
US9484065B2 (en) | 2010-10-15 | 2016-11-01 | Microsoft Technology Licensing, Llc | Intelligent determination of replays based on event identification |
US9195345B2 (en) * | 2010-10-28 | 2015-11-24 | Microsoft Technology Licensing, Llc | Position aware gestures with visual feedback as input method |
EP2635952B1 (de) * | 2010-11-01 | 2021-01-06 | InterDigital CE Patent Holdings | Verfahren und vorrichtung zur erkennung von gesteneingaben |
US8592739B2 (en) | 2010-11-02 | 2013-11-26 | Microsoft Corporation | Detection of configuration changes of an optical element in an illumination system |
US8866889B2 (en) | 2010-11-03 | 2014-10-21 | Microsoft Corporation | In-home depth camera calibration |
US8667519B2 (en) | 2010-11-12 | 2014-03-04 | Microsoft Corporation | Automatic passive and anonymous feedback system |
US10726861B2 (en) | 2010-11-15 | 2020-07-28 | Microsoft Technology Licensing, Llc | Semi-private communication in open environments |
US9349040B2 (en) | 2010-11-19 | 2016-05-24 | Microsoft Technology Licensing, Llc | Bi-modal depth-image analysis |
GB2487043B (en) * | 2010-12-14 | 2013-08-14 | Epson Norway Res And Dev As | Camera-based multi-touch interaction and illumination system and method |
US10234545B2 (en) | 2010-12-01 | 2019-03-19 | Microsoft Technology Licensing, Llc | Light source module |
US8872762B2 (en) | 2010-12-08 | 2014-10-28 | Primesense Ltd. | Three dimensional user interface cursor control |
US8553934B2 (en) | 2010-12-08 | 2013-10-08 | Microsoft Corporation | Orienting the position of a sensor |
US8618405B2 (en) | 2010-12-09 | 2013-12-31 | Microsoft Corp. | Free-space gesture musical instrument digital interface (MIDI) controller |
US8408706B2 (en) | 2010-12-13 | 2013-04-02 | Microsoft Corporation | 3D gaze tracker |
US9171264B2 (en) | 2010-12-15 | 2015-10-27 | Microsoft Technology Licensing, Llc | Parallel processing machine learning decision tree training |
US8920241B2 (en) | 2010-12-15 | 2014-12-30 | Microsoft Corporation | Gesture controlled persistent handles for interface guides |
US8884968B2 (en) | 2010-12-15 | 2014-11-11 | Microsoft Corporation | Modeling an object from image data |
US8448056B2 (en) | 2010-12-17 | 2013-05-21 | Microsoft Corporation | Validation analysis of human target |
US8803952B2 (en) | 2010-12-20 | 2014-08-12 | Microsoft Corporation | Plural detector time-of-flight depth mapping |
US9823339B2 (en) | 2010-12-21 | 2017-11-21 | Microsoft Technology Licensing, Llc | Plural anode time-of-flight sensor |
US9848106B2 (en) | 2010-12-21 | 2017-12-19 | Microsoft Technology Licensing, Llc | Intelligent gameplay photo capture |
US8385596B2 (en) | 2010-12-21 | 2013-02-26 | Microsoft Corporation | First person shooter control with virtual skeleton |
US9821224B2 (en) | 2010-12-21 | 2017-11-21 | Microsoft Technology Licensing, Llc | Driving simulator control with virtual skeleton |
US8994718B2 (en) | 2010-12-21 | 2015-03-31 | Microsoft Technology Licensing, Llc | Skeletal control of three-dimensional virtual world |
US8845107B1 (en) * | 2010-12-23 | 2014-09-30 | Rawles Llc | Characterization of a scene with structured light |
US8905551B1 (en) | 2010-12-23 | 2014-12-09 | Rawles Llc | Unpowered augmented reality projection accessory display device |
US9123316B2 (en) | 2010-12-27 | 2015-09-01 | Microsoft Technology Licensing, Llc | Interactive content creation |
US8488888B2 (en) | 2010-12-28 | 2013-07-16 | Microsoft Corporation | Classification of posture states |
US9247238B2 (en) | 2011-01-31 | 2016-01-26 | Microsoft Technology Licensing, Llc | Reducing interference between multiple infra-red depth cameras |
US8587583B2 (en) | 2011-01-31 | 2013-11-19 | Microsoft Corporation | Three-dimensional environment reconstruction |
US8401225B2 (en) | 2011-01-31 | 2013-03-19 | Microsoft Corporation | Moving object segmentation using depth images |
US8401242B2 (en) | 2011-01-31 | 2013-03-19 | Microsoft Corporation | Real-time camera tracking using depth maps |
US8724887B2 (en) * | 2011-02-03 | 2014-05-13 | Microsoft Corporation | Environmental modifications to mitigate environmental factors |
EP3527121B1 (de) | 2011-02-09 | 2023-08-23 | Apple Inc. | Gestenerfassung in einer umgebung zur 3d-bildgebung |
US8942917B2 (en) | 2011-02-14 | 2015-01-27 | Microsoft Corporation | Change invariant scene recognition by an agent |
US8497838B2 (en) | 2011-02-16 | 2013-07-30 | Microsoft Corporation | Push actuation of interface controls |
US9551914B2 (en) | 2011-03-07 | 2017-01-24 | Microsoft Technology Licensing, Llc | Illuminator with refractive optical element |
US9067136B2 (en) | 2011-03-10 | 2015-06-30 | Microsoft Technology Licensing, Llc | Push personalization of interface controls |
DE202011108622U1 (de) * | 2011-03-11 | 2012-01-23 | Automate Images Gmbh | Vorrichtung zur freigestellten Abbildung eines Objekts |
US8571263B2 (en) | 2011-03-17 | 2013-10-29 | Microsoft Corporation | Predicting joint positions |
US9470778B2 (en) | 2011-03-29 | 2016-10-18 | Microsoft Technology Licensing, Llc | Learning from high quality depth measurements |
US9298287B2 (en) | 2011-03-31 | 2016-03-29 | Microsoft Technology Licensing, Llc | Combined activation for natural user interface systems |
US9760566B2 (en) | 2011-03-31 | 2017-09-12 | Microsoft Technology Licensing, Llc | Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof |
US9842168B2 (en) | 2011-03-31 | 2017-12-12 | Microsoft Technology Licensing, Llc | Task driven user intents |
US10642934B2 (en) | 2011-03-31 | 2020-05-05 | Microsoft Technology Licensing, Llc | Augmented conversational understanding architecture |
KR20120113058A (ko) | 2011-04-04 | 2012-10-12 | 한국전자통신연구원 | 현실-가상 융합 공간 기반의 교육 장치 및 방법 |
US8503494B2 (en) | 2011-04-05 | 2013-08-06 | Microsoft Corporation | Thermal management system |
US8824749B2 (en) | 2011-04-05 | 2014-09-02 | Microsoft Corporation | Biometric recognition |
US8620113B2 (en) | 2011-04-25 | 2013-12-31 | Microsoft Corporation | Laser diode modes |
US8702507B2 (en) | 2011-04-28 | 2014-04-22 | Microsoft Corporation | Manual and camera-based avatar control |
US9259643B2 (en) | 2011-04-28 | 2016-02-16 | Microsoft Technology Licensing, Llc | Control of separate computer game elements |
US10671841B2 (en) | 2011-05-02 | 2020-06-02 | Microsoft Technology Licensing, Llc | Attribute state classification |
US8888331B2 (en) | 2011-05-09 | 2014-11-18 | Microsoft Corporation | Low inductance light source module |
US9137463B2 (en) | 2011-05-12 | 2015-09-15 | Microsoft Technology Licensing, Llc | Adaptive high dynamic range camera |
US9064006B2 (en) | 2012-08-23 | 2015-06-23 | Microsoft Technology Licensing, Llc | Translating natural language utterances to keyword search queries |
US8786529B1 (en) | 2011-05-18 | 2014-07-22 | Zspace, Inc. | Liquid crystal variable drive voltage |
US8788973B2 (en) | 2011-05-23 | 2014-07-22 | Microsoft Corporation | Three-dimensional gesture controlled avatar configuration interface |
CN103548073B (zh) * | 2011-05-25 | 2016-09-14 | 皇家飞利浦有限公司 | 用于表面的识别*** |
US8760395B2 (en) | 2011-05-31 | 2014-06-24 | Microsoft Corporation | Gesture recognition techniques |
US8526734B2 (en) | 2011-06-01 | 2013-09-03 | Microsoft Corporation | Three-dimensional background removal for vision system |
US9594430B2 (en) | 2011-06-01 | 2017-03-14 | Microsoft Technology Licensing, Llc | Three-dimensional foreground selection for vision system |
US9013489B2 (en) | 2011-06-06 | 2015-04-21 | Microsoft Technology Licensing, Llc | Generation of avatar reflecting player appearance |
US9208571B2 (en) | 2011-06-06 | 2015-12-08 | Microsoft Technology Licensing, Llc | Object digitization |
US8597142B2 (en) | 2011-06-06 | 2013-12-03 | Microsoft Corporation | Dynamic camera based practice mode |
US9098110B2 (en) | 2011-06-06 | 2015-08-04 | Microsoft Technology Licensing, Llc | Head rotation tracking from depth-based center of mass |
US8929612B2 (en) | 2011-06-06 | 2015-01-06 | Microsoft Corporation | System for recognizing an open or closed hand |
US9724600B2 (en) | 2011-06-06 | 2017-08-08 | Microsoft Technology Licensing, Llc | Controlling objects in a virtual environment |
US10796494B2 (en) | 2011-06-06 | 2020-10-06 | Microsoft Technology Licensing, Llc | Adding attributes to virtual representations of real-world objects |
US8897491B2 (en) | 2011-06-06 | 2014-11-25 | Microsoft Corporation | System for finger recognition and tracking |
US9597587B2 (en) | 2011-06-08 | 2017-03-21 | Microsoft Technology Licensing, Llc | Locational node device |
CN102221887B (zh) * | 2011-06-23 | 2016-05-04 | 康佳集团股份有限公司 | 互动投影***及方法 |
US9459758B2 (en) | 2011-07-05 | 2016-10-04 | Apple Inc. | Gesture-based interface with enhanced features |
US9377865B2 (en) | 2011-07-05 | 2016-06-28 | Apple Inc. | Zoom-based gesture user interface |
US8881051B2 (en) | 2011-07-05 | 2014-11-04 | Primesense Ltd | Zoom-based gesture user interface |
US9069164B2 (en) | 2011-07-12 | 2015-06-30 | Google Inc. | Methods and systems for a virtual input device |
US8228315B1 (en) | 2011-07-12 | 2012-07-24 | Google Inc. | Methods and systems for a virtual input device |
RU2486403C2 (ru) * | 2011-07-28 | 2013-06-27 | Александр Викторович Белокопытов | Способ освещения изображения, система для освещения изображения и машиночитаемый носитель |
JP5941146B2 (ja) | 2011-07-29 | 2016-06-29 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー.Hewlett‐Packard Development Company, L.P. | 投影取込システム、プログラムおよび方法 |
KR101773988B1 (ko) | 2011-07-29 | 2017-09-01 | 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. | 시각적 계층화 시스템 및 시각적 계층화 방법 |
US9521276B2 (en) | 2011-08-02 | 2016-12-13 | Hewlett-Packard Development Company, L.P. | Portable projection capture device |
US8971572B1 (en) | 2011-08-12 | 2015-03-03 | The Research Foundation For The State University Of New York | Hand pointing estimation for human computer interaction |
US9030498B2 (en) | 2011-08-15 | 2015-05-12 | Apple Inc. | Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface |
US8786730B2 (en) | 2011-08-18 | 2014-07-22 | Microsoft Corporation | Image exposure using exclusion regions |
RU2486608C2 (ru) * | 2011-08-23 | 2013-06-27 | Федеральное государственное автономное образовательное учреждение высшего профессионального образования "Национальный исследовательский университет "МИЭТ" | Устройство для организации интерфейса с объектом виртуальной реальности |
US9122311B2 (en) | 2011-08-24 | 2015-09-01 | Apple Inc. | Visual feedback for tactile and non-tactile user interfaces |
US9218063B2 (en) | 2011-08-24 | 2015-12-22 | Apple Inc. | Sessionless pointing user interface |
EP2747641A4 (de) | 2011-08-26 | 2015-04-01 | Kineticor Inc | Verfahren, systeme und vorrichtungen zur scan-internen bewegungskorrektur |
US9002099B2 (en) | 2011-09-11 | 2015-04-07 | Apple Inc. | Learning-based estimation of hand and finger pose |
JP2013061552A (ja) * | 2011-09-14 | 2013-04-04 | Ricoh Co Ltd | プロジェクタ装置および操作検出方法 |
JP5834690B2 (ja) * | 2011-09-22 | 2015-12-24 | カシオ計算機株式会社 | 投影装置、投影制御方法及びプログラム |
US9557836B2 (en) | 2011-11-01 | 2017-01-31 | Microsoft Technology Licensing, Llc | Depth image compression |
US9117281B2 (en) | 2011-11-02 | 2015-08-25 | Microsoft Corporation | Surface segmentation from RGB and depth images |
US8854426B2 (en) | 2011-11-07 | 2014-10-07 | Microsoft Corporation | Time-of-flight camera with guided light |
US8724906B2 (en) | 2011-11-18 | 2014-05-13 | Microsoft Corporation | Computing pose and/or shape of modifiable entities |
US9106903B2 (en) * | 2011-11-18 | 2015-08-11 | Zspace, Inc. | Head tracking eyewear system |
US8509545B2 (en) | 2011-11-29 | 2013-08-13 | Microsoft Corporation | Foreground subject detection |
US8635637B2 (en) | 2011-12-02 | 2014-01-21 | Microsoft Corporation | User interface presenting an animated avatar performing a media reaction |
US8803800B2 (en) | 2011-12-02 | 2014-08-12 | Microsoft Corporation | User interface control based on head orientation |
US9100685B2 (en) | 2011-12-09 | 2015-08-04 | Microsoft Technology Licensing, Llc | Determining audience state or interest using passive sensor data |
JP2015504204A (ja) * | 2011-12-13 | 2015-02-05 | アルカテル−ルーセント | コンピュータアプリケーションの対話型制御の方法 |
US8879831B2 (en) | 2011-12-15 | 2014-11-04 | Microsoft Corporation | Using high-level attributes to guide image processing |
US8971612B2 (en) | 2011-12-15 | 2015-03-03 | Microsoft Corporation | Learning image processing tasks from scene reconstructions |
US8630457B2 (en) | 2011-12-15 | 2014-01-14 | Microsoft Corporation | Problem states for pose tracking pipeline |
US8811938B2 (en) | 2011-12-16 | 2014-08-19 | Microsoft Corporation | Providing a user interface experience based on inferred vehicle state |
US9342139B2 (en) | 2011-12-19 | 2016-05-17 | Microsoft Technology Licensing, Llc | Pairing a computing device to a user |
US9720089B2 (en) | 2012-01-23 | 2017-08-01 | Microsoft Technology Licensing, Llc | 3D zoom imager |
US9229534B2 (en) | 2012-02-28 | 2016-01-05 | Apple Inc. | Asymmetric mapping for tactile and non-tactile user interfaces |
CN104246682B (zh) | 2012-03-26 | 2017-08-25 | 苹果公司 | 增强的虚拟触摸板和触摸屏 |
JP5550670B2 (ja) * | 2012-03-28 | 2014-07-16 | 株式会社デンソーアイティーラボラトリ | 情報処理装置 |
US8898687B2 (en) | 2012-04-04 | 2014-11-25 | Microsoft Corporation | Controlling a media program based on a media reaction |
US9025111B2 (en) | 2012-04-20 | 2015-05-05 | Google Inc. | Seamless display panel using fiber optic carpet |
US20130285919A1 (en) * | 2012-04-25 | 2013-10-31 | Sony Computer Entertainment Inc. | Interactive video system |
US9183676B2 (en) | 2012-04-27 | 2015-11-10 | Microsoft Technology Licensing, Llc | Displaying a collision between real and virtual objects |
US9047507B2 (en) | 2012-05-02 | 2015-06-02 | Apple Inc. | Upper-body skeleton extraction from depth maps |
CN102637397B (zh) * | 2012-05-02 | 2014-07-23 | 大连工业大学 | 一种具有照明功能的互动媒体设施 |
US9210401B2 (en) | 2012-05-03 | 2015-12-08 | Microsoft Technology Licensing, Llc | Projected visual cues for guiding physical movement |
CA2775700C (en) | 2012-05-04 | 2013-07-23 | Microsoft Corporation | Determining a future portion of a currently presented media program |
IL219639A (en) | 2012-05-08 | 2016-04-21 | Israel Aerospace Ind Ltd | Remote object tracking |
KR20130140295A (ko) * | 2012-06-14 | 2013-12-24 | 엘지이노텍 주식회사 | 거리측정 장치 및 방법 |
US9682321B2 (en) * | 2012-06-20 | 2017-06-20 | Microsoft Technology Licensing, Llc | Multiple frame distributed rendering of interactive content |
EP2864961A4 (de) | 2012-06-21 | 2016-03-23 | Microsoft Technology Licensing Llc | Erzeugung eines avatars mit einer tiefenkamera |
US9836590B2 (en) | 2012-06-22 | 2017-12-05 | Microsoft Technology Licensing, Llc | Enhanced accuracy of user presence status determination |
SE1200428A1 (sv) | 2012-07-09 | 2012-10-22 | Electrolux Ab | Anordning för köket |
US20140018169A1 (en) * | 2012-07-16 | 2014-01-16 | Zhong Yuan Ran | Self as Avatar Gaming with Video Projecting Device |
US9696427B2 (en) | 2012-08-14 | 2017-07-04 | Microsoft Technology Licensing, Llc | Wide angle depth detection |
KR20140029864A (ko) * | 2012-08-30 | 2014-03-11 | 삼성디스플레이 주식회사 | 표시 장치 및 이를 이용한 에어 터치 인식 방법 및 이를 이용한 입체 영상 표시 방법 |
US8933970B2 (en) * | 2012-09-11 | 2015-01-13 | Longsand Limited | Controlling an augmented reality object |
TWI590099B (zh) * | 2012-09-27 | 2017-07-01 | 緯創資通股份有限公司 | 互動系統及移動偵測方法 |
US9014417B1 (en) | 2012-10-22 | 2015-04-21 | Google Inc. | Method and apparatus for themes using photo-active surface paint |
US9195320B1 (en) | 2012-10-22 | 2015-11-24 | Google Inc. | Method and apparatus for dynamic signage using a painted surface display system |
US9164596B1 (en) | 2012-10-22 | 2015-10-20 | Google Inc. | Method and apparatus for gesture interaction with a photo-active painted surface |
US9833707B2 (en) * | 2012-10-29 | 2017-12-05 | Sony Interactive Entertainment Inc. | Ambient light control and calibration via a console |
US9019267B2 (en) | 2012-10-30 | 2015-04-28 | Apple Inc. | Depth mapping with enhanced resolution |
US8882310B2 (en) | 2012-12-10 | 2014-11-11 | Microsoft Corporation | Laser die light source module with low inductance |
TW201423484A (zh) * | 2012-12-14 | 2014-06-16 | Pixart Imaging Inc | 動態偵測系統 |
TWI454968B (zh) | 2012-12-24 | 2014-10-01 | Ind Tech Res Inst | 三維互動裝置及其操控方法 |
US9857470B2 (en) | 2012-12-28 | 2018-01-02 | Microsoft Technology Licensing, Llc | Using photometric stereo for 3D environment modeling |
EP2946361B1 (de) | 2013-01-15 | 2018-01-03 | Israel Aerospace Industries Ltd. | Fernverfolgung von objekten |
IL224273B (en) | 2013-01-17 | 2018-05-31 | Cohen Yossi | Delay compensation during remote sensor control |
US10327708B2 (en) | 2013-01-24 | 2019-06-25 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US9251590B2 (en) | 2013-01-24 | 2016-02-02 | Microsoft Technology Licensing, Llc | Camera pose estimation for 3D reconstruction |
US9305365B2 (en) | 2013-01-24 | 2016-04-05 | Kineticor, Inc. | Systems, devices, and methods for tracking moving targets |
US9717461B2 (en) | 2013-01-24 | 2017-08-01 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US9782141B2 (en) | 2013-02-01 | 2017-10-10 | Kineticor, Inc. | Motion tracking system for real time adaptive motion compensation in biomedical imaging |
US9052746B2 (en) | 2013-02-15 | 2015-06-09 | Microsoft Technology Licensing, Llc | User center-of-mass and mass distribution extraction using depth images |
US9940553B2 (en) | 2013-02-22 | 2018-04-10 | Microsoft Technology Licensing, Llc | Camera/object pose from predicted coordinates |
US10134267B2 (en) | 2013-02-22 | 2018-11-20 | Universal City Studios Llc | System and method for tracking a passive wand and actuating an effect based on a detected wand path |
US9804576B2 (en) | 2013-02-27 | 2017-10-31 | Rockwell Automation Technologies, Inc. | Recognition-based industrial automation control with position and derivative decision reference |
US9393695B2 (en) | 2013-02-27 | 2016-07-19 | Rockwell Automation Technologies, Inc. | Recognition-based industrial automation control with person and object discrimination |
US9498885B2 (en) | 2013-02-27 | 2016-11-22 | Rockwell Automation Technologies, Inc. | Recognition-based industrial automation control with confidence-based decision support |
US9798302B2 (en) | 2013-02-27 | 2017-10-24 | Rockwell Automation Technologies, Inc. | Recognition-based industrial automation control with redundant system input support |
US9135516B2 (en) | 2013-03-08 | 2015-09-15 | Microsoft Technology Licensing, Llc | User body angle, curvature and average extremity positions extraction using depth images |
US9524028B2 (en) | 2013-03-08 | 2016-12-20 | Fastvdo Llc | Visual language for human computer interfaces |
US9092657B2 (en) | 2013-03-13 | 2015-07-28 | Microsoft Technology Licensing, Llc | Depth image processing |
US9274606B2 (en) | 2013-03-14 | 2016-03-01 | Microsoft Technology Licensing, Llc | NUI video conference controls |
CN104076988B (zh) * | 2013-03-27 | 2017-12-01 | 联想(北京)有限公司 | 一种显示方法、显示控制方法及电子设备 |
US9953213B2 (en) | 2013-03-27 | 2018-04-24 | Microsoft Technology Licensing, Llc | Self discovery of autonomous NUI devices |
CN203165407U (zh) * | 2013-04-16 | 2013-08-28 | 宋戈 | 自媒体玻璃橱窗 |
US9442186B2 (en) | 2013-05-13 | 2016-09-13 | Microsoft Technology Licensing, Llc | Interference reduction for TOF systems |
US9829984B2 (en) | 2013-05-23 | 2017-11-28 | Fastvdo Llc | Motion-assisted visual language for human computer interfaces |
US9356061B2 (en) | 2013-08-05 | 2016-05-31 | Apple Inc. | Image sensor with buried light shield and vertical gate |
US9778546B2 (en) * | 2013-08-15 | 2017-10-03 | Mep Tech, Inc. | Projector for projecting visible and non-visible images |
CN103455141B (zh) * | 2013-08-15 | 2016-07-06 | 无锡触角科技有限公司 | 互动投影***及其深度传感器和投影仪的校准方法 |
US9462253B2 (en) | 2013-09-23 | 2016-10-04 | Microsoft Technology Licensing, Llc | Optical modules that reduce speckle contrast and diffraction artifacts |
US9443310B2 (en) | 2013-10-09 | 2016-09-13 | Microsoft Technology Licensing, Llc | Illumination modules that emit structured light |
US9674563B2 (en) | 2013-11-04 | 2017-06-06 | Rovi Guides, Inc. | Systems and methods for recommending content |
US9769459B2 (en) | 2013-11-12 | 2017-09-19 | Microsoft Technology Licensing, Llc | Power efficient laser diode driver circuit and method |
US9508385B2 (en) | 2013-11-21 | 2016-11-29 | Microsoft Technology Licensing, Llc | Audio-visual project generator |
KR20160102411A (ko) * | 2013-12-27 | 2016-08-30 | 소니 주식회사 | 표시 제어 장치, 표시 제어 방법 및 프로그램 |
US9971491B2 (en) | 2014-01-09 | 2018-05-15 | Microsoft Technology Licensing, Llc | Gesture library for natural user input |
US9990046B2 (en) | 2014-03-17 | 2018-06-05 | Oblong Industries, Inc. | Visual collaboration interface |
US10004462B2 (en) | 2014-03-24 | 2018-06-26 | Kineticor, Inc. | Systems, methods, and devices for removing prospective motion correction from medical imaging scans |
CN106233716B (zh) * | 2014-04-22 | 2019-12-24 | 日本电信电话株式会社 | 动态错觉呈现装置、动态错觉呈现方法、程序 |
US10025990B2 (en) | 2014-05-21 | 2018-07-17 | Universal City Studios Llc | System and method for tracking vehicles in parking structures and intersections |
US10061058B2 (en) | 2014-05-21 | 2018-08-28 | Universal City Studios Llc | Tracking system and method for use in surveying amusement park equipment |
US10207193B2 (en) | 2014-05-21 | 2019-02-19 | Universal City Studios Llc | Optical tracking system for automation of amusement park elements |
US10593113B2 (en) | 2014-07-08 | 2020-03-17 | Samsung Electronics Co., Ltd. | Device and method to display object with visual effect |
US9993733B2 (en) | 2014-07-09 | 2018-06-12 | Lumo Interactive Inc. | Infrared reflective device interactive projection effect system |
WO2016014718A1 (en) | 2014-07-23 | 2016-01-28 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US9693040B2 (en) | 2014-09-10 | 2017-06-27 | Faro Technologies, Inc. | Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device |
TWI569085B (zh) * | 2014-09-10 | 2017-02-01 | Ophaya Electronics Corp | A projection system with optical image recognition function, a projection device and a projector to be projected |
DE102014013678B3 (de) | 2014-09-10 | 2015-12-03 | Faro Technologies, Inc. | Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten |
US9602811B2 (en) * | 2014-09-10 | 2017-03-21 | Faro Technologies, Inc. | Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device |
DE102014013677B4 (de) | 2014-09-10 | 2017-06-22 | Faro Technologies, Inc. | Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und unterteiltem Display |
US10417801B2 (en) | 2014-11-13 | 2019-09-17 | Hewlett-Packard Development Company, L.P. | Image projection |
US10321100B2 (en) * | 2014-12-02 | 2019-06-11 | Ademco Inc. | System and method of foreground extraction for digital cameras |
US10122976B2 (en) * | 2014-12-25 | 2018-11-06 | Panasonic Intellectual Property Management Co., Ltd. | Projection device for controlling a position of an image projected on a projection surface |
CN107430785B (zh) * | 2014-12-31 | 2021-03-30 | Alt有限责任公司 | 用于显示三维对象的方法和*** |
US9843744B2 (en) * | 2015-01-13 | 2017-12-12 | Disney Enterprises, Inc. | Audience interaction projection system |
US20160216778A1 (en) * | 2015-01-27 | 2016-07-28 | Industrial Technology Research Institute | Interactive projector and operation method thereof for determining depth information of object |
GB201503832D0 (en) * | 2015-03-06 | 2015-04-22 | Compurants Ltd | Inamo big book V3 |
KR20160121287A (ko) * | 2015-04-10 | 2016-10-19 | 삼성전자주식회사 | 이벤트에 기반하여 화면을 디스플레이하는 방법 및 장치 |
US9943247B2 (en) | 2015-07-28 | 2018-04-17 | The University Of Hawai'i | Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan |
IN2015CH03967A (de) | 2015-07-31 | 2015-08-14 | Wipro Ltd | |
WO2017030125A1 (ja) * | 2015-08-17 | 2017-02-23 | 新日鉄住金マテリアルズ株式会社 | フェライト系ステンレス鋼箔 |
WO2017030148A1 (ja) * | 2015-08-19 | 2017-02-23 | 新日鉄住金マテリアルズ株式会社 | ステンレス鋼箔 |
US10716515B2 (en) | 2015-11-23 | 2020-07-21 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US10043279B1 (en) | 2015-12-07 | 2018-08-07 | Apple Inc. | Robust detection and classification of body parts in a depth map |
US10412280B2 (en) | 2016-02-10 | 2019-09-10 | Microsoft Technology Licensing, Llc | Camera with light valve over sensor array |
US10257932B2 (en) | 2016-02-16 | 2019-04-09 | Microsoft Technology Licensing, Llc. | Laser diode chip on printed circuit board |
US10462452B2 (en) | 2016-03-16 | 2019-10-29 | Microsoft Technology Licensing, Llc | Synchronizing active illumination cameras |
KR20240070723A (ko) | 2016-04-21 | 2024-05-21 | 매직 립, 인코포레이티드 | 시야 주위의 시각적 아우라 |
US10529302B2 (en) | 2016-07-07 | 2020-01-07 | Oblong Industries, Inc. | Spatially mediated augmentations of and interactions among distinct devices and applications via extended pixel manifold |
JP6739059B2 (ja) | 2016-08-30 | 2020-08-12 | パナソニックIpマネジメント株式会社 | 照明装置 |
US10366278B2 (en) | 2016-09-20 | 2019-07-30 | Apple Inc. | Curvature-based face detector |
KR102393299B1 (ko) * | 2017-08-09 | 2022-05-02 | 삼성전자주식회사 | 이미지 처리 방법 및 그에 따른 장치 |
ES2728787B2 (es) * | 2018-04-25 | 2021-02-09 | Defensya Ingenieria Int S L | Sistema y procedimiento para crear, modular y detectar sombras en sistemas con control basado en un sistema de visualizacion remota |
US20200014909A1 (en) | 2018-07-03 | 2020-01-09 | Faro Technologies, Inc. | Handheld three dimensional scanner with autofocus or autoaperture |
US11247099B2 (en) * | 2018-12-05 | 2022-02-15 | Lombro James Ristas | Programmed control of athletic training drills |
US10924639B2 (en) | 2019-05-29 | 2021-02-16 | Disney Enterprises, Inc. | System and method for polarization and wavelength gated transparent displays |
JP7414707B2 (ja) * | 2020-12-18 | 2024-01-16 | トヨタ自動車株式会社 | 画像表示システム |
RU2760179C1 (ru) * | 2021-01-20 | 2021-11-22 | Виктор Александрович Епифанов | Система дополненной реальности |
CN114973333B (zh) * | 2022-07-13 | 2023-07-25 | 北京百度网讯科技有限公司 | 人物交互检测方法、装置、设备以及存储介质 |
Family Cites Families (136)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5794672A (en) | 1980-12-05 | 1982-06-12 | Hitachi Ltd | Method for inspecting whether parts are present or not |
EP0055366B1 (de) | 1980-12-30 | 1987-03-18 | International Business Machines Corporation | Vorrichtung zum Fernanzeigen und -lesen von Information mit Hilfe der Schattenparallaxe |
JPS59182688A (ja) | 1983-03-31 | 1984-10-17 | Toshiba Corp | ステレオ視処理装置 |
GB8421783D0 (en) | 1984-08-29 | 1984-10-03 | Atomic Energy Authority Uk | Stereo camera |
US5001558A (en) | 1985-06-11 | 1991-03-19 | General Motors Corporation | Night vision system with color video camera |
US4843568A (en) * | 1986-04-11 | 1989-06-27 | Krueger Myron W | Real time perception of and response to the actions of an unencumbered participant/user |
US4887898A (en) | 1988-04-13 | 1989-12-19 | Rowe Furniture Corporation | Fabric projection system |
US4948371A (en) | 1989-04-25 | 1990-08-14 | The United States Of America As Represented By The United States Department Of Energy | System for training and evaluation of security personnel in use of firearms |
CA2030139C (en) | 1989-11-20 | 2002-04-23 | David M. Durlach | 3-d amusement and display device |
CA2040273C (en) * | 1990-04-13 | 1995-07-18 | Kazu Horiuchi | Image displaying system |
US5138304A (en) * | 1990-08-02 | 1992-08-11 | Hewlett-Packard Company | Projected image light pen |
US5239373A (en) * | 1990-12-26 | 1993-08-24 | Xerox Corporation | Video computational shared drawing space |
US5534917A (en) * | 1991-05-09 | 1996-07-09 | Very Vivid, Inc. | Video image based control system |
US5325473A (en) * | 1991-10-11 | 1994-06-28 | The Walt Disney Company | Apparatus and method for projection upon a three-dimensional object |
US5861881A (en) | 1991-11-25 | 1999-01-19 | Actv, Inc. | Interactive computer system for providing an interactive presentation with personalized video, audio and graphics responses for multiple viewers |
US5444462A (en) * | 1991-12-16 | 1995-08-22 | Wambach; Mark L. | Computer mouse glove with remote communication |
DE59306619D1 (de) | 1992-01-29 | 1997-07-10 | Thomson Brandt Gmbh | Videokamera, wahlweise als Projektor betreibbar |
US5982352A (en) * | 1992-09-18 | 1999-11-09 | Pryor; Timothy R. | Method for providing human input to a computer |
US6008800A (en) | 1992-09-18 | 1999-12-28 | Pryor; Timothy R. | Man machine interfaces for entering data into a computer |
US5436639A (en) | 1993-03-16 | 1995-07-25 | Hitachi, Ltd. | Information processing system |
JPH07135623A (ja) | 1993-10-27 | 1995-05-23 | Kinseki Ltd | 網膜直接表示装置 |
US5510828A (en) * | 1994-03-01 | 1996-04-23 | Lutterbach; R. Steven | Interactive video display system |
US5426474A (en) | 1994-03-22 | 1995-06-20 | Innersense, Inc. | Light projection system using randomized fiber optic bundle |
US5528263A (en) * | 1994-06-15 | 1996-06-18 | Daniel M. Platzker | Interactive projected video image display system |
US5682468A (en) * | 1995-01-23 | 1997-10-28 | Intergraph Corporation | OLE for design and modeling |
US5548694A (en) | 1995-01-31 | 1996-08-20 | Mitsubishi Electric Information Technology Center America, Inc. | Collision avoidance system for voxel-based object representation |
JP3539788B2 (ja) * | 1995-04-21 | 2004-07-07 | パナソニック モバイルコミュニケーションズ株式会社 | 画像間対応付け方法 |
US5633691A (en) | 1995-06-07 | 1997-05-27 | Nview Corporation | Stylus position sensing and digital camera with a digital micromirror device |
US5882204A (en) * | 1995-07-13 | 1999-03-16 | Dennis J. Lannazzo | Football interactive simulation trainer |
US5591972A (en) * | 1995-08-03 | 1997-01-07 | Illumination Technologies, Inc. | Apparatus for reading optical information |
US5574511A (en) | 1995-10-18 | 1996-11-12 | Polaroid Corporation | Background replacement for an image |
US6308565B1 (en) * | 1995-11-06 | 2001-10-30 | Impulse Technology Ltd. | System and method for tracking and assessing movement skills in multidimensional space |
US6176782B1 (en) * | 1997-12-22 | 2001-01-23 | Philips Electronics North America Corp. | Motion-based command generation technology |
US5828485A (en) | 1996-02-07 | 1998-10-27 | Light & Sound Design Ltd. | Programmable light beam shape altering device using programmable micromirrors |
US6084979A (en) * | 1996-06-20 | 2000-07-04 | Carnegie Mellon University | Method for creating virtual reality |
US6400374B2 (en) * | 1996-09-18 | 2002-06-04 | Eyematic Interfaces, Inc. | Video superposition system and method |
US5969754A (en) | 1996-12-09 | 1999-10-19 | Zeman; Herbert D. | Contrast enhancing illuminator |
DE19708240C2 (de) * | 1997-02-28 | 1999-10-14 | Siemens Ag | Anordnung und Verfahren zur Detektion eines Objekts in einem von Wellen im nichtsichtbaren Spektralbereich angestrahlten Bereich |
US6118888A (en) | 1997-02-28 | 2000-09-12 | Kabushiki Kaisha Toshiba | Multi-modal interface apparatus and method |
US6088612A (en) | 1997-04-04 | 2000-07-11 | Medtech Research Corporation | Method and apparatus for reflective glare removal in digital photography useful in cervical cancer detection |
US6058397A (en) | 1997-04-08 | 2000-05-02 | Mitsubishi Electric Information Technology Center America, Inc. | 3D virtual environment creation management and delivery system |
JPH10334270A (ja) * | 1997-05-28 | 1998-12-18 | Mitsubishi Electric Corp | 動作認識装置及び動作認識プログラムを記録した記録媒体 |
US6075895A (en) * | 1997-06-20 | 2000-06-13 | Holoplex | Methods and apparatus for gesture recognition based on templates |
JP3968477B2 (ja) * | 1997-07-07 | 2007-08-29 | ソニー株式会社 | 情報入力装置及び情報入力方法 |
JP2942222B2 (ja) * | 1997-08-11 | 1999-08-30 | 株式会社つくばソフト研究所 | カラー画像及び濃淡画像の通信装置 |
US6720949B1 (en) * | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
JP3795647B2 (ja) | 1997-10-29 | 2006-07-12 | 株式会社竹中工務店 | ハンドポインティング装置 |
JP3794180B2 (ja) * | 1997-11-11 | 2006-07-05 | セイコーエプソン株式会社 | 座標入力システム及び座標入力装置 |
US6166744A (en) * | 1997-11-26 | 2000-12-26 | Pathfinder Systems, Inc. | System for combining virtual images with real-world scenes |
US6611241B1 (en) | 1997-12-02 | 2003-08-26 | Sarnoff Corporation | Modular display system |
US6388657B1 (en) | 1997-12-31 | 2002-05-14 | Anthony James Francis Natoli | Virtual reality keyboard system and method |
US6198844B1 (en) | 1998-01-28 | 2001-03-06 | Konica Corporation | Image processing apparatus |
US6349301B1 (en) | 1998-02-24 | 2002-02-19 | Microsoft Corporation | Virtual environment bystander updating in client server architecture |
US6266053B1 (en) | 1998-04-03 | 2001-07-24 | Synapix, Inc. | Time inheritance scene graph for representation of media content |
CA2327304A1 (en) * | 1998-04-13 | 1999-10-21 | Johannes Bernhard Steffens | Wavelet-based facial motion capture for avatar animation |
US6263339B1 (en) | 1998-08-25 | 2001-07-17 | Informix Software, Inc. | Dynamic object visualization and code generation |
JP2000163196A (ja) | 1998-09-25 | 2000-06-16 | Sanyo Electric Co Ltd | ジェスチャ認識装置及びジェスチャ認識機能を有する指示認識装置 |
DE19845030A1 (de) | 1998-09-30 | 2000-04-20 | Siemens Ag | Bildsystem |
US6501515B1 (en) * | 1998-10-13 | 2002-12-31 | Sony Corporation | Remote control system |
US6106119A (en) | 1998-10-16 | 2000-08-22 | The Board Of Trustees Of The Leland Stanford Junior University | Method for presenting high level interpretations of eye tracking data correlated to saved display images |
WO2000034919A1 (en) * | 1998-12-04 | 2000-06-15 | Interval Research Corporation | Background estimation and segmentation based on range and color |
GB9902235D0 (en) | 1999-02-01 | 1999-03-24 | Emuse Corp | Interactive system |
US6333735B1 (en) | 1999-03-16 | 2001-12-25 | International Business Machines Corporation | Method and apparatus for mouse positioning device based on infrared light sources and detectors |
JP3644295B2 (ja) | 1999-03-17 | 2005-04-27 | セイコーエプソン株式会社 | 投写型表示装置 |
US6292171B1 (en) | 1999-03-31 | 2001-09-18 | Seiko Epson Corporation | Method and apparatus for calibrating a computer-generated projected image |
US6614422B1 (en) * | 1999-11-04 | 2003-09-02 | Canesta, Inc. | Method and apparatus for entering data using a virtual input device |
US6545706B1 (en) | 1999-07-30 | 2003-04-08 | Electric Planet, Inc. | System, method and article of manufacture for tracking a head of a camera-generated image of a person |
JP3905670B2 (ja) | 1999-09-10 | 2007-04-18 | 株式会社リコー | 座標入力検出装置、情報記憶媒体及び座標入力検出方法 |
US6826727B1 (en) | 1999-11-24 | 2004-11-30 | Bitstream Inc. | Apparatus, methods, programming for automatically laying out documents |
JP3760068B2 (ja) * | 1999-12-02 | 2006-03-29 | 本田技研工業株式会社 | 画像認識装置 |
GB2356996A (en) | 1999-12-03 | 2001-06-06 | Hewlett Packard Co | Improvements to digital cameras |
JP4332964B2 (ja) * | 1999-12-21 | 2009-09-16 | ソニー株式会社 | 情報入出力システム及び情報入出力方法 |
WO2001056010A1 (en) * | 2000-01-26 | 2001-08-02 | New York University | Method and system for facilitating wireless, full-body, real-time user interaction with digitally generated text data |
US20020062481A1 (en) | 2000-02-25 | 2002-05-23 | Malcolm Slaney | Method and system for selecting advertisements |
JP3842515B2 (ja) * | 2000-03-24 | 2006-11-08 | セイコーエプソン株式会社 | 多重解像度画像解析による指示位置検出 |
JP4402262B2 (ja) | 2000-06-07 | 2010-01-20 | オリンパス株式会社 | プリンタ装置及び電子カメラ |
US7149262B1 (en) | 2000-07-06 | 2006-12-12 | The Trustees Of Columbia University In The City Of New York | Method and apparatus for enhancing data resolution |
US7227526B2 (en) * | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
JP4666808B2 (ja) * | 2000-07-27 | 2011-04-06 | キヤノン株式会社 | 画像表示システム、画像表示方法、及び記憶媒体、プログラム |
US6754370B1 (en) | 2000-08-14 | 2004-06-22 | The Board Of Trustees Of The Leland Stanford Junior University | Real-time structured light range scanning of moving scenes |
US7103838B1 (en) | 2000-08-18 | 2006-09-05 | Firstrain, Inc. | Method and apparatus for extracting relevant data |
US6707444B1 (en) | 2000-08-18 | 2004-03-16 | International Business Machines Corporation | Projector and camera arrangement with shared optics and optical marker for use with whiteboard systems |
US6654734B1 (en) | 2000-08-30 | 2003-11-25 | International Business Machines Corporation | System and method for query processing and optimization for XML repositories |
US7058204B2 (en) | 2000-10-03 | 2006-06-06 | Gesturetek, Inc. | Multiple camera control system |
JP3467017B2 (ja) * | 2000-11-30 | 2003-11-17 | キヤノン株式会社 | 位置姿勢の決定方法及び装置並びに記憶媒体 |
US6431711B1 (en) * | 2000-12-06 | 2002-08-13 | International Business Machines Corporation | Multiple-surface display projector with interactive input capability |
JP2002222424A (ja) | 2001-01-29 | 2002-08-09 | Nec Corp | 指紋照合システム |
US6621483B2 (en) | 2001-03-16 | 2003-09-16 | Agilent Technologies, Inc. | Optical screen pointing device with inertial properties |
US20020178440A1 (en) * | 2001-03-28 | 2002-11-28 | Philips Electronics North America Corp. | Method and apparatus for automatically selecting an alternate item based on user behavior |
US6912313B2 (en) | 2001-05-31 | 2005-06-28 | Sharp Laboratories Of America, Inc. | Image background replacement method |
US7259747B2 (en) | 2001-06-05 | 2007-08-21 | Reactrix Systems, Inc. | Interactive video display system |
US8035612B2 (en) | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
US8300042B2 (en) | 2001-06-05 | 2012-10-30 | Microsoft Corporation | Interactive video display system using strobed light |
EP1689172B1 (de) | 2001-06-05 | 2016-03-09 | Microsoft Technology Licensing, LLC | Interaktives Video-Anzeigesystem |
AU2002319621A1 (en) | 2001-07-17 | 2003-03-03 | Amnis Corporation | Computational methods for the segmentation of images of objects from background in a flow imaging instrument |
US7274800B2 (en) | 2001-07-18 | 2007-09-25 | Intel Corporation | Dynamic gesture recognition from stereo sequences |
US7068274B2 (en) | 2001-08-15 | 2006-06-27 | Mitsubishi Electric Research Laboratories, Inc. | System and method for animating real objects with projected images |
JP2003173237A (ja) | 2001-09-28 | 2003-06-20 | Ricoh Co Ltd | 情報入出力システム、プログラム及び記憶媒体 |
US8561095B2 (en) * | 2001-11-13 | 2013-10-15 | Koninklijke Philips N.V. | Affective television monitoring and control in response to physiological data |
US7006055B2 (en) | 2001-11-29 | 2006-02-28 | Hewlett-Packard Development Company, L.P. | Wireless multi-user multi-projector presentation system |
US7307636B2 (en) | 2001-12-26 | 2007-12-11 | Eastman Kodak Company | Image format including affective information |
US20030128389A1 (en) | 2001-12-26 | 2003-07-10 | Eastman Kodak Company | Method for creating and using affective information in a digital imaging system cross reference to related applications |
JP4027118B2 (ja) | 2002-02-25 | 2007-12-26 | 富士通株式会社 | 本人認証方法、プログラム及び装置 |
US6607275B1 (en) | 2002-03-20 | 2003-08-19 | The Neiman Marcus Group, Inc. | Merchandise display case and system |
US6707054B2 (en) | 2002-03-21 | 2004-03-16 | Eastman Kodak Company | Scannerless range imaging system having high dynamic range |
US6831664B2 (en) | 2002-03-22 | 2004-12-14 | Koninklijke Philips Electronics N.V. | Low cost interactive program control system and method |
US7170492B2 (en) | 2002-05-28 | 2007-01-30 | Reactrix Systems, Inc. | Interactive video display system |
US20050122308A1 (en) | 2002-05-28 | 2005-06-09 | Matthew Bell | Self-contained interactive video display system |
US7710391B2 (en) | 2002-05-28 | 2010-05-04 | Matthew Bell | Processing an image utilizing a spatially varying pattern |
US7348963B2 (en) | 2002-05-28 | 2008-03-25 | Reactrix Systems, Inc. | Interactive video display system |
US7171404B2 (en) | 2002-06-13 | 2007-01-30 | Mark Logic Corporation | Parent-child query indexing for XML databases |
US7574652B2 (en) | 2002-06-20 | 2009-08-11 | Canon Kabushiki Kaisha | Methods for interactively defining transforms and for generating queries by manipulating existing query data |
WO2004055776A1 (en) | 2002-12-13 | 2004-07-01 | Reactrix Systems | Interactive directed light/sound system |
US7576727B2 (en) | 2002-12-13 | 2009-08-18 | Matthew Bell | Interactive directed light/sound system |
US6999600B2 (en) | 2003-01-30 | 2006-02-14 | Objectvideo, Inc. | Video scene background maintenance using change detection and classification |
EP1619622B1 (de) | 2003-04-25 | 2009-11-25 | Fujitsu Limited | Fingerabdruckvergleichseinrichtung, fingerabdruckvergleichsverfahren und fingerabdruckvergleichsprogramm |
CA2429880C (en) | 2003-05-27 | 2009-07-07 | York University | Collaborative pointing devices |
FR2856963B1 (fr) | 2003-07-03 | 2006-09-01 | Antolin Grupo Ing Sa | Siege de vehicule automobile |
WO2005041578A2 (en) | 2003-10-24 | 2005-05-06 | Reactrix Systems, Inc. | Method and system for managing an interactive video display system |
WO2005041579A2 (en) | 2003-10-24 | 2005-05-06 | Reactrix Systems, Inc. | Method and system for processing captured image information in an interactive video display system |
US7681114B2 (en) | 2003-11-21 | 2010-03-16 | Bridgeborn, Llc | Method of authoring, deploying and using interactive, data-driven two or more dimensional content |
WO2005091651A2 (en) | 2004-03-18 | 2005-09-29 | Reactrix Systems, Inc. | Interactive video display system |
EP1743277A4 (de) | 2004-04-15 | 2011-07-06 | Gesturetek Inc | Verfolgung bimanueller bewegungen |
US7382897B2 (en) | 2004-04-27 | 2008-06-03 | Microsoft Corporation | Multi-image feature matching using multi-scale oriented patches |
US7394459B2 (en) | 2004-04-29 | 2008-07-01 | Microsoft Corporation | Interaction between objects and a virtual environment display |
US20050265587A1 (en) | 2004-06-01 | 2005-12-01 | Schneider John K | Fingerprint image database and method of matching fingerprint sample to fingerprint images |
US7330584B2 (en) | 2004-10-14 | 2008-02-12 | Sony Corporation | Image processing apparatus and method |
WO2006081428A2 (en) | 2005-01-27 | 2006-08-03 | Symyx Technologies, Inc. | Parser for generating structure data |
US20060184993A1 (en) | 2005-02-15 | 2006-08-17 | Goldthwaite Flora P | Method and system for collecting and using data |
US7570249B2 (en) | 2005-03-30 | 2009-08-04 | Microsoft Corporation | Responding to change of state of control on device disposed on an interactive display surface |
US7428542B1 (en) | 2005-05-31 | 2008-09-23 | Reactrix Systems, Inc. | Method and system for combining nodes into a mega-node |
US20080252596A1 (en) | 2007-04-10 | 2008-10-16 | Matthew Bell | Display Using a Three-Dimensional vision System |
JP5430572B2 (ja) | 2007-09-14 | 2014-03-05 | インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー | ジェスチャベースのユーザインタラクションの処理 |
US8159682B2 (en) | 2007-11-12 | 2012-04-17 | Intellectual Ventures Holding 67 Llc | Lens system |
US20100039500A1 (en) | 2008-02-15 | 2010-02-18 | Matthew Bell | Self-Contained 3D Vision System Utilizing Stereo Camera and Patterned Illuminator |
US8259163B2 (en) | 2008-03-07 | 2012-09-04 | Intellectual Ventures Holding 67 Llc | Display with built in 3D sensing |
-
2002
- 2002-05-28 US US10/160,217 patent/US7259747B2/en not_active Expired - Lifetime
- 2002-06-04 RU RU2003137846/09A patent/RU2298294C2/ru not_active IP Right Cessation
- 2002-06-04 KR KR1020037015990A patent/KR100847795B1/ko active IP Right Grant
- 2002-06-04 CA CA2449300A patent/CA2449300C/en not_active Expired - Lifetime
- 2002-06-04 BR BR0210162-9A patent/BR0210162A/pt not_active IP Right Cessation
- 2002-06-04 DE DE60213975T patent/DE60213975T2/de not_active Expired - Lifetime
- 2002-06-04 WO PCT/US2002/017843 patent/WO2002100094A2/en active IP Right Grant
- 2002-06-04 AT AT02739710T patent/ATE336860T1/de not_active IP Right Cessation
- 2002-06-04 IL IL15920702A patent/IL159207A0/xx unknown
- 2002-06-04 MX MXPA03011203A patent/MXPA03011203A/es unknown
- 2002-06-04 EP EP02739710A patent/EP1393549B1/de not_active Revoked
- 2002-06-04 CN CN201010266853.1A patent/CN102033608B/zh not_active Expired - Lifetime
- 2002-06-04 JP JP2003501936A patent/JP4077787B2/ja not_active Expired - Lifetime
- 2002-06-04 ES ES02739710T patent/ES2271272T3/es not_active Expired - Lifetime
- 2002-06-04 CN CN028152069A patent/CN1582567B/zh not_active Expired - Lifetime
-
2006
- 2006-08-21 US US11/507,976 patent/US7834846B1/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
WO2002100094A2 (en) | 2002-12-12 |
WO2002100094A3 (en) | 2003-05-22 |
MXPA03011203A (es) | 2004-10-28 |
DE60213975D1 (de) | 2006-09-28 |
CN1582567A (zh) | 2005-02-16 |
ATE336860T1 (de) | 2006-09-15 |
CN102033608B (zh) | 2014-02-12 |
KR100847795B1 (ko) | 2008-07-23 |
CA2449300A1 (en) | 2002-12-12 |
EP1393549B1 (de) | 2006-08-16 |
JP2005500719A (ja) | 2005-01-06 |
RU2003137846A (ru) | 2005-05-27 |
KR20040029998A (ko) | 2004-04-08 |
US7834846B1 (en) | 2010-11-16 |
ES2271272T3 (es) | 2007-04-16 |
US20020186221A1 (en) | 2002-12-12 |
CN102033608A (zh) | 2011-04-27 |
IL159207A0 (en) | 2004-06-01 |
CN1582567B (zh) | 2010-10-13 |
CA2449300C (en) | 2013-04-23 |
JP4077787B2 (ja) | 2008-04-23 |
EP1393549A2 (de) | 2004-03-03 |
BR0210162A (pt) | 2004-04-27 |
US7259747B2 (en) | 2007-08-21 |
RU2298294C2 (ru) | 2007-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE60213975T2 (de) | Interaktives video-anzeigesystem | |
US8300042B2 (en) | Interactive video display system using strobed light | |
US10990189B2 (en) | Processing of gesture-based user interaction using volumetric zones | |
EP1689172B1 (de) | Interaktives Video-Anzeigesystem | |
DE69728687T2 (de) | Verfahren und Vorrichtung zur Hervorhebung von Signalteilen bei der Fernseh-Direktübertragung | |
US8624962B2 (en) | Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images | |
US7348963B2 (en) | Interactive video display system | |
DE69532662T2 (de) | Hinweisvorrichtungsschittstelle | |
US20080252596A1 (en) | Display Using a Three-Dimensional vision System | |
CN108141547B (zh) | 将图像与另一图像数字化叠加 | |
US8218811B2 (en) | Method and system for video interaction based on motion swarms | |
Hamill et al. | Perceptual evaluation of impostor representations for virtual humans and buildings | |
Hough et al. | Advanced occlusion handling for virtual studios | |
CA2605277C (en) | Method and system for video interaction based on motion swarms | |
DE20122526U1 (de) | Eine Vorrichtung zum Erfassen und Lokalisieren einer Interaktion eines Benutzerobjekts und virtuelle Übertragungsvorrichtung | |
US20230306611A1 (en) | Image processing method and apparatus | |
US20230306613A1 (en) | Image processing method and apparatus | |
Senior et al. | Computer vision interfaces for interactive art | |
Visser | HandsFree: A Marker-Free Visual Based Input Prototype for Menu Driven Systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8327 | Change in the person/name/address of the patent owner |
Owner name: REACTRIX SYSTEMS, INC., REDWOOD CITY, CALIF., US |
|
8363 | Opposition against the patent | ||
8328 | Change in the person/name/address of the agent |
Representative=s name: KAHLER, KAECK & MOLLEKOPF, 86899 LANDSBERG |
|
8327 | Change in the person/name/address of the patent owner |
Owner name: INTELLECTUAL VENTURS HOLDINGS 67 LLC, LAS VEGA, US |
|
R082 | Change of representative |
Ref document number: 1393549 Country of ref document: EP Representative=s name: KAHLER, KAECK & MOLLEKOPF, DE |