WO2006089323A1 - Computerunterstütztes schnittstellensystem - Google Patents

Computerunterstütztes schnittstellensystem Download PDF

Info

Publication number
WO2006089323A1
WO2006089323A1 PCT/AT2006/000069 AT2006000069W WO2006089323A1 WO 2006089323 A1 WO2006089323 A1 WO 2006089323A1 AT 2006000069 W AT2006000069 W AT 2006000069W WO 2006089323 A1 WO2006089323 A1 WO 2006089323A1
Authority
WO
WIPO (PCT)
Prior art keywords
interface system
navigation
camera
control part
navigation plane
Prior art date
Application number
PCT/AT2006/000069
Other languages
English (en)
French (fr)
Inventor
Thomas Kienzl
Original Assignee
Thomas Kienzl
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomas Kienzl filed Critical Thomas Kienzl
Priority to EP06704711A priority Critical patent/EP1856594A1/de
Publication of WO2006089323A1 publication Critical patent/WO2006089323A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00734Aspects not otherwise provided for battery operated
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function

Definitions

  • the invention relates to a computer-assisted interface system for manual navigation in a navigation plane having a first and a second side, comprising a camera, which is designed for optical detection of the navigation plane, at least one cable and electronic control part with at least one optical marking arranged thereon manual guidance in the navigation plane is designed on the first page and is intended that the at least one optical marking is aligned with the use of the control part towards the camera, wherein the navigation parameters movement, position and orientation of the control part in the navigation plane with a virtual two- or three-dimensional model are coupled, which model can be displayed on an image output unit, such as a screen, depending on the navigation parameters.
  • the camera is designed for the optical detection of the navigation plane from the second side of the navigation plane, which second side is opposite this when using the at least one control part.
  • This can cost-effective control parts for an appealing navigation in virtual SD models are used, which are easy to use even by laymen. Due to the viewing direction of the camera, either directly or via mirrors from the side opposite the user, a good visual contact between the camera and the navigation level is always ensured. This shadowing of the camera by the user himself is reliably avoided. In this way, error detections are effectively prevented.
  • the invention can be provided that in the navigation level a
  • Plate made of glass or plastic is arranged for a wavelength range for which the
  • Such a plate facilitates navigation in the navigation plane.
  • the navigation level is limited by a frame.
  • a frame makes navigation easier for the user and provides better protection for any glass plate that may be present.
  • Navigation level is arranged a real model in which the at least one control part is navigable.
  • a Reahnodell provides additional navigation for the user in the navigation.
  • the real model in the manner of a floor plan can be attached or attached graphically on the plate.
  • Such a Reahnodell is particularly easy to implement and updatable.
  • the real model can be attached or mounted in the manner of a raised model on the plate.
  • Projection system is projected to the navigation level.
  • the projection system for the projection of the real model is likewise designed from the second side of the navigation plane.
  • the plate is arranged on a stand.
  • the position of a plate can be set reliably.
  • the frame is arranged on a stand.
  • Lighting the markers of control parts, which are arranged in the navigation plane, is designed is provided.
  • At least one mirror is provided for deflecting the light of the illumination device or of daylight, so that the corresponding light is deflected to the marks of control parts.
  • At least one detection mirror is provided, on which the camera is aligned or alignable such that the camera is designed for optical detection of the navigation plane via the mirror.
  • the required geometric distance between the camera and the navigation level can be significantly reduced and the interface system therefore be made more compact.
  • the mirror is identical to the detection mirror.
  • Interface system can be dismantled or folded and run in disassembled or folded state for a person wearable.
  • the plate is arranged on a stand, which forms a cover and / or cover for the plate and / or the mirror in the disassembled or folded state of the interface system.
  • the marking of the control part contains a rotationally asymmetric pattern.
  • the marking consists of at least two surfaces of different colors.
  • the two surfaces each substantially
  • Semicircles are, which together form a circular disk.
  • Such markings are particularly easy to implement, e.g. with ordinary
  • the at least two surfaces are surrounded by a frame surface in a color which is different from the colors of the two surfaces.
  • Marker contains additional areas within or between the at least two
  • Plains are arranged and differ in their color from the adjacent surfaces.
  • FIG. 2 shows a collapsed or constructed computer-aided interface system in an oblique view
  • Fig. 3 shows another embodiment of a collapsible computer-aided
  • FIG. 4 shows a vertical embodiment of a computer-assisted interface system in FIG.
  • FIG. 5 shows a computer-aided interface system with a navigation surface, a
  • the aim of the invention is the user's simple manual navigation of a user with the help of a cable and electronic control unit E in a navigation plane A, in which the navigation is coupled to a virtual two- or three-dimensional model, which model of an image output unit L, such as a screen, depending on the navigation parameter movement, position and orientation of the control part E can be displayed, as indicated in Fig. 5.
  • Fig. Ia to Id show optical marks El for a control part E.
  • Algorithmic objective is the reading of coordinates and angle information geometrical, colored objects from the image information of a video camera D. Since the read data from a video camera D are light-dependent and always a more or less strong Noise, the design of the type and shape of the objects is crucial.
  • the shape detected by the camera D has the following characteristics: two surfaces 1 and 2 in shape of semicircles, each with two different colors are surrounded by a different colored frame surface 3.
  • the surfaces could also have other shapes.
  • the outer diameter of the entire circle can be arbitrarily large, but preferably be between 4cm and 10cm. Based on this special shape can be closed both on the position and with the help of the surfaces 1 and 2 on the angle.
  • the frame surface 3 serves the strict demarcation to the background. Note: Otherwise, for example, a user with a red sweater, for example, would disturb the detection of a red area 1 or 2 and make it impossible.
  • the resulting video signals are initially converted from RGB to the HSV color space.
  • the advantage of HSV space is the clear assignment of colors; Thus, by means of the H parameter, a color can be deduced, irrespective of its intensity or brightness.
  • the obtained HSV space is then filtered through only desired color components. In the next step, all neighboring pixels are summarized and examined. This will find multiple regions - the following can be discarded.
  • FIG. 2 shows a computer-assisted interface system for manual navigation in a navigation plane A, comprising a camera D which is designed for optical detection of the navigation plane A. Furthermore, a cable and electronics-free control part E is shown with an optical marking El arranged thereon, which is designed for manual guidance in the navigation plane A, the optical marking El being directed toward the camera D, via the mirror as a deflection. Due to the nature of the marking El, the navigation parameters motion, position and orientation of the control part E in the navigation plane A can be detected via the camera D and coupled with a virtual two- or three-dimensional model, which model is displayed on an image output unit L, such as a screen. depending on the navigation parameter. It would also be conceivable to form the navigation plane A itself as a picture output medium.
  • the drawing shows a dismountable, mobile unit. It consists of a light frame C (which is closed like a box on the front), on the underside of which a hinged mirror B is mounted. This mirror reflects ambient light on the underside of the navigation surface A and thus on the optical marking El. Furthermore, a detection mirror B2 can be provided for deflecting the camera image. Through the use of the detection mirror B2, the distance between camera D and navigation surface A is widened, thus reducing the overall height, which represents a decisive advantage for transportability and mobility.
  • the mirror B and the detection mirror B2 may be identical. Mirror B and / or detection mirror B2 can be folded during transport into the frame C, in which it is protected. On the upper inside of the frame C, a camera D is adjustably mounted.
  • the camera D is connected via USB or Firewire to the computer.
  • On the frame C is still a hinged or attachable stand F attached, so that the unit is stable in use and can not tip over.
  • the navigation surface A or plate Al is pushed in the construction of the unit in a slot of the frame C and is thus held in a stable position.
  • a corresponding real model K is placed on the navigation surface A.
  • a lamp H are arranged to ensure the detection of the control parts E unique.
  • a corresponding real model K such as a raised model, a graphically attached plan or other is arranged on the navigation surface A.
  • the real model is projected onto the navigation plane by means of a projection system (not shown).
  • the navigation plane is provided with a projection foil.
  • This is advantageously a rear projection film, which is arranged on the second side of the navigation plane A.
  • the projection can advantageously also take place from the lower, that is, the side facing away from the user and the control part opposite side. 3 shows a comparable computer-assisted interface system for manual navigation in a navigation plane A.
  • the navigation surface A or disk Al need not be directly constructively connected to the lightbox, the navigation surface A or disk Al may be e.g. be suspended from the ceiling, or placed on wall brackets. Depending on the application and spatial conditions, the construction will be carried out differently.
  • the control part E is detected by the camera D and evaluated the data. The removal of the navigation surface A from the floor should be designed so that both children, wheelchair users and adults can operate the arrangement (about 75 to 85 cm in height).
  • the light box consists of a frame C, brightness-adjustable lamps H, camera D, opal Plexiglas cover G.
  • an opening I is provided so that the visual relationship camera D and navigation surface A is not obscured by the Plexiglas cover G.
  • the camera D detects the entire navigation surface A and thus the position and position of the control part E.
  • the camera D is connected to the computer by means of USB, Firewire or frame grabber card.
  • a corresponding real model K 5 such as a raised model (as in FIG. 5), a plan or another, is arranged on the navigation surface A.
  • FIG. 4 shows a further essentially vertically arranged computer-assisted interface system for manual navigation in a navigation plane A, comprising a camera D which is designed for optical detection of the navigation plane A. Furthermore, a cable and electronics-free control part E is shown with an optical mark El arranged thereon, which is designed for manual guidance in the navigation plane A, with the optical marking El being aligned with the camera D. Due to the nature of the marking El, the navigation parameters motion, position and orientation of the control part E in the navigation plane A can be detected via the camera D and coupled with a virtual two- or three-dimensional model.
  • Fig. 4 shows a stationary vertically mounted unit. It consists of a lightbox and a vertical navigation surface A. Depending on the application and spatial conditions, the construction will be carried out differently.
  • the lightbox consists of the following parts: frame C, brightness adjustable lamps H, camera D, opal Plexiglas cover. In this arrangement, depending on the application to the plate Al can be completely dispensed with. Since the control part E reacts very insensitive to the distance to the camera D (tolerance range +/- 20 cm), the navigation surface A may be formed as a circumferential navigation frame A2. This navigation frame A2 is only for the orientation of the user and for attaching the real model K or other real targets.
  • the users can navigate in front of the navigation interface A in a standing position.
  • the camera D detects the entire navigation surface A or the navigation frame A2 and thus the position and position of the control part E.
  • the camera D is connected by USB or Firewire or Framegrabber badge with the computer.
  • a corresponding real model K e.g. a sublime model, plan, or otherwise arranged.
  • images can be projected dynamically, that is, alternately, on the navigation surface A by means of a projection system as a real presetting.
  • Any images, templates, navigation assistance, etc. can be projected dynamically or statically onto the navigation interface.
  • the navigation surface can be designed as a rear projection system.
  • the projector may be a video / data projector, a laser projector or other projection system. It advantageously points in the same direction as the camera. The reading of the mark El on the control part E and the image projection then take place from the same direction.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)
  • Accessories Of Cameras (AREA)
  • Navigation (AREA)

Abstract

Bei einem Computerunterstützten Schnittstellensystem zur manuellen Navigation in einer Navigationsebene (A), umfassend eine Kamera (D), die zur optischen Erfassung der Navigationsebene (A) ausgelegt ist, wenigstens einen kabel- und elektronikfreien Steuerteil (E) mit wenigstens einer darauf angeordneten optischen Markierung (El), der zur manuellen Führung in der Navigationsebene (A) ausgelegt ist und dazu vorgesehen ist, dass die wenigstens eine optische Markierung (El) bei Gebrauch des Steuerteils (E) zur Kamera (D) hin ausgerichtet ist, wird für eine intuitiv erfassbare Bedienbarkeit vorgeschlagen, dass die Navigationsparameter Bewegung, Position und Orientierung des Steuerteils (E) in der Navigationsebene (A) mit einem virtuellen zwei- oder dreidimensionalem Modell gekoppelt sind, welches Modell an einer Bildausgabeeinheit (L), wie einem Bildschirm, in Abhängigkeit der Navigationsparameter darstellbar ist.

Description

Computerunterstütztes Schnittstellensystem
Die Erfindung betrifft ein computerunterstütztes Schnittstellensystem zur manuellen Navigation in einer Navigationsebene mit einer ersten und einer zweiten Seite, umfassend eine Kamera, die zur optischen Erfassung der Navigationsebene ausgelegt ist, wenigstens einen kabel- und elektronikfreien Steuerteil mit wenigstens einer darauf angeordneten optischen Markierung, der zur manuellen Führung in der Navigationsebene auf deren ersten Seite ausgelegt ist und dazu vorgesehen ist, dass die wenigstens eine optische Markierung bei Gebrauch des Steuerteils zur Kamera hin ausgerichtet ist, wobei die Navigationsparameter Bewegung, Position und Orientierung des Steuerteils in der Navigationsebene mit einem virtuellen zwei- oder dreidimensionalem Modell gekoppelt sind, welches Modell an einer Bildausgabeeinheit, wie einem Bildschirm, in Abhängigkeit der Navigationsparameter darstellbar ist.
Solche Systeme sind in der Regel sehr komplex zu bedienen und für ungeübte Anwender nur schwer zu durchschauen. Die Vorstellungskraft der Anwender wird bei solchen Systemen kaum unterstützt und findet eher nur im akustischen Bereich seine Anwendung. Die Anwendung für ein breites Publikum ist daher problematisch. Überdies ist es bei bisher bekannt gewordenen Systemen problematisch, die Position des Steuerteils jederzeit sicher zu erfassen. Da der Benutzer bei diesen Systemen den freien Sichtkontakt der Kamera auf das Steuerteil leicht behindern kann, lassen sich Fehlerkennungen nicht vermeiden. Die Aufgabe der Erfindung besteht daher darin, ein bekanntes Schnittstellensystem derart weiterzuentwickeln, dass es die bekannten Nachteile vermeidet und intuitiv für jedermann bedienbar ist. Weiters soll eine sichere Bedienung des Systems ohne Fehlerkennungen jederzeit gewährleistet sein und das System einen geringen Platzbedarf aufweisen. Erfindungsgemäß wird dies dadurch erreicht, dass die Kamera zur optischen Erfassung der Navigationsebene von der zweiten Seite der Navigationsebene her ausgelegt ist, welche zweite Seite bei Verwendung des zumindest einen Steuerteils diesem gegenüberliegt. Damit können kostengünstige Steuerteile für eine ansprechende Navigation in virtuellen SD- Modellen eingesetzt werden, die auch von Laien einfach bedienbar sind. Durch die Blickrichtung der Kamera entweder direkt oder über Spiegel von der dem Benutzer gegenüber liegenden Seite her ist ständig ein guter Sichtkontakt der Kamera auf die Navigationsebene sichergestellt. Damit wird eine Abschattung der Kamera durch den Benutzer selbst zuverlässig vermieden. Auf diese Weise sind Fehlerkennungen wirksam verhindert. In Weiterfuhrung der Erfindung kann vorgesehen sein, dass in der Navigationsebene eine
Platte aus Glas oder Kunststoff angeordnet ist, die für einen Wellenlängenbereich, für den die
Kamera ausgelegt ist, transparent ist.
Durch eine derartige Platte wird die Navigation in der Navigationsebene erleichtert.
Weiters kann vorgesehen sein, dass die Navigationsebene von einem Rahmen begrenzt ist.
Ein Rahmen erleichtert dem Benutzer die Orientierung bei der Navigation und bietet einer gegebenenfalls vorhandenen Glasplatte einen besseren Schutz.
In besonderer Ausgestaltung der Erfindung kann vorgesehen sein, dass in bzw. auf der
Navigationsebene ein Realmodell angeordnet ist, in dem der wenigstens eine Steuerteil navigierbar ist.
Ein Reahnodell bietet bei der Navigation zusätzliche Orientierung für den Benutzer.
Insbesondere kann vorgesehen sein, dass das Realmodell in der Art eines Grundriss graphisch auf der Platte anbringbar oder angebracht ist.
Ein solches Reahnodell ist besonders leicht realisierbar und aktualisierbar.
Alternativ dazu kann vorgesehen sein, dass das Realmodell in der Art eines erhaben Modells auf der Platte anbringbar oder angebracht ist.
Ein solches Realmodell ist besonders anschaulich und bietet eine zusätzliche
Orientierungshilfe für den Benutzer.
Alternativ oder zusätzlich dazu kann vorgesehen sein, dass das Realmodell mittels eines
Projektionssystems auf die Navigationsebene projiziert wird.
Dadurch kann auch die Realvorgabe während der Benutzung des Systems geändert werden.
Dies erlaubt z.B. bei der Navigation in einem Gebäude virtuell das Stockwerk zu wechseln, obwohl der Benutzer mit dem Steuerteil real immer in einer Ebene navigiert.
In diesem Zusammenhang kann vorgesehen sein, dass das Projektionssystem zur Projektion des Realmodells ebenfalls von der zweiten Seite der Navigationsebene her ausgelegt ist.
Dadurch ist eine besonders kompakte Bauweise möglich und überdies sichergestellt, dass der
Benutzer auch die projizierte Realvorgabe nicht abschattet.
In Weiterbildung der Erfindung kann vorgesehen sein, dass die Platte auf einem Ständer angeordnet ist.
So kann die Position einer Platte zuverlässig festgelegt werden.
Alternativ dazu kann vorgesehen sein, dass der Rahmen auf einem Ständer angeordnet ist.
So kann die Position eines Rahmens zuverlässig festgelegt werden. In Weiterbildung der Erfindung kann vorgesehen sein, dass eine Beleuchtungseinrichtung zur
Beleuchtung der Markierungen von Steuerteilen, die in der Navigationsebene angeordnet sind, ausgelegt ist, vorgesehen ist.
Damit wird die Erkennung der Markierungen durch die Kamera noch zuverlässiger.
In besonderer Ausgestaltung der Erfindung kann vorgesehen sein, dass wenigstens ein Spiegel zur Umlenkung des Lichts der Beleuchtungseinrichtung oder von Tageslicht vorgesehen ist, sodass das entsprechende Licht auf die Markierungen von Steuerteilen umgelenkt wird.
Damit wird auf einfache Art und Weise die Erkennung der Markierungen durch die Kamera noch zuverlässiger.
Weiters kann vorgesehen sein, dass wenigstens ein Erfassungsspiegel vorgesehen ist, auf den die Kamera derart ausgerichtet oder ausrichtbar ist, dass die Kamera zur optischen Erfassung der Navigationsebene über den Spiegel ausgelegt ist.
Damit kann der erforderliche geometrische Abstand zwischen Kamera und Navigationsebene deutlich verringert werden und das Schnittstellensystem daher kompakter ausgeführt werden.
Insbesondere kann vorgesehen sein, dass der Spiegel mit dem Erfassungsspiegel identisch ist.
So wird die Anzahl der erforderlichen Bauteile reduziert.
In besonderer Weiterführung der Erfindung kann vorgesehen sein, dass das
Schnittstellensystem zerlegbar bzw. zusammenklappbar und im zerlegten bzw. zusammengeklappten Zustand für eine Person tragbar ausgeführt ist.
Damit ist eine flexible Einsatzmöglichkeit des Schnittstellensystems gegeben.
In Weiterbildung der Erfindung kann vorgesehen sein, dass die Platte auf einem Ständer angeordnet ist, der im zerlegten bzw. zusammengeklappten Zustand des Schnittstellensystems eine Abdeckung und/oder Hülle für die Platte und/oder den Spiegel bildet.
Damit wird ein Bruch der Platte und/oder des Spiegels beim Transport vermieden.
In einer besonderen Ausgestaltung der Erfindung kann vorgesehen sein, dass die Markierung des Steuerteils ein rotationsasymmetrisches Muster enthält.
Damit wird die Orientierung des Steuerteils in Abhängigkeit seiner Rotationslage bestimmbar.
Insbesondere kann vorgesehen sein, dass die Markierung wenigstens aus zwei Flächen unterschiedlicher Farbe besteht.
Insbesondere kann vorgesehen sein, dass die zwei Flächen jeweils im Wesentlichen
Halbkreise sind, die gemeinsam eine Kreisscheibe bilden.
Derartige Markierungen sind besonders einfach zu realisieren, z.B. mit gewöhnlichen
Farbdruckern auf Klebefolie. In Weiterfuhrung der Erfindung kann vorgesehen sein, dass die wenigstens zwei Flächen von einer Rahmenfläche in einer Farbe, die ungleich der Farben der zwei Flächen ist, umgeben sind.
Damit werden beide der Flächen von der Kamera identifizierbar, auch wenn der Hintergrund einer der beiden Farben ähneln sollte.
In besonderer Ausgestaltung der Erfindung kann schließlich vorgesehen sein, dass die
Markierung weitere Flächen enthält, die innerhalb oder zwischen den wenigstens zwei
Flächen angeordnet sind und die sich in ihrer Farbe von den angrenzenden Flächen unterscheiden.
Die Erfindung wird unter Bezugnahme auf die beigeschlossenen Zeichnungen, in welchen
Ausfuhrungsformen dargestellt sind, näher beschrieben. Dabei zeigt:
Fig. Ia bis Id vier Ausführungsformen einer optischen Markierung eines Steuerteils,
Fig. 2 ein zusammengeklapptes bzw. aufgebautes computerunterstütztes Schnittstellensystem im Schrägriss,
Fig. 3 eine andere Ausführungsform eines zerlegbaren computerunterstützten
Schnittstellensystems im Schrägriss
Fig. 4 eine vertikale Ausführungsform eines computerunterstützten Schnittstellensystems im
Schrägriss, und
Fig 5 ein computerunterstütztes Schnittstellensystem mit einer Navigationsfläche, einem
Benutzer und einer Bildausgabeeinheit im Schrägriss.
Ziel der Erfindung ist die für einen Benutzer einfache manuelle Navigation eines Benutzers mit Hilfe eines kabel- und elektronikfreien Steuerteils E in einer Navigationsebene A, bei der die Navigation mit einem virtuellen zwei- oder dreidimensionalem Modell gekoppelt ist, welches Modell an einer Bildausgabeeinheit L, wie einem Bildschirm, in Abhängigkeit der Navigationsparameter Bewegung, Position und Orientierung des Steuerteils E darstellbar ist, wie dies in Fig. 5 angedeutet ist.
Fig. Ia bis Id zeigen optische Markierungen El für ein Steuerteil E. Algorithmische Zielstellung ist das Auslesen von Koordinaten und Winkelinformationen geometrischer, färbiger Objekte aus den Bildinformationen einer Videokamera D. Da die ausgelesenen Daten einer Videokamera D lichtabhängig sind und immer ein mehr oder weniger starkes Rauschen mit sich bringen, ist das Design der Art und Form der Objekte ausschlaggebend. Die durch die Kamera D erfasste Form weist folgende Eigenschaften auf: Zwei Flächen 1 und 2 in Form von Halbkreisen, mit je zwei unterschiedliche Farben, sind von einer andersfarbigen Rahmenfläche 3 umgeben. Die Flächen könnten auch andere Formen aufweisen. Der äußere Durchmesser des gesamten Kreises kann beliebig groß sein, bevorzugt jedoch zwischen 4cm und 10cm betragen. Anhand dieser speziellen Form kann sowohl auf die Position als auch mit Hilfe der Flächen 1 und 2 auf den Winkel geschlossen werden. Die Rahmenfläche 3 dient der strikten Abgrenzung zum Hintergrund. Anmerkung: Sonst würde z.B. ein Benutzer mit einem z.B. roten Pullover die Erkennung einer roten Fläche 1 oder 2 stören und unmöglich machen. Die anfallenden Videosignale werden vorerst von RGB in den HSV-Farbraum gewandelt. Vorteil des HSV-Raumes ist die eindeutige Zuweisung von Farben; so kann mittels des H- Parameters auf eine Farbe geschlossen werden, unabhängig von seiner Intensität oder Helligkeit. Dem gewonnenen HSV-Raum werden anschließend nur gewünschte Farbanteile durchgefiltert. Im nächsten Schritt werden alle benachbarten Bildpunkte zusammengefasst und untersucht. Dadurch werden mehrere Regionen gefunden - folgende können verworfen werden. Ist ihre Anzahl der Bildpunkte unter oder über einem signifikanten Wert, ist die Ausdehnungsbreite sowie Ausdehnungshöhe über oder unter einem signifikanten Wert, die Region muss beide Farben zu einem bestimmten Verhältnis enthalten, die Dichte (Anzahl Bildpunkte zu Fläche) darf einen gewissen Wert nicht unterschreiten. Mit Hilfe dieser Parameter kann sehr sicher auf gültige Steuerteile E geschlossen werden: Koordinaten und Winkel. Zur Bestimmung der Koordinaten der gefundenen Markierungen El wird deren Schwerpunkt herangezogen. Dadurch ist eine stabile Abfrage möglich, die eine höhere Auflösung als die physische Auflösung ermöglicht, da durch die Gewichtung der Bildpunkte Zwischenwerte möglich sind. Die Winkelbestimmung erfolgt über die Schwerpunktsbestimmung der beiden Flächen 1 und 2, daraus kann auf den Winkel geschlossen werden. Da durch die oben erwähnten Ungenauigkeiten des Videosignals die errechneten Koordinaten und Winkel der Steuerteile E um einen gewissen Pegel schwanken, wird mit Hilfe eines Hochpasses geglättet: Schnell wechselnde Bewegungen (Steuerteil E wird schnell gedreht oder bewegt) werden nur schwach gefiltert, um keinen Effekt der Verzögerung hervorzurufen, jedoch bei langsamen Bewegungen wird stärker gefiltert um ein „Zittern" des Steuerteils E zu vermeiden. Fälschlich eruierte Steuerteile E, die kurzzeitig auftreten, werden ausgeschieden, da ein erkanntes Steuerteil E über längere Zeit hintereinander (z.B. fünf mal) an seiner Position erkannt werden muss. Um mehrere Steuerteile E in ein und derselben Anwendung eindeutig voneinander unterscheiden zu können, wird die Markierung El weiter modifiziert. Eine oder zwei beispielsweise punktförmige weitere Flächen 4 und/oder 5 werden im Schwerpunkt der Flächen 1 und 2 angeordnet (vgl. Fig. Ib bis Id). Durch. Kombination dieses Systems erhält man insgesamt vier unterschiedliche Markierungen El (Fig. Ia bis Id) bzw. Steuerteile E. Weiters wäre es möglich, durch Erhöhung der Anzahl an punktförmigen Flächen eine noch größere Zahl von unterschiedlichen Steuerteilen erkennen zu können.
Fig. 2 zeigt ein computerunterstütztes Schnittstellensystem zur manuellen Navigation in einer Navigationsebene A, umfassend eine Kamera D, die zur optischen Erfassung der Navigationsebene A ausgelegt ist. Weiters wird ein kabel- und elektronikfreier Steuerteil E mit einer darauf angeordneten optischen Markierung El, der zur manuellen Führung in der Navigationsebene A ausgelegt ist, gezeigt, wobei die optische Markierung El zur Kamera D hin, über den Spiegel als Umlenkung, ausgerichtet ist. Durch die Art der Markierung El können über die Kamera D die Navigationsparameter Bewegung, Position und Orientierung des Steuerteils E in der Navigationsebene A erfasst werden und mit einem virtuellen zwei- oder dreidimensionalem Modell gekoppelt werden, welches Modell an einer Bildausgabeeinheit L, wie einem Bildschirm, in Abhängigkeit der Navigationsparameter dargestellt wird. Hierbei wäre es auch denkbar, die Navigationsebene A selbst als Bildausgabemedium auszubilden.
Die Zeichnung zeigt eine zerlegbare, mobile Einheit. Sie besteht aus einem leichten Rahmen C (der wie eine Schachtel an der Vorderseite geschlossen ist), an dessen Unterseite ist ein klappbarer Spiegel B montiert. Dieser Spiegel reflektiert Umgebungslicht auf die Unterseite der Navigationsfläche A und somit auf die optische Markierung El. Weiters kann ein Erfassungsspiegel B2 zur Umlenkung des Kamerabildes vorgesehen sein. Durch den Einsatz des Erfassungsspiegels B2 wird der Abstand Kamera D - Navigationsfläche A erweitert und somit die Bauhöhe verkleinert, was für die Transportierbarkeit und Mobilität einen entscheidenden Vorteil darstellt. Der Spiegel B und der Erfassungsspiegel B2 können identisch sein. Spiegel B und/oder Erfassungsspiegel B2 können beim Transport in den Rahmen C geklappt werden, worin er geschützt ist. An der oberen Innenseite des Rahmens C ist eine Kamera D justierbar montiert. Das Bild der Kamera D erfasst über den Spiegel B2 als Umlenkung, die gesamte Navigationsunterfläche A und somit die Lage und Position des Steuerteils E. Die Kamera D ist mittels USB oder Firewire mit dem Computer verbunden. Am Rahmen C ist noch ein klappbarer oder ansteckbarer Ständer F angebracht, sodass die Einheit bei Gebrauch stabil steht und nicht kippen kann. Die Navigationsoberfläche A bzw. Platte Al wird beim Aufbau der Einheit in einen Schlitz des Rahmens C geschoben und wird somit in einer stabilen Lage gehalten. Auf die Navigationsoberfläche A wird je nach Anwendung ein entsprechendes Realmodell K gestellt. Bei ungünstigen Lichtverhältnissen kann im Rahmen C noch eine Leuchte H angeordnet werden, um die Erkennung der Steuerteile E eindeutig zu gewährleisten.
Auf der Navigationsoberfläche A wird je nach Anwendung ein entsprechendes Realmodell K, wie ein erhabenes Modell, ein graphisch angebrachter Plan oder anderes angeordnet. Es kann auch vorgesehen sein, dass das Realmodell mittels eines nicht dargestellten Projektionssystems auf die Navigationsebene projiziert wird. Dazu kann vorgesehen sein, dass die Navigationsebene mit einer Projektionsfolie versehen ist. Diese ist vorteilhafterweise eine Rückprojektionsfolie, welche auf der zweiten Seite der Navigationsebene A angeordnet ist. Die Projektion kann vorteilhafterweise ebenfalls von der unteren, das heißt der dem Benutzer abgewandten und dem Steuerteil gegenüberliegenden Seite her erfolgen. Fig. 3 zeigt ein vergleichbares computerunterstütztes Schnittstellensystem zur manuellen Navigation in einer Navigationsebene A. Es besteht aus einem Leuchtkasten und einer Navigationsoberfläche A, hier als Platte Al ausgebildet, die über eine Konstruktion miteinander (im Bild nicht dargestellt) verbunden sind. Entweder ist das Verbindungsgestänge faltbar oder demontierbar. Da das System auf einfallendes Seitenlicht unempfindlich ist, müssen keine geschlossenen Seitenteile vorhanden sein, können jedoch bei Wunsch aus Stoff oder einem leichten Plattenmaterial montiert werden. Die Navigationsoberfläche A oder Platte Al muss nicht direkt konstruktiv mit dem Leuchtkasten verbunden sein, die Navigationsoberfläche A oder Platte Al kann z.B. auch von der Decke abgehängt werden, oder auf Wandkonsolen gelegt sein. Je nach Anwendungsfall und räumlichen Gegebenheiten wird die Konstruktion unterschiedlich ausgeführt werden. Das Steuerteil E wird von der Kamera D erfasst und die Daten ausgewertet. Die Entfernung der Navigationsoberfläche A vom Fußboden soll derart gestaltet werden, dass sowohl Kinder, Rollstuhlfahrer und erwachsene Menschen die Anordnung bedienen können (ca. 75 bis 85 cm Höhe).
Der Leuchtkasten besteht aus einem Rahmen C, helligkeitsverstellbaren Lampen H, Kamera D, opale Plexiglasabdeckung G. In dieser Plexiglasabdeckung G ist eine Öffnung I vorgesehen, so dass die Sichtbeziehung Kamera D und Navigationsoberfläche A durch die Plexiglasabdeckung G nicht verdeckt ist. Die Kamera D erfasst die gesamte Navigationsoberfläche A und somit die Lage und Position des Steuerteils E. Die Kamera D wird mittels USB, Firewire oder Framegrabberkarte mit dem Computer verbunden. Auf der Navigationsoberfläche A wird je nach Anwendung ein entsprechendes Realmodell K5 wie ein erhabenes Modell (wie auch in Fig. 5), ein Plan oder anderes angeordnet. Fig. 4 zeigt ein weiteres im Wesentlichen vertikal angeordnetes computerunterstütztes Schnittstellensystem zur manuellen Navigation in einer Navigationsebene A, umfassend eine Kamera D, die zur optischen Erfassung der Navigationsebene A ausgelegt ist. Weiters wird ein kabel- und elektronikfreier Steuerteil E mit einer darauf angeordneten optischen Markierung El, der zur manuellen Führung in der Navigationsebene A ausgelegt ist, gezeigt, wobei die optische Markierung El zur Kamera D hin ausgerichtet ist. Durch die Art der Markierung El können über die Kamera D die Navigationsparameter Bewegung, Position und Orientierung des Steuerteils E in der Navigationsebene A erfasst werden und mit einem virtuellen zwei- oder dreidimensionalem Modell gekoppelt werden.
Fig. 4 zeigt eine stationäre vertikal angebrachte Einheit. Sie besteht aus einem Leuchtkasten und einer vertikalen Navigationsoberfläche A. Je nach Anwendungsfall und räumlichen Gegebenheiten wird die Konstruktion unterschiedlich ausgeführt werden. Der Leuchtkasten besteht aus folgenden Teilen: Rahmen C, helligkeitsverstellbaren Lampen H, Kamera D, opale Plexiglasabdeckung. Bei dieser Anordnung kann je nach Anwendung auf die Platte Al vollständig verzichtet werden. Da der Steuerteil E sehr unempfindlich auf den Abstand zur Kamera D reagiert (Toleranzbereich +/- 20 cm), kann die Navigationsoberfläche A als ein umlaufender Navigationsrahmen A2 ausgebildet sein. Dieser Navigationsrahmen A2 dient nur zur Orientierung des Benutzers und zur Anbringung des Realmodells K oder anderer Realvorgaben. In der Praxis wird das Ganze folgendermaßen ausgeführt werden: Eine an der Rückwand befestigte oder frei im Raum aufgestellte Leuchtquelle H (incl. aller Teile wie vorher beschrieben), davor in einigen Abstand angebrachte Navigationsoberfläche A als Platte Al oder lediglich ein Navigationsrahmen A2. Die Benutzer können vor der Navigationsoberfläche A stehend navigieren. Die Kamera D erfasst die gesamte Navigationsoberfläche A bzw. den Navigationsrahmen A2 und somit die Lage und Position des Steuerteils E. Die Kamera D wird mittels USB oder Firewire oder Framegrabberkarte mit dem Computer verbunden. Auf der Navigationsoberfläche A kann je nach Anwendung ein entsprechendes Realmodell K, z.B. ein erhabenes Modell, ein Plan oder anderes angeordnet werden.
Als Alternative oder auch in Kombination mit dem erhabenen Realmodell bzw. dem Plan können mittels eines Projektionssystems Bilder dynamisch, das heißt abwechselnd, auf die Navigationsoberfläche A als Realvorgabe projiziert werden. Es können beliebige Bilder, Vorlagen, Hilfestellungen beim Navigieren usw. dynamisch oder statisch auf die Navigationsoberfläche projiziert werden. Es besteht immer eine eindeutige Verknüpfung von projiziertem Bild - der „Realvorgabe" -, virtuellem Bild oder Ton an einem Ausgabegerät (beispielsweise Bildschirm und/oder Lautsprecher) und Position und Orientierung des Steuerteils. Dies erlaubt beispielsweise bei der Navigation in einem Gebäude virtuell das Stockwerk zu wechseln, obwohl der Benutzer mit dem Steuerteil real immer in einer Ebene navigiert. Die Navigationsoberfläche kann dabei als Rückprojektionssystem ausgeführt sein. Der Projektor kann ein Video/Datenprojektor, ein Laserprojektor oder ein anderes Projektionssystem sein. Er weist vorteilhafterweise in die selbe Richtung wie die Kamera. Das Auslesen der Markierung El auf dem Steuerteil E und die Bildprojektion erfolgen dann aus der selben Richtung.
Weitere erfindungsgemäße Ausführungsformen weisen lediglich einen Teil der beschriebenen Merkmale auf, wobei jede Merkmalskombination, insbesondere auch von verschiedenen beschriebenen Ausführungsformen, vorgesehen sein kann.

Claims

P A T E N T A N S P R Ü C H E
1. Computerunterstütztes Schnittstellensystem zur manuellen Navigation in einer Navigationsebene (A) mit einer ersten und einer zweiten Seite, umfassend eine Kamera (D), die zur optischen Erfassung der Navigationsebene (A) ausgelegt ist, wenigstens einen kabel- und elektronikfreien Steuerteil (E) mit wenigstens einer darauf angeordneten optischen Markierung (El), der zur manuellen Führung in der Navigationsebene (A) auf deren ersten Seite ausgelegt ist und dazu vorgesehen ist, dass die wenigstens eine optische Markierung (El) bei Gebrauch des Steuerteils (E) zur Kamera (D) hin ausgerichtet ist, wobei die Navigationsparameter Bewegung, Position und Orientierung des Steuerteils (E) in der Navigationsebene (A) mit einem virtuellen zwei- oder dreidimensionalem Modell gekoppelt sind, welches Modell an einer Bildausgabeeinheit (L), wie einem Bildschirm, in Abhängigkeit der Navigationsparameter darstellbar ist, dadurch gekennzeichnet, dass die Kamera (D) zur optischen Erfassung der Navigationsebene (A) von der zweiten Seite der Navigationsebene (A) her ausgelegt ist, welche zweite Seite bei Verwendung des zumindest einen Steuerteils (E) diesem gegenüberliegt.
2. Schnittstellensystem nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass in der Navigationsebene (A) eine Platte (Al) aus Glas oder Kunststoff angeordnet ist, die für einen Wellenlängenbereich, für den die Kamera (D) ausgelegt ist, transparent ist.
3. Schnittstellensystem nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Navigationsebene (A) von einem Navigationsrahmen (A2) begrenzt ist.
4. Schnittstellensystem nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass in bzw. auf der Navigationsebene (A) ein Realmodell (K) angeordnet ist, in dem der wenigstens eine Steuerteil (E) navigierbar ist.
5. Schnittstellensystem nach Ansprach 4, dadurch gekennzeichnet, dass das Realmodell (K) in der Art eines Grundrisses graphisch auf der Platte (Al) anbringbar oder angebracht ist.
6. Schnittstellensystem nach Anspruch 4, dadurch gekennzeichnet, dass das Realmodell (K) in der Art eines erhaben Modells auf der Platte (Al) anbringbar oder angebracht ist.
7. Schnittstellensystem nach Anspruch 4, dadurch gekennzeichnet, dass das Realmodell (K) mittels eines Projektionssystems auf die Navigationsebene (A) projiziert wird.
8. Schnittstellensystem nach Anspruch 7, dadurch gekennzeichnet, dass das Projektionssystem zur Projektion des Realmodells (K) ebenfalls von der zweiten Seite der Navigationsebene (A) her ausgelegt ist.
9. Schnittstellensystem nach einem der Ansprüche 2 bis 8, dadurch gekennzeichnet, dass die Platte (Al) auf einem Ständer (F) angeordnet ist.
10. Schnittstellensystem nach Ansprach einem der Ansprüche 3 bis 9, dadurch gekennzeichnet, dass der Navigationsrahmen (A2) auf einem Ständer (F) angeordnet ist.
11. Schnittstellensystem nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass eine Beleuchtungseinrichtung (H) zur Beleuchtung der Markierungen (El) von Steuerteilen (E), die in der Navigationsebene (A) angeordnet sind, ausgelegt ist, vorgesehen ist.
12. Schnittstellensystem nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, dass wenigstens ein Spiegel (B) zur Umlenkung des Lichts der Beleuchtungseinrichtung (H) oder von Tageslicht vorgesehen ist, sodass das entsprechende Licht auf die Markierungen (El) von Steuerteilen (E) umgelenkt wird.
13. Schnittstellensystem nach einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, dass wenigstens ein Erfassungsspiegel (B2) vorgesehen ist, auf den die Kamera (D) derart ausgerichtet oder ausrichtbar ist, dass die Kamera (D) zur optischen Erfassung der Navigationsebene (A) über den Spiegel (B2) ausgelegt ist.
14. Schnittstellensystem nach Anspruch 13, dadurch gekennzeichnet, dass der Spiegel (B) mit dem Erfassungsspiegel (B2) identisch ist.
15. Schnittstellensystem nach einem der Ansprüche 1 bis 13, dadurch gekennzeichnet, dass es zerlegbar bzw. zusammenklappbar und im zerlegten bzw. zusammengeklappten Zustand für eine Person tragbar ausgeführt ist.
16. Schnittstellensystem nach Anspruch 15, dadurch gekennzeichnet, dass die Platte (Al) auf einem Ständer (F) angeordnet ist, der im zerlegten bzw. zusammengeklappten Zustand des Schnittstellensystems eine Abdeckung und/oder Hülle für die Platte (Al) und/oder den Spiegel (B) bildet.
17. Schnittstellensystem nach einem der Ansprüche 1 bis 16, dadurch gekennzeichnet, dass die Markierung (El) des Steuerteils (E) ein rotationsasymmetrisches Muster enthält.
18. Schnittstellensystem nach Anspruch 17, dadurch gekennzeichnet, dass die Markierung (El) wenigstens aus zwei Flächen (1, 2) unterschiedlicher Farbe besteht.
19. Schnittstellensystem nach Ansprach 18, dadurch gekennzeichnet, dass die zwei Flächen (1, 2) jeweils im Wesentlichen Halbkreise sind, die gemeinsam eine Kreisscheibe bilden.
20. Schnittstellensystem nach Ansprach 18 oder 19, dadurch gekennzeichnet, dass die wenigstens zwei Flächen (1, 2) von einer Rahmenfläche (3) in einer Farbe, die ungleich der Farben der zwei Flächen (1, 2) ist, umgeben sind.
21. Schnittstellensystem nach einem der Ansprüche 18 bis 20, dadurch gekennzeichnet, dass die Markierung (El) weitere Flächen (4, 5) enthält, die innerhalb oder zwischen den wenigstens zwei Flächen (1, 2) angeordnet sind und die sich in ihrer Farbe von den angrenzenden Flächen unterscheiden.
PCT/AT2006/000069 2005-02-22 2006-02-21 Computerunterstütztes schnittstellensystem WO2006089323A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP06704711A EP1856594A1 (de) 2005-02-22 2006-02-21 Computerunterstütztes schnittstellensystem

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
ATA294/2005 2005-02-22
AT0029405A AT501442B1 (de) 2005-02-22 2005-02-22 Computergestütztes schnittstellensystem

Publications (1)

Publication Number Publication Date
WO2006089323A1 true WO2006089323A1 (de) 2006-08-31

Family

ID=36283710

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/AT2006/000069 WO2006089323A1 (de) 2005-02-22 2006-02-21 Computerunterstütztes schnittstellensystem

Country Status (3)

Country Link
EP (1) EP1856594A1 (de)
AT (1) AT501442B1 (de)
WO (1) WO2006089323A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009067726A2 (de) * 2007-11-28 2009-06-04 Thomas Kienzl Computerunterstütztes schnittstellensystem
WO2012068607A1 (en) * 2010-11-24 2012-05-31 Thomas Kienzl Method for displaying an item on a display unit
WO2023196395A1 (en) * 2022-04-05 2023-10-12 Wayfair Llc Real-time visualization of a virtual scene controllable through physical objects

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1193646A2 (de) * 2000-09-27 2002-04-03 Canon Kabushiki Kaisha Bildverarbeitungsvorrichtung
US20030025087A1 (en) * 2001-08-01 2003-02-06 Aspex, Llc Apparatus for correlating an optical image and a SEM image and method of use thereof

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4423005C1 (de) * 1994-06-30 1995-11-30 Siemens Ag Eingabevorrichtung für einen Computer
DE29600640U1 (de) * 1996-01-16 1996-09-12 Reuter, Susanne, 85072 Eichstätt Vertikal-Rollenkoffer mit integriertem Computer-Arbeitsplatz
DE19781024D2 (de) * 1996-09-12 1999-08-05 Eidgenoess Tech Hochschule Interaktionsraum zur Darstellung von Daten
US6061177A (en) * 1996-12-19 2000-05-09 Fujimoto; Kenneth Noboru Integrated computer display and graphical input apparatus and method
JP3423676B2 (ja) * 2000-07-19 2003-07-07 キヤノン株式会社 仮想対象物操作装置および仮想対象物操作方法
US7139685B2 (en) * 2000-11-03 2006-11-21 Siemens Aktiengesellschaft Video-supported planning of equipment installation and/or room design
US20030089832A1 (en) * 2001-11-02 2003-05-15 Gold Robert J. Multi-function accessory for handheld electronics
NL1020440C2 (nl) * 2002-04-19 2003-10-21 Univ Eindhoven Tech Werkwijze en stelsel voor het visueel terugkoppelen van interacties tussen een invoerorgaan en een dataverzameling.

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1193646A2 (de) * 2000-09-27 2002-04-03 Canon Kabushiki Kaisha Bildverarbeitungsvorrichtung
US20030025087A1 (en) * 2001-08-01 2003-02-06 Aspex, Llc Apparatus for correlating an optical image and a SEM image and method of use thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1856594A1 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009067726A2 (de) * 2007-11-28 2009-06-04 Thomas Kienzl Computerunterstütztes schnittstellensystem
WO2009067726A3 (de) * 2007-11-28 2009-07-16 Thomas Kienzl Computerunterstütztes schnittstellensystem
WO2012068607A1 (en) * 2010-11-24 2012-05-31 Thomas Kienzl Method for displaying an item on a display unit
CN103282939A (zh) * 2010-11-24 2013-09-04 托马斯·金茨尔 用于在显示单元上显示物品的方法
US8963835B2 (en) 2010-11-24 2015-02-24 Thomas Kienzl Method for displaying an item on a display unit
WO2023196395A1 (en) * 2022-04-05 2023-10-12 Wayfair Llc Real-time visualization of a virtual scene controllable through physical objects

Also Published As

Publication number Publication date
AT501442B1 (de) 2007-07-15
AT501442A1 (de) 2006-09-15
EP1856594A1 (de) 2007-11-21

Similar Documents

Publication Publication Date Title
DE102014013677B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und unterteiltem Display
DE102014013678B3 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten
DE69828912T2 (de) Hinweisvorrichtung, die das Bild einer Hand verwendet
DE602004011979T3 (de) Verfahren und vorrichtung zur bereitstellung einer omnidirektionalen beleuchtung in einer scanning-einrichtung
DE60028894T2 (de) Präsentationssystem mit einer interaktiven Darstellung
DE69817498T2 (de) Handzeigegerät
DE69530395T2 (de) Interaktives projektiertes videobildanzeigesystem
DE2332779C3 (de) Vorrichtung zum fortlaufenden Unterteilen und Markieren von Fahrspurlinien auf Fahrbahnen o.dgl
EP3182065A1 (de) Handhaltbares entfernungsmessgerät und verfahren zum erfassen relativer positionen
DE102012107153A1 (de) Vorrichtung und Verfahren zur Bestimmung der Eigenlage einer bildaufnehmenden Kamera
DE19945588A1 (de) Sensoranordnung
DE10245226A1 (de) Präsentationssystem
EP1856594A1 (de) Computerunterstütztes schnittstellensystem
DE102005022103A1 (de) Tragbares Gerät, insbesondere digitale Kamera
EP1623943B1 (de) Vorrichtung und Verfahren zur Erfassung eines Merkmals einer laufenden Materialbahn
DE3100584C2 (de) Vorrichtung für Sichtsimulatoren
DE2136862C3 (de) Zum Abtasten oder zur Wiedergabe eines Bildes zwecks Übertragung über Fernsprechverbindungen dienende Vor richtung mit einer Quelle kohärenten Lichtes
DE102016223671A1 (de) Leuchtsystem zur Ermittlung geometrischer Eigenschaften sowie Fahrerassistenzsystem und Verfahren dazu
DE202014010357U1 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten
WO2012139552A1 (de) Vorrichtung zum kalibrieren einer mehrkamera-aufnahmevorrichtung für dreidimensionale bildaufnahme
DE2141839C3 (de) Bewegungsbild
DE102007057272B4 (de) Vorrichtung und Verfahren zur Projektion einer graphischen Darstellung auf eine Projektionsfläche
AT505672B1 (de) Computerunterstütztes schnittstellensystem
DE102014113015B4 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung, umfassend einen Handscanner mit Tragestruktur
DE10203992A1 (de) Eingabeeinrichtung

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006704711

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

WWP Wipo information: published in national office

Ref document number: 2006704711

Country of ref document: EP