AT501442A1 - Computerunterstütztes schnittstellensystem - Google Patents

Computerunterstütztes schnittstellensystem Download PDF

Info

Publication number
AT501442A1
AT501442A1 AT0029405A AT2942005A AT501442A1 AT 501442 A1 AT501442 A1 AT 501442A1 AT 0029405 A AT0029405 A AT 0029405A AT 2942005 A AT2942005 A AT 2942005A AT 501442 A1 AT501442 A1 AT 501442A1
Authority
AT
Austria
Prior art keywords
interface system
navigation
camera
mirror
control part
Prior art date
Application number
AT0029405A
Other languages
English (en)
Other versions
AT501442B1 (de
Inventor
Thomas Dipl Ing Kienzl
Original Assignee
Thomas Dipl Ing Kienzl
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomas Dipl Ing Kienzl filed Critical Thomas Dipl Ing Kienzl
Priority to AT0029405A priority Critical patent/AT501442B1/de
Priority to EP06704711A priority patent/EP1856594A1/de
Priority to PCT/AT2006/000069 priority patent/WO2006089323A1/de
Publication of AT501442A1 publication Critical patent/AT501442A1/de
Application granted granted Critical
Publication of AT501442B1 publication Critical patent/AT501442B1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00734Aspects not otherwise provided for battery operated
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)
  • Accessories Of Cameras (AREA)
  • Navigation (AREA)

Description

• · · · • · · · • · · · • · · · 28459/cw
Die Erfindung betrifft ein computerunterstütztes Schnittstellensystem zur manuellen Navigation in einer Navigationsebene, umfassend eine Kamera, die zur optischen Erfassung der Navigationsebene ausgelegt ist, wenigstens einen kabel- und elektronikfireien Steuerteil mit wenigstens einer darauf angeordneten optischen Markierung, der zur manuellen Führung in der Navigationsebene ausgelegt ist und dazu vorgesehen ist, dass die wenigstens eine optische Markierung bei Gebrauch des Steuerteils zur Kamera hin ausgerichtet ist.
Solche Systeme sind in der Regel sehr komplex zu bedienen und für imgeübte Anwender nur schwer zu durchschauen. Die Vorstellungskraft der Anwender wird bei solchen Systemen kaum unterstützt und findet eher nur im akkustischen Bereich seine Anwendung. Die Anwendung für ein breites Publikum ist daher problematisch.
Die Aufgabe der Erfindung besteht darin, ein bekanntes Schnittstellensystem derart weiterzuentwickeln, dass es die bekannten Nachteile vermeidet und intuitiv für jedermann bedienbar ist.
Erfindungsgemäß wird dies dadurch erreicht, dass die Navigationsparameter Bewegung, Position und Orientierung des Steuerteils in der Navigationsebene mit einem virtuellen zwei- oder dreidimensionalen Modell gekoppelt sind, welches Modell an einer Bildausgabeeinheit, wie einem Bildschirm, in Abhängigkeit der Navigationsparameter darstellbar ist.
Damit können kostengünstige Steuerteile für eine ansprechende Navigation in virtuellen 3D-Modellen eingesetzt werden, die auch von Laien einfach bedienbar sind.
In besonderer Ausgestaltung der Erfindung kann vorgesehen sein, dass die Kamera zur optischen Erfassung der Navigationsebene von jener Seite der Navigationsebene her ausgelegt ist, die dem Benutzer abgewandt ist.
Damit wird eine Abschattung der Kamera durch den Benutzer selbst zuverlässig vermieden.
In Weiterführung der Erfindung kann vorgesehen sein, dass in der Navigationsebene eine Platte aus Glas oder Kunststoff angeordnet ist, die für einen Wellenlängenbereich, für den die Kamera ausgelegt ist, transparent ist.
Durch eine derartige Platte wird die Navigation in der Navigationsebene erleichtert. 1 ·· ·· · ·· ··' Μ • ·· · · · · · · · · · • · · · · ······ • · · · · · · ··· · · ···· ··· · · ·
Weiters kann vorgesehen sein, dass die Navigationsebene von einem Rahmen begrenzt ist.
Ein Rahmen erleichtert dem Benutzer die Orientierung bei der Navigation und bietet einer gegebenenfalls vorhandenen Glasplatte einen besseren Schutz.
In besonderer Ausgestaltung der Erfindung kann vorgesehen sein, dass in bzw. auf der Navigationsebene ein Realmodell angeordnet ist, in dem der wenigstens eine Steuerteil navigierbar ist.
Ein Realmodell bietet bei der Navigation zusätzliche Orientierung für den
Benutzer.
Insbesondere kann vorgesehen sein, dass das Realmodell in der Art eines Grundrisses graphisch auf der Platte anbringbar oder angebracht ist
Ein solches Realmodell ist besonders leicht realisierbar und aktualisierbar. Alternativ dazu kann vorgesehen sein, dass das Realmodell in der Art eines erhaben Modells auf der Platte anbringbar oder angebracht ist.
Ein solches Realmodell ist besonders anschaulich und bietet eine zusätzliche Orientierungshilfe für den Benutzer.
In Weiterbildung der Erfindung kann vorgesehen sein, dass die Platte auf einem Ständer angeordnet ist.
So kann die Position einer Platte zuverlässig festgelegt werden.
Alternativ dazu kann vorgesehen sein, dass der Rahmen auf einem Ständer angeordnet ist.
So kann die Position eines Rahmens zuverlässig festgelegt werden.
In Weiterbildung der Erfindung kann vorgesehen sein, dass eine Beleuchtungseinrichtung zur Beleuchtung der Markierungen von Steuerteilen, die in der Navigationsebene angeordnet sind, ausgelegt ist, vorgesehen ist.
Damit wird die Erkennung der Markierungen durch die Kamera noch zuverlässiger.
In besonderer Ausgestaltung der Erfindung kann vorgesehen sein, dass wenigstens ein Spiegel zur Umlenkung des Lichts der Beleuchtungseinrichtung oder von Tageslicht vorgesehen ist, sodass das entsprechende Licht auf die Markierungen von Steuerteilen umgelenkt wird.
Damit wird auf einfache Art und Weise die Erkennung der Markierungen durch die Kamera noch zuverlässiger. 2 • · Μ ·· ·· • · .· · · ·· · · · ·
• ··· · I • · · ·
Weiters kann vorgesehen sein, dass wenigstens ein Erfassungsspiegel vorgesehen ist, auf den die Kamera derart ausgerichtet oder ausrichtbar ist, dass die Kamera zur optischen Erfassung der Navigationsebene über den Spiegel ausgelegt ist.
Damit kann der erforderliche geometrische Abstand zwischen Kamera und Navigationsebene deutlich verringert werden und das Schnittstellensystem daher kompakter ausgeführt werden.
Insbesondere kann vorgesehen sein, dass der Spiegel mit dem Erfassungsspiegel identisch ist.
So wird die Anzahl der erforderlichen Bauteile reduziert.
In besonderer Weiterführung der Erfindung kann vorgesehen sein, dass das Schnittstellensystem zerlegbar bzw. zusammenklappbar und im zerlegten bzw. zusammengeklappten Zustand für eine Person tragbar ausgeführt ist.
Damit ist eine flexible Einsatzmöglichkeit des Schnittstellensystems gegeben.
In Weiterbildung der Erfindung kann vorgesehen sein, dass die Platte auf einem Ständer angeordnet ist, der im zerlegten bzw. zusammengeklappten Zustand des Schnittstellensystems eine Abdeckung und/oder Hülle für die Platte und/oder den Spiegel bildet.
Damit wird ein Bruch der Platte und/oder des Spiegels beim Transport vermieden.
In einer besonderen Ausgestaltung der Erfindung kann vorgesehen sein, dass die Markierung des Steuerteils ein rotationsasymmetrisches Muster enthält.
Damit wird die Orientierung des Steuerteils in Abhängigkeit seiner Rotationslage bestimmbar.
Insbesondere kann vorgesehen sein, dass die Markierung wenigstens aus zwei Flächen unterschiedlicher Farbe besteht.
Insbesondere kann vorgesehen sein, dass die zwei Flächen jeweils im Wesentlichen Halbkreise sind, die gemeinsam eine Kreisscheibe bilden.
Derartige Markierungen sind besonders einfach zu realisieren, z.B. mit gewöhnlichen Farbdruckern auf Klebefolie.
In Weiterführung der Erfindung kann vorgesehen sein, dass die wenigstens zwei Flächen von einer Rahmenfläche in-einer Farbe, die ungleich der Farben der zwei Flächen ist, umgeben ist. 3 • · · · · · · ··· · t 9 ·· · · · · . · · ·
Damit werden beide der Flächen von der Kamera identifizierbar, auch wenn der Hintergrund einer der beiden Farben ähnel sollte.
In besonderer Ausgestaltung der Erfindung kann schließlich vorgesehen sein, dass die Markierung weitere Flächen enthält, die innerhalb oder zwischen den wenigstens zwei Flächen angeordnet sind und die sich in ihrer Farbe von den angrenzenden Flächen unterscheiden.
Die Erfindung wird unter Bezugnahme auf die beigeschlossenen Zeichnungen, in welchen Ausführungsformen dargestellt sind, näher beschrieben. Dabei zeigt:
Fig. la bis ld vier Ausführungsformen einer optischen Markierung eines
Steuerteils,
Fig 2 ein zusammengeklapptes bzw. aufgebautes computerunterstütztes Schnittstellensystem im Schrägriss,
Fig. 3 eine andere Ausführungsform eines zerlegbaren computerunterstütztes Schnittstellensystems im Schrägriss
Fig. 4 eine vertikale Ausführungsform eines computerunterstütztes
Schnittstellensystems im Schrägriss, und
Fig 5 ein computerunterstütztes Schnittstellensystem mit einer
Navigationsfläche, einem Benutzer und einer Bildausgabeeinheit im Schrägriss.
Ziel der Erfindung ist die für einen Benutzer einfache manuelle Navigation eines Benutzers mit Hilfe eines kabel- und elektronikfreien Steuerteils E in einer
Navigationsebene A, bei der die Navigation mit einem virtuellen zwei- oder dreidimensionalem Modell gekoppelt ist, welches Modell an einer Bildausgäbeeinheit L, wie einem Bildschirm, in Abhängigkeit der Navigationsparameter Bewegung, Position und Orientierung des Steuerteils E darstellbar ist, wie dies in Fig. 5 angedeutet ist.
Fig. la bis ld zeigen optische Markierungen El für ein Steuerteil E. Algorithmische Zielstellung ist das Auslesen von Koordinaten und Winkelinformationen geometrischer, färbiger Objekte aus den Bildinformationen einer Videokamera D. Da die ausgelesenen Daten einer Videokamera D lichtabhängig sind und immer ein mehr oder weniger starkes Rauschen mit sich bringen, ist das Design der Art und Form der Objekte ausschlaggebend. Die durch die Kamera D erfasste Form weist folgende Eigenschaften auf: Zwei Flächen 1 und 2 in Form von Halbkreisen, mit je zwei unterschiedliche Farben, sind von 4 einer andersfarbigen Rahmenfläche 3 umgeben. Die Flächen könnten auch andere Formen aufweisen. Der äußere Durchmesser des gesamten Kreises kann beispielsweise zwischen 4cm und 10cm betragen. Anhand dieser speziellen Form kann sowohl auf die Position als auch mit Hilfe der Flächen 1 und 2 auf den Winkel geschlossen werden. Die Rahmenfläche 3 dient der strikten Abgrenzung zum Hintergrund. Anmerkung: Sonst würde z.B. ein Benutzer mit einem z.B. rotem Pullover die Erkennung einer roten Fläche 1 oder 2 stören und unmöglich machen.
Die anfallenden Videosignale werden vorerst von RGB in den HSV-Farbraum gewandelt. Vorteil des HSV-Raumes ist die eindeutige Zuweisung von Farben; so kann mittels des H-Parameters auf eine Farbe geschlossen werden, unabhängig von seiner Intensität oder Helligkeit. Dem gewonnenen HSV-Raum werden anschließend nur gewünschte Farbanteile durchgefiltert. Im nächsten Schritt werden alle benachbarten Bildpunkte zusammengefasst und untersucht. Dadurch werden mehrere Regionen gefunden - folgende können verworfen werden. Ist ihre Anzahl der Bildpunkte unter oder über einem signifikanten Wert, ist die Ausdehnungsbreite sowie Ausdehnungshöhe über oder unter einem signifikanten Wert, die Region muss beide Farben zu einem bestimmten Verhältnis enthalten, die Dichte (Anzahl Bildpunkte zu Fläche) darf einen gewissen Wert nicht unterschreiten. Mit Hilfe dieser Parameter kann sehr sicher auf gültige Steurerteile E geschlossen werden: Koordinaten und Winkel. Zur Bestimmung der Koordinaten der gefundenen Markierungen El wird deren Schwerpunkt herangezogen. Dadurch ist eine stabile Abfrage möglich, die eine höhere Auflösung als die physische Auflösung ermöglicht, da durch die Gewichtung der Bildpunkte Zwischenwerte möglich sind. Die Winkelbestimmung erfolgt über die Schwerpunktsbestimmung der beiden Flächen 1 und 2, daraus kann auf den Winkel geschlossen werden. Da durch die oben erwähnten Ungenauigkeiten des Videosignales die errechneten Koordinaten und Winkel der Steurteile E um einen gewissen Pegel schwanken, wird mit Hilfe eines Hochpasses geglättet: Schnell wechselnde Bewegungen (Steuerteil E wird schnell gedreht oder bewegt) werden nur schwach gefiltert um keinen Effekt der Verzögerung hervorzurufen, jedoch bei langsamen Bewegungen wird stärker gefiltert um ein „Zittern“ des Steuerteils E zu vermeiden. Fälschlich eruierte Steuerteile E, die kurzzeitig auftreten werden ausgeschieden, da ein erkanntes Steuerteil E über längere Zeit hintereinander (z.B. fünf mal) an seiner Position erkannt werden muss. Um mehrere Steuerteile E in ein und derselben Anwendung eindeutig voneinander unterscheiden zu können, wird die Markierung El weiter modifiziert. Ein oder zwei beispielsweise punktförmige weitere Flächen 4 und/oder 5 werden im Schwerpunkt der Flächen 1 und 2 angeordnet (vgl. Fig. lb bis ld). Durch ·· ·· · ·· ·· ·· • · · ♦ ♦♦ · · · · · · ···· · ······ • · ♦ ♦ · ♦ ♦ ♦·· · · ···· · · ♦ · · ·
Kombination dieses Systems erhält man insgesammt vier unterschiedliche Markierungen El (Fig. la bis ld) bzw. Steuerteile E.
Fig. 2 zeigt ein computerunterstütztes Schnittstellensystem zur manuellen Navigation in einer Navigationsebene A, umfassend eine Kamera D, die zur optischen Erfassung der Navigationsebene A ausgelegt ist. Weiters wird ein kabel- und elektronikfreier Steuerteil E mit einer darauf angeordneten optischen Markierung El, der zur manuellen Führung in der Navigationsebene A ausgelegt ist, gezeigt, wobei die optische Markierung El zur Kamera D hin, über den Spiegel als Umlenkung, ausgerichtet ist. Durch die Art der Markierung E1 können über die Kamera D die Navigationsparameter Bewegung, Position und Orientierung des Steuerteils E in der Navigationsebene A erfasst werden und mit einem virtuellen zwei- oder dreidimensionalem Modell gekoppelt werden, welches Modell an einer Bildausgabeeinheit L, wie einem Bildschirm, in Abhängigkeit der Navigationsparameter dargestellt wird.
Die Zeichnung zeigt eine zerlegbare, mobile Einheit. Sie besteht aus einem leichten Rahmen C (der wie eine Schachtel an der Vorderseite geschlossen ist), an dessen Unterseite ist ein klappbarer Spiegel B montiert. Dieser Spiegel refektiert Umgebungslicht auf die Unterseite der Navigationsfläche A und somit auf die optische Markierung El. Weiters kann ein Erfassungsspiegel B2 zur Umlenkung des Kamerabildes vorgesehen sein. Durch den c Einsatz des Erfassungsspiegels B2 wird der Abstand Kamera D - Navigationsfläche A erweitert und somit die Bauhöhe verkleinert, was für die Transportierbarkeit und Mobilität einen entscheidenten Vorteil darstellt. Der Spiegel B und der Erfassungsspiegel B2 können identisch sein. Spiegel B und/oder Erfassungsspiegel B2 können beim Transport in den Rahmen C geklappt werden, worin er geschützt ist An der oberen Innenseite des Rahmens C ist eine Kamera D justierbar montiert. Das Bild der Kamera D erfasst über den Spiegel B2 als Umlenkung, die gesamte Navigationsunterfläche A und somit die Lage und Position des Steuerteils E. Die Kamera D ist mittels USB oder Firewire mit dem Computer verbunden. Am Rahmen C ist noch ein klappbarer oder ansteckbarer Ständer F angebracht sodass die Einheit bei Gebrauch stabil steht und nicht kippen kann. Die Naviagtionsoberfläche A bzw. Platte Al wird beim Aufbau der Einheit in einen Schlitz des Rahmens C geschoben und wird somit in einer stabilen Lage gehalten. Auf die Naviagtionsoberfläche A wird je nach Anwendung ein entsprechendes Realmodell K gestellt Bei ungünstigen Lichverhältnissen kann im Rahmen C noch eine Leuchte H angordnet werden, um die Erkennung der Steurteile E eindeutig zu gewährleiten. 6 v *
Auf der Naviagtionsoberfläche A wird je nach Anwendung ein entsprechendes Realmodell K, wie ein erhabenes Modell, ein graphisch angebrachter Plan oder anderes angeordnet.
Fig. 3 zeigt ein vergleichbares computerunterstütztes Schnittstellensystem zur manuellen Navigation in einer Navigationsebene A. Es besteht aus einem Leuchtkasten und einer Naviagtionsoberfläche A, hier als Platte Al ausgebildet, die über eine Konstruktion miteinander (im Bild nicht dargestellt) verbunden sind. Entweder ist das Verbindungsgestänge faltbar oder demontierbar. Da das System auf einfallendes Seitenlicht unempfindlich ist, müssen die Seitenflächen nicht geschlossene sein, können jedoch bei Wunsch aus Stoff oder einem leichten Plattenmaterial montiert werden. Die Naviagtionsoberfläche A oder Platte Al muss nicht direkt konstruktiv mit dem Leuchtkasten verbunden sein, die Naviagtionsoberfläche A oder Platte Al kann z.B. auch von der Decke abgehängt werden, oder auf Wandkonsolen gelegt sein. Je nach Anwendungsfall und räumlichen Gegebenheiten wird die Konstruktionunterschiedlich ausgeführt.
Das Steuerteil E wird von der Kamera D erfasst und die Daten ausgewertet.
Die Entfernung der Naviagtionsoberfläche A vom Fußboden soll derart gestaltet werden, dass sowohl Kinder, Rollstuhlfahrer und erwachsene Menschen die Anordnung bedienen können (ca. 75 bis 85 cm Höhe).
Der Leuchtkasten besteht aus einem Rahmen C, helligkeitsverstellbaren Lampen H, Kamera D, opale Plexiglasabdeckung G. In dieser Plexiglasabdeckung G ist eine Öffnung I vorgesehen, auf das die Sichtbeziehung Kamera D und Navigationsoberfläche A durch die Plexiglasabdeckung G nicht verdeckt ist. Die Kamera D erfasst die gesamte Navigationsoberfläche A und somit die Lage und Position des Steuerteils E. Die Kamera D wird mittels USB, Firewire oder Framegrabberkarte mit dem Computer verbunden. Auf der Navigationsoberfläche A wird je nach Anwendung ein entsprechendes Realmodell K, wie ein erhabenes Modell (wie auch in Fig. 5), ein Plan oder anderes angeordnet.
Fig. 4 zeigt ein weiteres im Wesentlichen vertikal angeordnetes computerunterstütztes Schnittstellensystem zur manuellen Navigation in einer
Navigationsebene A, umfassend eine Kamera D, die zur optischen Erfassung der Navigationsebene A ausgelegt ist. Weiters wird ein kabel- und elektronikfreier Steuerteil E mit einer darauf angeordneten optischen Markierung El, der zur manuellen Führung in der Navigationsebene A ausgelegt ist, gezeigt, wobei die optische Markierung El zur Kamera D hin ausgerichtet ist. Durch die Art der Markierung El können über die Kamera D die 7 • ·· · ·· · · · · ♦ · • ·· « · ··· · ·· • · · · ♦ · # ··♦ · · • · · » · · · ·· ·
Navigationsparameter Bewegung, Position und Orientierung des Steuerteils E in der Navigationsebene A erfasst werden und mit einem virtuellen zwei- oder dreidimensionalen Modell gekoppelt werden.
Fig. 4 zeigt eine stationäre vertikal angebrachte Einheit. Sie besteht aus einem Leuchtkasten und einer vertikalen Navigationsoberfläche A. Je nach Anwendungsfall und räumlichen Gegebenheiten wird die Konstruktion unterschiedlich ausgeführt. Der Leuchtkasten besteht aus folgenden Teilen: Rahmen C, helligkeitsverstellbaren Lampen H, Kamera D, opale Plexiglasabdeckung. Bei dieser Anordnung kann j e nach Anwendung auf die Platte Al vollständig verzichtet werden. Da der Steuerteil E sehr unempfindlich auf den Abstand zur Kamera D reagiert (Toleranzbereich + - 20 cm), kann die Naviagtionsoberfläche A als ein umlaufender Navigationsrahmen A2 ausgebildet sein. Dieser Navigationsrahmen A2 dient nur zur Orientierung des Benutzers und zur Anbringung des Realmodells K oder anderer Realvorgaben. In der Praxis wird das Ganze folgendermaßen ausgeführt werden: Eine an der Rückwand befestigte oder frei im Raum aufgestellte Leuchtquelle H (incl. aller Teile wie vorher beschrieben), davor in einigen Abstand angebrachte Navigationsoberfläche A als Platte Al oder lediglich ein Navigationsrahmen A2. Die Benutzer können vor der Navigationsoberfläche A stehend navigieren. Die Kamera D erfasst die gesamte Navigationsoberfläche A bzw. den Navigationsrahmen A2 und somit die Lage und Position des Steuerteils E. Die Kamera D wird mittels USB oder Firewire oder Framegrabberkarte mit dem Computer verbunden. Auf der Navigationsoberfläche A kann je nach Anwendung ein entsprechendes Realmodell K, z.B. ein erhabenes Modell, ein Plan oder anderes angeordnet werden.
Weitere erfindungsgemäße Ausführungsformen weisen lediglich einen Teil der beschriebenen Merkmale auf, wobei jede Merkmalskombination, insbesondere auch von verschiedenen beschriebenen Ausführungsformen, vorgesehen sein kann.
Patentansprüche: 8

Claims (16)

  1. • · • · • · • · • » · · · ·· · · ·· • · Μ· · • · · · • ·· ·· ·· 28459/cw PATENTANSPRÜCHE Computerunterstütztes Schnittstellensystem zur manuellen Navigation in einer Navigationsebene (A), umfassend eine Kamera (D), die zur optischen Erfassung der Navigationsebene (A) ausgelegt ist, wenigstens einen kabel- und elektronikfreien Steuerteil (E) mit wenigstens einer darauf angeordneten optischen Markierung (El), der zur manuellen Führung in der Navigationsebene (A) ausgelegt ist und dazu vorgesehen ist, dass die wenigstens eine optische Markierung (El) bei Gebrauch des Steuerteils (E) zur Kamera (D) hin ausgerichtet ist, dadurch gekennzeichnet, dass die Navigationsparameter Bewegung, Position und Orientierung des Steuerteils (E) in der Navigationsebene (A) mit einem virtuellen zwei- oder dreidimensionalem Modell gekoppelt sind, welches Modell an einer Bildausgabeeinheit (L), wie einem Bildschirm, in Abhängigkeit der Navigationsparameter darstellbar ist. Schnittstellensystem nach Anspruch 1, dadurch gekennzeichnet, dass die Kamera (D) zur optischen Erfassung der Navigationsebene (A) von jener Seite der Navigationsebene (A) her ausgelegt ist, die dem Benutzer abgewandt ist. Schnittstellensystem nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass in der Navigationsebene (A) eine Platte (Al) aus Glas oder Kunststoff angeordnet ist, die für einen Wellenlängenbereich, für den die Kamera (D) ausgelegt ist, transparent ist. Schnittstellensystem nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Navigationsebene (A) von einem Navigationsrahmen (A2) begrenzt ist. Schnittstellensystem nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass in bzw. auf der Navigationsebene (A) ein Realmodell (K) angeordnet ist, in dem der wenigstens eine Steuerteil (E) navigierbar ist 9 "L. "L. ·« ·* ·· • » · t · • # · · • · · · • · · · . ·· ·· · «· ·♦ ♦· ft · « ♦ ♦ « ·· · · ·· ft I ··« · I ft · · · « ·· ·· ··
  2. 6. Schnittstellensystem nach Anspruch 5, dadurch gekennzeichnet, dass das Realmodell (K) in der Art eines Grundriß grafisch auf der Platte (Al) anbringbar oder angebracht ist.
  3. 7. Schnittstellensystem nach Anspruch 5, dadurch gekennzeichnet, dass das Realmodell (K) in der Art eines erhaben Modells auf der Platte (Al) anbringbar oder angebracht ist.
  4. 8. Schnittstellensystem nach Anspruch 3, dadurch gekennzeichnet, dass die Platte (Al) auf einem Ständer (F) angeordnet ist.
  5. 9. Schnittstellensystem nach Anspruch 4, dadurch gekennzeichnet, dass der Navigationsrahmen (A2) auf einem Ständer (F) angeordnet ist. e* '
  6. 10. Schnittstellensystem nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass eine Beleuchtungseinrichtung (H) zur Beleuchtung der Markierungen (El) von Steuerteilen (E), die in der Navigationsebene (A) angeordnet sind, ausgelegt ist, vorgesehen ist.
  7. 11. Schnittstellensystem nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass wenigstens ein Spiegel (B) zur Umlenkung des Lichts der Beleuchtungseinrichtung (H) oder von Tageslicht vorgesehen ist, sodass das entsprechende Licht auf die Markierungen (El) von Steuerteilen (E) umgelenkt wird.
  8. 12. Schnittstellensystem nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, dass wenigstens ein Erfassungsspiegel (B2) vorgesehen ist, auf den die Kamera (D) derart ausgerichtet oder aurichtbar ist, dass die Kamera (D) zur optischen Erfassung der Navigationsebene (A) über den Spiegel (B2) ausgelegt ist.
  9. 13. Schnittstellensystem nach Anspruch 12, dadurch gekennzeichnet, dass der Spiegel (B) mit dem Erfassungsspiegel (B2) identisch ist 10 ·» ·· • · ·
    ·· ··
  10. 14. Schnittstellensystem nach einem der Ansprüche 1 bis 13, dadurch gekennzeichnet, dass es zerlegbar bzw. zusammenklappbar und im zerlegten bzw. zusammengeklappten Zustand für eine Person tragbar ausgefuhrt ist.
  11. 15. Schnittstellensystem nach Anspruch 14, dadurch gekennzeichnet, dass die Platte (Al) auf einem Ständer (F) angeordnet ist, der im zerlegten bzw. zusammengeklappten Zustand des Schnittstellensystems eine Abdeckung und/oder Hülle für die Platte (Al) und/oder den Spiegel (B) bildet.
  12. 16. Schnittstellensystem nach einem der Ansprüche 1 bis 15, dadurch gekennzeichnet, dass die Markierung (El) des Steuerteils (E) ein rotationsasymmetrisches Muster enthält.
  13. 17. Schnittstellensystem nach Anspruch 16, dadurch gekennzeichnet, dass die Markierung (El) wenigstens aus zwei Flächen (1, 2) unterschiedlicher Farbe besteht.
  14. 18. Schnittstellensystem nach Anspruch 16, dadurch gekennzeichnet, dass die zwei Flächen (1, 2) jeweils im Wesentlichen Halbkreise sind, die gemeinsam eine Kreisscheibe bilden.
  15. 19. Schnittstellensystem nach einem der Ansprüche 16 bis 18, dadurch gekennzeichnet, dass die wenigstens zwei Flächen (1, 2) von einer Rahmenfläche (3) in einer Farbe, die ungleich der Farben der zwei Flächen (1,2) ist, umgeben ist.
  16. 20. Schnittstellensystem nach einem der Ansprüche 17 bis 19, dadurch gekennzeichnet, dass die Markierung (El) weitere Flächen (4 und 5) enthält, die innerhalb oder zwischen den wenigstens zwei Flächen (1, 2) angeordnet sind und die sich in ihrer Farbe von den angrenzenden Flächen unterscheiden. 11
AT0029405A 2005-02-22 2005-02-22 Computergestütztes schnittstellensystem AT501442B1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
AT0029405A AT501442B1 (de) 2005-02-22 2005-02-22 Computergestütztes schnittstellensystem
EP06704711A EP1856594A1 (de) 2005-02-22 2006-02-21 Computerunterstütztes schnittstellensystem
PCT/AT2006/000069 WO2006089323A1 (de) 2005-02-22 2006-02-21 Computerunterstütztes schnittstellensystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
AT0029405A AT501442B1 (de) 2005-02-22 2005-02-22 Computergestütztes schnittstellensystem

Publications (2)

Publication Number Publication Date
AT501442A1 true AT501442A1 (de) 2006-09-15
AT501442B1 AT501442B1 (de) 2007-07-15

Family

ID=36283710

Family Applications (1)

Application Number Title Priority Date Filing Date
AT0029405A AT501442B1 (de) 2005-02-22 2005-02-22 Computergestütztes schnittstellensystem

Country Status (3)

Country Link
EP (1) EP1856594A1 (de)
AT (1) AT501442B1 (de)
WO (1) WO2006089323A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT505672B1 (de) * 2007-11-28 2009-03-15 Thomas Dipl Ing Kienzl Computerunterstütztes schnittstellensystem
AT510808B1 (de) * 2010-11-24 2013-04-15 Kienzl Thomas Dipl Ing Verfahren zur darstellung eines gegenstandes auf einer anzeigeeinheit
WO2023196395A1 (en) * 2022-04-05 2023-10-12 Wayfair Llc Real-time visualization of a virtual scene controllable through physical objects

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4423005C1 (de) * 1994-06-30 1995-11-30 Siemens Ag Eingabevorrichtung für einen Computer
WO1998013745A2 (de) * 1996-09-12 1998-04-02 Eidgenössische Technische Hochschule, Eth Zentrum, Institut Für Konstruktion Und Bauweisen Interaktionsraum zur darstellung von daten
US6061177A (en) * 1996-12-19 2000-05-09 Fujimoto; Kenneth Noboru Integrated computer display and graphical input apparatus and method
NL1020440C2 (nl) * 2002-04-19 2003-10-21 Univ Eindhoven Tech Werkwijze en stelsel voor het visueel terugkoppelen van interacties tussen een invoerorgaan en een dataverzameling.

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE29600640U1 (de) * 1996-01-16 1996-09-12 Reuter, Susanne, 85072 Eichstätt Vertikal-Rollenkoffer mit integriertem Computer-Arbeitsplatz
JP3423676B2 (ja) * 2000-07-19 2003-07-07 キヤノン株式会社 仮想対象物操作装置および仮想対象物操作方法
GB0023681D0 (en) * 2000-09-27 2000-11-08 Canon Kk Image processing apparatus
WO2002035909A2 (en) * 2000-11-03 2002-05-10 Siemens Corporate Research, Inc. Video-supported planning and design with physical marker objects sign
US6683316B2 (en) * 2001-08-01 2004-01-27 Aspex, Llc Apparatus for correlating an optical image and a SEM image and method of use thereof
US20030089832A1 (en) * 2001-11-02 2003-05-15 Gold Robert J. Multi-function accessory for handheld electronics

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4423005C1 (de) * 1994-06-30 1995-11-30 Siemens Ag Eingabevorrichtung für einen Computer
WO1998013745A2 (de) * 1996-09-12 1998-04-02 Eidgenössische Technische Hochschule, Eth Zentrum, Institut Für Konstruktion Und Bauweisen Interaktionsraum zur darstellung von daten
US6061177A (en) * 1996-12-19 2000-05-09 Fujimoto; Kenneth Noboru Integrated computer display and graphical input apparatus and method
NL1020440C2 (nl) * 2002-04-19 2003-10-21 Univ Eindhoven Tech Werkwijze en stelsel voor het visueel terugkoppelen van interacties tussen een invoerorgaan en een dataverzameling.

Also Published As

Publication number Publication date
AT501442B1 (de) 2007-07-15
WO2006089323A1 (de) 2006-08-31
EP1856594A1 (de) 2007-11-21

Similar Documents

Publication Publication Date Title
DE102014013677B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und unterteiltem Display
DE102014013678B3 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten
DE69824225T2 (de) Das Bild einer Hand verwendende Hinweisvorrichtung
DE602004011979T3 (de) Verfahren und vorrichtung zur bereitstellung einer omnidirektionalen beleuchtung in einer scanning-einrichtung
EP2458328B1 (de) Konstruktionsvermessungsgerät mit einer automatischen Lotpunktfindungs-Funktionalität
DE102012112321B4 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
EP3182065A1 (de) Handhaltbares entfernungsmessgerät und verfahren zum erfassen relativer positionen
DE112010004767T5 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
EP1836696A2 (de) Vorrichtung zur vermittlung von umgebungsinformationen an einen sehbehinderten menschen
EP1047014A2 (de) Verfahren und Eingabeeinrichtung zum Steuern der Lage eines in einer virtuellen Realität graphisch darzustellenden Objekts
DE102008054453A1 (de) Messsystem zur Vermessung von Räumen und/oder von Objekten
WO2015039761A1 (de) Zugangskontrollvorrichtung
DE102012107153A1 (de) Vorrichtung und Verfahren zur Bestimmung der Eigenlage einer bildaufnehmenden Kamera
AT501442B1 (de) Computergestütztes schnittstellensystem
EP2253251A1 (de) Bilderrahmen
DE202014010357U1 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten
EP3921804A1 (de) Kalibriereinrichtung für eine überwachungsvorrichtung, überwachungsvorrichtung zur man-overboard-überwachung sowie verfahren zur kalibrierung
AT505672B1 (de) Computerunterstütztes schnittstellensystem
DE102014113015B4 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung, umfassend einen Handscanner mit Tragestruktur
WO2006048311A2 (de) Verfahren und vorrichtung für das erfassen von biometrischen daten
DE10203992A1 (de) Eingabeeinrichtung
DE102008037741A1 (de) Vorrichtung zur Aufnahme von biometrischen Daten
DE102006012694B4 (de) Optische Einrichtung zur Bildaufnahme
DE102018206651A1 (de) Vorrichtung zur Bereitstellung von Informationen für Personen
DE102010016964B4 (de) Verfahren und Vorrichtung zur Steuerung einer computergenerierten Anzeige eines virtuellen Objekts

Legal Events

Date Code Title Description
MM01 Lapse because of not paying annual fees

Effective date: 20160222