DE60001841T2 - System zur verfolgung von kopfbewegungen - Google Patents

System zur verfolgung von kopfbewegungen

Info

Publication number
DE60001841T2
DE60001841T2 DE60001841T DE60001841T DE60001841T2 DE 60001841 T2 DE60001841 T2 DE 60001841T2 DE 60001841 T DE60001841 T DE 60001841T DE 60001841 T DE60001841 T DE 60001841T DE 60001841 T2 DE60001841 T2 DE 60001841T2
Authority
DE
Germany
Prior art keywords
tracking system
head
marker
head tracking
field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60001841T
Other languages
English (en)
Other versions
DE60001841D1 (de
Inventor
Christopher Travers Barlett
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BAE Systems PLC
Original Assignee
BAE Systems Electronics Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BAE Systems Electronics Ltd filed Critical BAE Systems Electronics Ltd
Publication of DE60001841D1 publication Critical patent/DE60001841D1/de
Application granted granted Critical
Publication of DE60001841T2 publication Critical patent/DE60001841T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/22Aiming or laying means for vehicle-borne armament, e.g. on aircraft
    • F41G3/225Helmet sighting systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Position Input By Displaying (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Organic Low-Molecular-Weight Compounds And Preparation Thereof (AREA)
  • Electrical Discharge Machining, Electrochemical Machining, And Combined Machining (AREA)
  • Control Of Position Or Direction (AREA)
  • Vehicle Body Suspensions (AREA)
  • Paper (AREA)

Description

  • Die Erfindung bezieht sich auf ein Kopfnachführungssystem und insbesondere, aber nicht ausschließlich, auf ein Kopfnachführungssystem zur Benutzung in einem Flugzeug, in dem der Pilot mit einem im Helm montierten Display ausgerüstet ist.
  • Kopfnachführungssysteme sind allgemein bekannt und bewirken eine Bestimmung der Kopflage und Kopfposition des Benutzers relativ zu einem festen Bezugspunkt, wie dies in der GB-A-2301968 beschrieben ist. Ursprünglich wurden diese Systeme zur Benutzung in der militärischen Luftfahrt entwickelt; sie haben jedoch in neuester Zeit auch Anwendung gefunden für Systeme der Realitätssimulation.
  • Seit den frühen Tagen der militärischen Luftfahrt bevorzugen es die Piloten, die Navigation und die Ausrüstung von Waffen durchzuführen, während sie geradeaus und aus dem Cockpit schauen, was nicht überrascht. Dies führt zu einer Evolution der Blickfeld-Darstellungsgeräte (HUD), welche nützliche Symbole wiedergeben, die in geeigneter Weise auf die Außenwelt bezogen sind (diese werden oft als "raumstabilisiert" bezeichnet). HUDs besitzen im typischen Fall einen Sichtwinkel von 30º oder weniger, und sie können infolgedessen nur betrachtet werden, wenn der Pilot allgemein nach vorne schaut. Um dieses Betrachtungsfeld zu erhöhen (d. h. das Gesamtvolumen im Raum, über das der Pilot die Symbole betrachten kann und die Kopfbewegung des Piloten umfaßt), sind im Helm montierte Displays (HMDs) entwickelt worden, die im wesentlichen ein HUD umfassen, das am Helm des Piloten innerhalb seines Sichtfeldes montiert ist. Damit bodenstabilisierte Symbole oder Bilder dem Piloten in der richtigen Orientierung gegenüber der Außenwelt vermittelt werden, muß der Symbolgenerator des HUD Kenntnisse in allen drei Achsen haben, d. h. in der Höhe, im Azimuth und in der Längsachse, in der der Kopf des Piloten gerichtet ist. Dies wird bestimmt durch (a) die Winkelorientierung des Kopfes des Piloten gegenüber der Flugzeugachse und (b) durch Orientierung (Lage) des Flugzeugs gegenüber der Außenwelt. Die erstere Forderung hat zu der Notwendigkeit geführt, ein Kopfnachführungssystem zu entwickeln. Die HMDs arbeiten in Verbindung mit einem Kopfnachführungssystem, das die Winkelorientierung des Kopfes des Benutzers gegenüber der Flugzeugachse bestimmt, um zu gewährleisten, daß die dargestellte Information im Raum genau ausgerichtet ist oder genau über Objekte in der Außenwelt gefügt ist. Beispielsweise ist es in der militärischen Luftfahrt wichtig, daß eine Waffenzielmarkierung genau über das Ziel ausgerichtet wird.
  • Im typischen Fall umfaßt ein Kopfnachführungssystem eine Kopflagerung, im allgemeinen einen Helm, der am Kopf des Benutzers befestigt ist und ein Sensorsystem zur Bestimmung der Winkelorientierung des Helmes relativ zu einem festen Bezugspunkt. Obgleich genau genommen ein Kopfnachführungssystem tatsächlich die Orientierung der Kopflagerung nachführt und nicht den Kopf des Benutzers, liefert das System dennoch eine genaue Messung der Orientierung des Kopfes des Benutzers, vorausgesetzt, daß die Kopflagerung in einer festen Orientierung relativ zum Kopf des Benutzers verbleibt.
  • Das Bezugssystem ist im typischen Fall dreiachsig und läuft durch einen bekannten Punkt am Fahrzeug oder am Flugzeug. Es sind eine Reihe von Sensorsystemen vorgeschlagen worden. Beispielsweise benutzten die früheren Nachführsysteme mechanische Verbindungen zwischen dem Helm und dem Fahrzeug und, obgleich diese Systeme relativ genau waren, so waren sie doch sehr kompliziert in ihrem Aufbau und die Bewegung des Benutzers war beschränkt, und es ergaben sich spezielle Probleme während des Ausstiegs aus einem Flugzeug. Spätere Systeme umfassen optische Sensorsysteme, bei denen der Helm eine Anzahl von Leuchtdioden trägt, die im Infrarotbereich arbeiten und durch Positionsdetektoren erfaßt wurden, die im Cockpit des Flugzeugs montiert waren. Andere bekannte optische Systeme benutzen bestimmte physikalische Markierungen, die durch eine Kamera detektiert werden. Es sind auch magnetische Sensorsysteme bekannt, bei denen ein alternatierendes oder pulsierendes Magnetfeld durch Sensoren am Helm detektiert wird. Es wurden auch Massenkraftsysteme vorgeschlagen, bei denen Kreisel und Beschleunigungsmesser benutzt wurden, und es gibt Hybridsysteme, die eine Kombination von zwei oder mehreren der obengenannten Systeme benutzen.
  • Ein spezielles Erfordernis für ein Kopfnachführungssystem, welches in der militärischen Luftfahrt Anwendung finden soll, ist eine hohe Genauigkeit, verbunden mit einem schnellen dynamischen Ansprechen, da die Bewegungen des Kopfes des Piloten oft extrem schnell sind; im typischen Fall können diese Bewegungen schneller sein als 200º pro Sekunde. Diese beiden Forderungen schließen sich oft gegenseitig aus und, obgleich Fortschritte in der Sensortechnologie, beispielsweise bei Festkörpergyroskopen, das dynamische Ansprechen des Nachführsystems verbessert haben, so ist doch die Genauigkeit einiger dieser Systeme begrenzt durch eine Abdrift über ausgedehnte Zeiträume des Betriebes.
  • Es ist bekannt, zu Beginn das Kopfnachführungssystem einzustellen oder zu eichen, was oft als Visierkontrolle bezeichnet wird, wobei dies geschieht, bevor der Betrieb beginnt. Beispielsweise ist es bei militärischen Hubschraubern bekannt, einen oder gelegentlich auch zwei systemkonforme Fadenkreuzvisier-Einheiten (BRU) mit bekannten Sichtlinien vorzusehen. Die BRU zeigen eine Zielmarke, die als parallel gerichtetes Bild präsentiert wird, und zwar oft in Form eines Kreises mit Fadenkreuz mit einem engen Betrachtungswinkel, im typischen Fall in der Größenordnung von 2º. Da das BRU ein im wesentlichen parallelisiertes Bild liefert, ist das Bild im wesentlichen im Unendlichen dargestellt und infolgedessen nur sichtbar, wenn die Orientierung des Kopfes des Benutzers (speziell die des Helmes) in einer gegebenen Ausrichtung zur BRU-Achse verläuft. Wenn der Pilot in den Hubschrauber einsteigt und den Helm und das HMD aufsetzt, drückt er einen Knopf, um einen Zielmodus der Arbeitsweise zu aktivieren. Im Zielmodus wird das BRU aktiviert, und die geeignete Zielsymbolik wird am HMD als raumstabilisiertes Bild dargestellt. Dann benutzt der Pilot eine Handsteuerung, um das HMD-Symbol einzustellen, bis es das BRU überlappt. An dieser Stelle fallen das Auge des Piloten, das HMB-Symbol und die BRU-Markierung zusammen, und das System berechnet eine entsprechende Versetzung, die bei den folgenden Operationen in Verbindung mit dem Kopfnachführungs-Ausgang benutzt wird, um die HMD- Symbole zu positionieren. Wenn ein zweites BRU vorgesehen ist, wiederholt der Pilot die Prozedur, und so wird das Nachführsystem mit zwei bekannten Startbedingungen versehen. Das Kopfnachführungssystem und das HMD sind nur zu Beginn der Arbeitsweise ausgerichtet, und das BRU ist demgemäß nicht weiter in Benutzung und wird infolgedessen häufig deaktiviert.
  • Im Falle eines Flugzeugs mit festem Tragflügel, welches mit einem HUD versehen ist, ist es bekannt, das HUD zur Erzeugung eines Fadenkreuzes anstelle des BRU zu benutzen. Obgleich ein HUD einen größeren Betrachtungswinkel hat, und zwar im typischen Fall 30º, erzeugt es dennoch ein höchstparallelisiertes Bild und kann infolgedessen benutzt werden, um das Kopflager genau auszurichten.
  • Die anfängliche Visierung, wie sie in der GB-A-2301968 beschrieben ist, gewährleistet, daß das Nachführsystem und das HMD genau zu Beginn des Betriebes arbeiten, jedoch können hierbei keine mechanischen Mißausrichtungen des HMD gegenüber dem Helm oder irgendwelche Abdriften im Nachführsystem kompensiert werden. Obgleich der Visierprozeß nicht lange dauert, kann dies immerhin als unerwünschte Verzögerung betrachtet werden, bevor das Fahrzeug betriebsbereit ist.
  • Gegenwärtig erreichen die HMDs nicht die Genauigkeit von HUDs, selbst wenn sie in der Visierachse arbeiten, weil eine begrenzte Genauigkeit der Kopfnachführung besteht, was zum Teil eine Folge der Abdrift ist. Außerdem kann die verteilte Architektur der HMDs nicht auf einfache Weise eine hohe Integrität aufweisen, welche die Gewähr dafür ist, daß eine genaue Information geliefert wird. Im Falle von HMDs, die ein zweiäugiges Display benutzen, liefert die Beobachtung zwischen den jeweiligen Kanälen ein gewisses Maß von Integrität. Im Falle eines Kopfnachführungssystems gibt es jedoch keinen unabhängigen parallelen Pfad, über den die Genauigkeit der Nachführung bestätigt werden kann. Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Kopfnachführungssystem zu schaffen, welches wenigstens teilweise die Probleme bekannter Kopfnachführungssysteme überwindet.
  • Gemäß der Erfindung umfaßt ein Kopfnachführungssystem zur Bestimmung der Orientierung des Kopfes relativ zu einem Bezugspunkt die folgenden Teile: ein Kopflager zur Festlegung des Kopfes des Benutzers und ein Sensorsystem zur Feststellung der Orientierung des Kopflagers relativ zu dem Bezugspunkt, und die Erfindung ist gekennzeichnet durch eine unterscheidbare Markierung und einen optischen Sensor, der im Betrieb jeweils relativ zu einem ersten bekannten Festpunkt und relativ zu einem zweiten bekannten Festpunkt relativ zum Bezugspunkt oder umgekehrt fixiert ist und durch Prozessormittel zur Bestimmung, wenn die Markierung im Sichtfeld des optischen Sensors liegt, wobei der Ausgang der Prozessormittel benutzt wird, um eine Abdrift in dem Sensorsystem zu korrigieren oder um eine unabhängige Verifikation darüber zu liefern, daß das System mit vorbestimmten Toleranzen arbeitet.
  • Ein spezieller Vorteil des Kopfnachführungssystems gemäß der Erfindung besteht darin, daß jede Abdrift im System automatisch für jeden Zeitpunkt kompensiert werden kann, wo eine Markierung innerhalb des Sichtfeldes des optischen Sensors festgestellt wird. Zusätzlich zur automatischen Kompensierung der Abdrift kann die Erfindung weiter die Notwendigkeit einer anfänglichen Sichtlinienausrichtung vermeiden und daher jede Verzögerung beträchtlich vermindern, bevor das System voll arbeitsfähig wird. Alternativ zur Korrektur der Abdrift oder zusätzlich liefert die vorliegende Erfindung eine unabhängige Gewähr dafür, daß die Kopfnachführung innerhalb vorbestimmter Toleranzen voll arbeitsfähig ist. Dies ist insbesondere wichtig bei Anwendungen, wo ein weiteres System, beispielsweise ein Waffenzielsystem oder ein Infrarot-Nachtsichtsystem, auf der Genauigkeit beruht, mit der die Orientierung des Kopfes des Benutzers bekannt ist.
  • Die unterscheibare Markierung kann ein räumliches Muster aufweisen und/oder kann teilweise durch wenigstens die Farbe definiert sein. Das einzige Erfordernis der Markierung besteht darin, daß sie unzweifelhaft festgestellt werden kann und eine bekannte Position und Orientierung der Kopflagerung relativ zu einem festen Bezugspunkt anzeigt. Gemäß einem Ausführungsbeispiel umfaßt die Markierung Merkmale der Umgebung um den Benutzer herum, beispielsweise in einem Flugzeug, einem Teil der Cockpitstruktur oder des Instrumentenaufbaus. Um die Sichtbarkeit der Markierung zu verbessern, ist es zweckmäßig, dieses unter Benutzung retro-reflektierender Materialien zu definieren.
  • Stattdessen kann die Kopfnachführungs-Vorrichtung weiter einen Markierungsgenerator aufweisen, um die unterscheidbare Markierung zu erzeugen. Bei einem derartigen Generator wird die Farbe der Markierung zweckmäßigerweise durch die Wellenlänge des Lichtes definiert, das vom Generator erzeugt wird. Außerdem kann die Markierung als zeitweise Veränderung durch Modulation des Lichtes definiert werden, das durch den Markierungsgenerator erzeugt wird. Die Markierung könnte auch durch eine Kombination von zwei oder mehreren der obengenannten drei Techniken definiert werden, beispielsweise könnte die Markierung eine spezielle Formgestalt mit einer speziellen Wellenlänge haben, die moduliert wird durch An- und Abschaltung mit einer gewählten Frequenz.
  • Gemäß einer speziell bevorzugten Ausführung ist die visuelle Markierung ein kollimatisiertes Bild mit einer Achse, die vorbestimmt ist und durch den zugeordneten bekannten Punkt verläuft. Mit einer derartigen Markierung wird der optische Sensor, der vorzugsweise eine Videokamera ist, im Unendlichen fokussiert. Ein spezieller Vorteil einer solchen Anordnung besteht darin, daß die Verarbeitungsmittel die Orientierung der Kopflagerung relativ zu dem bekannten Bezugspunkt immer dann kennen, wenn das Vorhandensein der Markierung festgestellt wird, da die Markierung nur dann sichtbar ist, wenn die Achse des Sichtfeldes des optischen Sensors und die Markierung im wesentlichen zusammenfallen.
  • Vorzugsweise sind erster und zweiter bekannter Fixpunkt so gewählt, daß die Markierung innerhalb des Sichtfeldes des Sensors immer dann liegt, wenn der Kopf des Benutzers in einer Richtung orientiert ist, in der er im Betrieb meist ausgerichtet ist, und im typischen Fall ist dies die Richtung, die im wesentlichen nach vorn weist. Ein spezieller Vorteil dieser Anordnung besteht darin, daß die Zahl der Zeiten, in denen die Markierung innerhalb des Sichtfeldes des optischen Sensors liegt, maximiert wird, und dadurch wird die Frequenz maximiert, bei der die Abdrift kompensiert und/oder das System verifiziert wird. Vorzugsweise ist der optische Sensor mit dem ersten Fixpunkt derart verknüpft, daß es die Kopflagerung ist, die zweckmäßigerweise als Helm ausgebildet ist, wobei die Achse des Sichtfeldes des Sensors im wesentlichen auf die Vorwärtsrichtung des Benutzers derart ausgerichtet ist, daß der Ausgang des optischen Sensors repräsentativ ist für das Sichtfeld des Benutzers. Eine solche Information kann beispielsweise im Falle eines Flugzeugs aufgezeichnet und danach benutzt werden, um das Verhalten des Piloten zu berechnen. Gemäß einem speziell bevorzugten Ausführungsbeispiel umfaßt der Markierungsgenerator ein Zielfadenkreuz. Wenn das Kopfnachführungssystem der Benutzung in einem Flugzeug oder in einem anderen Fahrzeug dient, welches ein Blickfeld-Darstellungsgerät aufweist, dann wird die unterscheidbare Markierung vorteilhafterweise unter Benutzung des Blickfeld-Darstellungsgerätes erzeugt.
  • Wenn stattdessen die Markierung kein ausgerichtetes Bild ist, beispielsweise eine physikalische Markierung, eine nicht ausgerichtete Lichtquelle oder ein Feld derartiger Quellen, dann wird der optische Sensor in einer Entfernung fokussiert, die der erwarteten Entfernung zwischen dem Sensor und der Markierung entspricht. Da die Markierung über einen größeren Teil des Sichtfeldes des Sensors sichtbar ist, bewirkt der Prozessor, daß die Position der Markierung im Sichtfeld des Sensors detektiert wird, um die Orientierung der Kopflagerung zu bestimmen. Um die zu verarbeitende Menge zu reduzieren, bewirkt der Prozessor vorzugsweise eine Feststellung immer dann, wenn die Markierung in einem gewählten Teil des Sichtfeldes des Sensors liegt, beispielsweise innerhalb der zentralen Position.
  • Zweckmäßigerweise besteht der optische Sensor aus einer Videokamera, beispielsweise einer ladungsgekoppelten Vorrichtung. Vorzugsweise umfaßt das Kopfnachführungssystem außerdem wenigstens zwei bekannte feste Punkte mit einer jeweiligen zugeordneten unterscheidbaren Markierung.
  • Gemäß einem bevorzugten Ausführungsbeispiel umfaßt der Prozessor einen Korrelator, der die Szenendaten, die vom optischen Sensor aufgenommen werden, mit den Daten korreliert, die für die oder jede Markierung repräsentativ sind, um festzustellen, ob die Markierung oder jede Markierung innerhalb des Sichtfeldes des optischen Sensors liegt und/oder wo sie innerhalb des Sichtfeldes des optischen Sensors befindlich ist.
  • Ein Kopfnachführungssystem gemäß der Erfindung wird im folgenden anhand der beiliegenden Zeichnung beschrieben. Die einzige Figur der Zeichnung zeigt eine schematische Ansicht des Kopfnachführungssystems zur Benutzung in einem Flugzeug.
  • In der Zeichnung ist ein Helm 2 dargestellt, der eine Kopflagerung zur Befestigung am Kopf eines Piloten bildet. Der Helm ist mit einer Sichtvorrichtung 4 ausgestattet. Innerhalb des Helmes ist dieser mit einem vom Helm getragenen Display (HMD) versehen (nicht dargestellt), das ein Display auf eine teilweise reflektierende innere Oberfläche der Sichtvorrichtung 4 richtet, oder es sind einzelne Okkulare vorgesehen, so daß das Display wenigstens teilweise über das Sichtfeld des Piloten durch die Sichtvorrichtung 4 überlagert wird. Wie bekannt, wird die Symbolik, die auf dem HMD dargestellt wird, durch einen Symbolgenerator 6 erzeugt, der innerhalb des Flugzeugs angeordnet ist. Die Signale, die zum Treiben des HMD benutzt werden, werden dem Helm 2 über ein Versorgungskabel 8 zugeführt, das in bekannter Weise mit einem Schnell-Freigabe-Verbinder 9 versehen ist, der innerhalb des Cockpits angeordnet ist.
  • Der Helm 2 trägt eine Sensoreinheit 10, die einen Teil eines Magnetkopf- Nachführungssystems in Verbindung mit einer Sendereinheit 12 aufweist, die in der Kanzel des Cockpits benachbart zum Helm 2 angeordnet ist. Die Sendereinheit 12 erzeugt drei senkrecht aufeinanderstehende Magnetfelder, die durch jeweilige Sensoren in der Sensoreinheit 10 detektiert werden. Die Sensoren erzeugen Signale, die sich auf die Orientierung des Helmes 2 um die drei Achsen beziehen: Höhe, Azimuth und Längsneigung; relativ zu einem festen Bezugspunkt 13, der relativ zur Flugzeugzelle eingestellt wird. Diese Signale von der Sensoreinheit 10 werden über das Versorgungskabel 8 dem Prozessor 14 zugeführt, der die Orientierung des Helmes 2 relativ zur Flugzeugzelle in Ausdrücken der Winkellage um jede der Achsen bestimmt. Bei dem dargestellten Ausführungsbeispiel ist das magnetische Kopfnachführungsgerät ein bekanntes System, wie dies beispielsweise in dem europäischen Patent 0285658 beschrieben ist, welches hiermit als Bezug eingeführt wird. Die vorliegende Erfindung bezieht sich auch auf andere Ausbildungen von Kopfnachführungssystemen, beispielsweise solche, die auf Massenkraftsensoren oder einem Hybridsystem beruhen. Der Ausgang des Prozessors 14 wird einem Symbolgenerator 6 zugeführt, der diese Daten benutzt, um zu gewährleisten, daß die auf dem HMD wiedergegebenen Symbole korrekt auf die gegenwärtige Orientierung des Kopfes des Piloten ausgerichtet sind. Um zu gewährleisten, daß die Symbole richtig mit am Boden stabilisierten Merkmalen orientiert sind, empfängt der Symbolgenerator 6 auch einen Eingang vom Trägheits- Navigationssystem 16, welches die gegenwärtige Orientierung des Flugzeugs angibt.
  • Zusätzlich zu dem insoweit beschriebenen Kopfnachführungssystem, welches eine bekannte Anordnung betrifft, umfaßt das Kopfnachführungssystem außerdem eine Mini-Farbvideokamera 18 in Form einer ladungsgekoppelten Einrichtung (CCD), die starr mit dem Helm 2 verbunden ist. Die Achse des Sichtfeldes der Videokamera 18 ist genau auf eine eingestellte Bezugsachse innerhalb des Helms 2 ausgerichtet. Im typischen Fall ist die Achse der Kamera so ausgerichtet, daß sie mit der nach vorn weisenden Richtung des Piloten übereinstimmt, und die Kamera ist auf Unendlich oder eine etwas kleinere Entfernung fokussiert, um irgendwelche Wirkungen der Windschutzscheibe 20 der Kanzel zu kompensieren, die diese hat, so daß der Ausgang repräsentativ ist für die vom Piloten erkannte Sicht, vermindert um Symbole, die von dem HMD erzeugt werden. Im Umfang der vorliegenden Erfindung entspricht "unendlich" in praktischen Ausdrücken vier Metern oder mehr. Die Auflösung der Kamera ist ein VGA-Standard, d. h. sechshundertvierzig mal vierhundertachtzig Pixel. Das Videosignal von der Kamera wird über das Zuführungskabel 8 einem Videoprozessor 22 zugeführt, der genau die Symbole überlagert, die vom Symbolgenerator 6 erzeugt werden, und das Verbund- Videosignal wird in einem Videorekorder 24 aufgezeichnet. Das vom Videorekorder 24 aufgezeichnete Signal ist repräsentativ für das, was der Pilot während des Fluges gesehen hat, und es wird nach dem Flug benutzt, um die Flugdurchführung für den Piloten zu berechnen.
  • An der Flugzeugzelle ist an einer bekannten Stelle eine Zielvorrichtung (BRU) 26 angeordnet, die einen gerichteten Lichtstrahl vorbestimmter Wellenlänge erzeugt und ein unterscheidbares Symbol oder eine Markierung, beispielsweise ein Fadenkreuz, aufweist. Die Achse des gerichteten Bildes, das vom BRU 26 erzeugt wird, ist längs einer vorbestimmten Richtung ausgerichtet, die in dem beschriebenen Beispiel so gewählt ist, daß sie der nach vom weisenden Beobachtungsrichtung des Piloten entspricht. Gemäß der folgenden Beschreibung wird das BRU 26 zusammen mit der Videokamera 18 benutzt, um automatisch das Nachführsystem 10, 12, 14 zu aktualisieren oder auszurichten.
  • Im Betrieb wird das Videosignal von der Videokamera 18 über ein wellenlängenselektives Filter 27 einer Korrelator-Prozessoreinheit 28 zugeführt, die kontinuierlich die Videodaten verarbeitet, um das Vorhandensein einer erkannten Markierung zu detektieren, die vom BRU 26 erzeugt wurde. Das wellenlängenselektive Filter 27 ist in der Lage, die Markierung aus dem übrigen Video-Vollbild zu extrahieren. Immer, wenn die Korrelator-Prozessoreinheit 28 das Vorhandensein einer erkannten Markierung feststellt, weiß das System, daß der Helm 2 zu der Zeit, wo das Videobild geschossen wurde, in einer speziellen Richtung orientiert werden muß. Diese bekannte Orientierung wird mit dem Ausgang des Nachführsystems zu einer bestimmten Zeit verglichen, um festzustellen, ob ein Unterschied zwischen den Ablesungen besteht, und dieser Unterschied wird benutzt, um die Arbeitsweise der Prozessoreinheit 14 zu korrigieren. Im Normalbetrieb sollte der Unterschied nicht mehr als fünf Milliradianten betragen, und das System aktualisiert dann automatisch die Prozessoreinheit 14. Wenn jedoch eine Abweichung festgestellt wird, die unannehmbar groß ist, beispielsweise größer als zehn Milliradianten, dann hört das System auf, die Prozessoreinheit 14 zu aktualisieren und unterrichtet den Piloten darüber, daß ein potentieller Fehler im Kopfnachführungssystem aufgetreten ist.
  • Wie erwähnt, erzeugt das BRU 26 eine unterscheidbare, d. h. eine eindeutig erkennbare Markierung, die in Ausdrücken eines räumlichen Musters, beispielsweise eines Fadenkreuzes, einer vorbestimmten Wellenlänge definiert ist. Der Zweck des BRU 26 besteht darin, eine Markierung zu erzeugen, die unschwer durch die Korrelator-Prozessoreinheit 28 identifiziert werden kann.
  • Das Verfahren, durch welches der Korrelator-Prozessor 28 bestimmt, ob die Markierung innerhalb des Sichtfeldes der Kamera liegt, kann unter Benutzung zahlreicher Techniken durchgeführt werden. Beispielsweise kann eine digitale Verarbeitungstechnik Verwendung finden oder Frequenzdetektor-Methoden oder optische Korrelationsmethoden zur Erkennung des Musters. Bei der ersten dieser Techniken wird das Videosignal von der Kamera, das vom Helm als Standard- Analogsignal übertragen wird, zunächst durch die Korrelator-Prozessoreinheit 28 digitalisiert, und diese Daten werden auf einer Basis Pixel um Pixel mit einem gespeicherten Bild korreliert, welches repräsentativ ist für ein von der BRU 26 erzeugtes Muster.
  • Wenn die BRU 26 die unterscheidbare Markierung durch Modulation ihres Lichtausganges definiert, dann benutzt die Korrelator-Prozessoreinheit 28 eine geeignete Technik, um eine Wellenlänge oder ein Modulationsmuster zu identifizieren. Es ist klar, daß die Verarbeitung auf verschiedene Weise erfolgen kann, beispielsweise durch analoge oder digitale Filterung oder durch eine schnelle Fourier-Transformation (FFT) oder eine optische Korrelation. Die Benutzung einer optischen Korrelation ist bei weitem das schnellste Verfahren und ermöglicht eine sehr schnelle Aktualisierung des Kopfnachführungssystems.
  • Da die BRU 26 ein ausgerichtetes Bild erzeugt, dessen Achse mit der Vorwärts- Betrachtungsrichtung des Piloten übereinstimmt, liegt die unterscheidbare Markierung nur dann innerhalb des Sichtfeldes der Kamera 18, wenn der Pilot im wesentlichen nach vorwärts blickt, Infolgedessen kann die Korrelator- Prozessoreinheit 28 das Vorhandensein der Markierung oft ein zweites Mal während des Normalbetriebes feststellen. Da eine Re-Orientierung oder Zielausrichtung vom Kopfnachführungssystem nur alle paar Minuten durchgeführt werden muß, können, wenn irgendein Bild von der Videokamera aufgenommen wird, das unvollständig ist, diese Daten mit Sicherheit ausgeschieden werden. Um die Menge der Signalverarbeitung zu vermindern, kann der Korrelator-Prozessor 28 so programmiert werden, daß er in gewissen Festzeitintervallen arbeitet, und die BRU 26 kann kontinuierlich betrieben werden, wie dies beschrieben wurde, oder sie kann nur während dieser Zeitintervalle angeschaltet sein.
  • Es ist klar, daß die vorliegende Erfindung nicht auf die beschriebenen spezifischen Ausführungsbeispiele beschränkt ist und daß Modifikationen durchgeführt werden können, ohne vom Rahmen der Erfindung abzuweichen. Beispielsweise könnte die Videokamera 18 am Flugzeug montiert werden, und die BRU 26 könnte am Helm 2 vorgesehen werden. Vorteilhafterweise sind Videokamera und Markierung relativ zueinander derart angeordnet und orientiert, daß die Markierung innerhalb des Sichtfeldes der Kamera immer dann liegt, wenn der Kopf des Benutzers in einer Richtung orientiert ist, in der er gewöhnlich im Betrieb schaut. Eine derartige Anordnung gewährleistet, daß die Prozessoreinheit in der Lage ist, das Vorhandensein der Markierung genügend oft während eines gegebenen Zeitintervalls festzustellen, um in der Lage zu sein, jede Abdrift im Nachführsystem zu kompensieren und/oder eine unabhängige Verifizierung zu liefern, wonach das Kopfnachführungssystem innerhalb vorbestimmter Toleranzen arbeitet. Bei dem speziellen beschriebenen Ausführungsbeispiel ist diese Richtung so gewählt, daß sie zusätzlich mit der im wesentlichen nach vorn gerichteten Betrachtungsrichtung des Piloten zusammenfällt, und die Kamera ist auf Unendlich derart fokussiert, daß der Ausgang der Videokamera repräsentativ ist für das Sichtfeld des Piloten und zusätzlich zur Kompensation der Nachführungsdrift aufzeichnet und danach benutzt werden kann, um die Arbeitsweise des Piloten zu berechnen. Bei abgewandelten Ausführungsbeispielen können die Kamera und die Markierungen in der beschriebenen Weise benutzt werden, jedoch ohne daß die Kamera auf die nach vorn gerichtete Betrachtungsrichtung des Benutzers ausgerichtet ist, so daß beispielsweise die Kamera im Flugzeug hinter oder seitlich vom Benutzer montiert werden kann, und der Markierungsgenerator kann in geeigneter Weise am Helm oder umgekehrt angeordnet werden. Es ist klar, daß die Markierung auf irgendeine Weise erzeugt werden kann, um unterscheidbar zu sein, d. h. es soll eine fehlerfrei erkennbare Markierung erzeugt werden. Gemäß einer abgewandelten Ausführungsform definiert die BRU 26 das unterscheidbare Muster, indem Wellenlängen des Lichtes erzeugt werden oder ein zeitliches Muster geschaffen wird, welches aus einem modulierten Lichtausgang besteht, oder es kann eine Kombination dieser Techniken angewandt werden. Wenn die Kamera auf Unendlich fokussiert ist, dann wird die Markierung vorzugsweise in Form eines genau ausgerichteten Bildes erzeugt, das eine vorbestimmte Achse hat, so daß die Markierung nur sichtbar wird, wenn die Achse des Sichtfeldes der Kamera und die Achse der Markierung zusammenfallen. Bei einem derartigen System braucht die Korrelator-Prozessoreinheit nur das Vorhandensein der Markierung innerhalb des Sichtfeldes der Kamera festzustellen. Im vorstehenden wurde die Benutzung einer Farb-Videokamera beschrieben, jedoch sind andere Formen optischer Sensoren, beispielsweise Positionssensoren, anwendbar, und zwar insbesondere, wenn die Markierung in Form eines ausgerichteten Bildes besteht, das eine vorbestimmte Wellenlänge besitzt, und in diesem Fall muß der Sensor nur das Vorhandensein der Markierung feststellen.
  • Gemäß einem abgewandelten Ausführungsbeispiel könnte die Markierung in Form eines nicht gerichteten Bildes erzeugt werden, beispielsweise in Form einer physikalischen Markierung, oder es könnten Einzelheiten des Aufbaus des Cockpits oder des Instrumentariums benutzt werden. In einem solchen Fall würde die Kamera auf das Nahfeld fokussiert, d. h. auf eine Entfernung, die der erwarteten Entfernung zwischen Kamera und Markierung entspricht. Da eine solche Markierung über einen großen Teil des Sichtfeldes der Kamera sichtbar wird, kann der Prozessor feststellen, wo die Markierung innerhalb des Sichtfeldes liegt, um auf diese Weise die Orientierung des Helmes zu bestimmen. Um die erforderliche Verarbeitung zu reduzieren, ist es zweckmäßig, daß der Prozessor feststellt, wann die Markierung innerhalb eines gegebenen Bereiches des Sichtfeldes der Kamera liegt. Am zweckmäßigsten ist dies, wenn die Einstellung dem Mittelbereich entspricht.
  • Um zu vermeiden, daß das System den Benutzer täuscht, wird die Wellenlänge der Markierung in einem Teil des elektromagnetischen Spektrums gewählt, der dem Benutzer nicht sichtbar ist, beispielsweise im Infrarotbereich.
  • Gemäß einem weiteren Ausführungsbeispiel wird die Markierung in einem Blickfeld- Darstellungsgerät 30 erzeugt, und zwar anstelle oder zusätzlich zum BRU 26. Obgleich die Benutzung eines Markierungsgenerators beschrieben wird, ist es zweckmäßig, mehrere Markierungen an bekannter Stelle um das Cockpit herum anzuordnen, um die Genauigkeit des Systems weiter zu verbessern. Das Nachführsystem wurde vorstehend unter Bezugnahme auf ein Flugzeug beschrieben. Es ist jedoch klar, daß es auch bei anderen Anwendungen, z. B. anderen Fahrzeugen wie Panzern oder Hubschraubern oder überall dort benutzt werden kann, wo es erforderlich ist, die Orientierung des Kopfes des Benutzers relativ zu einem bestimmten Bezugspunkt genau zu kennen, beispielsweise bei einem Realitäts-Simulationssystem. Ein spezieller Vorteil der Erfindung besteht darin, daß das Kopfnachführungssystem automatisch arbeitet und im Betrieb kontinuierlich eine Visierausrichtung bewirkt und benutzt werden kann, um eine Abdrift bei der Kopfnachführung zu kompensieren.
  • Stattdessen oder zusätzlich zur Korrektur der Abdrift gewährleistet die Erfindung unabhängig davon, daß die Kopfnachführung innerhalb vorbestimmter Toleranzen arbeitet. Dies ist insbesondere wichtig bei Anwendungen, bei denen ein weiteres System, beispielsweise ein Waffen-Richtsystem oder ein Infrarot-Nachtsichtsystem, auf einer genauen Kenntnis der Orientierung des Kopfes des Benutzers beruht.
  • Zusätzlich zur automatischen Kompensierung der Abdrift im Kopfnachführungssystem kann die vorliegende Erfindung potentiell die Notwendigkeit einer Visierausrichtung erübrigen, und dies kann beträchtlich jede Verzögerung vermindern, bevor das System voll wirksam ist.
  • Gemäß einem weiteren Ausführungsbeispiel ist die Videokamera so angeordnet, daß die Abbildung durch die Sichtvorrichtung derart erfolgt, daß die Kamera das gleiche Sichtfeld wie der Pilot hat und die Symbole enthält, die vom HMD erzeugt werden. Ein spezieller Vorteil dieses Systems besteht darin, daß die Notwendigkeit der Überlagerung von Symbolen auf die Szene erübrigt wird, die vom Displayprozessor abgebildet wird, wodurch ein noch genaueres Verbundbild geliefert wird. Außerdem kann ein solches System eine vollständige Prüfung von einem Ende nach dem anderen des befohlenen Bildes gegenüber dem dargestellten Bild zwecks einer Monitorintegrierung liefern. Die Visierlinien-Überprüfung erfolgt in Koinzidenz von Auge, Kamera, Ausrichtsymbol und BRU, wodurch eine noch größere Sicherheit einer richtigen Arbeitsweise gewährleistet wird. Ein weiterer Vorteil eines derartigen Systems besteht darin, daß es benutzt werden kann, um das Vorhandensein von primären Flugsymbolen zu prüfen.

Claims (14)

1. Kopfnachführungssystem zur Bestimmung der Orientierung des Kopfes eines Benutzers relativ zu einem Bezugspunkt (13), welches ein Kopflager zur Festlegung des Kopfes des Benutzers und ein Sensorsystem aufweist, um die Orientierung des Kopflagers relativ zu dem Bezugspunkt (13) festzustellen, gekennzeichnet durch eine unterscheidbare Markierung und einen optischen Sensor (10), der im Betrieb jeweils relativ zu einem ersten bekannten Festpunkt und relativ zu einem zweiten bekannten Festpunkt relativ zum Bezugspunkt (13) oder umgekehrt fixiert ist und durch Prozessormittel (14, 28) zur Bestimmung, wenn die Markierung im Sichtfeld des optischen Sensors (10) liegt, wobei der Ausgang der Prozessormittel (14) benutzt wird, um eine Abdrift in dem Sensorsystem zu korrigieren oder um eine unabhängige Verifikation darüber zu liefern, daß das System mit vorbestimmten Toleranzen arbeitet.
2. Kopfnachführungssystem nach Anspruch 1, bei welchem die unterscheidbare Markierung ein räumliches Muster aufweist.
3. Kopfnachführungssystem nach den Ansprüchen 1 oder 2, bei welchem die unterscheidbare Markierung zum Teil wenigstens durch die Farbe der Markierung definiert ist.
4. Kopfnachführungssystem nach einem der vorhergehenden Ansprüche, welches außerdem einen Markierungsgenerator (26) aufweist, um die unterscheidbare Markierung zu erzeugen.
5. Kopfnachführungssystem nach Anspruch 4 in Abhängigkeit von Anspruch 3, bei welchem die Farbe der Markierung durch die Wellenfänge des Lichtes definiert ist, das durch den Markierungsgenerator (26) erzeugt wird.
6. Kopfnachführungssystem nach Anspruch 4 oder 5, bei welchem die Markierung zum Teil wenigstens durch Modulation des vom Markierungsgenerator (26) erzeugten Lichtes definiert wird.
7. Kopfnachführungssystem nach einem der vorhergehenden Ansprüche, bei welchem die Markierung ein im wesentlichen parallel gerichtetes Bild ist, dessen Achse vorbestimmt ist und das durch den zugeordneten bekannten Punkt hindurchläuft.
8. Kopfnachführungssystem nach einem der vorhergehenden Ansprüche, bei welchem der erste bekannte Festpunkt und der zweite bekannte Festpunkt derart gewählt sind, daß die Markierung innerhalb des Sichtfeldes des optischen Sensors (10) immer dann liegt, wenn der Kopf des Benutzers in eine Richtung weist, in der er im Betrieb allgemein gerichtet ist.
9. Kopfnachführungssystem nach Anspruch 8, bei welchem der optische Sensor (10) dem ersten bekannten Punkt zugeordnet ist, wobei die Achse des Sichtfeldes des Sensors (10) im wesentlichen auf die Vorwärts-Blickrichtung des Benutzers ausgerichtet ist.
10. Kopfnachführungssystem nach den Ansprüchen 7, 8 oder 9, bei welchem der Markierungsgenerator (26) eine Fadenkreuz-Visiervorrichtung aufweist.
11. Kopfnachführungssystem nach den Ansprüchen 7, 8 oder 9, welches bei Benutzung in einem Flugzeug oder einem anderen Fahrzeug mit einem Blickfeld- Darstellungsgerät dieses Blickfeld-Darstellungsgerät benutzt, um die unterscheidbare Markierung zu erzeugen.
12. Kopfnachführungssystem nach einem der vorhergehenden Ansprüche, bei welchem der optische Sensor (10) eine Videokamera (18) ist.
13. Kopfnachführungssystem nach einem der vorhergehenden Ansprüche, welches wenigstens zwei bekannte Festpunkte aufweist, denen jeweils eine unterscheidbare Markierung zugeordnet ist.
14. Kopfnachführungssystem nach einem der vorhergehenden Ansprüche, bei welchem die Prozessormittel (14, 28) Szenendaten, die durch den optischen Sensor (10) aufgenommen wurden, mit Daten korreliert, die für die oder jede Markierung repräsentativ sind, um zu bestimmen, ob die oder jede Markierung innerhalb des Sichtfeldes des optischen Sensors (10) und wo diese in diesem Sichtfeld liegt.
DE60001841T 1999-07-28 2000-07-11 System zur verfolgung von kopfbewegungen Expired - Lifetime DE60001841T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GBGB9917591.1A GB9917591D0 (en) 1999-07-28 1999-07-28 Head tracker system
PCT/GB2000/002658 WO2001007995A1 (en) 1999-07-28 2000-07-11 Head tracker system

Publications (2)

Publication Number Publication Date
DE60001841D1 DE60001841D1 (de) 2003-04-30
DE60001841T2 true DE60001841T2 (de) 2003-09-25

Family

ID=10858001

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60001841T Expired - Lifetime DE60001841T2 (de) 1999-07-28 2000-07-11 System zur verfolgung von kopfbewegungen

Country Status (13)

Country Link
US (1) US6377401B1 (de)
EP (1) EP1203285B1 (de)
JP (1) JP3490706B2 (de)
AT (1) ATE235709T1 (de)
AU (1) AU5997200A (de)
CA (1) CA2376184C (de)
DE (1) DE60001841T2 (de)
DK (1) DK1203285T3 (de)
ES (1) ES2194756T3 (de)
GB (1) GB9917591D0 (de)
IL (1) IL146975A0 (de)
WO (1) WO2001007995A1 (de)
ZA (1) ZA200109938B (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014222356A1 (de) * 2014-11-03 2016-05-04 Bayerische Motoren Werke Aktiengesellschaft Künstlich erzeugte Magnetfelder in Fahrzeugen

Families Citing this family (101)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60000537T2 (de) * 1999-03-01 2003-01-30 Bae Sys Electronics Ltd System zur verfolgung von kopfbewegungen
IL138831A (en) * 2000-10-03 2007-07-24 Rafael Advanced Defense Sys An information system is operated by Mabat
US20040070729A1 (en) * 2001-02-19 2004-04-15 Peter Wiebe Device and method for determining the viewing direction in terms of a fix reference co-ordinates system
US6567220B2 (en) * 2001-07-02 2003-05-20 Be Intellectual Property, Inc. Aviation crew mask with retinal scan instrument display for smoke in cockpit emergencies
US6839041B2 (en) * 2001-08-01 2005-01-04 Thermwood Corporation Virtual reality viewing system and method
DE10226398B4 (de) * 2002-06-13 2012-12-06 Carl Zeiss Ag Verfahren und Vorrichtung zum Erfassen der Lage eines Objekts im Raum
US20040056953A1 (en) * 2002-09-20 2004-03-25 Crandall John Christopher System and method for controlling service delivery
US20040056957A1 (en) * 2002-09-20 2004-03-25 Crandall John Christopher System and method for capturing images based upon subject orientation
US20040059752A1 (en) * 2002-09-20 2004-03-25 Crandall John Christopher System and method for wirelessly viewing restricted data
US20040056954A1 (en) * 2002-09-20 2004-03-25 Crandall John Christopher System and method for monitoring within a vehicle
US7008074B1 (en) 2002-12-10 2006-03-07 Halm Gary V Hands-free controlled light operation
US7515156B2 (en) * 2003-01-08 2009-04-07 Hrl Laboratories, Llc Method and apparatus for parallel speculative rendering of synthetic images
US7482088B2 (en) * 2003-01-31 2009-01-27 3M Innovative Properties Company Flow field
US7063256B2 (en) * 2003-03-04 2006-06-20 United Parcel Service Of America Item tracking and processing systems and methods
WO2004079546A2 (en) * 2003-03-04 2004-09-16 United Parcel Service Of America, Inc. System for projecting a handling instruction onto a moving item or parcel
US7872635B2 (en) * 2003-05-15 2011-01-18 Optimetrics, Inc. Foveated display eye-tracking system and method
BRPI0416441A (pt) * 2003-11-26 2007-02-27 Rafael Armament Dev Authority sistema de medição de posição de capacete, conjunto de capacete com tal sistema, e método de cálculo confiável em tempo real da direção de olhar da pupila
EP1691547A4 (de) * 2003-12-03 2008-01-16 Nikon Corp Informationsanzeigeeinrichtung und drahtlose fernbedienung
US20050249492A1 (en) * 2004-05-05 2005-11-10 Metcalf Anthony J Dual camera helmet mount
FR2870599B1 (fr) * 2004-05-24 2006-08-25 Sagem Procede et systeme d'harmonisation de detecteurs de posture
FR2870592B1 (fr) * 2004-05-24 2006-08-25 Sagem Procede et systeme d'harmonisation de detecteurs de posture
EP1944678B1 (de) 2007-01-10 2018-07-18 Harman Becker Automotive Systems GmbH Kalibrierung von Kopf-Trackingsystemen
US7824052B1 (en) 2007-03-16 2010-11-02 Halm Gary V Foot controlled light operation
JP4872768B2 (ja) * 2007-04-10 2012-02-08 株式会社島津製作所 ヘッドモーショントラッカ装置
FR2944415B1 (fr) * 2009-04-17 2011-05-13 Thales Sa Casque comprenant une detection de position de visiere et detection de position de casque associe
FR2945183B1 (fr) * 2009-05-05 2011-05-06 Thales Sa Lampe de casque a commande asservie a la position de la tete
US8362973B2 (en) * 2009-05-19 2013-01-29 Honeywell International Inc. Systems, apparatus and fast methods for aligning images to external markers in near-to-eye display systems
WO2011073682A1 (en) * 2009-12-17 2011-06-23 Bae Systems Plc A method of aligning a helmet mounted display
US8405489B1 (en) 2010-06-28 2013-03-26 Gary V. Halm Master subservient light operation
US20130007672A1 (en) * 2011-06-28 2013-01-03 Google Inc. Methods and Systems for Correlating Head Movement with Items Displayed on a User Interface
US10585472B2 (en) 2011-08-12 2020-03-10 Sony Interactive Entertainment Inc. Wireless head mounted display with differential rendering and sound localization
US10209771B2 (en) * 2016-09-30 2019-02-19 Sony Interactive Entertainment Inc. Predictive RF beamforming for head mounted display
US8917453B2 (en) 2011-12-23 2014-12-23 Microsoft Corporation Reflective array waveguide
US9223138B2 (en) 2011-12-23 2015-12-29 Microsoft Technology Licensing, Llc Pixel opacity for augmented reality
US8638498B2 (en) 2012-01-04 2014-01-28 David D. Bohn Eyebox adjustment for interpupillary distance
US8810600B2 (en) 2012-01-23 2014-08-19 Microsoft Corporation Wearable display device calibration
US9606586B2 (en) 2012-01-23 2017-03-28 Microsoft Technology Licensing, Llc Heat transfer device
US9726887B2 (en) 2012-02-15 2017-08-08 Microsoft Technology Licensing, Llc Imaging structure color conversion
US9297996B2 (en) 2012-02-15 2016-03-29 Microsoft Technology Licensing, Llc Laser illumination scanning
US9779643B2 (en) 2012-02-15 2017-10-03 Microsoft Technology Licensing, Llc Imaging structure emitter configurations
US9368546B2 (en) 2012-02-15 2016-06-14 Microsoft Technology Licensing, Llc Imaging structure with embedded light sources
US9578318B2 (en) 2012-03-14 2017-02-21 Microsoft Technology Licensing, Llc Imaging structure emitter calibration
US11068049B2 (en) 2012-03-23 2021-07-20 Microsoft Technology Licensing, Llc Light guide display and field of view
US10191515B2 (en) 2012-03-28 2019-01-29 Microsoft Technology Licensing, Llc Mobile device light guide display
US9558590B2 (en) 2012-03-28 2017-01-31 Microsoft Technology Licensing, Llc Augmented reality light guide display
US9717981B2 (en) 2012-04-05 2017-08-01 Microsoft Technology Licensing, Llc Augmented reality and physical games
US10502876B2 (en) 2012-05-22 2019-12-10 Microsoft Technology Licensing, Llc Waveguide optics focus elements
US8989535B2 (en) 2012-06-04 2015-03-24 Microsoft Technology Licensing, Llc Multiple waveguide imaging structure
US10192358B2 (en) 2012-12-20 2019-01-29 Microsoft Technology Licensing, Llc Auto-stereoscopic augmented reality display
IL226701A (en) * 2013-06-03 2017-07-31 Itl Optronics Ltd Platform Composite Device Control System and Method
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
US9256987B2 (en) 2013-06-24 2016-02-09 Microsoft Technology Licensing, Llc Tracking head movement when wearing mobile device
US9304235B2 (en) 2014-07-30 2016-04-05 Microsoft Technology Licensing, Llc Microfabrication
US10678412B2 (en) 2014-07-31 2020-06-09 Microsoft Technology Licensing, Llc Dynamic joint dividers for application windows
US10254942B2 (en) 2014-07-31 2019-04-09 Microsoft Technology Licensing, Llc Adaptive sizing and positioning of application windows
US10592080B2 (en) 2014-07-31 2020-03-17 Microsoft Technology Licensing, Llc Assisted presentation of application windows
US10019059B2 (en) 2014-08-22 2018-07-10 Sony Interactive Entertainment Inc. Glove interface object
US9513480B2 (en) 2015-02-09 2016-12-06 Microsoft Technology Licensing, Llc Waveguide
US10018844B2 (en) 2015-02-09 2018-07-10 Microsoft Technology Licensing, Llc Wearable image display system
US11086216B2 (en) 2015-02-09 2021-08-10 Microsoft Technology Licensing, Llc Generating electronic components
US9827209B2 (en) 2015-02-09 2017-11-28 Microsoft Technology Licensing, Llc Display system
US9423360B1 (en) 2015-02-09 2016-08-23 Microsoft Technology Licensing, Llc Optical components
US10317677B2 (en) 2015-02-09 2019-06-11 Microsoft Technology Licensing, Llc Display system
US9372347B1 (en) 2015-02-09 2016-06-21 Microsoft Technology Licensing, Llc Display system
US9535253B2 (en) 2015-02-09 2017-01-03 Microsoft Technology Licensing, Llc Display system
US9429692B1 (en) 2015-02-09 2016-08-30 Microsoft Technology Licensing, Llc Optical components
US10180734B2 (en) 2015-03-05 2019-01-15 Magic Leap, Inc. Systems and methods for augmented reality
NZ735465A (en) * 2015-03-05 2021-07-30 Magic Leap Inc Systems and methods for augmented reality
US10838207B2 (en) 2015-03-05 2020-11-17 Magic Leap, Inc. Systems and methods for augmented reality
WO2017005591A1 (en) * 2015-07-07 2017-01-12 Koninklijke Philips N.V. Apparatus and method for motion tracking of at least a portion of a limb
US9579046B2 (en) * 2015-07-24 2017-02-28 Albert Davydov Method and apparatus for unambiguously determining orientation of a human head in 3D geometric modeling
GB201516122D0 (en) 2015-09-11 2015-10-28 Bae Systems Plc Inertial sensor data correction
CN108604383A (zh) 2015-12-04 2018-09-28 奇跃公司 重新定位***和方法
FR3045015B1 (fr) * 2015-12-09 2017-12-22 Thales Sa Procede d'affichage d'un "indicateur de directeur d'attitude" dans un systeme de visualisation de tete pour aeronef
WO2017127571A1 (en) 2016-01-19 2017-07-27 Magic Leap, Inc. Augmented reality systems and methods utilizing reflections
US9874931B1 (en) 2016-02-22 2018-01-23 Rockwell Collins, Inc. Head-tracking system and method
NZ747815A (en) 2016-04-26 2023-05-26 Magic Leap Inc Electromagnetic tracking with augmented reality systems
KR102626821B1 (ko) 2016-08-02 2024-01-18 매직 립, 인코포레이티드 고정-거리 가상 및 증강 현실 시스템들 및 방법들
US9891705B1 (en) 2016-08-25 2018-02-13 Rockwell Collins, Inc. Automatic boresighting of head-worn display
US10445925B2 (en) * 2016-09-30 2019-10-15 Sony Interactive Entertainment Inc. Using a portable device and a head-mounted display to view a shared virtual reality space
CN112578911B (zh) * 2016-12-06 2024-07-26 美国景书公司 跟踪头部和眼睛的运动的装置和方法
US10812936B2 (en) 2017-01-23 2020-10-20 Magic Leap, Inc. Localization determination for mixed reality systems
EP3596702A4 (de) 2017-03-17 2020-07-22 Magic Leap, Inc. System für gemischte realität mit mehrstufiger zusammenstellung von virtuellem inhalt und verfahren zur erzeugung von virtuellem inhalt unter verwendung davon
AU2018234921B2 (en) 2017-03-17 2021-10-07 Magic Leap, Inc. Mixed reality system with color virtual content warping and method of generating virtual content using same
AU2018236457B2 (en) 2017-03-17 2021-04-29 Magic Leap, Inc. Mixed reality system with virtual content warping and method of generating virtual content using same
US10471478B2 (en) 2017-04-28 2019-11-12 United Parcel Service Of America, Inc. Conveyor belt assembly for identifying an asset sort location and methods of utilizing the same
US10216265B1 (en) 2017-08-07 2019-02-26 Rockwell Collins, Inc. System and method for hybrid optical/inertial headtracking via numerically stable Kalman filter
WO2019095090A1 (zh) * 2017-11-14 2019-05-23 深圳市柔宇科技有限公司 数据处理方法及装置
FR3075985B1 (fr) * 2017-12-21 2019-11-15 Thales Procede et systeme d'harmonisation duale d'un systeme d'affichage tete haute porte pour rendre conforme l'affichage d'informations de pilotage d'un aeronef avec le monde reel exterieur
WO2020023383A1 (en) 2018-07-23 2020-01-30 Magic Leap, Inc. Mixed reality system with virtual content warping and method of generating virtual content using same
CN112470464B (zh) 2018-07-23 2023-11-28 奇跃公司 场顺序显示器中的场内子码时序
IL263430A (en) * 2018-12-02 2020-06-30 Elbit Systems Ltd System and method for intelligent alignment of a head-mounted display
US10390581B1 (en) * 2019-01-29 2019-08-27 Rockwell Collins, Inc. Radio frequency head tracker
US11099636B1 (en) 2019-07-12 2021-08-24 Rockwell Collins, Inc. Systems and methods for interfacing with head worn display system
US11763779B1 (en) 2020-04-23 2023-09-19 Apple Inc. Head-mounted display systems with alignment monitoring
US11360552B1 (en) 2020-06-02 2022-06-14 Rockwell Collins, Inc. High assurance headtracking via structured light projection for head worn display (HWD)
US11320650B1 (en) 2020-06-02 2022-05-03 Rockwell Collins, Inc. High assurance head tracking system incorporating ground truth fiducials
FR3118493B1 (fr) * 2020-12-28 2023-01-13 Thales Sa Procede et dispositif de contrôle de determination de positionnement d'un dispositif de visualisation d'informations porte
WO2023055324A1 (en) 2021-09-30 2023-04-06 Tusas- Turk Havacilik Ve Uzay Sanayii Anonim Sirketi An alignment system
US11995228B2 (en) 2022-01-11 2024-05-28 Rockwell Collins, Inc. Head tracking system with extended kalman filter combining absolute and relative navigation
WO2023242532A1 (en) * 2022-06-13 2023-12-21 Bae Systems Plc A heading tracking system

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE411400B (sv) 1977-11-02 1979-12-17 Saab Scania Ab For foljning av ett objekt avsedd korrelationsfoljare
US4649504A (en) 1984-05-22 1987-03-10 Cae Electronics, Ltd. Optical position and orientation measurement techniques
FR2583197A1 (fr) 1985-06-07 1986-12-12 Thomson Csf Systeme de commande de positionnement d'une marque sur un ecran et application a la commande d'ordres a distance
FR2723208B1 (fr) 1986-06-17 1996-11-15 Thomson Csf Systeme de reperage spatial d'une direction liee a un corps mobile par rapport a une structure, utilisable notamment pour un viseur de casque
DE69132952T2 (de) * 1990-11-30 2002-07-04 Sun Microsystems Inc Kompakter kopfspurfolgsystem für billiges virtuelle realität system
GB2301968B (en) 1993-02-04 1997-08-13 Gec Marconi Avionics Holdings Helmet position measurement system
US5416922A (en) * 1993-02-23 1995-05-23 The United States Of America As Represented By The Secretary Of The Navy Helmet head tracking mounting device
US6042239A (en) * 1995-08-11 2000-03-28 Liepmann; Till W. Aircraft canopy reflection reduction
US5742263A (en) * 1995-12-18 1998-04-21 Telxon Corporation Head tracking system for a head mounted display system
US6057810A (en) * 1996-06-20 2000-05-02 Immersive Technologies, Inc. Method and apparatus for orientation sensing
US6046712A (en) * 1996-07-23 2000-04-04 Telxon Corporation Head mounted communication system for providing interactive visual communications with a remote system
EP0883195A1 (de) * 1997-06-03 1998-12-09 BARR & STROUD LIMITED Kopfnachführsystem, das eine LED mit fluoreszierender Beschichtung aufweist
IL125558A (en) * 1998-07-28 2003-06-24 Elbit Systems Ltd Non-adjustable helmet mounted optical systems

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014222356A1 (de) * 2014-11-03 2016-05-04 Bayerische Motoren Werke Aktiengesellschaft Künstlich erzeugte Magnetfelder in Fahrzeugen

Also Published As

Publication number Publication date
DE60001841D1 (de) 2003-04-30
EP1203285A1 (de) 2002-05-08
EP1203285B1 (de) 2003-03-26
US6377401B1 (en) 2002-04-23
JP2003505985A (ja) 2003-02-12
ATE235709T1 (de) 2003-04-15
AU5997200A (en) 2001-02-13
ZA200109938B (en) 2002-12-03
IL146975A0 (en) 2002-08-14
WO2001007995A1 (en) 2001-02-01
GB9917591D0 (en) 1999-09-29
DK1203285T3 (da) 2003-07-21
CA2376184C (en) 2009-09-15
ES2194756T3 (es) 2003-12-01
CA2376184A1 (en) 2001-02-01
JP3490706B2 (ja) 2004-01-26

Similar Documents

Publication Publication Date Title
DE60001841T2 (de) System zur verfolgung von kopfbewegungen
DE60000537T2 (de) System zur verfolgung von kopfbewegungen
DE3737972C2 (de)
DE68919979T2 (de) Überwachungsradar.
DE3426505C2 (de)
DE2753321C2 (de) Head-Up-Display-System
DE3043710C2 (de)
DE102014226185B4 (de) Verfahren und Blickrichtungserkennungssystem zum Bestimmen einer Blickrichtung einer Person, sowie Verwendung des Blickrichtungserkennungssystems in einem Kraftfahrzeug
WO2012152475A1 (de) Verfahren und vorrichtung zur kalibrierung einer projektionseinrichtung eines fahrzeugs
DE3927851A1 (de) System fuer die bestimmung der raeumlichen position eines sich bewegenden objekts und zum fuehren seiner bewegung
DE2513343A1 (de) Anzeigesystem bei flugzeugen
DE102010018143A1 (de) Verfahren zur Bestimmung von Positionsdaten eines Zielobjekts in einem Referenzsystem
DE19606685C2 (de) System zur Gefechtssimulation mit einem frei operierenden Kampffahrzeug und einem quasi ortsfesten Objektsimulator
DE4207251C2 (de) Feuerleitanlage für Panzer
DE102010010030B4 (de) Vorrichtung zum Darstellen einer Umgebung
WO2019091725A1 (de) Verfahren und anzeigegerät zum führen einer arbeitsmaschine
EP2927729B1 (de) Testvorrichtung für sichtsysteme
EP2520895A1 (de) Elektrooptische Feuerleiteinheit für ein Geschütz
DE60305345T2 (de) Bildverarbeitungseinrichtung mit erkennung und auswahl von lichtquellen
DE3342338A1 (de) Verfahren und vorrichtung fuer zielzuweisung und zielbekaempfung
AT16975U1 (de) System zur Bestimmung und/oder Vorhersage einer Position und/oder einer Flugbahn von orbitalen Objekten im Weltraum
DE2238104A1 (de) Elektrooptisches ortungssystem
EP3556088B1 (de) Verfahren und vorrichtung zur ermittlung der schnittkanten von zwei sich überlappenden bildaufnahmen einer oberfläche
DE2734913C2 (de) Vorrichtung zur Zieleinweisung für zielverfolgende Geräte
EP1019748B1 (de) Opto-elektronische messeinrichtung

Legal Events

Date Code Title Description
8327 Change in the person/name/address of the patent owner

Owner name: BAE SYSTEMS PLC, LONDON, GB