DE60001841T2 - System zur verfolgung von kopfbewegungen - Google Patents
System zur verfolgung von kopfbewegungenInfo
- Publication number
- DE60001841T2 DE60001841T2 DE60001841T DE60001841T DE60001841T2 DE 60001841 T2 DE60001841 T2 DE 60001841T2 DE 60001841 T DE60001841 T DE 60001841T DE 60001841 T DE60001841 T DE 60001841T DE 60001841 T2 DE60001841 T2 DE 60001841T2
- Authority
- DE
- Germany
- Prior art keywords
- tracking system
- head
- marker
- head tracking
- field
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 230000003287 optical effect Effects 0.000 claims abstract description 28
- 238000012795 verification Methods 0.000 claims abstract description 4
- 239000003550 marker Substances 0.000 claims description 54
- 230000001419 dependent effect Effects 0.000 claims 1
- 238000012545 processing Methods 0.000 abstract description 7
- 238000000034 method Methods 0.000 description 13
- 230000008901 benefit Effects 0.000 description 6
- 230000004438 eyesight Effects 0.000 description 4
- 230000008685 targeting Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 239000002131 composite material Substances 0.000 description 2
- 230000000875 corresponding effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004297 night vision Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G3/00—Aiming or laying means
- F41G3/22—Aiming or laying means for vehicle-borne armament, e.g. on aircraft
- F41G3/225—Helmet sighting systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Position Input By Displaying (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
- Organic Low-Molecular-Weight Compounds And Preparation Thereof (AREA)
- Electrical Discharge Machining, Electrochemical Machining, And Combined Machining (AREA)
- Control Of Position Or Direction (AREA)
- Vehicle Body Suspensions (AREA)
- Paper (AREA)
Description
- Die Erfindung bezieht sich auf ein Kopfnachführungssystem und insbesondere, aber nicht ausschließlich, auf ein Kopfnachführungssystem zur Benutzung in einem Flugzeug, in dem der Pilot mit einem im Helm montierten Display ausgerüstet ist.
- Kopfnachführungssysteme sind allgemein bekannt und bewirken eine Bestimmung der Kopflage und Kopfposition des Benutzers relativ zu einem festen Bezugspunkt, wie dies in der GB-A-2301968 beschrieben ist. Ursprünglich wurden diese Systeme zur Benutzung in der militärischen Luftfahrt entwickelt; sie haben jedoch in neuester Zeit auch Anwendung gefunden für Systeme der Realitätssimulation.
- Seit den frühen Tagen der militärischen Luftfahrt bevorzugen es die Piloten, die Navigation und die Ausrüstung von Waffen durchzuführen, während sie geradeaus und aus dem Cockpit schauen, was nicht überrascht. Dies führt zu einer Evolution der Blickfeld-Darstellungsgeräte (HUD), welche nützliche Symbole wiedergeben, die in geeigneter Weise auf die Außenwelt bezogen sind (diese werden oft als "raumstabilisiert" bezeichnet). HUDs besitzen im typischen Fall einen Sichtwinkel von 30º oder weniger, und sie können infolgedessen nur betrachtet werden, wenn der Pilot allgemein nach vorne schaut. Um dieses Betrachtungsfeld zu erhöhen (d. h. das Gesamtvolumen im Raum, über das der Pilot die Symbole betrachten kann und die Kopfbewegung des Piloten umfaßt), sind im Helm montierte Displays (HMDs) entwickelt worden, die im wesentlichen ein HUD umfassen, das am Helm des Piloten innerhalb seines Sichtfeldes montiert ist. Damit bodenstabilisierte Symbole oder Bilder dem Piloten in der richtigen Orientierung gegenüber der Außenwelt vermittelt werden, muß der Symbolgenerator des HUD Kenntnisse in allen drei Achsen haben, d. h. in der Höhe, im Azimuth und in der Längsachse, in der der Kopf des Piloten gerichtet ist. Dies wird bestimmt durch (a) die Winkelorientierung des Kopfes des Piloten gegenüber der Flugzeugachse und (b) durch Orientierung (Lage) des Flugzeugs gegenüber der Außenwelt. Die erstere Forderung hat zu der Notwendigkeit geführt, ein Kopfnachführungssystem zu entwickeln. Die HMDs arbeiten in Verbindung mit einem Kopfnachführungssystem, das die Winkelorientierung des Kopfes des Benutzers gegenüber der Flugzeugachse bestimmt, um zu gewährleisten, daß die dargestellte Information im Raum genau ausgerichtet ist oder genau über Objekte in der Außenwelt gefügt ist. Beispielsweise ist es in der militärischen Luftfahrt wichtig, daß eine Waffenzielmarkierung genau über das Ziel ausgerichtet wird.
- Im typischen Fall umfaßt ein Kopfnachführungssystem eine Kopflagerung, im allgemeinen einen Helm, der am Kopf des Benutzers befestigt ist und ein Sensorsystem zur Bestimmung der Winkelorientierung des Helmes relativ zu einem festen Bezugspunkt. Obgleich genau genommen ein Kopfnachführungssystem tatsächlich die Orientierung der Kopflagerung nachführt und nicht den Kopf des Benutzers, liefert das System dennoch eine genaue Messung der Orientierung des Kopfes des Benutzers, vorausgesetzt, daß die Kopflagerung in einer festen Orientierung relativ zum Kopf des Benutzers verbleibt.
- Das Bezugssystem ist im typischen Fall dreiachsig und läuft durch einen bekannten Punkt am Fahrzeug oder am Flugzeug. Es sind eine Reihe von Sensorsystemen vorgeschlagen worden. Beispielsweise benutzten die früheren Nachführsysteme mechanische Verbindungen zwischen dem Helm und dem Fahrzeug und, obgleich diese Systeme relativ genau waren, so waren sie doch sehr kompliziert in ihrem Aufbau und die Bewegung des Benutzers war beschränkt, und es ergaben sich spezielle Probleme während des Ausstiegs aus einem Flugzeug. Spätere Systeme umfassen optische Sensorsysteme, bei denen der Helm eine Anzahl von Leuchtdioden trägt, die im Infrarotbereich arbeiten und durch Positionsdetektoren erfaßt wurden, die im Cockpit des Flugzeugs montiert waren. Andere bekannte optische Systeme benutzen bestimmte physikalische Markierungen, die durch eine Kamera detektiert werden. Es sind auch magnetische Sensorsysteme bekannt, bei denen ein alternatierendes oder pulsierendes Magnetfeld durch Sensoren am Helm detektiert wird. Es wurden auch Massenkraftsysteme vorgeschlagen, bei denen Kreisel und Beschleunigungsmesser benutzt wurden, und es gibt Hybridsysteme, die eine Kombination von zwei oder mehreren der obengenannten Systeme benutzen.
- Ein spezielles Erfordernis für ein Kopfnachführungssystem, welches in der militärischen Luftfahrt Anwendung finden soll, ist eine hohe Genauigkeit, verbunden mit einem schnellen dynamischen Ansprechen, da die Bewegungen des Kopfes des Piloten oft extrem schnell sind; im typischen Fall können diese Bewegungen schneller sein als 200º pro Sekunde. Diese beiden Forderungen schließen sich oft gegenseitig aus und, obgleich Fortschritte in der Sensortechnologie, beispielsweise bei Festkörpergyroskopen, das dynamische Ansprechen des Nachführsystems verbessert haben, so ist doch die Genauigkeit einiger dieser Systeme begrenzt durch eine Abdrift über ausgedehnte Zeiträume des Betriebes.
- Es ist bekannt, zu Beginn das Kopfnachführungssystem einzustellen oder zu eichen, was oft als Visierkontrolle bezeichnet wird, wobei dies geschieht, bevor der Betrieb beginnt. Beispielsweise ist es bei militärischen Hubschraubern bekannt, einen oder gelegentlich auch zwei systemkonforme Fadenkreuzvisier-Einheiten (BRU) mit bekannten Sichtlinien vorzusehen. Die BRU zeigen eine Zielmarke, die als parallel gerichtetes Bild präsentiert wird, und zwar oft in Form eines Kreises mit Fadenkreuz mit einem engen Betrachtungswinkel, im typischen Fall in der Größenordnung von 2º. Da das BRU ein im wesentlichen parallelisiertes Bild liefert, ist das Bild im wesentlichen im Unendlichen dargestellt und infolgedessen nur sichtbar, wenn die Orientierung des Kopfes des Benutzers (speziell die des Helmes) in einer gegebenen Ausrichtung zur BRU-Achse verläuft. Wenn der Pilot in den Hubschrauber einsteigt und den Helm und das HMD aufsetzt, drückt er einen Knopf, um einen Zielmodus der Arbeitsweise zu aktivieren. Im Zielmodus wird das BRU aktiviert, und die geeignete Zielsymbolik wird am HMD als raumstabilisiertes Bild dargestellt. Dann benutzt der Pilot eine Handsteuerung, um das HMD-Symbol einzustellen, bis es das BRU überlappt. An dieser Stelle fallen das Auge des Piloten, das HMB-Symbol und die BRU-Markierung zusammen, und das System berechnet eine entsprechende Versetzung, die bei den folgenden Operationen in Verbindung mit dem Kopfnachführungs-Ausgang benutzt wird, um die HMD- Symbole zu positionieren. Wenn ein zweites BRU vorgesehen ist, wiederholt der Pilot die Prozedur, und so wird das Nachführsystem mit zwei bekannten Startbedingungen versehen. Das Kopfnachführungssystem und das HMD sind nur zu Beginn der Arbeitsweise ausgerichtet, und das BRU ist demgemäß nicht weiter in Benutzung und wird infolgedessen häufig deaktiviert.
- Im Falle eines Flugzeugs mit festem Tragflügel, welches mit einem HUD versehen ist, ist es bekannt, das HUD zur Erzeugung eines Fadenkreuzes anstelle des BRU zu benutzen. Obgleich ein HUD einen größeren Betrachtungswinkel hat, und zwar im typischen Fall 30º, erzeugt es dennoch ein höchstparallelisiertes Bild und kann infolgedessen benutzt werden, um das Kopflager genau auszurichten.
- Die anfängliche Visierung, wie sie in der GB-A-2301968 beschrieben ist, gewährleistet, daß das Nachführsystem und das HMD genau zu Beginn des Betriebes arbeiten, jedoch können hierbei keine mechanischen Mißausrichtungen des HMD gegenüber dem Helm oder irgendwelche Abdriften im Nachführsystem kompensiert werden. Obgleich der Visierprozeß nicht lange dauert, kann dies immerhin als unerwünschte Verzögerung betrachtet werden, bevor das Fahrzeug betriebsbereit ist.
- Gegenwärtig erreichen die HMDs nicht die Genauigkeit von HUDs, selbst wenn sie in der Visierachse arbeiten, weil eine begrenzte Genauigkeit der Kopfnachführung besteht, was zum Teil eine Folge der Abdrift ist. Außerdem kann die verteilte Architektur der HMDs nicht auf einfache Weise eine hohe Integrität aufweisen, welche die Gewähr dafür ist, daß eine genaue Information geliefert wird. Im Falle von HMDs, die ein zweiäugiges Display benutzen, liefert die Beobachtung zwischen den jeweiligen Kanälen ein gewisses Maß von Integrität. Im Falle eines Kopfnachführungssystems gibt es jedoch keinen unabhängigen parallelen Pfad, über den die Genauigkeit der Nachführung bestätigt werden kann. Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Kopfnachführungssystem zu schaffen, welches wenigstens teilweise die Probleme bekannter Kopfnachführungssysteme überwindet.
- Gemäß der Erfindung umfaßt ein Kopfnachführungssystem zur Bestimmung der Orientierung des Kopfes relativ zu einem Bezugspunkt die folgenden Teile: ein Kopflager zur Festlegung des Kopfes des Benutzers und ein Sensorsystem zur Feststellung der Orientierung des Kopflagers relativ zu dem Bezugspunkt, und die Erfindung ist gekennzeichnet durch eine unterscheidbare Markierung und einen optischen Sensor, der im Betrieb jeweils relativ zu einem ersten bekannten Festpunkt und relativ zu einem zweiten bekannten Festpunkt relativ zum Bezugspunkt oder umgekehrt fixiert ist und durch Prozessormittel zur Bestimmung, wenn die Markierung im Sichtfeld des optischen Sensors liegt, wobei der Ausgang der Prozessormittel benutzt wird, um eine Abdrift in dem Sensorsystem zu korrigieren oder um eine unabhängige Verifikation darüber zu liefern, daß das System mit vorbestimmten Toleranzen arbeitet.
- Ein spezieller Vorteil des Kopfnachführungssystems gemäß der Erfindung besteht darin, daß jede Abdrift im System automatisch für jeden Zeitpunkt kompensiert werden kann, wo eine Markierung innerhalb des Sichtfeldes des optischen Sensors festgestellt wird. Zusätzlich zur automatischen Kompensierung der Abdrift kann die Erfindung weiter die Notwendigkeit einer anfänglichen Sichtlinienausrichtung vermeiden und daher jede Verzögerung beträchtlich vermindern, bevor das System voll arbeitsfähig wird. Alternativ zur Korrektur der Abdrift oder zusätzlich liefert die vorliegende Erfindung eine unabhängige Gewähr dafür, daß die Kopfnachführung innerhalb vorbestimmter Toleranzen voll arbeitsfähig ist. Dies ist insbesondere wichtig bei Anwendungen, wo ein weiteres System, beispielsweise ein Waffenzielsystem oder ein Infrarot-Nachtsichtsystem, auf der Genauigkeit beruht, mit der die Orientierung des Kopfes des Benutzers bekannt ist.
- Die unterscheibare Markierung kann ein räumliches Muster aufweisen und/oder kann teilweise durch wenigstens die Farbe definiert sein. Das einzige Erfordernis der Markierung besteht darin, daß sie unzweifelhaft festgestellt werden kann und eine bekannte Position und Orientierung der Kopflagerung relativ zu einem festen Bezugspunkt anzeigt. Gemäß einem Ausführungsbeispiel umfaßt die Markierung Merkmale der Umgebung um den Benutzer herum, beispielsweise in einem Flugzeug, einem Teil der Cockpitstruktur oder des Instrumentenaufbaus. Um die Sichtbarkeit der Markierung zu verbessern, ist es zweckmäßig, dieses unter Benutzung retro-reflektierender Materialien zu definieren.
- Stattdessen kann die Kopfnachführungs-Vorrichtung weiter einen Markierungsgenerator aufweisen, um die unterscheidbare Markierung zu erzeugen. Bei einem derartigen Generator wird die Farbe der Markierung zweckmäßigerweise durch die Wellenlänge des Lichtes definiert, das vom Generator erzeugt wird. Außerdem kann die Markierung als zeitweise Veränderung durch Modulation des Lichtes definiert werden, das durch den Markierungsgenerator erzeugt wird. Die Markierung könnte auch durch eine Kombination von zwei oder mehreren der obengenannten drei Techniken definiert werden, beispielsweise könnte die Markierung eine spezielle Formgestalt mit einer speziellen Wellenlänge haben, die moduliert wird durch An- und Abschaltung mit einer gewählten Frequenz.
- Gemäß einer speziell bevorzugten Ausführung ist die visuelle Markierung ein kollimatisiertes Bild mit einer Achse, die vorbestimmt ist und durch den zugeordneten bekannten Punkt verläuft. Mit einer derartigen Markierung wird der optische Sensor, der vorzugsweise eine Videokamera ist, im Unendlichen fokussiert. Ein spezieller Vorteil einer solchen Anordnung besteht darin, daß die Verarbeitungsmittel die Orientierung der Kopflagerung relativ zu dem bekannten Bezugspunkt immer dann kennen, wenn das Vorhandensein der Markierung festgestellt wird, da die Markierung nur dann sichtbar ist, wenn die Achse des Sichtfeldes des optischen Sensors und die Markierung im wesentlichen zusammenfallen.
- Vorzugsweise sind erster und zweiter bekannter Fixpunkt so gewählt, daß die Markierung innerhalb des Sichtfeldes des Sensors immer dann liegt, wenn der Kopf des Benutzers in einer Richtung orientiert ist, in der er im Betrieb meist ausgerichtet ist, und im typischen Fall ist dies die Richtung, die im wesentlichen nach vorn weist. Ein spezieller Vorteil dieser Anordnung besteht darin, daß die Zahl der Zeiten, in denen die Markierung innerhalb des Sichtfeldes des optischen Sensors liegt, maximiert wird, und dadurch wird die Frequenz maximiert, bei der die Abdrift kompensiert und/oder das System verifiziert wird. Vorzugsweise ist der optische Sensor mit dem ersten Fixpunkt derart verknüpft, daß es die Kopflagerung ist, die zweckmäßigerweise als Helm ausgebildet ist, wobei die Achse des Sichtfeldes des Sensors im wesentlichen auf die Vorwärtsrichtung des Benutzers derart ausgerichtet ist, daß der Ausgang des optischen Sensors repräsentativ ist für das Sichtfeld des Benutzers. Eine solche Information kann beispielsweise im Falle eines Flugzeugs aufgezeichnet und danach benutzt werden, um das Verhalten des Piloten zu berechnen. Gemäß einem speziell bevorzugten Ausführungsbeispiel umfaßt der Markierungsgenerator ein Zielfadenkreuz. Wenn das Kopfnachführungssystem der Benutzung in einem Flugzeug oder in einem anderen Fahrzeug dient, welches ein Blickfeld-Darstellungsgerät aufweist, dann wird die unterscheidbare Markierung vorteilhafterweise unter Benutzung des Blickfeld-Darstellungsgerätes erzeugt.
- Wenn stattdessen die Markierung kein ausgerichtetes Bild ist, beispielsweise eine physikalische Markierung, eine nicht ausgerichtete Lichtquelle oder ein Feld derartiger Quellen, dann wird der optische Sensor in einer Entfernung fokussiert, die der erwarteten Entfernung zwischen dem Sensor und der Markierung entspricht. Da die Markierung über einen größeren Teil des Sichtfeldes des Sensors sichtbar ist, bewirkt der Prozessor, daß die Position der Markierung im Sichtfeld des Sensors detektiert wird, um die Orientierung der Kopflagerung zu bestimmen. Um die zu verarbeitende Menge zu reduzieren, bewirkt der Prozessor vorzugsweise eine Feststellung immer dann, wenn die Markierung in einem gewählten Teil des Sichtfeldes des Sensors liegt, beispielsweise innerhalb der zentralen Position.
- Zweckmäßigerweise besteht der optische Sensor aus einer Videokamera, beispielsweise einer ladungsgekoppelten Vorrichtung. Vorzugsweise umfaßt das Kopfnachführungssystem außerdem wenigstens zwei bekannte feste Punkte mit einer jeweiligen zugeordneten unterscheidbaren Markierung.
- Gemäß einem bevorzugten Ausführungsbeispiel umfaßt der Prozessor einen Korrelator, der die Szenendaten, die vom optischen Sensor aufgenommen werden, mit den Daten korreliert, die für die oder jede Markierung repräsentativ sind, um festzustellen, ob die Markierung oder jede Markierung innerhalb des Sichtfeldes des optischen Sensors liegt und/oder wo sie innerhalb des Sichtfeldes des optischen Sensors befindlich ist.
- Ein Kopfnachführungssystem gemäß der Erfindung wird im folgenden anhand der beiliegenden Zeichnung beschrieben. Die einzige Figur der Zeichnung zeigt eine schematische Ansicht des Kopfnachführungssystems zur Benutzung in einem Flugzeug.
- In der Zeichnung ist ein Helm 2 dargestellt, der eine Kopflagerung zur Befestigung am Kopf eines Piloten bildet. Der Helm ist mit einer Sichtvorrichtung 4 ausgestattet. Innerhalb des Helmes ist dieser mit einem vom Helm getragenen Display (HMD) versehen (nicht dargestellt), das ein Display auf eine teilweise reflektierende innere Oberfläche der Sichtvorrichtung 4 richtet, oder es sind einzelne Okkulare vorgesehen, so daß das Display wenigstens teilweise über das Sichtfeld des Piloten durch die Sichtvorrichtung 4 überlagert wird. Wie bekannt, wird die Symbolik, die auf dem HMD dargestellt wird, durch einen Symbolgenerator 6 erzeugt, der innerhalb des Flugzeugs angeordnet ist. Die Signale, die zum Treiben des HMD benutzt werden, werden dem Helm 2 über ein Versorgungskabel 8 zugeführt, das in bekannter Weise mit einem Schnell-Freigabe-Verbinder 9 versehen ist, der innerhalb des Cockpits angeordnet ist.
- Der Helm 2 trägt eine Sensoreinheit 10, die einen Teil eines Magnetkopf- Nachführungssystems in Verbindung mit einer Sendereinheit 12 aufweist, die in der Kanzel des Cockpits benachbart zum Helm 2 angeordnet ist. Die Sendereinheit 12 erzeugt drei senkrecht aufeinanderstehende Magnetfelder, die durch jeweilige Sensoren in der Sensoreinheit 10 detektiert werden. Die Sensoren erzeugen Signale, die sich auf die Orientierung des Helmes 2 um die drei Achsen beziehen: Höhe, Azimuth und Längsneigung; relativ zu einem festen Bezugspunkt 13, der relativ zur Flugzeugzelle eingestellt wird. Diese Signale von der Sensoreinheit 10 werden über das Versorgungskabel 8 dem Prozessor 14 zugeführt, der die Orientierung des Helmes 2 relativ zur Flugzeugzelle in Ausdrücken der Winkellage um jede der Achsen bestimmt. Bei dem dargestellten Ausführungsbeispiel ist das magnetische Kopfnachführungsgerät ein bekanntes System, wie dies beispielsweise in dem europäischen Patent 0285658 beschrieben ist, welches hiermit als Bezug eingeführt wird. Die vorliegende Erfindung bezieht sich auch auf andere Ausbildungen von Kopfnachführungssystemen, beispielsweise solche, die auf Massenkraftsensoren oder einem Hybridsystem beruhen. Der Ausgang des Prozessors 14 wird einem Symbolgenerator 6 zugeführt, der diese Daten benutzt, um zu gewährleisten, daß die auf dem HMD wiedergegebenen Symbole korrekt auf die gegenwärtige Orientierung des Kopfes des Piloten ausgerichtet sind. Um zu gewährleisten, daß die Symbole richtig mit am Boden stabilisierten Merkmalen orientiert sind, empfängt der Symbolgenerator 6 auch einen Eingang vom Trägheits- Navigationssystem 16, welches die gegenwärtige Orientierung des Flugzeugs angibt.
- Zusätzlich zu dem insoweit beschriebenen Kopfnachführungssystem, welches eine bekannte Anordnung betrifft, umfaßt das Kopfnachführungssystem außerdem eine Mini-Farbvideokamera 18 in Form einer ladungsgekoppelten Einrichtung (CCD), die starr mit dem Helm 2 verbunden ist. Die Achse des Sichtfeldes der Videokamera 18 ist genau auf eine eingestellte Bezugsachse innerhalb des Helms 2 ausgerichtet. Im typischen Fall ist die Achse der Kamera so ausgerichtet, daß sie mit der nach vorn weisenden Richtung des Piloten übereinstimmt, und die Kamera ist auf Unendlich oder eine etwas kleinere Entfernung fokussiert, um irgendwelche Wirkungen der Windschutzscheibe 20 der Kanzel zu kompensieren, die diese hat, so daß der Ausgang repräsentativ ist für die vom Piloten erkannte Sicht, vermindert um Symbole, die von dem HMD erzeugt werden. Im Umfang der vorliegenden Erfindung entspricht "unendlich" in praktischen Ausdrücken vier Metern oder mehr. Die Auflösung der Kamera ist ein VGA-Standard, d. h. sechshundertvierzig mal vierhundertachtzig Pixel. Das Videosignal von der Kamera wird über das Zuführungskabel 8 einem Videoprozessor 22 zugeführt, der genau die Symbole überlagert, die vom Symbolgenerator 6 erzeugt werden, und das Verbund- Videosignal wird in einem Videorekorder 24 aufgezeichnet. Das vom Videorekorder 24 aufgezeichnete Signal ist repräsentativ für das, was der Pilot während des Fluges gesehen hat, und es wird nach dem Flug benutzt, um die Flugdurchführung für den Piloten zu berechnen.
- An der Flugzeugzelle ist an einer bekannten Stelle eine Zielvorrichtung (BRU) 26 angeordnet, die einen gerichteten Lichtstrahl vorbestimmter Wellenlänge erzeugt und ein unterscheidbares Symbol oder eine Markierung, beispielsweise ein Fadenkreuz, aufweist. Die Achse des gerichteten Bildes, das vom BRU 26 erzeugt wird, ist längs einer vorbestimmten Richtung ausgerichtet, die in dem beschriebenen Beispiel so gewählt ist, daß sie der nach vom weisenden Beobachtungsrichtung des Piloten entspricht. Gemäß der folgenden Beschreibung wird das BRU 26 zusammen mit der Videokamera 18 benutzt, um automatisch das Nachführsystem 10, 12, 14 zu aktualisieren oder auszurichten.
- Im Betrieb wird das Videosignal von der Videokamera 18 über ein wellenlängenselektives Filter 27 einer Korrelator-Prozessoreinheit 28 zugeführt, die kontinuierlich die Videodaten verarbeitet, um das Vorhandensein einer erkannten Markierung zu detektieren, die vom BRU 26 erzeugt wurde. Das wellenlängenselektive Filter 27 ist in der Lage, die Markierung aus dem übrigen Video-Vollbild zu extrahieren. Immer, wenn die Korrelator-Prozessoreinheit 28 das Vorhandensein einer erkannten Markierung feststellt, weiß das System, daß der Helm 2 zu der Zeit, wo das Videobild geschossen wurde, in einer speziellen Richtung orientiert werden muß. Diese bekannte Orientierung wird mit dem Ausgang des Nachführsystems zu einer bestimmten Zeit verglichen, um festzustellen, ob ein Unterschied zwischen den Ablesungen besteht, und dieser Unterschied wird benutzt, um die Arbeitsweise der Prozessoreinheit 14 zu korrigieren. Im Normalbetrieb sollte der Unterschied nicht mehr als fünf Milliradianten betragen, und das System aktualisiert dann automatisch die Prozessoreinheit 14. Wenn jedoch eine Abweichung festgestellt wird, die unannehmbar groß ist, beispielsweise größer als zehn Milliradianten, dann hört das System auf, die Prozessoreinheit 14 zu aktualisieren und unterrichtet den Piloten darüber, daß ein potentieller Fehler im Kopfnachführungssystem aufgetreten ist.
- Wie erwähnt, erzeugt das BRU 26 eine unterscheidbare, d. h. eine eindeutig erkennbare Markierung, die in Ausdrücken eines räumlichen Musters, beispielsweise eines Fadenkreuzes, einer vorbestimmten Wellenlänge definiert ist. Der Zweck des BRU 26 besteht darin, eine Markierung zu erzeugen, die unschwer durch die Korrelator-Prozessoreinheit 28 identifiziert werden kann.
- Das Verfahren, durch welches der Korrelator-Prozessor 28 bestimmt, ob die Markierung innerhalb des Sichtfeldes der Kamera liegt, kann unter Benutzung zahlreicher Techniken durchgeführt werden. Beispielsweise kann eine digitale Verarbeitungstechnik Verwendung finden oder Frequenzdetektor-Methoden oder optische Korrelationsmethoden zur Erkennung des Musters. Bei der ersten dieser Techniken wird das Videosignal von der Kamera, das vom Helm als Standard- Analogsignal übertragen wird, zunächst durch die Korrelator-Prozessoreinheit 28 digitalisiert, und diese Daten werden auf einer Basis Pixel um Pixel mit einem gespeicherten Bild korreliert, welches repräsentativ ist für ein von der BRU 26 erzeugtes Muster.
- Wenn die BRU 26 die unterscheidbare Markierung durch Modulation ihres Lichtausganges definiert, dann benutzt die Korrelator-Prozessoreinheit 28 eine geeignete Technik, um eine Wellenlänge oder ein Modulationsmuster zu identifizieren. Es ist klar, daß die Verarbeitung auf verschiedene Weise erfolgen kann, beispielsweise durch analoge oder digitale Filterung oder durch eine schnelle Fourier-Transformation (FFT) oder eine optische Korrelation. Die Benutzung einer optischen Korrelation ist bei weitem das schnellste Verfahren und ermöglicht eine sehr schnelle Aktualisierung des Kopfnachführungssystems.
- Da die BRU 26 ein ausgerichtetes Bild erzeugt, dessen Achse mit der Vorwärts- Betrachtungsrichtung des Piloten übereinstimmt, liegt die unterscheidbare Markierung nur dann innerhalb des Sichtfeldes der Kamera 18, wenn der Pilot im wesentlichen nach vorwärts blickt, Infolgedessen kann die Korrelator- Prozessoreinheit 28 das Vorhandensein der Markierung oft ein zweites Mal während des Normalbetriebes feststellen. Da eine Re-Orientierung oder Zielausrichtung vom Kopfnachführungssystem nur alle paar Minuten durchgeführt werden muß, können, wenn irgendein Bild von der Videokamera aufgenommen wird, das unvollständig ist, diese Daten mit Sicherheit ausgeschieden werden. Um die Menge der Signalverarbeitung zu vermindern, kann der Korrelator-Prozessor 28 so programmiert werden, daß er in gewissen Festzeitintervallen arbeitet, und die BRU 26 kann kontinuierlich betrieben werden, wie dies beschrieben wurde, oder sie kann nur während dieser Zeitintervalle angeschaltet sein.
- Es ist klar, daß die vorliegende Erfindung nicht auf die beschriebenen spezifischen Ausführungsbeispiele beschränkt ist und daß Modifikationen durchgeführt werden können, ohne vom Rahmen der Erfindung abzuweichen. Beispielsweise könnte die Videokamera 18 am Flugzeug montiert werden, und die BRU 26 könnte am Helm 2 vorgesehen werden. Vorteilhafterweise sind Videokamera und Markierung relativ zueinander derart angeordnet und orientiert, daß die Markierung innerhalb des Sichtfeldes der Kamera immer dann liegt, wenn der Kopf des Benutzers in einer Richtung orientiert ist, in der er gewöhnlich im Betrieb schaut. Eine derartige Anordnung gewährleistet, daß die Prozessoreinheit in der Lage ist, das Vorhandensein der Markierung genügend oft während eines gegebenen Zeitintervalls festzustellen, um in der Lage zu sein, jede Abdrift im Nachführsystem zu kompensieren und/oder eine unabhängige Verifizierung zu liefern, wonach das Kopfnachführungssystem innerhalb vorbestimmter Toleranzen arbeitet. Bei dem speziellen beschriebenen Ausführungsbeispiel ist diese Richtung so gewählt, daß sie zusätzlich mit der im wesentlichen nach vorn gerichteten Betrachtungsrichtung des Piloten zusammenfällt, und die Kamera ist auf Unendlich derart fokussiert, daß der Ausgang der Videokamera repräsentativ ist für das Sichtfeld des Piloten und zusätzlich zur Kompensation der Nachführungsdrift aufzeichnet und danach benutzt werden kann, um die Arbeitsweise des Piloten zu berechnen. Bei abgewandelten Ausführungsbeispielen können die Kamera und die Markierungen in der beschriebenen Weise benutzt werden, jedoch ohne daß die Kamera auf die nach vorn gerichtete Betrachtungsrichtung des Benutzers ausgerichtet ist, so daß beispielsweise die Kamera im Flugzeug hinter oder seitlich vom Benutzer montiert werden kann, und der Markierungsgenerator kann in geeigneter Weise am Helm oder umgekehrt angeordnet werden. Es ist klar, daß die Markierung auf irgendeine Weise erzeugt werden kann, um unterscheidbar zu sein, d. h. es soll eine fehlerfrei erkennbare Markierung erzeugt werden. Gemäß einer abgewandelten Ausführungsform definiert die BRU 26 das unterscheidbare Muster, indem Wellenlängen des Lichtes erzeugt werden oder ein zeitliches Muster geschaffen wird, welches aus einem modulierten Lichtausgang besteht, oder es kann eine Kombination dieser Techniken angewandt werden. Wenn die Kamera auf Unendlich fokussiert ist, dann wird die Markierung vorzugsweise in Form eines genau ausgerichteten Bildes erzeugt, das eine vorbestimmte Achse hat, so daß die Markierung nur sichtbar wird, wenn die Achse des Sichtfeldes der Kamera und die Achse der Markierung zusammenfallen. Bei einem derartigen System braucht die Korrelator-Prozessoreinheit nur das Vorhandensein der Markierung innerhalb des Sichtfeldes der Kamera festzustellen. Im vorstehenden wurde die Benutzung einer Farb-Videokamera beschrieben, jedoch sind andere Formen optischer Sensoren, beispielsweise Positionssensoren, anwendbar, und zwar insbesondere, wenn die Markierung in Form eines ausgerichteten Bildes besteht, das eine vorbestimmte Wellenlänge besitzt, und in diesem Fall muß der Sensor nur das Vorhandensein der Markierung feststellen.
- Gemäß einem abgewandelten Ausführungsbeispiel könnte die Markierung in Form eines nicht gerichteten Bildes erzeugt werden, beispielsweise in Form einer physikalischen Markierung, oder es könnten Einzelheiten des Aufbaus des Cockpits oder des Instrumentariums benutzt werden. In einem solchen Fall würde die Kamera auf das Nahfeld fokussiert, d. h. auf eine Entfernung, die der erwarteten Entfernung zwischen Kamera und Markierung entspricht. Da eine solche Markierung über einen großen Teil des Sichtfeldes der Kamera sichtbar wird, kann der Prozessor feststellen, wo die Markierung innerhalb des Sichtfeldes liegt, um auf diese Weise die Orientierung des Helmes zu bestimmen. Um die erforderliche Verarbeitung zu reduzieren, ist es zweckmäßig, daß der Prozessor feststellt, wann die Markierung innerhalb eines gegebenen Bereiches des Sichtfeldes der Kamera liegt. Am zweckmäßigsten ist dies, wenn die Einstellung dem Mittelbereich entspricht.
- Um zu vermeiden, daß das System den Benutzer täuscht, wird die Wellenlänge der Markierung in einem Teil des elektromagnetischen Spektrums gewählt, der dem Benutzer nicht sichtbar ist, beispielsweise im Infrarotbereich.
- Gemäß einem weiteren Ausführungsbeispiel wird die Markierung in einem Blickfeld- Darstellungsgerät 30 erzeugt, und zwar anstelle oder zusätzlich zum BRU 26. Obgleich die Benutzung eines Markierungsgenerators beschrieben wird, ist es zweckmäßig, mehrere Markierungen an bekannter Stelle um das Cockpit herum anzuordnen, um die Genauigkeit des Systems weiter zu verbessern. Das Nachführsystem wurde vorstehend unter Bezugnahme auf ein Flugzeug beschrieben. Es ist jedoch klar, daß es auch bei anderen Anwendungen, z. B. anderen Fahrzeugen wie Panzern oder Hubschraubern oder überall dort benutzt werden kann, wo es erforderlich ist, die Orientierung des Kopfes des Benutzers relativ zu einem bestimmten Bezugspunkt genau zu kennen, beispielsweise bei einem Realitäts-Simulationssystem. Ein spezieller Vorteil der Erfindung besteht darin, daß das Kopfnachführungssystem automatisch arbeitet und im Betrieb kontinuierlich eine Visierausrichtung bewirkt und benutzt werden kann, um eine Abdrift bei der Kopfnachführung zu kompensieren.
- Stattdessen oder zusätzlich zur Korrektur der Abdrift gewährleistet die Erfindung unabhängig davon, daß die Kopfnachführung innerhalb vorbestimmter Toleranzen arbeitet. Dies ist insbesondere wichtig bei Anwendungen, bei denen ein weiteres System, beispielsweise ein Waffen-Richtsystem oder ein Infrarot-Nachtsichtsystem, auf einer genauen Kenntnis der Orientierung des Kopfes des Benutzers beruht.
- Zusätzlich zur automatischen Kompensierung der Abdrift im Kopfnachführungssystem kann die vorliegende Erfindung potentiell die Notwendigkeit einer Visierausrichtung erübrigen, und dies kann beträchtlich jede Verzögerung vermindern, bevor das System voll wirksam ist.
- Gemäß einem weiteren Ausführungsbeispiel ist die Videokamera so angeordnet, daß die Abbildung durch die Sichtvorrichtung derart erfolgt, daß die Kamera das gleiche Sichtfeld wie der Pilot hat und die Symbole enthält, die vom HMD erzeugt werden. Ein spezieller Vorteil dieses Systems besteht darin, daß die Notwendigkeit der Überlagerung von Symbolen auf die Szene erübrigt wird, die vom Displayprozessor abgebildet wird, wodurch ein noch genaueres Verbundbild geliefert wird. Außerdem kann ein solches System eine vollständige Prüfung von einem Ende nach dem anderen des befohlenen Bildes gegenüber dem dargestellten Bild zwecks einer Monitorintegrierung liefern. Die Visierlinien-Überprüfung erfolgt in Koinzidenz von Auge, Kamera, Ausrichtsymbol und BRU, wodurch eine noch größere Sicherheit einer richtigen Arbeitsweise gewährleistet wird. Ein weiterer Vorteil eines derartigen Systems besteht darin, daß es benutzt werden kann, um das Vorhandensein von primären Flugsymbolen zu prüfen.
Claims (14)
1. Kopfnachführungssystem zur Bestimmung der Orientierung des Kopfes
eines Benutzers relativ zu einem Bezugspunkt (13), welches ein Kopflager zur
Festlegung des Kopfes des Benutzers und ein Sensorsystem aufweist, um die
Orientierung des Kopflagers relativ zu dem Bezugspunkt (13) festzustellen,
gekennzeichnet durch eine unterscheidbare Markierung und einen optischen Sensor
(10), der im Betrieb jeweils relativ zu einem ersten bekannten Festpunkt und relativ
zu einem zweiten bekannten Festpunkt relativ zum Bezugspunkt (13) oder
umgekehrt fixiert ist und durch Prozessormittel (14, 28) zur Bestimmung, wenn die
Markierung im Sichtfeld des optischen Sensors (10) liegt, wobei der Ausgang der
Prozessormittel (14) benutzt wird, um eine Abdrift in dem Sensorsystem zu
korrigieren oder um eine unabhängige Verifikation darüber zu liefern, daß das
System mit vorbestimmten Toleranzen arbeitet.
2. Kopfnachführungssystem nach Anspruch 1, bei welchem die
unterscheidbare Markierung ein räumliches Muster aufweist.
3. Kopfnachführungssystem nach den Ansprüchen 1 oder 2, bei welchem die
unterscheidbare Markierung zum Teil wenigstens durch die Farbe der Markierung
definiert ist.
4. Kopfnachführungssystem nach einem der vorhergehenden Ansprüche,
welches außerdem einen Markierungsgenerator (26) aufweist, um die
unterscheidbare Markierung zu erzeugen.
5. Kopfnachführungssystem nach Anspruch 4 in Abhängigkeit von Anspruch
3, bei welchem die Farbe der Markierung durch die Wellenfänge des Lichtes
definiert ist, das durch den Markierungsgenerator (26) erzeugt wird.
6. Kopfnachführungssystem nach Anspruch 4 oder 5, bei welchem die
Markierung zum Teil wenigstens durch Modulation des vom Markierungsgenerator
(26) erzeugten Lichtes definiert wird.
7. Kopfnachführungssystem nach einem der vorhergehenden Ansprüche, bei
welchem die Markierung ein im wesentlichen parallel gerichtetes Bild ist, dessen
Achse vorbestimmt ist und das durch den zugeordneten bekannten Punkt
hindurchläuft.
8. Kopfnachführungssystem nach einem der vorhergehenden Ansprüche, bei
welchem der erste bekannte Festpunkt und der zweite bekannte Festpunkt derart
gewählt sind, daß die Markierung innerhalb des Sichtfeldes des optischen Sensors
(10) immer dann liegt, wenn der Kopf des Benutzers in eine Richtung weist, in der
er im Betrieb allgemein gerichtet ist.
9. Kopfnachführungssystem nach Anspruch 8, bei welchem der optische
Sensor (10) dem ersten bekannten Punkt zugeordnet ist, wobei die Achse des
Sichtfeldes des Sensors (10) im wesentlichen auf die Vorwärts-Blickrichtung des
Benutzers ausgerichtet ist.
10. Kopfnachführungssystem nach den Ansprüchen 7, 8 oder 9, bei welchem
der Markierungsgenerator (26) eine Fadenkreuz-Visiervorrichtung aufweist.
11. Kopfnachführungssystem nach den Ansprüchen 7, 8 oder 9, welches bei
Benutzung in einem Flugzeug oder einem anderen Fahrzeug mit einem Blickfeld-
Darstellungsgerät dieses Blickfeld-Darstellungsgerät benutzt, um die
unterscheidbare Markierung zu erzeugen.
12. Kopfnachführungssystem nach einem der vorhergehenden Ansprüche, bei
welchem der optische Sensor (10) eine Videokamera (18) ist.
13. Kopfnachführungssystem nach einem der vorhergehenden Ansprüche,
welches wenigstens zwei bekannte Festpunkte aufweist, denen jeweils eine
unterscheidbare Markierung zugeordnet ist.
14. Kopfnachführungssystem nach einem der vorhergehenden Ansprüche, bei
welchem die Prozessormittel (14, 28) Szenendaten, die durch den optischen Sensor
(10) aufgenommen wurden, mit Daten korreliert, die für die oder jede Markierung
repräsentativ sind, um zu bestimmen, ob die oder jede Markierung innerhalb des
Sichtfeldes des optischen Sensors (10) und wo diese in diesem Sichtfeld liegt.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GBGB9917591.1A GB9917591D0 (en) | 1999-07-28 | 1999-07-28 | Head tracker system |
PCT/GB2000/002658 WO2001007995A1 (en) | 1999-07-28 | 2000-07-11 | Head tracker system |
Publications (2)
Publication Number | Publication Date |
---|---|
DE60001841D1 DE60001841D1 (de) | 2003-04-30 |
DE60001841T2 true DE60001841T2 (de) | 2003-09-25 |
Family
ID=10858001
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE60001841T Expired - Lifetime DE60001841T2 (de) | 1999-07-28 | 2000-07-11 | System zur verfolgung von kopfbewegungen |
Country Status (13)
Country | Link |
---|---|
US (1) | US6377401B1 (de) |
EP (1) | EP1203285B1 (de) |
JP (1) | JP3490706B2 (de) |
AT (1) | ATE235709T1 (de) |
AU (1) | AU5997200A (de) |
CA (1) | CA2376184C (de) |
DE (1) | DE60001841T2 (de) |
DK (1) | DK1203285T3 (de) |
ES (1) | ES2194756T3 (de) |
GB (1) | GB9917591D0 (de) |
IL (1) | IL146975A0 (de) |
WO (1) | WO2001007995A1 (de) |
ZA (1) | ZA200109938B (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102014222356A1 (de) * | 2014-11-03 | 2016-05-04 | Bayerische Motoren Werke Aktiengesellschaft | Künstlich erzeugte Magnetfelder in Fahrzeugen |
Families Citing this family (101)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE60000537T2 (de) * | 1999-03-01 | 2003-01-30 | Bae Sys Electronics Ltd | System zur verfolgung von kopfbewegungen |
IL138831A (en) * | 2000-10-03 | 2007-07-24 | Rafael Advanced Defense Sys | An information system is operated by Mabat |
US20040070729A1 (en) * | 2001-02-19 | 2004-04-15 | Peter Wiebe | Device and method for determining the viewing direction in terms of a fix reference co-ordinates system |
US6567220B2 (en) * | 2001-07-02 | 2003-05-20 | Be Intellectual Property, Inc. | Aviation crew mask with retinal scan instrument display for smoke in cockpit emergencies |
US6839041B2 (en) * | 2001-08-01 | 2005-01-04 | Thermwood Corporation | Virtual reality viewing system and method |
DE10226398B4 (de) * | 2002-06-13 | 2012-12-06 | Carl Zeiss Ag | Verfahren und Vorrichtung zum Erfassen der Lage eines Objekts im Raum |
US20040056953A1 (en) * | 2002-09-20 | 2004-03-25 | Crandall John Christopher | System and method for controlling service delivery |
US20040056957A1 (en) * | 2002-09-20 | 2004-03-25 | Crandall John Christopher | System and method for capturing images based upon subject orientation |
US20040059752A1 (en) * | 2002-09-20 | 2004-03-25 | Crandall John Christopher | System and method for wirelessly viewing restricted data |
US20040056954A1 (en) * | 2002-09-20 | 2004-03-25 | Crandall John Christopher | System and method for monitoring within a vehicle |
US7008074B1 (en) | 2002-12-10 | 2006-03-07 | Halm Gary V | Hands-free controlled light operation |
US7515156B2 (en) * | 2003-01-08 | 2009-04-07 | Hrl Laboratories, Llc | Method and apparatus for parallel speculative rendering of synthetic images |
US7482088B2 (en) * | 2003-01-31 | 2009-01-27 | 3M Innovative Properties Company | Flow field |
US7063256B2 (en) * | 2003-03-04 | 2006-06-20 | United Parcel Service Of America | Item tracking and processing systems and methods |
WO2004079546A2 (en) * | 2003-03-04 | 2004-09-16 | United Parcel Service Of America, Inc. | System for projecting a handling instruction onto a moving item or parcel |
US7872635B2 (en) * | 2003-05-15 | 2011-01-18 | Optimetrics, Inc. | Foveated display eye-tracking system and method |
BRPI0416441A (pt) * | 2003-11-26 | 2007-02-27 | Rafael Armament Dev Authority | sistema de medição de posição de capacete, conjunto de capacete com tal sistema, e método de cálculo confiável em tempo real da direção de olhar da pupila |
EP1691547A4 (de) * | 2003-12-03 | 2008-01-16 | Nikon Corp | Informationsanzeigeeinrichtung und drahtlose fernbedienung |
US20050249492A1 (en) * | 2004-05-05 | 2005-11-10 | Metcalf Anthony J | Dual camera helmet mount |
FR2870599B1 (fr) * | 2004-05-24 | 2006-08-25 | Sagem | Procede et systeme d'harmonisation de detecteurs de posture |
FR2870592B1 (fr) * | 2004-05-24 | 2006-08-25 | Sagem | Procede et systeme d'harmonisation de detecteurs de posture |
EP1944678B1 (de) | 2007-01-10 | 2018-07-18 | Harman Becker Automotive Systems GmbH | Kalibrierung von Kopf-Trackingsystemen |
US7824052B1 (en) | 2007-03-16 | 2010-11-02 | Halm Gary V | Foot controlled light operation |
JP4872768B2 (ja) * | 2007-04-10 | 2012-02-08 | 株式会社島津製作所 | ヘッドモーショントラッカ装置 |
FR2944415B1 (fr) * | 2009-04-17 | 2011-05-13 | Thales Sa | Casque comprenant une detection de position de visiere et detection de position de casque associe |
FR2945183B1 (fr) * | 2009-05-05 | 2011-05-06 | Thales Sa | Lampe de casque a commande asservie a la position de la tete |
US8362973B2 (en) * | 2009-05-19 | 2013-01-29 | Honeywell International Inc. | Systems, apparatus and fast methods for aligning images to external markers in near-to-eye display systems |
WO2011073682A1 (en) * | 2009-12-17 | 2011-06-23 | Bae Systems Plc | A method of aligning a helmet mounted display |
US8405489B1 (en) | 2010-06-28 | 2013-03-26 | Gary V. Halm | Master subservient light operation |
US20130007672A1 (en) * | 2011-06-28 | 2013-01-03 | Google Inc. | Methods and Systems for Correlating Head Movement with Items Displayed on a User Interface |
US10585472B2 (en) | 2011-08-12 | 2020-03-10 | Sony Interactive Entertainment Inc. | Wireless head mounted display with differential rendering and sound localization |
US10209771B2 (en) * | 2016-09-30 | 2019-02-19 | Sony Interactive Entertainment Inc. | Predictive RF beamforming for head mounted display |
US8917453B2 (en) | 2011-12-23 | 2014-12-23 | Microsoft Corporation | Reflective array waveguide |
US9223138B2 (en) | 2011-12-23 | 2015-12-29 | Microsoft Technology Licensing, Llc | Pixel opacity for augmented reality |
US8638498B2 (en) | 2012-01-04 | 2014-01-28 | David D. Bohn | Eyebox adjustment for interpupillary distance |
US8810600B2 (en) | 2012-01-23 | 2014-08-19 | Microsoft Corporation | Wearable display device calibration |
US9606586B2 (en) | 2012-01-23 | 2017-03-28 | Microsoft Technology Licensing, Llc | Heat transfer device |
US9726887B2 (en) | 2012-02-15 | 2017-08-08 | Microsoft Technology Licensing, Llc | Imaging structure color conversion |
US9297996B2 (en) | 2012-02-15 | 2016-03-29 | Microsoft Technology Licensing, Llc | Laser illumination scanning |
US9779643B2 (en) | 2012-02-15 | 2017-10-03 | Microsoft Technology Licensing, Llc | Imaging structure emitter configurations |
US9368546B2 (en) | 2012-02-15 | 2016-06-14 | Microsoft Technology Licensing, Llc | Imaging structure with embedded light sources |
US9578318B2 (en) | 2012-03-14 | 2017-02-21 | Microsoft Technology Licensing, Llc | Imaging structure emitter calibration |
US11068049B2 (en) | 2012-03-23 | 2021-07-20 | Microsoft Technology Licensing, Llc | Light guide display and field of view |
US10191515B2 (en) | 2012-03-28 | 2019-01-29 | Microsoft Technology Licensing, Llc | Mobile device light guide display |
US9558590B2 (en) | 2012-03-28 | 2017-01-31 | Microsoft Technology Licensing, Llc | Augmented reality light guide display |
US9717981B2 (en) | 2012-04-05 | 2017-08-01 | Microsoft Technology Licensing, Llc | Augmented reality and physical games |
US10502876B2 (en) | 2012-05-22 | 2019-12-10 | Microsoft Technology Licensing, Llc | Waveguide optics focus elements |
US8989535B2 (en) | 2012-06-04 | 2015-03-24 | Microsoft Technology Licensing, Llc | Multiple waveguide imaging structure |
US10192358B2 (en) | 2012-12-20 | 2019-01-29 | Microsoft Technology Licensing, Llc | Auto-stereoscopic augmented reality display |
IL226701A (en) * | 2013-06-03 | 2017-07-31 | Itl Optronics Ltd | Platform Composite Device Control System and Method |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US9256987B2 (en) | 2013-06-24 | 2016-02-09 | Microsoft Technology Licensing, Llc | Tracking head movement when wearing mobile device |
US9304235B2 (en) | 2014-07-30 | 2016-04-05 | Microsoft Technology Licensing, Llc | Microfabrication |
US10678412B2 (en) | 2014-07-31 | 2020-06-09 | Microsoft Technology Licensing, Llc | Dynamic joint dividers for application windows |
US10254942B2 (en) | 2014-07-31 | 2019-04-09 | Microsoft Technology Licensing, Llc | Adaptive sizing and positioning of application windows |
US10592080B2 (en) | 2014-07-31 | 2020-03-17 | Microsoft Technology Licensing, Llc | Assisted presentation of application windows |
US10019059B2 (en) | 2014-08-22 | 2018-07-10 | Sony Interactive Entertainment Inc. | Glove interface object |
US9513480B2 (en) | 2015-02-09 | 2016-12-06 | Microsoft Technology Licensing, Llc | Waveguide |
US10018844B2 (en) | 2015-02-09 | 2018-07-10 | Microsoft Technology Licensing, Llc | Wearable image display system |
US11086216B2 (en) | 2015-02-09 | 2021-08-10 | Microsoft Technology Licensing, Llc | Generating electronic components |
US9827209B2 (en) | 2015-02-09 | 2017-11-28 | Microsoft Technology Licensing, Llc | Display system |
US9423360B1 (en) | 2015-02-09 | 2016-08-23 | Microsoft Technology Licensing, Llc | Optical components |
US10317677B2 (en) | 2015-02-09 | 2019-06-11 | Microsoft Technology Licensing, Llc | Display system |
US9372347B1 (en) | 2015-02-09 | 2016-06-21 | Microsoft Technology Licensing, Llc | Display system |
US9535253B2 (en) | 2015-02-09 | 2017-01-03 | Microsoft Technology Licensing, Llc | Display system |
US9429692B1 (en) | 2015-02-09 | 2016-08-30 | Microsoft Technology Licensing, Llc | Optical components |
US10180734B2 (en) | 2015-03-05 | 2019-01-15 | Magic Leap, Inc. | Systems and methods for augmented reality |
NZ735465A (en) * | 2015-03-05 | 2021-07-30 | Magic Leap Inc | Systems and methods for augmented reality |
US10838207B2 (en) | 2015-03-05 | 2020-11-17 | Magic Leap, Inc. | Systems and methods for augmented reality |
WO2017005591A1 (en) * | 2015-07-07 | 2017-01-12 | Koninklijke Philips N.V. | Apparatus and method for motion tracking of at least a portion of a limb |
US9579046B2 (en) * | 2015-07-24 | 2017-02-28 | Albert Davydov | Method and apparatus for unambiguously determining orientation of a human head in 3D geometric modeling |
GB201516122D0 (en) | 2015-09-11 | 2015-10-28 | Bae Systems Plc | Inertial sensor data correction |
CN108604383A (zh) | 2015-12-04 | 2018-09-28 | 奇跃公司 | 重新定位***和方法 |
FR3045015B1 (fr) * | 2015-12-09 | 2017-12-22 | Thales Sa | Procede d'affichage d'un "indicateur de directeur d'attitude" dans un systeme de visualisation de tete pour aeronef |
WO2017127571A1 (en) | 2016-01-19 | 2017-07-27 | Magic Leap, Inc. | Augmented reality systems and methods utilizing reflections |
US9874931B1 (en) | 2016-02-22 | 2018-01-23 | Rockwell Collins, Inc. | Head-tracking system and method |
NZ747815A (en) | 2016-04-26 | 2023-05-26 | Magic Leap Inc | Electromagnetic tracking with augmented reality systems |
KR102626821B1 (ko) | 2016-08-02 | 2024-01-18 | 매직 립, 인코포레이티드 | 고정-거리 가상 및 증강 현실 시스템들 및 방법들 |
US9891705B1 (en) | 2016-08-25 | 2018-02-13 | Rockwell Collins, Inc. | Automatic boresighting of head-worn display |
US10445925B2 (en) * | 2016-09-30 | 2019-10-15 | Sony Interactive Entertainment Inc. | Using a portable device and a head-mounted display to view a shared virtual reality space |
CN112578911B (zh) * | 2016-12-06 | 2024-07-26 | 美国景书公司 | 跟踪头部和眼睛的运动的装置和方法 |
US10812936B2 (en) | 2017-01-23 | 2020-10-20 | Magic Leap, Inc. | Localization determination for mixed reality systems |
EP3596702A4 (de) | 2017-03-17 | 2020-07-22 | Magic Leap, Inc. | System für gemischte realität mit mehrstufiger zusammenstellung von virtuellem inhalt und verfahren zur erzeugung von virtuellem inhalt unter verwendung davon |
AU2018234921B2 (en) | 2017-03-17 | 2021-10-07 | Magic Leap, Inc. | Mixed reality system with color virtual content warping and method of generating virtual content using same |
AU2018236457B2 (en) | 2017-03-17 | 2021-04-29 | Magic Leap, Inc. | Mixed reality system with virtual content warping and method of generating virtual content using same |
US10471478B2 (en) | 2017-04-28 | 2019-11-12 | United Parcel Service Of America, Inc. | Conveyor belt assembly for identifying an asset sort location and methods of utilizing the same |
US10216265B1 (en) | 2017-08-07 | 2019-02-26 | Rockwell Collins, Inc. | System and method for hybrid optical/inertial headtracking via numerically stable Kalman filter |
WO2019095090A1 (zh) * | 2017-11-14 | 2019-05-23 | 深圳市柔宇科技有限公司 | 数据处理方法及装置 |
FR3075985B1 (fr) * | 2017-12-21 | 2019-11-15 | Thales | Procede et systeme d'harmonisation duale d'un systeme d'affichage tete haute porte pour rendre conforme l'affichage d'informations de pilotage d'un aeronef avec le monde reel exterieur |
WO2020023383A1 (en) | 2018-07-23 | 2020-01-30 | Magic Leap, Inc. | Mixed reality system with virtual content warping and method of generating virtual content using same |
CN112470464B (zh) | 2018-07-23 | 2023-11-28 | 奇跃公司 | 场顺序显示器中的场内子码时序 |
IL263430A (en) * | 2018-12-02 | 2020-06-30 | Elbit Systems Ltd | System and method for intelligent alignment of a head-mounted display |
US10390581B1 (en) * | 2019-01-29 | 2019-08-27 | Rockwell Collins, Inc. | Radio frequency head tracker |
US11099636B1 (en) | 2019-07-12 | 2021-08-24 | Rockwell Collins, Inc. | Systems and methods for interfacing with head worn display system |
US11763779B1 (en) | 2020-04-23 | 2023-09-19 | Apple Inc. | Head-mounted display systems with alignment monitoring |
US11360552B1 (en) | 2020-06-02 | 2022-06-14 | Rockwell Collins, Inc. | High assurance headtracking via structured light projection for head worn display (HWD) |
US11320650B1 (en) | 2020-06-02 | 2022-05-03 | Rockwell Collins, Inc. | High assurance head tracking system incorporating ground truth fiducials |
FR3118493B1 (fr) * | 2020-12-28 | 2023-01-13 | Thales Sa | Procede et dispositif de contrôle de determination de positionnement d'un dispositif de visualisation d'informations porte |
WO2023055324A1 (en) | 2021-09-30 | 2023-04-06 | Tusas- Turk Havacilik Ve Uzay Sanayii Anonim Sirketi | An alignment system |
US11995228B2 (en) | 2022-01-11 | 2024-05-28 | Rockwell Collins, Inc. | Head tracking system with extended kalman filter combining absolute and relative navigation |
WO2023242532A1 (en) * | 2022-06-13 | 2023-12-21 | Bae Systems Plc | A heading tracking system |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SE411400B (sv) | 1977-11-02 | 1979-12-17 | Saab Scania Ab | For foljning av ett objekt avsedd korrelationsfoljare |
US4649504A (en) | 1984-05-22 | 1987-03-10 | Cae Electronics, Ltd. | Optical position and orientation measurement techniques |
FR2583197A1 (fr) | 1985-06-07 | 1986-12-12 | Thomson Csf | Systeme de commande de positionnement d'une marque sur un ecran et application a la commande d'ordres a distance |
FR2723208B1 (fr) | 1986-06-17 | 1996-11-15 | Thomson Csf | Systeme de reperage spatial d'une direction liee a un corps mobile par rapport a une structure, utilisable notamment pour un viseur de casque |
DE69132952T2 (de) * | 1990-11-30 | 2002-07-04 | Sun Microsystems Inc | Kompakter kopfspurfolgsystem für billiges virtuelle realität system |
GB2301968B (en) | 1993-02-04 | 1997-08-13 | Gec Marconi Avionics Holdings | Helmet position measurement system |
US5416922A (en) * | 1993-02-23 | 1995-05-23 | The United States Of America As Represented By The Secretary Of The Navy | Helmet head tracking mounting device |
US6042239A (en) * | 1995-08-11 | 2000-03-28 | Liepmann; Till W. | Aircraft canopy reflection reduction |
US5742263A (en) * | 1995-12-18 | 1998-04-21 | Telxon Corporation | Head tracking system for a head mounted display system |
US6057810A (en) * | 1996-06-20 | 2000-05-02 | Immersive Technologies, Inc. | Method and apparatus for orientation sensing |
US6046712A (en) * | 1996-07-23 | 2000-04-04 | Telxon Corporation | Head mounted communication system for providing interactive visual communications with a remote system |
EP0883195A1 (de) * | 1997-06-03 | 1998-12-09 | BARR & STROUD LIMITED | Kopfnachführsystem, das eine LED mit fluoreszierender Beschichtung aufweist |
IL125558A (en) * | 1998-07-28 | 2003-06-24 | Elbit Systems Ltd | Non-adjustable helmet mounted optical systems |
-
1999
- 1999-07-28 GB GBGB9917591.1A patent/GB9917591D0/en not_active Ceased
-
2000
- 2000-07-11 DK DK00946084T patent/DK1203285T3/da active
- 2000-07-11 DE DE60001841T patent/DE60001841T2/de not_active Expired - Lifetime
- 2000-07-11 JP JP2001513024A patent/JP3490706B2/ja not_active Expired - Fee Related
- 2000-07-11 AT AT00946084T patent/ATE235709T1/de not_active IP Right Cessation
- 2000-07-11 AU AU59972/00A patent/AU5997200A/en not_active Abandoned
- 2000-07-11 CA CA002376184A patent/CA2376184C/en not_active Expired - Fee Related
- 2000-07-11 ES ES00946084T patent/ES2194756T3/es not_active Expired - Lifetime
- 2000-07-11 IL IL14697500A patent/IL146975A0/xx unknown
- 2000-07-11 US US09/622,312 patent/US6377401B1/en not_active Expired - Lifetime
- 2000-07-11 WO PCT/GB2000/002658 patent/WO2001007995A1/en active IP Right Grant
- 2000-07-11 EP EP00946084A patent/EP1203285B1/de not_active Expired - Lifetime
-
2001
- 2001-12-03 ZA ZA200109938A patent/ZA200109938B/en unknown
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102014222356A1 (de) * | 2014-11-03 | 2016-05-04 | Bayerische Motoren Werke Aktiengesellschaft | Künstlich erzeugte Magnetfelder in Fahrzeugen |
Also Published As
Publication number | Publication date |
---|---|
DE60001841D1 (de) | 2003-04-30 |
EP1203285A1 (de) | 2002-05-08 |
EP1203285B1 (de) | 2003-03-26 |
US6377401B1 (en) | 2002-04-23 |
JP2003505985A (ja) | 2003-02-12 |
ATE235709T1 (de) | 2003-04-15 |
AU5997200A (en) | 2001-02-13 |
ZA200109938B (en) | 2002-12-03 |
IL146975A0 (en) | 2002-08-14 |
WO2001007995A1 (en) | 2001-02-01 |
GB9917591D0 (en) | 1999-09-29 |
DK1203285T3 (da) | 2003-07-21 |
CA2376184C (en) | 2009-09-15 |
ES2194756T3 (es) | 2003-12-01 |
CA2376184A1 (en) | 2001-02-01 |
JP3490706B2 (ja) | 2004-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE60001841T2 (de) | System zur verfolgung von kopfbewegungen | |
DE60000537T2 (de) | System zur verfolgung von kopfbewegungen | |
DE3737972C2 (de) | ||
DE68919979T2 (de) | Überwachungsradar. | |
DE3426505C2 (de) | ||
DE2753321C2 (de) | Head-Up-Display-System | |
DE3043710C2 (de) | ||
DE102014226185B4 (de) | Verfahren und Blickrichtungserkennungssystem zum Bestimmen einer Blickrichtung einer Person, sowie Verwendung des Blickrichtungserkennungssystems in einem Kraftfahrzeug | |
WO2012152475A1 (de) | Verfahren und vorrichtung zur kalibrierung einer projektionseinrichtung eines fahrzeugs | |
DE3927851A1 (de) | System fuer die bestimmung der raeumlichen position eines sich bewegenden objekts und zum fuehren seiner bewegung | |
DE2513343A1 (de) | Anzeigesystem bei flugzeugen | |
DE102010018143A1 (de) | Verfahren zur Bestimmung von Positionsdaten eines Zielobjekts in einem Referenzsystem | |
DE19606685C2 (de) | System zur Gefechtssimulation mit einem frei operierenden Kampffahrzeug und einem quasi ortsfesten Objektsimulator | |
DE4207251C2 (de) | Feuerleitanlage für Panzer | |
DE102010010030B4 (de) | Vorrichtung zum Darstellen einer Umgebung | |
WO2019091725A1 (de) | Verfahren und anzeigegerät zum führen einer arbeitsmaschine | |
EP2927729B1 (de) | Testvorrichtung für sichtsysteme | |
EP2520895A1 (de) | Elektrooptische Feuerleiteinheit für ein Geschütz | |
DE60305345T2 (de) | Bildverarbeitungseinrichtung mit erkennung und auswahl von lichtquellen | |
DE3342338A1 (de) | Verfahren und vorrichtung fuer zielzuweisung und zielbekaempfung | |
AT16975U1 (de) | System zur Bestimmung und/oder Vorhersage einer Position und/oder einer Flugbahn von orbitalen Objekten im Weltraum | |
DE2238104A1 (de) | Elektrooptisches ortungssystem | |
EP3556088B1 (de) | Verfahren und vorrichtung zur ermittlung der schnittkanten von zwei sich überlappenden bildaufnahmen einer oberfläche | |
DE2734913C2 (de) | Vorrichtung zur Zieleinweisung für zielverfolgende Geräte | |
EP1019748B1 (de) | Opto-elektronische messeinrichtung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8327 | Change in the person/name/address of the patent owner |
Owner name: BAE SYSTEMS PLC, LONDON, GB |