-
GEBIET DER ERFINDUNG
-
Die
vorliegende Erfindung betrifft eine Navigationsvorrichtung, wobei
die Navigationsvorrichtung angeordnet ist, um an einer Anzeige Navigationsanweisungen
anzuzeigen.
-
Die
vorliegende Erfindung betrifft ferner ein Fahrzeug, das eine derartige
Navigationsvorrichtung umfasst. Darüber hinaus betrifft
die vorliegende Erfindung ein Computerprogramm und einen Datenträger.
-
STAND DER TECHNIK
-
Navigationsvorrichtungen
nach dem Stand der Technik, die auf GPS (Global Positioning System) basieren,
sind weitläufig bekannt, und ihre Verwendung als Automobilnavigationssysteme
ist weit verbreitet. Eine derartige GPS-basierte Navigationsvorrichtung
benutzt eine Rechenvorrichtung, die in funktioneller Verbindung
zu einem externen (oder internen) GPS-Empfänger dazu imstande
ist, ihre globale Position zu bestimmen. Darüber hinaus
ist die Rechenvorrichtung dazu imstande, die Route zwischen einer
Ausgangs- und einer Zieladresse zu bestimmen, die von einem Benutzer
der Rechenvorrichtung eingegeben werden können. Typischerweise
befähigt eine Software die Rechenvorrichtung zur Berechnung
einer „besten" oder „optimalen" Route zwischen
den Orten der Ausgangs- und Zieladresse aus einer Karten-Datenbank.
Eine „beste" oder „optimale" Route wird auf der
Grundlage vorbestimmter Kriterien bestimmt und muss nicht notwendigerweise die
schnellste oder kürzeste Route sein.
-
Die
Navigationsvorrichtung kann typischerweise am Armaturenbrett eines
Fahrzeugs angebracht sein, kann aber auch als Teil eines fahrzeugeigenen
Computers oder Autoradios ausgebildet sein. Die Navigationsvorrichtung
kann außerdem auch ein Hand-System, wie etwa ein PDA, (oder
ein Teil eines solchen) sein.
-
Durch
die Verwendung von Positionsinformationen, die aus dem GPS-Empfänger
stammen, kann die Rechenvorrichtung in regelmäßigen
Abständen ihre Position bestimmen und dem Benutzer die
aktuelle Position des Fahrzeugs anzeigen. Die Navigationsvorrichtung
kann ferner Speichervorrichtungen zum Speichern von Kartendaten
und eine Anzeige zum Anzeigen eines ausgewählten Abschnitts der
Kartendaten umfassen.
-
Ferner
kann sie Anleitungen geben, wie die festgelegte Route zu navigieren
ist, indem geeignete Navigationsanweisungen an der Anzeige angezeigt und/oder
als akustische Signale aus einem Lautsprecher erzeugt werden (z.
B. „In 100 m biegen Sie links ab"). Graphiken, die die
auszuführenden Aktionen darstellen (z. B. ein Pfeil, der
die voran liegende Linkskurve angibt), können in einer
Statusleiste angezeigt und auch über die betreffenden Kreuzungen/Kurven
usw. in der Karte selbst gelegt sein.
-
Es
ist bekannt, fahrzeugeigene Navigationssysteme dazu zu befähigen,
es dem Fahrer zu ermöglichen, während der Fahrt
entlang einer vom Navigationssystem berechneten Route eine Neuberechnung
der Route einzuleiten. Dies ist dann sinnvoll, wenn das Fahrzeug
auf eine Baustelle oder starken Stau stößt.
-
Es
ist ferner bekannt, den Benutzer zu befähigen, die Art
des Routenberechnungsalgorithmus, der vom Navigationssystem verwendet
wird, zu wählen, indem er beispielsweise aus einem „Normalmodus"
und einem „Schnellmodus" (der die Route in der schnellst
möglichen Zeit berechnet, aber nicht so viele alternative
Routen auslotet wie der Normalmodus) auswählt.
-
Es
ist außerdem bekannt, die Berechnung einer Route nach benutzerdefinierten
Kriterien zu ermöglichen; beispielsweise kann es sein,
dass es der Benutzer vorzieht, dass die Vorrichtung eine landschaftlich
schöne Route berechnet. Die Vorrichtungssoftware berechnet
in einem solchen Fall verschiedenen Routen und bewertet jene als
die günstigsten, die entlang ihrer Strecke am meisten Orte
von Interesse (als OvI oder auch POI für „Points
of Interest" bekannt) aufweisen, die beispielsweise mit dem Kennzeichen
landschaftlich schön versehen sind.
-
Nach
dem Stand der Technik zeigen Navigationsvorrichtungen Karten an,
die, wie die meisten Karten, die Wirklichkeit stark stilisiert oder
schematisch darstellen. Viele Menschen empfinden es als schwierig,
diese recht abstrakte Version der Wirklichkeit in etwas zu übersetzen,
das sie rasch erkennen und verstehen können. Es sind Navigationsvorrichtungen
bekannt, die eine (semi-) dreidimensionale Projektion der Karte
anzeigen, die einem Blickwinkel über und/oder hinter dem
Fahrzeug entspricht. Dies wird getan, um dem Benutzer die Interpretation
der angezeigten Kartendaten zu erleichtern, da es der visuellen
Erfassung der Welt durch den Benutzer entspricht. Trotzdem ist eine
solche (semi-) dreidimensionale perspektivische Ansicht eine stilisierte
oder schematische Darstellung, die für die Benutzer noch immer
relativ schwer zu interpretieren ist.
-
Das
Bedürfnis, Menschen in die Lage zu versetzen, den an der
Anzeige angezeigten Anweisungen einfach und rasch Folge leisten
zu können, ist aber gerade bei persönlichen Navigationssystemen, die
beispielsweise als fahrzeugeigenes Navigationssystem verwendet werden,
besonders wichtig. Es versteht sich, dass der/die Fahrer/-in eines
Fahrzeugs so wenig wie möglich Zeit dafür aufwenden sollte,
die angezeigten Kartendaten zu betrachten und zu interpretieren,
da seine oder ihre Hauptaufmerksamkeit auf der Straße und
dem Verkehr liegen soll.
-
KURZE BESCHREIBUNG DER ERFINDUNG
-
Es
ist deshalb Aufgabe der Erfindung, eine Navigationsvorrichtung bereitzustellen,
die zumindest eines der oben genannten Probleme löst und Anweisungen
für den Benutzer anzeigt, die eine einfache Interpretation
ermöglichen.
-
Um
diese Aufgabe zu lösen, stellt die Erfindung eine Navigationsvorrichtung
gemäß dem Oberbegriff bereit, die dadurch gekennzeichnet
ist, dass die Navigationsvorrichtung ferner angeordnet ist, um eine
Einspeisung von einer Kamera zu erhalten, und die Navigationsvorrichtung
angeordnet ist, um an der Anzeige eine Kombination aus einem Kamerabild aus
der Einspeisung der Kamera und den Navigationsanweisungen anzuzeigen.
-
Durch Übereinanderlegen
oder Kombinieren von Navigationsanweisungen mit einem Kamerabild wird
dem Fahrer eine benutzerfreundliche Ansicht dargestellt, die eine
einfache und rasche Interpretation ermöglicht. Der Benutzer
muss keine abstrakte Darstellung der Wirklichkeit übersetzen
und interpretieren, da das Kamerabild eine Eins-zu-eins-Darstellung
der Ansicht der Wirklichkeit ist, wie sie der Benutzer sieht. Die
Kombination der von der Kamera erhaltenen Einspeisung mit den Navigationsanweisungen
kann jede beliebige Art der Kombination sein, beispielsweise das
Legen Letzterer über die Erstere oder das gleichzeitige
Anzeigen an verschiedenen Abschnitten der Anzeige. Die Kombination
kann aber eine Kombination über die Zeit sein, d. h. das
alternierende Anzeigen der Kameraeinspeisung und der Navigationsanweisungen.
Dies kann sich nach Ablauf eines vorbestimmten zeitlichen Intervalls
(z. B. nach 5 Sekunden) oder als Resultat einer Eingabe durch den
Benutzer ändern.
-
Gemäß einer
weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung,
wobei eine Kamera einstückig mit der Navigationsvorrichtung
ausgebildet ist. Eine solche Navigationsvorrichtung benötigt
keine externe Kameraeinspeisung. Die Navigationsvorrichtung kann
beispielsweise einfach am Armaturenbrett eines Fahrzeugs angebracht sein,
sodass die Kamera ein Bild durch die Windschutzscheibe bereitstellt.
-
Gemäß einer
weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung,
wobei die Navigationsanweisungen eines oder mehrere aus Positionspfeil,
Route, Pfeil, Orten von Interesse, Straßen, Gebäuden,
Kartendaten, wie etwa Vektordaten, sind, die in mindestens einer
Speichereinheit, wie etwa einer Festplatte, einem Festwertspeicher, einem
elektronisch löschbaren, programmierbaren Festwertspeicher
und einem Direktzugriffsspeicher, gespeichert sind. Alle Arten von
Navigationsanweisungen können angezeigt werden. Es wird
angemerkt, dass diese Navigationsanweisungen auch Informationen
bereitstellen können, die für die Navigation (das
Finden einer Route) an sich nicht erforderlich sind, gegebenenfalls
aber zusätzliche Informationen für den Benutzer
bieten.
-
Gemäß einer
weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung,
die ferner angeordnet ist, um die Navigationsanweisungen über
das Kamerabild zu legen, sodass die Position der Navigationsanweisungen
in einer vorbestimmten räumlichen Beziehung zu entsprechenden Abschnitten
des Kamerabilds steht. Dadurch wird dem Benutzer ein Bild geboten,
das sehr leicht zu interpretieren ist, da alle Navigationsanweisungen
so angezeigt werden können, dass sie mit der tatsächlichen
Position des Objekts im Kamerabild übereinstimmen. Beispielsweise
kann ein Pfeil, der eine Kurve nach rechts anzeigt, so über
das Kamerabild gelegt werden, dass er mit der Kurve übereinstimmt,
die im Kamerabild zu sehen ist.
-
Gemäß einer
weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung,
wobei die Navigationsvorrichtung eine Verarbeitungseinheit, eine
Positionsbestimmungsvorrichtung und Ausrichtungssensoren umfasst,
wobei die Positionsbestimmungsvorrichtung und die Ausrichtungssensoren
angeordnet sind, um mit der Verarbeitungseinheit zu kommunizieren,
wobei die Verarbeitungseinheit angeordnet ist, um die Lesungen der
Positionsbestimmungsvorrichtung und der Ausrichtungssensoren zu
verwenden, um eine Position und eine Ausrichtung der Kamera und/oder
der Navigationsvorrichtung zu berechnen, auf deren Grundlage die
Positionen der Navigationsanweisungen an der Anzeige von der Verarbeitungseinheit
berechnet werden. Sind die exakte Position und Ausrichtung der Kamera und/oder
der Navigationsvorrichtung bekannt, so erlaubt dies ein exakteres
Legen der Navigationsanweisungen über die Kameraeinspeisung.
-
Gemäß einer
weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung,
wobei die Positionsbestimmungsvorrichtung eine geographische Position
unter Verwendung von Positionsbestimmungstechnologie, wie etwa GPS,
dem europäischen Galileo-System oder einem beliebigen anderen
globalen Navigationssatellitensystem, oder von Positionsbestimmungstechnologie,
die auf bodengestützten Signalen basiert, bestimmt.
-
Gemäß einer
weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung,
wobei die Verarbeitungseinheit die Ausrichtung der Kamera in Bezug
auf eine erste Drehachse berechnet, die in Verwendung im Wesentlichen
vertikal ist, indem die Positionen der Kamera und/oder der Navigationsvorrichtung,
die von der Positionsbestimmungsvorrichtung zu aufeinander folgenden
Zeitpunkten bestimmt werden, verglichen werden. Durch den Vergleich
der Positionen der Kamera und/oder der Navigationsvorrichtung zu
aufeinander folgenden Zeitpunkten kann die Fahrtrichtung der Kamera
und/oder der Navigationsvorrichtung berechnet werden. Ausgehend
davon können die Ausrichtung und die Änderung
der Ausrichtung der Kamera berechnet werden.
-
Gemäß einer
weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung,
wobei die Navigationsvorrichtung einen Kompass umfasst, der der
Verarbeitungseinheit Kompasslesungen bereitstellt, wobei die Verarbeitungseinheit
angeordnet ist, um auf der Grundlage der Kompasslesungen die Ausrichtung
der Kamera in Bezug auf eine erste Drehachse berechnet, die in Verwendung
im Wesentlichen vertikal ist. Ein Kompass bietet einen einfachen
und vorteilhaften Weg zur Bestimmung der Ausrichtung der Kamera.
-
Gemäß einer
weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung,
wobei die Ausrichtungssensoren Kippsensoren umfassen, um die Ausrichtung
der Kamera in Bezug auf eine zweite und eine dritte Drehachse zu
bestimmen, wobei die zweite und die dritte Drehachse in Verwendung
im Wesentlichen horizontal sind. Um die Navigationsanweisungen in
Bezug auf das Kamerabild präziser zu kombinieren oder darüber
zu legen, wird die Drehausrichtung der Kamera in Bezug auf eine zweite
und/oder dritte Richtung gemessen.
-
Gemäß einer
weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung,
wobei die Verarbeitungseinheit Mustererkennungsverfahren verwendet,
um die Navigationsanweisungen über das Kamerabild zu legen,
sodass die Position der Navigationsanweisungen in einer vordefinierten
räumlichen Beziehung zu entsprechenden Abschnitten des Kamerabilds
steht. Durch die Verwendung von Mustererkennungsverfahren können
die Navigationsanweisungen über die Kameraeinspeisung gelegt
werden und/oder mit dieser kombiniert werden, ohne die exakte Ausrichtung
der Kamera zu kennen. Die Bestimmung der Position der Navigationsanweisungen über
dem angezeigten Kamerabild kann ausschließlich unter Verwendung
von Mustererkennungsverfahren erfolgen, aber die Mustererkennungsverfahren können
auch in Kombination mit einer bestimmten Ausrichtung der Kamera
verwendet werden, um die Genauigkeit noch weiter zu steigern.
-
Gemäß einer
weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung,
wobei die Navigationsvorrichtung Kartendaten als Eingabe für
die Mustererkennungsverfahren verwendet. Die Verwendung von Kartendaten
kann die Mustererkennungsverfahren vereinfachen, da es einfacher
ist, beispielsweise eine Straße zu erkennen, wenn aus der
Karte in etwa bekannt ist, wo diese Straße liegt. Dies
macht die Mustererkennung genauer und/oder kann Berechnungszeit
einsparen.
-
Gemäß einer
weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung,
wobei die Navigationsvorrichtung angeordnet ist, um Kalibrierungskorrekturen
zu empfangen, die Kalibrierungskorrekturen zu speichern und die
Kalibrierungskorrekturen anzuwenden, wenn die Navigationsanweisungen
und das Kamerabild kombiniert werden. Dies ist insbesondere dann
von Vorteil, wenn die Navigationsanweisungen derart kombiniert werden, dass
die Navigationsanweisungen so über dem Kamerabild liegen,
dass sie eine vordefinierte räumliche Beziehung zum Kamerabild
aufweisen. Die Kalibrierungskorrekturen können verwendet
werden, um Versatzfehler aufzuheben.
-
Gemäß einer
weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung,
wobei die Navigationsvorrichtung angeordnet ist, um Kameraeinstellungen
zu empfangen oder einzulesen und die Kameraeinstellungen zu verwenden,
um die Position der Navigationsanweisungen an der Anzeige zu berechnen.
Unterschiedliche Kameraeinstellungen können zu unterschiedlichen
Kameraeinspeisungen führen. Das Versorgen der Navigationsvorrichtung
mit diesen Kameraeinstellungen steigert die Genauigkeit der Kombination
der Navigationsanweisungen mit dem Kamerabild weiter.
-
Gemäß einer
weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung,
wobei die Navigationsvorrichtung ferner angeordnet ist, um Einspeisungen
aus mehr als einer Kamera zu erhalten, und die Navigationsvorrichtung
angeordnet ist, um eine aus diesen Einspeisungen für die
Anzeige an der Anzeige auszuwählen. Die mehr als eine Kameraeinspeisung,
die verschiedene Perspektiven bereitstellen, können beispielsweise
von den Mustererkennungsverfahren dazu verwendet werden, die Qualität
der Mustererkennung unter Verwendung von Mathematik zu steigern.
Die mehr als eine Kamera können auch dazu verwendet werden,
dem Benutzer die Option zu bieten, aus verschiedenen Kamerawinkeln
wählen zu können.
-
Gemäß einer
weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung,
wobei die Kamera gegenüber elektromagnetischer Strahlung
empfindlich ist, die außerhalb des für das menschliche
Auge sichtbaren Bereichs des elektromagnetischen Spektrums liegt.
-
Gemäß einer
weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung,
wobei die Kamera eine Infrarotkamera ist. Eine solche Kamera ermöglicht
die Verwendung der Navigationsvorrichtung bei Nacht.
-
Gemäß einer
weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung,
wobei die Kamera angeordnet ist, um heran- oder herauszuzoomen.
Dies ermöglicht dem Benutzer die Einstellung des Kamerasichtfelds
nach Wunsch.
-
Gemäß einer
weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung,
wobei die Kamera angeordnet ist, um beispielsweise in Abhängigkeit
der Geschwindigkeit der Navigationsvorrichtung/des Fahrzeugs heran-
oder herauszuzoomen. Dies stellt eine Kameraeinspeisung bereit,
die automatisch an die Geschwindigkeit der Navigationsvorrichtung
angepasst ist. In Falle einer relativ hohen Geschwindigkeit der
Navigationsvorrichtung kann die Kamera somit heranzoomen, um dem
Benutzer eine bessere Voraussicht bereitzustellen.
-
Gemäß einem
weiteren Aspekt betrifft die Erfindung ein Armaturenbrett, das eine
Navigationsvorrichtung gemäß dem Obigen umfasst.
-
Gemäß einem
weiteren Aspekt betrifft die Erfindung ein Fahrzeug, das eine Navigationsvorrichtung
gemäß dem Obigen umfasst.
-
Gemäß einer
weiteren Ausführungsform betrifft die Erfindung ein Fahrzeug,
wobei das Fahrzeug einen Fahrzeugkippsensor umfasst, um die Kippstellung
des Fahrzeugs zu bestimmen, der die Lesungen der Fahrzeugkippstellung
der Navigationsvorrichtung bereitstellt. Dies ist eine vorteilhafte
Art des Messens der Kippstellung des Fahrzeugs.
-
Gemäß einem
weiteren Aspekt betrifft die Erfindung ein Computerprogramm mit
Programmcode, der umfasst:
- – Mittel
zum Anzeigen von Navigationsanweisungen an einer Anzeige,
- – Mittel zum Empfangen einer Einspeisung aus einer
Kamera, und
- – Mittel zum Anzeigen einer Kombination aus einem Kamerabild
aus der Einspeisung der Kamera und den Navigationsanweisungen über
dem Kamerabild an der Anzeige.
-
Gemäß einem
weiteren Aspekt betrifft die Erfindung einen Datenträger,
der ein Computerprogramm wie oben beschrieben umfasst.
-
KURZE BESCHREIBUNG DER ZEICHNUNGEN
-
Nun
werden ausschließlich zu Beispielzwecken Ausführungsformen
der Erfindung beschrieben, wobei auf die beiliegenden schematischen
Zeichnungen Bezug genommen wird, bei denen gleiche Bezugszeichnen
einander entsprechende Teile kennzeichnen und in denen:
-
1 ein
schematisches Blockdiagramm einer Navigationsvorrichtung schematisch
darstellt,
-
2 eine
schematische Ansicht einer Navigationsvorrichtung schematisch darstellt,
-
3 ein
schematisches Blockdiagramm einer Navigationsvorrichtung gemäß einer
Ausführungsform der Erfindung schematisch darstellt,
-
4 ein
Fahrzeug, das eine Navigationsvorrichtung gemäß einer
Ausführungsform der Erfindung umfasst, schematisch darstellt,
-
5 eine
Navigationsvorrichtung gemäß einer Ausführungsform
der Erfindung schematisch darstellt,
-
6 eine
Navigationsvorrichtung gemäß einer Ausführungsform
der Erfindung schematisch darstellt,
-
7 eine
Kamera gemäß einer Ausführungsform der
Erfindung schematisch darstellt,
-
die 8a und 8b verschiedene
Bewegungen des Kamerabilds an der Anzeige als Ergebnis verschiedener
Kippstellungen der Kamera schematisch darstellen,
-
9 ein
Flussdiagramm der Funktionsweise der Navigationsvorrichtung 10 gemäß einer
Ausführungsform der Erfindung schematisch darstellt,
-
10 eine
Navigationsvorrichtung gemäß einer Ausführungsform
der Erfindung schematisch darstellt,
-
11 eine
Navigationsvorrichtung gemäß einer Ausführungsform
der Erfindung darstellt, und
-
12 eine
Navigationsvorrichtung gemäß einer weiteren Ausführungsform
der Erfindung darstellt.
-
DETAILLIERTE BESCHREIBUNG
DER ERFINDUNG
-
1 zeigt
ein schematisches Blockdiagramm einer Ausführungsform einer
Navigationsvorrichtung 10, die eine Prozessoreinheit 11 zur
Ausführung arithmetischer Rechenoperationen umfasst. Die Prozessoreinheit 11 ist
angeordnet, um mit den Speichereinheiten zu kommunizieren, die Befehle
und Daten speichern, wie etwa eine Festplatte 12, ein Festwertspeicher
(ROM) 13, ein elektronisch löschbarer, programmierbarer
Festwertspeicher (EEPROM) 14 und ein Direktzugriffsspeicher
(RAM) 15. Die Speichereinheiten können Kartendaten 22 umfassen.
Diese Kartendaten können zweidimensionale Kartendaten (Längen-
und Breitengrad) sein, aber auch eine dritte Dimension (Höhe)
umfassen. Die Kartendaten können ferner zusätzliche
Informationen umfassen, wie etwa Informationen über Tankstellen oder
Orte von Interesse. Die Kartendaten können auch Informationen über
die Gestalt von Gebäuden und Objekten entlang der Straße
umfassen.
-
Die
Prozessoreinheit 11 kann auch angeordnet sein, um mit einer
oder mehreren Eingabevorrichtungen, wie etwa einer Tastatur 16 und
einer Maus 17, zu kommunizieren. Die Tastatur 16 kann
beispielsweise eine virtuelle Tastatur sein, die an einer Anzeige 18,
die ein Touch-Screen ist, bereitgestellt ist. Die Prozessoreinheit 11 kann
ferner angeordnet sein, um mit einer oder mehreren Ausgabevorrichtungen,
wie etwa einer Anzeige 18, einem Lautsprecher 29,
und mit einer oder mehreren Leseeinheiten 19 zum Lesen
von beispielsweise Disketten 20 oder CD-ROMS 21 zu
kommunizieren. Die Anzeige 18 kann eine herkömmliche
Computeranzeige (beispielsweise eine LCD) oder eine Projektionsanzeige sein,
wie etwa eine Anzeige vom Typ Head-Up, die zur Projizierung von
Instrumentendaten an der Windschutzscheibe eines Fahrzeugs verwendet
wird. Die Anzeige 18 kann ferner einen Anzeige sein, die
angeordnet ist, sodass sie als Touch-Screen funktioniert, der dem
Benutzer die Eingabe von Befehlen und/oder Informationen durch Berühren
der Anzeige 18 mit dem Finger ermöglicht.
-
Die
Prozessoreinheit 11 kann ferner angeordnet sein, um unter
Verwendung einer Eingabe-/Ausgabe-Vorrichtung 25 mit anderen
Rechnervorrichtungen oder Kommunikationsvorrichtungen zu kommunizieren.
Die Eingabe-/Ausgabe-Vorrichtung 25 ist als zur Einrichtung
der Kommunikation über ein Netzwerk 27 angeordnet
dargestellt.
-
Der
Lautsprecher 29 kann als Teil der Navigationsvorrichtung 10 dargestellt
sein. Für den Fall, dass die Navigationsvorrichtung 10 als
fahrzeugeigene Navigationsvorrichtung verwendet wird, kann die Navigationsvorrichtung 10 die
Lautsprecher des Autoradios, des Boardcomputers und dergleichen
verwenden.
-
Die
Prozessoreinheit 11 kann ferner angeordnet sein, um mit
einer Positionsbestimmungsvorrichtung 23, wie etwa einem
GPS-Empfänger, zu kommunizieren, der Informationen über
die Position der Navigationsvorrichtung 10 bereitstellt.
Gemäß dieser Ausführungsform ist die
Positionsbestimmungsvorrichtung 23 eine GPS-basierte Positionsbestimmungsvorrichtung 23.
Es versteht sich jedoch, dass die Navigationsvorrichtung 10 eine
beliebige Art von Positionsbestimmungstechnologie implementierten
kann und nicht auf GPS eingeschränkt ist. Sie kann beispielsweise
unter Verwendung anderer Arten eines GNSS (globalen Navigationssatellitensystems),
wie etwa des europäischen Galileo-Systems, umgesetzt sein.
Gleichermaßen ist sie nicht auf satellitengestützte
Positions-/Geschwindigkeitssysteme eingeschränkt, sondern
kann genauso unter Verwendung von bodengestützten Signalen
oder einer anderen Art System umgesetzt werden, das der Vorrichtung
die Bestimmung der eignen geographischen Position ermöglicht.
-
Es
versteht sich, dass mehr und/oder andere Speichereinheiten, Eingabevorrichtungen
und Lesevorrichtungen, die Fachleuten auf dem Gebiet der Erfindung
bekannt sind, bereitgestellt sein können. Außerdem
kann/können eine oder mehrere davon physisch entfernt von
der Prozessoreinheit 11 bereitgestellt sein, falls dies
erforderlich ist. Die Prozessoreinheit 11 ist als ein Kästchen
dargestellt, sie kann jedoch verschiedene Verarbeitungseinheiten
umfassen, die parallel funktionieren oder von einem Hauptprozessor
gesteuert und entfernt voneinander angeordnet sind, wie Fachleuten
auf dem Gebiet der Erfindung bekannt ist.
-
Die
Navigationsvorrichtung 10 ist als ein Computersystem dargestellt,
sie kann aber jedes beliebige Signalverarbeitungssystem mit analoger und/oder
digitaler und/oder Software-Technologie, das angeordnet ist, um
die hierin erörterten Funktionen auszuüben. Es
versteht sich, dass die Navigationsvorrichtung 10 als eine
einzige Vorrichtung ausgeführt sein kann, auch wenn die
Navigationsvorrichtung 10 in 1 als eine
Vielzahl von Komponenten dargestellt ist.
-
Die
Navigationsvorrichtung 10 kann Navigationssoftware verwenden,
wie etwa die Navigationssoftware von TomTom B. V., die als Navigator
bezeichnet wird. Die Navigator-Software kann auf einem PDA mit Pocket-PC-Betriebssystem
und Touch-Screen (d. h. stiftgesteuert) laufen, wie etwa dem Compaq
iPaq, aber auch auf Vorrichtung, die einen eingebauten GPS-Empfänger 23 aufweisen.
Das kombinierte PDA-/GPS-Empfänger-System ist dazu vorgesehen,
als fahrzeugeigenes Navigationssystem verwendet zu werden. Die Erfindung
kann aber in einer beliebigen anderen Anordnung einer Navigationsvorrichtung 10 umgesetzt
werden, beispielsweise in einer integrierten GPS-Empfänger-/Computer-/Anzeige-Vorrichtung
oder in ein einer Vorrichtung, die nicht für den Fahrzeuggebrauch
(z. B. für Wanderer) oder für andere Fahrzeuge
als Autos (z. B. Flugzeuge) vorgesehen ist.
-
2 zeigt
eine Navigationsvorrichtung 10, so wie sie oben beschrieben
wurde.
-
Wenn
die Navigator-Software auf der Navigationsvorrichtung 10 läuft,
veranlasst sie eine Navigationsvorrichtung 10 zum Anzeigen
eines Navigationsbildschirms im Normalmodus an der Anzeige 18, so
wie in 2 dargestellt ist. Diese Ansicht kann Fahranleitungen
unter Verwendung einer Kombination aus Text, Symbolen, Sprachanleitungen
und einer sich bewegenden Karte bereitstellten. Schlüsselelemente
der Benutzerschnittstelle sind die Folgenden: Eine 3D-Karte nimmt
fast den ganzen Bildschirm ein. Es wird angemerkt, dass die Karte
auch als 2D-Karte dargestellt sein kann.
-
Die
Karte zeigt die Position der Navigationsvorrichtung 10 und
deren unmittelbare Umgebung an, und zwar so gedreht, dass die Richtung,
in die sich die Navigationsvorrichtung 10 bewegt, immer „oben"
ist. Quer über das untere Viertel des Bildschirms kann
eine Statusleiste 2 laufen. Die aktuelle Position der Navigationsvorrichtung 10 (die
von der Navigationsvorrichtung 10 selbst unter Verwendung herkömmlicher
GPS-Positionssuche bestimmt ist) und ihre Ausrichtung (die von ihrer
Fahrtrichtung abgeleitet ist) ist durch einen Positionspfeil 3 angegeben.
Eine von der Vorrichtung berechnete Route 4 (unter Verwendung
von Berechnungsalgorithmen, die in den Speichervorrichtungen 11, 12, 13, 14, 15 gespeichert
sind, angewendet auf Kartendaten, die in einer Kartendatenbank in
den Speichervorrichtungen 11, 12, 13, 14, 15 gespeichert
sind) ist als verdunkelter Weg dargestellt. All wichtigen Aktionen
(z. B. Ecken, an denen abgebogen wird, Kreuzungen, Kreisverkehre
usw.) entlang der Route 4 sind durch die Pfeile 5,
die über die Route 4 gelegt sind, schematisch
dargestellt. Die Statusleiste 2 umfasst zudem an ihrer
linken Seite ein schematisches Icon, das die nächste Aktion 6 darstellt
(hier nach rechts abbiegen). Die Statusleiste 2 gibt auch
den Abstand bis zur nächsten Aktion an (d. h. rechts abbiegen – hier
beträgt der Abstand 50 m), wie aus einer Datenbank der
gesamten von der Vorrichtung berechneten Route (d. h. einer Liste
aller Straßen und aller damit in Zusammenhang stehenden
Aktionen, die die abzufahrende Route kennzeichnen) entnommen wird. Die
Statusleiste 2 gibt ferner den Namen der aktuell befahrenen
Straße 8, die geschätzte Zeit bis zur
Ankunft 9 (hier sind das 2 Minuten und 40 Sekunden), die
geschätzte tatsächliche Zeit der Ankunft 25 (11:36
Uhr) und die Streckenlänge bis zum Ziel 26 (1,4
km) an. Die Statusleiste 2 kann außerdem zusätzliche
Informationen, wie etwa die Stärke des GPS-Signals in Form
der Signalstärkenangabe bei Mobiltelefonen, anzeigen.
-
Wie
bereits erwähnt wurde, kann die Navigationsvorrichtung
Eingabevorrichtungen, wie etwa einen Touch-Screen, umfassen, die
dem Benutzer das Aufrufen eines Navigationsmenüs (nicht
dargestellt) ermöglichen. Ausgehend von diesem Menü können andere
Navigationsfunktionen eingeleitet oder gesteuert werden. Das Ermöglichen
des Auswählens von Navigationsfunktionen aus einem Menübildschirm,
der selbst sehr rasch aufgerufen werden kann (z. B. ist es nur ein
Schritt von der Kartenanzeige zum Menübildschirm), vereinfacht
die Benutzerinteraktion sehr stark, macht sie schneller und leichter. Das
Navigationsmenü umfasst die Option der Zieleingabe durch
den Benutzer.
-
Der
tatsächliche physische Aufbau der Navigationsvorrichtung 10 selbst
kann gegebenenfalls grundsätzlich dem eines konventionellen
Handcomputers entsprechen, bis auf den integrierten GPS-Empfänger 23 oder
einer GPS-Dateneinspeisung von einem externen GPS-Empfänger.
Die Speichervorrichtungen 12, 13, 14, 15 speichern
somit die Routenberechnungsalgorithmen, die Kartendatenbank und
die Benutzerschnittstellensoftware; eine Prozessoreinheit 11 interpretiert
und verarbeitet die Benutzereingabe (z. B. Verwendung eines Touch-Screens
zur Eingabe der Ausgangs- und Zieladressen und alle anderen Steuereingaben)
und verwendet die Routenberechnungsalgorithmen, um die optimale
Route zu berechnen. „Optimal" kann sich auf Kriterien wie
etwa die kürzeste Zeit oder die kürzeste Strecke
oder auch auf andere benutzerbezogene Faktoren beziehen.
-
Spezifischer
gibt also der Benutzer seine Ausgangsposition und das gewollte Ziel
in die Navigationssoftware, die auf der Navigationsvorrichtung 10 läuft,
ein, wobei er dazu die bereitgestellten Eingabevorrichtungen, wie
etwa einen Touch-Screen 18, eine Tatstatur 16 usw.,
verwendet. Danach wählt der Benutzer die Art der Berechnung
der Fahrtroute: Es werden verschiedene Modi angeboten, wie etwa
ein „Schnellmodus", der die Route sehr schnell berechnet,
die Route gegebenenfalls aber nicht die kürzeste ist; einen „Vollmodus",
der alle Routen prüft und die kürzeste bereitstellt,
zur Berechnung aber länger braucht, usw. Andere Optionen
sind auch möglich, sodass der Benutzer beispielsweise eine
landschaftlich schöne Route wählen kann, z. B.
jene, die an den meisten OvI (Orte von Interesse) vorbeiführt,
die als landschaftlich schön gekennzeichnet sind, oder
jene, die an den meisten OvI vorbeiführt, die für
Kinder von Interesse sein könnten, oder jene, die die wenigsten Kreuzungen
aufweist, usw.
-
Die
Straßen selbst sind in der Kartendatenbank, die Teil der
auf der Navigationsvorrichtung 10 laufenden Navigationssoftware
ist (oder auf die auf andere Weise von dieser zugegriffen wird),
als Linien, d. h. als Vektoren (z. B. Ausgangspunkt, Endpunkt, Richtung
für eine Straße, wobei eine ganze Straße
aus vielen hundert solcher Abschnitte aufgebaut ist, von denen jeder
durch Ausgangspunkt-/Endpunkt-Richtungsparameter eindeutig definiert
ist), beschrieben. Eine Karte ist somit ein Satz aus solchen Straßenvektoren,
plus den Orten von Interesse (OvI), plus den Straßennamen,
plus weiterer geographischer Merkmale, wie etwa Parkgrenzen, Flussgrenzen
usw., wobei all diese als Vektoren definiert sind. Alle Kartenmerkmale
(z. B. Straßenvektoren, OvI usw.) sind in einem Koordinatensystem
definiert, das dem GPS-Koordinatensystem entspricht oder eine Beziehung
zu diesem aufweist, sodass es ermöglicht ist, die Position
einer Vorrichtung, die von einem GPS-System bestimmt wurde, an der
betreffenden, in einer Karte dargestellten Straße geortet
werden kann.
-
Die
Routenberechnung verwendet komplexe Algorithmen, die Teil der Navigationssoftware
sind. Die Algorithmen werden angewendet, um eine große Zahl
an potentiellen, unterschiedlichen Routen auszumachen. Die Navigationssoftware
bewertet diese dann anhand der benutzerdefinierten (oder in der Vorrichtung
voreingestellten) Kriterien, wie etwa Vollmodus-Scan, landschaftlich
schöne Route, an Museen vorbeiführende Route oder
Route ohne Radarfallen. Die Route, die den definierten Kriterien
am besten entspricht, wird dann von der Prozessoreinheit 11 berechnet
und in einer Datenbank in den Speichervorrichtungen 12, 13, 14, 15 als
eine Sequenz von Vektoren, Straßennamen und Aktionen, die
an Vektor-Endpunkten auszuführen sind (z. B. entsprechend vorbestimmten
Abständen entlang einer jeden Straße der Route,
wie etwa nach 100 Metern links in die Straße X abbiegen),
gespeichert.
-
3 zeigt
ein schematisches Blockdiagramm einer Navigationsvorrichtung 10 gemäß der Erfindung,
in der entsprechende Bezugszeichen entsprechende Teile aus den 1 und 2 kennzeichnen.
-
Gemäß der
Erfindung ist eine Kamera 24 bereitgestellt, die angeordnet
ist, um eine Echtzeit-Einspeisung für die Prozessoreinheit 11 bereitzustellen. In
Verwendung ist die Kamera 24 so angeordnet, dass sie die
vor dem Benutzer liegende Straße aufzeichnet. Ist die Kamera 24 in
einem Auto angeordnet, so ist sie derart angeordnet, dass sie die
Straße vor dem Fahrzeug aufzeichnet. Die Kamera 24 kann einstückig
mit der Navigationsvorrichtung 10 ausgebildet sein oder
kann auch physisch separat von dieser vorliegen. Falls sie separat
vorliegt, kann die Kamera 24 über Kabel oder eine
drahtlose Verbindung mit der Prozessoreinheit 11 verbunden
sein. Die Kamera 24 kann am Dach des Fahrzeugs oder an
der Vorderseite des Fahrzeugs, beispielsweise in der Nähe
der Frontscheinwerfer, angeordnet sein.
-
Die
Navigationsvorrichtung 10 kann auch mit mehr als einer
Kamera 24 ausgestattet sein, um dem Benutzer das Umschalten
zwischen verschiedenen Kamerawinkeln zu ermöglichen. Auch
eine rückwärts blickende Kamera kann bereitgestellt
sein. Die Kamera kann ein beliebiger Typ Kamera sein, wie etwa eine
Digitalkamera oder eine Analogkamera. Das von der Kamera 24 aufgezeichnete
Bild wird an der Anzeige 18 angezeigt.
-
Die
Kamera 24 kann auch eine Kamera sein, die gegenüber
elektromagnetischer Strahlung empfindlich ist, die außerhalb
des für das menschliche Auge sichtbaren elektromagnetischen
Spektrums liegt. Die Kamera kann eine Infrarotkamera sein, die die
Verwendung bei Nacht ermöglicht.
-
4 zeigt
ein Beispiel für eine Navigationsvorrichtung 10,
die am Armaturenbrett eines Autos 1 angeordnet ist. Die
Navigationsvorrichtung 10 umfasst eine Kamera 24,
die auf die vor dem Auto 1 liegende Straße ausgerichtet
ist. 4 zeigt ferner, dass die Anzeige 18 zum
Benutzer hin weist.
-
Gemäß der
Erfindung ist die Navigationsvorrichtung 10 angeordnet,
um die Echtzeit-Einspeisung der Kamera an der Anzeige 18 anzuzeigen
und eine oder mehrere Navigationsanweisungen damit zu kombinieren
oder über diese zu legen. Die Navigationsanweisungen können
eines oder mehrere aus Folgenden sein: Positionspfeil 3,
Route 4, Pfeil 5, Orte von Interesse, Straßen,
Gebäude und alle anderen Navigationsanweisungen, die in
der Navigationsvorrichtung 10 gespeichert sind. Dies kann
auch die Kartendaten selbst umfassen, z. B. die Vektordaten, die
die Straßen beschreiben. Eine detaillierte Beschreibung
darüber, wie dies erzielt wird, folgt.
-
Die
von der Kamera 24 bereitgestellten Bilder werden aufgrund
der Holprigkeit der Straße, den Vibrationen des Fahrzeugs,
bewirkt durch den Motor, usw. nicht ruhig sein. Deshalb kann die
Navigationsvorrichtung 10 mit einer Software ausgestattet
sein, die diese unerwünschten Vibrationen beseitigt, um ein
ruhiges Bild bereitzustellen. Die Verwendung von Software, die unerwünschte
Vibrationen aus den von der Kamera 24 bereitgestellten
Bildern beseitigt, ist in Videokameras weit verbreitet und wird
in diesem Zusammenhang als „Steady Cam" bezeichnet. Fachleuten
auf dem Gebiet der Erfindung ist dies bekannt.
-
Die
Einspeisung aus der Kamera 24 kann weiter verarbeitet werden,
um die Bildqualität zu steigern. Diese Verarbeitung kann
eine Einstellung der Helligkeit und des Kontrasts umfassen, aber
auch ein beliebiger geeigneter Filter sein. Filter können
verwendet werden, um die Bildqualität bei regnerischen Bedingungen
zu verbessern.
-
Die
Einspeisung aus der Kamera 24 kann in Echtzeit an der Anzeige
angezeigt werden, kann aber auch als Standbild angezeigt werden,
das zu gewissen Zeitpunkten, zum Beispiel alle 0,5 Sekunden, aktualisiert
wird. Die geeigneten Zeitabstände zwischen aufeinander
folgenden Aktualisierungen können in Abhängigkeit
der Geschwindigkeit der Navigationsvorrichtung 10/des Fahrzeugs
oder der Änderung der Fahrtrichtung (Fahren von Kurven)
festgelegt werden.
-
Die
Navigationsvorrichtung kann auch angeordnet sein, um beispielsweise
in Abhängigkeit der Geschwindigkeit der Navigationsvorrichtung/des Fahrzeugs
heran- oder herauszuzoomen. Diese Zoomoperation kann durchgeführt
werden, indem ein Steuersignal an die Kamera 24 gesendet
wird, das den Befehl erteilt, eine Zoomoperation auszuführen. Die
Zoomoperation kann aber auch durch vergrößertes
Anzeigen eines Abschnitts der empfangenen Kameraeinspeisung an der
Anzeige 18 erfolgen.
-
ERSTE AUSFÜHRUNGSFORM
-
5 zeigt
ein erstes Beispiel der Erfindung. 5 zeigt
ein Standbild des von der Kamera 24 aufgenommen Bilds,
das von der Navigationsvorrichtung 10 angezeigt wird. Wie
zu erkennen ist, ist ein Pfeil 5, der eine Kurve nach rechts
angibt, von der Prozessoreinheit 11 darüber gelegt.
Gemäß dieser Ausführungsform wird dem
Benutzer ein benutzerfreundliches Bild angezeigt, das eine einfache
Interpretation zulässt. Diese Ausführungsform
weist den Vorteil auf, keine komplexe Mathematik und Datenverarbeitung
zu erfordern.
-
Anstelle
der in 5 dargestellten Navigationsanweisung können
auch andere Navigationsanweisungen so wie zuvor erwähnt
angezeigt werden, einschließlich perspektivisch geformter
Navigationsanweisungen, wie etwa Pfeile in perspektivischer Form.
-
ZWEITE AUSFÜHRUNGSFORM
-
6 zeigt
ein weiteres Standbild des von der Kamera 24 aufgezeichneten
Bilds. Gemäß diesem Beispiel legt die Navigationsvorrichtung 10 die Straße 4 und
den Pfeil 5 darüber. Die Straße 4 und der
Pfeil 5 werden so darüber gelegt, dass ihre Position
an der Anzeige 18 mit dem von der Kamera 24 bereitgestellten
Bild übereinstimmt. 6 zeigt
deutlich, dass die Straße 4 so angezeigt ist,
dass sie der an der Anzeige 18 dargestellten Straße
entspricht. Auch der Pfeil 5 ist so angezeigt, dass er
die Rechtskurve in dem von der Kamera 24 bereitgestellten
Bild präzise anzeigt.
-
Es
versteht sich, dass die in 5 dargestellte
Ausführungsform einfach durch Übereinanderlegen
oder Kombinieren des von der Kamera 24 bereitgestellten
Bilds und einer Navigationsanweisung, beispielsweise dem Pfeil 5,
erhalten werden kann. Um jedoch ein wie in 6 bereitgestelltes
Bild zu erzeugen, ist eine komplexere Datenverarbeitung nötig,
damit die von der Kamera 24 bereitgestellten Bilder mit
den Navigationsanweisungen zusammenpassen. Dies wird nachstehend
noch detaillierter erläutert.
-
Um
die Navigationsanweisungen so darüber zu legen, dass sie
in einer vordefinierten räumlichen Beziehung zu den entsprechenden
Abschnitten des Kamerabilds stehen, müssen die genaue Kameraposition,
Richtung und Kameraeinstellungen bekannt sein. Wenn alle diese Informationen
bekannt sind, berechnet die Verarbeitungseinheit 11 die
Position von beispielsweise der Straße an der Anzeige und legt
die Route 4 darüber.
-
Zunächst
muss die Position der Kamera 24 bestimmt werden. Dies kann
einfach nur durch Verwenden der GPS-Informationen erfolgen, die
von der Verarbeitungseinheit 11 und/oder der Positionsbestimmungsvorrichtung 23 bestimmt
werden. Die Positionsinformation der Navigationsvorrichtung 10 und somit
der Kamera 24 ist bereits gemäß der Verwendung
nach dem Stand der Technik in der Navigationsvorrichtung 10 verfügbar.
-
Nun
muss die Ausrichtung der Kamera 24 bestimmt werden. Die
erfolgt unter Verwendung von Ausrichtungssensoren, die angeordnet
sind, um mit der Verarbeitungseinheit 11 zu kommunizieren.
Die Ausrichtungssensoren können die Positionsbestimmungsvorrichtung 23 und
die Kippsensoren 27, 28 sein. Die Kippsensoren 27, 28 können
Gyroskope sein.
-
7 zeigt
eine Kamera 24 gemäß einer Ausführungsform
der Erfindung. Eine erste Drehrichtung muss in Bezug auf eine Achse
C bestimmt werden, wie in 7 dargestellt
ist. Auch dies kann einfach durch Verwenden der GPS-Informationen
erfolgen, die von der Verarbeitungseinheit 11 und/oder der
Positionsbestimmungsvorrichtung 23 bestimmt werden. Durch
Vergleichen der Position der Navigationsvorrichtung 10 zu
aufeinander folgenden Zeitpunkten kann die Bewegungsrichtung der
Navigationsvorrichtung 10 bestimmt werden. Diese Information
ist bereits gemäß der Verwendung nach dem Stand
der Technik in der Navigationsvorrichtung 10 verfügbar.
Es wird angenommen, dass die Kamera 24 in die Fahrtrichtung
der Navigationsvorrichtung 10 blickt. Dies ist jedoch nicht
notwendigerweise der Fall, wie nachstehend noch erläutert
wird.
-
Die
erste Drehrichtung C der Kamera 24 kann auch durch Verwenden
eines (elektronischen) Kompasses bestimmt werden, den die Navigationsvorrichtung
oder die Kamera 24 aufweist. Der Kompass kann ein elektronischer
Kompass oder ein analoger Kompass sein. Der Kompass stellt Kompasslesungen
bereit, die der Verarbeitungseinheit 11 übermittelt
werden. Auf der Grundlage der Kompasslesungen bestimmt die Verarbeitungseinheit 11 die
erste Drehrichtung der Kamera 24.
-
Zur
weiteren Bestimmung der Ausrichtung der Kamera 24 kann
die Kamera 24 mit Kippsensoren 27, 28 ausgestattet
sein, wie in 7 dargestellt ist. Die Kippsensoren 27, 28 sind
angeordnet, um die Kippstellung der Kamera 24 zu messen.
Der erste Kippsensor 27 ist angeordnet, um die Kippstellung
in einer zweiten Drehrichtung zu messen, die anhand des gebogenen
Pfeils A in 7 angezeigt ist, d. h. eine
Drehung um eine Achse, die im Wesentlichen senkrecht zur Oberfläche
der Zeichnungen steht. Die Kippstellung in der zweiten Drehrichtung
bestimmt die Höhe des Horizonts im Kamerabild, das an der Anzeige 18 angezeigt
wird. Die Auswirkung einer solchen Drehung auf das angezeigte Kamerabild
ist schematisch in 8a dargestellt.
-
Der
zweite Kippsensor 28 ist angeordnet, um die Kippstellung
als Ergebnis einer Drehung um eine dritte Drehachse zu messen, bei
der es sich um die Mittelachse der Kamera 24 handelt, wie
in 7 anhand der gepunkteten Line B dargestellt ist.
Die Auswirkung einer solchen Drehung der Kamera auf das angezeigte
Kamerabild ist schematisch in 8b dargestellt.
-
In
Verwendung ist die erste Drehasche im Wesentlichen vertikal, und
die zweite und die dritte Drehachse sind im Wesentlichen senkrecht
in Bezug auf die erste Drehachse und in Bezug aufeinander.
-
Die
Kippwerte, die von den Kippsensoren 27, 28 bestimmt
werden, werden an die Prozessoreinheit 11 weitergeleitet.
Die Kippsensoren 27 und 28 können auch
als einzelner, einstückiger Kippsensor ausgebildet sein.
-
Auch
die Kameraeinstellungen, insbesondere der Zoomfaktor der Linse der
Kamera 24, der Kamerawinkel, die Brennweite usw., können
an die Prozessoreinheit 11 übertragen werden.
-
Auf
der Grundlage der Informationen, die der Prozessoreinheit 11 zur
Beschreibung der Position, der Richtung und der Einstellungen der
Kamera 24 zur Verfügung stehen, bestimmt die Prozessoreinheit 11 die
jeweilige Position, an der die Straße, Kreuzungen, Gabelungen,
Orte von Interesse usw. in Übereinstimmung mit den in den
Speichervorrichtungen 11, 12, 13, 14, 15 gespeicherten
Kartendaten an der Anzeige 18 angezeigt werden sollen.
-
Auf
der Grundlage dieser Informationen kann die Prozessoreinheit 11 Navigationsanweisungen,
wie etwa die Route 4, den Pfeil 5, Orte von Interesse
OvI usw., über das von der Prozessoreinheit 11 angezeigte
Bild legen, sodass sie mit der Kameraansicht übereinstimmen.
Es kann nützlich sein, die Navigationsanweisungen so darüber
zu legen, dass es den Anschein hat, als würden sie über
dem Straßenbelag schweben oder eine sonstige vordefinierte räumliche
Beziehung zu diesem aufweisen.
-
Da
die Navigationsvorrichtung 10 berechnet, wie weit entfernt
jede Kreuzung oder Abbiegestelle (oder andere Richtungsänderung)
liegt, kann sie in etwa ermitteln, wie eine Navigationsanweisung,
die an der Anzeige 18 angezeigt wird, geformt sein soll und
wo sie positioniert sein soll, um mit der tatsächlichen
Stelle der Richtungsänderung, die in der Einspeisung aus
der Kamera 24 dargestellt ist, übereinzustimmen.
-
Trotzdem
können aus verschiedenen Gründen Fehler auftreten.
Erstens kann die Navigationsvorrichtung 10 auf viele verschiedene
Arten am Armaturenbrett eines Fahrzeugs angebracht werden. Beispielsweise
wird bei der Bestimmung der ersten Drehrichtung der Kamera 24 in
Bezug auf die Achse C durch Vergleich der Positionen der Navigationsvorrichtung 10 zu
aufeinander folgenden Zeitpunkten angenommen, dass die Kamera 24 gerade
nach vorne gerichtet ist. Für den Fall, dass die Kamera 24 jedoch
nicht perfekt mit dem Fahrzeug ausgerichtet ist, kann es zu einer
Fehlpassung der darüber gelegten Navigationsanweisungen
kommen.
-
Wie
oben erörtert wurde kann dann, wenn die Kamera 24 mit
einem eingebauten Kompass ausgestattet ist, die erste Drehrichtung
der Kamera in Bezug auf die Achse C durch Vergleichen der Kompasslesungen
mit der Fahrtrichtung Navigationsvorrichtung 10, die bestimmt
wurde, berechnet werden. Trotzdem kann ein Fehler vorliegen, der
zu einer Fehlpassung zwischen den darüber gelegten Navigationsanweisungen
und der Kameraeinspeisung führt.
-
Auch
die Kippsensoren 27, 28 sing gegebenenfalls nur
in der Lage, die relative Kippstellung und nicht die absolute Kippstellung
zu messen. Das bedeutet, dass die Navigationsvorrichtung 10 kalibriert werden
muss, um eine genaue Positionierung der Navigationsanweisungen über
dem Kamerabild zu ermöglichen.
-
Um
diese Fehler zu kompensieren, kann die Navigationsvorrichtung 10 mit
einer Menüoption ausgestattet sein, die es Benutzer erlaubt,
die relative Position des angezeigten Bilds in Bezug auf das angezeigte
Kamerabild einzustellen. Diese Einstellung kann von der Navigationsvorrichtung 10 durch Ändern
der Position, an der die Navigationsanweisungen angezeigt werden,
und/oder durch Ändern der Position, an der das Kamerabild
angezeigt wird, und/oder durch Ändern der Ausrichtung der
Kamera 24 vorgenommen werden. Für die letzte Option
kann die Kamera 24 mit einer Betätigungsvorrichtung
ausgestattet sein, um ihre Ausrichtung zu ändern. Die Kamera 24 kann
unabhängig von der Navigationsvorrichtung 10 betätigt
werden. Für den Fall, dass die Kamera 24 einstückig
mit der Navigationsvorrichtung 10 ausgebildet ist, kann
die Betätigungsvorrichtung gegebenenfalls die Ausrichtung
der Navigationsvorrichtung 10 oder nur der Kamera 24 in
Bezug auf die Navigationsvorrichtung 10 ändern.
-
Der
Benutzer kann einfach nur Pfeiltasten benutzen, um die Position
der Navigationsanweisungen so zu kalibrieren, dass sie zum Kamerabild
passen. Ist die Kamera 24 beispielsweise so positioniert, dass
sie um die Achse C nach links gekippt ist, wie in 7 dargestellt
ist, so liegen die Navigationsanweisungen rechts von den entsprechenden
Abschnitten im Kamerabild. Der Benutzer kann diesen Fehler einfach
korrigieren, indem er eine linke Pfeiltaste verwendet, um die Navigationsanweisungen
nach links zu ziehen. Die Navigationsvorrichtung 10 kann
ferner angeordnet sein, um dem Benutzer Optionen zu bieten, die
angezeigte Drehrichtung der darüber liegenden Navigationsanweisungen
in Bezug auf das angezeigte Kamerabild einzustellen.
-
Die
Navigationsvorrichtung kann auch angeordnet sein, um dem Benutzer
Optionen zu bieten, perspektivische Fehlpassungen zu korrigieren,
die beispielsweise durch unterschiedliche Kamerahöhen bewirkt
sind. Eine auf einem Auto angebrachte Kamera 24 stellt
eine andere Ansicht der Straße (andere perspektivische
Form) bereit als eine Kamera 24, die am Armaturenbrett
oder zwischen den Frontscheinwerfern eines Fahrzeugs angeordnet
ist. Um dafür zu sorgen, dass die Navigationsanweisungen, wie
etwa 3D-Anweisungen (z. B. ein 3D-Pfeil) oder die Vektordarstellung
der Straße, an die Kameraansicht angepasst sind, muss eine
perspektivische Umformung der Navigationsanweisungen ausgeführt werden.
Diese perspektivische Umformung hängt von der Höhe
der Kamera 24, den Kameraeinstellungen und der zweiten
Drehrichtung der Kamera 24 in die Richtung des Pfeils A,
wie in 7 dargestellt ist, ab.
-
Die
Prozessoreinheit 11 speichert diese eingegebenen Kalibrierungskorrekturen
und wendet auf alle nachfolgend angezeigten Bilder ähnliche
Kalibrierungskorrekturen an. Alle weiteren Änderungen in der
der gemessenen Position, Richtung und Ausrichtung der Kamera 24 können
von der Prozessoreinheit 11 verarbeitet werden, um kontinuierlich
ein präzises Darüberlegen der Navigationsanweisungen
sicherzustellen. Dies ermöglicht die genaue Kompensierung
von Kamerabewegungen, die durch Richtungsänderungen des
Fahrzeugs, durch Bremsschwellen, scharfe Kurven, Beschleunigung,
Bremsen usw. verursacht sind, sowie von anderen Ursachen, die die Ausrichtung
der Kamera 24 beeinflussen.
-
9 zeigt
ein Flussdiagramm, das die Funktionsweise der Navigationsvorrichtung 10 gemäß der
zweiten Ausführungsform der Erfindung zeigt. Die im Flussdiagramm
gezeigten Schritte können von der Verarbeitungseinheit 11 durchgeführt werden.
Es ist anzumerken, dass alle Schritte bezüglich der Eingabe
einer Zieladresse, der Auswahl einer Route usw. in dieser Figur
ausgelassen wurden, da diese Schritte nach dem Stand der Technik
bereits bekannt sind.
-
In
einem ersten Schritt 101 wird die Navigationsvorrichtung 10 eingeschaltet,
und der Benutzer wählt den Kameramodus aus. Dies ist in 9 durch „Start"
angegeben.
-
In
einem zweiten Schritt 102 bestimmt die Verarbeitungseinheit 11 die
Position der Navigationsvorrichtung 10. Dies erfolgt durch
die Verwendung der Eingabe der Positionsbestimmungsvorrichtung 23,
wie etwa einer GPS-Vorrichtung, wie zuvor erörtert wurde.
-
Im
nächsten Schritt 103 bestimmt die Verarbeitungseinheit 11 die
Fahrtrichtung der Navigationsvorrichtung 10. Auch hierzu
wird die Eingabe der Positionsbestimmungsvorrichtung 23 verwendet.
-
In
Schritt 104 werden nun die Ausrichtung der Kamera 24 und
die Kameraeinstellungen von der Verarbeitungseinheit 11 bestimmt.
Auch hier wird die Eingabe der Positionsbestimmungsvorrichtung 23 verwendet.
Ferner werden Eingaben der Kippsensoren 27, 28 zur
Bestimmung der Ausrichtung der Kamera 24 verwendet.
-
Gemäß Schritt 105 wird
das Kamerabild von der Verarbeitungseinheit 11 an der Anzeige 18 angezeigt.
In Schritt 106 legt die Verarbeitungseinheit 11 eine
ausgewählte Anzahl an Navigationsanweisungen (wie etwa
den Positionspfeil 3, die Route 4, Orte von Interesse,
Straßen, Kartendaten usw.) darüber. Um dies zu
tun, werden aller gesammelten Informationen dazu verwendet, die
Position und die Form der angezeigten Navigationsanweisungen zu
berechnen. Falls nötig kann der Benutzer diese Berechnung
kalibrieren, indem er die Position und/oder die Form der darüber
liegenden Navigationsanweisungen einstellt. Dieser optionale Schritt
ist anhand von Schritt 107 dargestellt.
-
Die
Schritte 102 bis 107 können während
der Verwendung so oft wie nötig oder erwünscht
wiederholt werden.
-
Zusätzlich
zu den Richtungspfeilen 5 können auch andere Arten
der virtuellen Beschilderung in den Speichervorrichtungen 12, 13, 14, 15 gespeichert
sein. Beispielsweise können Icons, die sich auf Straßennamen,
Verkehrszeichen, Geschwindigkeitsbegrenzungen, Radarfallen oder
Orte von Interesse, die in den Speichervorrichtungen 12, 13, 14, 15 gespeichert
sind, beziehen, gespeichert sein. All diese können ebenfalls über
die Einspeisung aus der Kamera 24 gelegt werden, und zwar
an einer räumlichen Position am angezeigten Kamerabild,
die dem Merkmal aus der Wirklichkeit, auf das sich die virtuelle
Beschilderung bezieht, entspricht. Die Verarbeitungseinheit 11 könnte
somit die 2D-Kartendaten der Navigationssoftware entnehmen, die
die Positionsdaten dieser Merkmale der Wirklichkeit einschließen, und
eine geometrische Transformation vornehmen, die diese dazu bringt,
korrekt positioniert zu sein, wenn sie über die Videoeinspeisung
gelegt werden.
-
Für
den Fall, dass das Fahrzeug, das eine Navigationsvorrichtung 10 trägt,
einen Hügel hinauf oder hinunter fährt, detektieren
die Kippsensoren 27, 28 eine Kippstellung in die
Richtung von Pfeil A, der in 7 dargestellt
ist. Damit die Navigationsanweisungen aber korrekt über
das Kamerabild gelegt werden, sodass die Navigationsanweisungen
mit dem Kamerabild übereinstimmen, sollte diese Kippstellung
nicht korrigiert werden. Dies kann berücksichtigt werden,
indem die Navigationsvorrichtung mit Kartendaten ausgestattet ist,
die Höheninformationen umfassen. Auf der Grundlage der
Kartenhöhendaten berechnet die Navigationsvorrichtung 10 die
Kippstellung der Kamera 24, die der Ausrichtung der Straße,
auf der das Fahrzeug fährt, entspricht. Diese vorhergesagte
Kippstellung wird mit der von den Kippsensoren 27, 28 detektierten
Kippstellung verglichen. Die Differenz zwischen der vorhergesagten
Kippstellung und der detektierten Kippstellung wird dazu verwendet,
die Position der darüber gelegten Navigationsanweisungen
einzustellen.
-
Für
den Fall, dass die Kartendaten keine Höheninformationen
umfassen, kann das Fahrzeug mit einem Fahrzeugkippsensor 30 ausgestattet
sein. Der Fahrzeugkippsensor 30 ist angeordnet, um Kippstellungslesungen
des Fahrzeugs für die Verarbeitungseinheit 11 bereitzustellen.
Diese Lesungen des Fahrzeugkippsensors 30 werden dann mit
den Lesungen der Kippsensoren 27, 28 verglichen,
und die Differenz, die durch unerwünschte Vibrationen usw.
verursacht ist, wird dazu verwendet, die Position der darüber
liegenden Navigationsanweisungen einzustellen.
-
Es
versteht sich, dass am oben dargelegten und veranschaulichten Beispiel
zahlreiche Variationen denkbar sind.
-
10 zeigt
ein Beispiel, in dem die Kartendaten auch Daten umfassen, die Objekte
entlang der Straße, wie etwa Gebäude 31,
beschreiben. Gemäß diesem Beispiel können
die Navigationsanweisungen 3, 4, 5, die über
ein Gebäude 31 gelegt sind, in gestrichelten oder
blinkenden Linien dargestellt sein. Dies ermöglicht dem
Benutzer die Visualisierung von Kartendaten, der Route 4 und
von Pfeilen 5, auf die die Sicht ansonsten durch ein Gebäude
versperrt wäre.
-
DRITTE AUSFÜHRUNGSFORM
-
Gemäß einer
dritten Ausführungsform werden die Navigationsanweisungen
mithilfe von Mustererkennungsverfahren über das Kamerabild
gelegt.
-
In
den letzten Jahren wurden auf dem Gebiet der Echtzeitanalyse von
Bildern (z. B. einer Videoeinspeisung wie jener, die von der Kamera
24 bereitgestellt
wird), um tatsächliche Objekte in der Videoeinspeisung
zu identifizieren, beträchtliche Fortschritte gemacht.
Die Literatur dazu ist recht umfassend: Es kann beispielsweise auf
das
US-Patent Nr. 5,627,915 (Princeton
Video Image Inc.) verwiesen werden, in dem ein Video einer Ansicht,
etwa eines Sportstadiums, von Mustererkennungssoftware analysiert
wird; eine Bedienungsperson gibt manuell Bereiche hohen Kontrasts
im Stadium an (z. B. die auf dem Spielfeld aufgemalten Linien; die
Ränder des Spielfelds; Werbeflächen), und die
Software baut ein geometrisches Modell des gesamten Stadiums unter
Verwendung dieser Markierungen von hohem Kontrast. Danach ist die
Software in der Lage, eine Echtzeit-Videoeinspeisung zu analysieren
und dabei nach diesen Markierungen zu suchen; anschließend
ist sie in der Lage, ein gespeichertes, computergeneriertes Bild
(z. B. ein Werbebild für eine Werbefläche) heranzuziehen und
eine geometrische Transformation auf das gespeicherte Bilds anzuwenden,
sodass es dann, wenn es an einer in Bezug auf das geometrische Modell definierten
Stelle unter Verwendung von Bildsyntheseverfahren in die Videoeinspeisung
eingeführt ist, für den Betrachter des Videos
scheint, als wäre es ein vollkommen natürlicher
Bestandteil der Ansicht.
-
Ferner
kann auf die Schrift
US 2001/0043717 an
Facet Technology verwiesen werden; diese offenbart ein System, das
Videos, die von einem sich bewegenden Fahrzeug aus aufgezeichnet
wurden, zur Erkennung von Verkehrszeichen analysieren kann.
-
Insgesamt
ist die Anwendung der Kenntnisse der Mustererkennung auf die Analyse
von Echtzeit-Videos zur Erkennung von Merkmalen in der Wirklichkeit
ein großes, gut etabliertes Gebiet.
-
In
einer Art der Umsetzung verwendet die Navigationsvorrichtung 10 Mustererkennungssoftware
zur Erkennung von Merkmalen aus der Wirklichkeit in der Videoeinspeisung
aus der Kamera 24 und zeigt die Navigationsanweisungen
(wie etwa den Pfeil 5) an der Anzeige 18 in einer
vordefinierten räumlichen Beziehung zu den Merkmalen der
Wirklichkeit, die in der Videoeinspeisung erkannt wurden, an. Beispielsweise
kann die Videoeinspeisung die Straße zeigen, auf der die
Navigationsvorrichtung 10 gerade entlang fährt,
und die Navigationsanweisungen sind diesem Fall 3D-Anweisungen (z.
B. ein 3D-Pfeil), die über die Straße gelegt sind.
Straßenkurven und andere Merkmale können graphisch
oder als Icon dargestellt werden und so angeordnet werden, dass
sie über den Merkmalen der Wirklichkeit, auf die sie sich
beziehen, liegen.
-
Die
Verarbeitungseinheit 11 kann so programmiert sein, dass
sie Merkmale mit hohem visuellen Kontrast erkennen kann, die einer
bestimmten Straße zugeordnet sind. Die Merkmale könnten
auch Fahrzeuge, die sich in eine konstante Richtung bewegen, oder
Straßenmarkierungen (z. B. Seitenmarkierungen, Mittelstreifenmarkierungen
usw.) sein.
-
Es
wird angemerkt, dass die Navigationsvorrichtung 10 so programmiert
ist, dass sie Merkmale mit hohem visuellen Kontrast erkennen kann,
die einer Straße zugeordnet sind. Die Merkmale könnten beispielsweise
Fahrzeuge, die sich in eine konstante Richtung bewegen, oder Straßenmarkierungen
sein.
-
Die
Navigationsvorrichtung 10 könnte mit einem geometrischen
Modell der voran liegenden Straße programmiert sein: Das
Modell kann simpel sein, wie etwa nur zwei Linien. Beim Modell kann
es sich nur um die Vektordaten handeln, die gespeichert sind, um
die Kartendaten zu bilden, wie oben beschrieben wurde.
-
In
Verwendung sucht die Mustererkennungssoftware dann in der Echtzeit-Videoeinspeisung,
die von der Kamera 24 bereitgestellt wird, nach visuellen Merkmalen,
die dem gespeicherten geometrischen Modell (z. B. den zwei Linien)
entsprechen. Sobald sie diese Merkmale geortet hat, hat sie die
voran liegende Straße erkannt. Dies erfordert typischerweise die
Anwendung von schnellen Translationen und Transformationen auf die
in der Videoeinspeisung erkannten Merkmale (z. B. die zwei Linien),
um ein Zusammenpassen mit dem gespeicherten Modell festzustellen;
die Translationen sind x-y-Translationen, um die erkannten Merkmale
in etwa auf das gespeicherte Modell auszurichten. Die Transformationen umfassen
perspektivische Verkürzungen, um verschiedenen Kamerahöhen
gerecht zu werden, und die relative Ausrichtung zwischen den zwei
Linien, um verschiedenen Kamerablickwinkeln und dem relativen Winkel
zwischen Kamera und Straße gerecht zu werden. Gleichermaßen
können die Transformationen verwendet werden, um das gespeicherte
Modell auf die erkannten Merkmale auszurichten und diesen entsprechend
zu formen.
-
Fachleuten
auf dem Gebiet ist klar, dass es vorteilhaft ist, wenn der Mustererkennungsalgorithmus über
die Kartendaten als Eingabe verfügt. Die Erkennung eines
Musters kann einfacher und schneller erfolgen, wenn der Algorithmus
die zu erkennenden Muster im Vorhinein kennt. Diese Kenntnis kann einfach
aus den zur Verfügung stehenden Kartendaten gewonnen werden.
-
Sobald
die Transformation bekannt ist, ist es relativ einfach, ein zuvor
gespeichertes Pfeil-Icon so zu formen, dass seine perspektivische
Darstellung, Form und Ausrichtung jener der Straße in einem
beliebigen Videobild entspricht (verschiedene Arten geometrischer
Transformationen können hiezu geeignet sein), und anschließend
unter Einsatz herkömmlicher Bildsynthese den Richtungspfeil über
die in der Anzeige dargestellte Straße zu legen. Es kann
nützlich sein, den Pfeil so darüber zu legen,
dass es aussieht, als würde er über dem Straßenbelag
schweben oder eine sonstige vordefinierte räumliche Beziehung zu
diesem aufweisen.
-
Da
die Navigationsvorrichtung 10 berechnet, wie weit jede
Kreuzung oder Abbiegestelle (oder andere Richtungsänderung)
entfernt liegt, kann sie in etwa ermitteln, wie eine Navigationsanweisung,
die an der Anzeige 18 angezeigt wird, geformt sein soll, um
mit der tatsächlichen Stelle der Richtungsänderung,
die in der Videoeinspeisung dargestellt ist, übereinzustimmen.
-
Es
versteht sich, dass die Navigationsvorrichtung 10 auch
eine Kombination der oben erörterten Ausführungsformen
verwenden kann. Beispielsweise kann die Navigationsvorrichtung Messungen der
Ausrichtung und Positionsbestimmung verwenden, um die Position der
Navigationsanweisungen an der Anzeige 18 grob zu bestimmen,
und Mustererkennungsverfahren verwenden, um die Position der Navigationsanweisungen
an der Anzeige 18 zu bestimmen.
-
Es
versteht sich, dass zahlreiche Alternativen und Variationen für
die oben angeführten Ausführungsformen denkbar
sind. Beispielsweise besteht ein anderes Merkmal darin, dass auch
Angaben von Straßennamen, Verkehrsschilder (z. B. Einbahnstraße,
Einfahrt nicht gestattet, Ausfahrtsnummern, Ortsnamen usw.), Geschwindigkeitsbegrenzungen,
Radarfallen und Orte von Interesse, die im Vorrichtungsspeicher 12, 13, 14, 15 gespeichert
sind, ebenfalls über die Videoeinspeisung gelegt werden
können, wobei die räumliche Stelle einer solchen „virtuellen Beschilderung"
in einem Videobild dem Merkmal aus der Wirklichkeit, auf das sich
die virtuelle Beschilderung bezieht, entsprechen kann. Somit könnte
eine Geschwindigkeitsbegrenzung (z. B. der Text „30 mph")
so darüber gelegt werden, dass es aussieht, als würde
sie über dem Straßenbelag oder Teil des Straßenbelags
der Straße sein, für die die Geschwindigkeitsbegrenzung
von 30 Meilen pro Stunde gilt. Ein Icon, das eine spezielle Art
von Verkehrszeichen repräsentiert, könnte so über
den Videostream gelegt werden, dass es an jener Stelle zutage tritt,
an der auch in Wirklichkeit sinnvollerweise ein Zeichen angeordnet
wäre.
-
Andere
Arten virtueller Beschilderung, zusätzlich zu den Richtungspfeilen 5,
können ebenfalls in den Speichervorrichtungen 12, 13, 14, 15 gespeichert
sein. Beispielsweise können Icons, die sich auf Straßennamen,
Verkehrsschilder, Geschwindigkeitsbegrenzungen, Radarfallen, Bushaltestellen,
Museen, Hausnummern oder Orte von Interesse beziehen, in den Speichervorrichtungen 12, 13, 14, 15 gespeichert
sein. All diese können ebenfalls über die Videoeinspeisung
gelegt werden, und zwar an einer räumlichen Stelle im angezeigten
Video, die dem Merkmal der Wirklichkeit entspricht, auf die sich
die virtuelle Beschilderung bezieht. Somit könnte die Software
die 2D-Kartendaten aus der Navigationssoftware entnehmen, die die
Positionsdaten dieser Merkmale der Wirklichkeit einschließen,
und eine geometrische Transformation vornehmen, die diese dazu bringt,
korrekt positioniert zu sein, wenn sie über die Videoeinspeisung
gelegt werden.
-
Gemäß einer
weiteren Alternative können die Mustererkennungsverfahren
auch ausgerichtet sein, um Objekte auf der Straße, wie
etwa ein anderes Fahrzeug oder einen LKW, zu erkennen. Wird ein solches
Objekt erkannt, so kann die angezeigte Route 4 als gepunktete
Linie dargestellt werden, wie in 11 gezeigt
ist. Dies stellt ein Bild bereit, das für einen Benutzer
einfacher zu interpretieren ist.
-
VIERTE AUSFÜHRUNGSFORM
-
Gemäß einer
vierten Ausführungsform werden die Einspeisung aus der
Kamera 24 und die Navigationsanweisungen, wie etwa Positionspfeil 3, Route 4,
Pfeil 5, Orte von Interesse (OvI), Straßen, Gebäude,
Kartendaten, z. B. Vektordaten, nicht übereinander gelegt,
sondern auf kombinierte Weise an der Anzeige 18 angezeigt.
-
Diese
Kombination kann durch Unterteilen der Anzeige in einen ersten Abschnitt
und einen zweiten Abschnitt erzielt werden, wobei der erste Abschnitt
die Kameraeinspeisung und der zweite Abschnitt die Navigationsanweisungen
anzeigt. Die Kombination kann aber auch über die Zeit erfolgen, d.
h. die Navigationsvorrichtung kann angeordnet sein, um nacheinander
abwechselnd die Kameraeinspeisung und die Navigationsanweisungen
anzuzeigen. Dies kann erzielt werden, indem die Kameraeinspeisung
für einen ersten Zeitraum (z. B. 2 Sekunden) angezeigt
wird, und anschließend die Navigationsanweisungen für
einen zweiten Zeitraum (z. B. 2 Sekunden) angezeigt werden. Die
Navigationsvorrichtung kann dem Benutzer aber auch die Option bieten,
nach Wunsch zwischen der Kameraeinspeisung und den Navigationsanweisungen
hin und her zu schalten.
-
Natürlich
können auch mehr als eine Kamera verwendet werden. Dem
Benutzer kann die Option geboten werden, von einer ersten Kameraeinspeisung
auf eine zweite Kameraeinspeisung umzuschalten. Der Benutzer kann
gegebenenfalls auch wählen, dass mehr als eine Kameraeinspeisung
an der Anzeige 18 gleichzeitig angezeigt werden.
-
Gemäß einer
weiteren Alternative kann der Benutzer heran- oder herauszoomen.
Beim Herauszoomen wird schrittweise mehr der Umgebung der Navigationsvorrichtung 10 an
der Anzeige angezeigt. Es versteht sich, dass der Benutzer beispielsweise eine
Helikopteransicht wählen kann, wie in 2 gezeigt
ist, einschließlich der Position der Navigationsvorrichtung 10.
Eine solche Ansicht bietet ein Bild der Navigationsvorrichtung 10 (oder
des Fahrzeugs) von hinten. Natürlich kann eine solche Ansicht
nicht von der Kamera bereitgestellt werden, die schließlich
an der Navigationsvorrichtung 10 oder am Fahrzeug angebracht
ist. Deshalb kann die Navigationsvorrichtung 10 gegebenenfalls
ein Bild anzeigen, wie in 12 dargestellt
ist, in dem nur ein Teil des Bilds das Kamerablickfeld ist, umgeben
von Kartendaten und Navigationsanweisungen.
-
Obwohl
verschiedene Ausführungsformen der Erfindung oben beschrieben
wurden, versteht es sich, dass die Erfindung auch auf andere Weise
als die oben beschriebene in die Praxis umgesetzt werden kann. Beispielsweise
kann die Erfindung die Form eines Computerprogramms annehmen, das eine
oder mehrere Sequenzen von maschinenlesbaren Befehlen enthält,
die ein Verfahren so wie oben offenbart beschreiben, oder in Form
eines Datenspeichermediums (z. B. Halbleiterspeicher, magnetische oder
optische Platte) umgesetzt werden, auf dem ein solches Computerprogramm
gespeichert ist. Es versteht sich für Fachleute auf dem
Gebiet der Erfindung, dass jede der Softwarekomponenten auch als Hardwarekomponente
ausgestaltet werden kann.
-
Die
obige Beschreibung dient der Veranschaulichung und nicht der Einschränkung.
Es ist für Fachleute auf dem Gebiet der Erfindung offensichtlich,
dass an der Erfindung Modifikationen vorgenommen werden können,
ohne den Umfang der nachstehend dargelegten Ansprüche zu
verlassen.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste
der vom Anmelder aufgeführten Dokumente wurde automatisiert
erzeugt und ist ausschließlich zur besseren Information
des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen
Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt
keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- - US 5627915 [0113]
- - US 2001/0043717 [0114]