DE202005021607U1 - Navigationsvorrichtung mit Kamerainformation - Google Patents

Navigationsvorrichtung mit Kamerainformation Download PDF

Info

Publication number
DE202005021607U1
DE202005021607U1 DE202005021607U DE202005021607U DE202005021607U1 DE 202005021607 U1 DE202005021607 U1 DE 202005021607U1 DE 202005021607 U DE202005021607 U DE 202005021607U DE 202005021607 U DE202005021607 U DE 202005021607U DE 202005021607 U1 DE202005021607 U1 DE 202005021607U1
Authority
DE
Germany
Prior art keywords
navigation device
camera
navigation
instructions
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202005021607U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TomTom International BV
Original Assignee
TomTom International BV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TomTom International BV filed Critical TomTom International BV
Priority to DE202005021607U priority Critical patent/DE202005021607U1/de
Publication of DE202005021607U1 publication Critical patent/DE202005021607U1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)
  • Camera Data Copying Or Recording (AREA)
  • Traffic Control Systems (AREA)

Abstract

Navigationsvorrichtung (10), wobei die Navigationsvorrichtung (10) angeordnet ist, um an einer Anzeige (18) Navigationsanweisungen (3, 4, 5) anzuzeigen, dadurch gekennzeichnet, dass die Navigationsvorrichtung (10) ferner angeordnet ist, um eine Einspeisung von einer Kamera (24) zu erhalten, und die Navigationsvorrichtung (10) angeordnet ist, um an der Anzeige (18) eine Kombination aus einem Kamerabild aus der Einspeisung der Kamera (24) und den Navigationsanweisungen (3, 4, 5) anzuzeigen.

Description

  • GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung betrifft eine Navigationsvorrichtung, wobei die Navigationsvorrichtung angeordnet ist, um an einer Anzeige Navigationsanweisungen anzuzeigen.
  • Die vorliegende Erfindung betrifft ferner ein Fahrzeug, das eine derartige Navigationsvorrichtung umfasst. Darüber hinaus betrifft die vorliegende Erfindung ein Computerprogramm und einen Datenträger.
  • STAND DER TECHNIK
  • Navigationsvorrichtungen nach dem Stand der Technik, die auf GPS (Global Positioning System) basieren, sind weitläufig bekannt, und ihre Verwendung als Automobilnavigationssysteme ist weit verbreitet. Eine derartige GPS-basierte Navigationsvorrichtung benutzt eine Rechenvorrichtung, die in funktioneller Verbindung zu einem externen (oder internen) GPS-Empfänger dazu imstande ist, ihre globale Position zu bestimmen. Darüber hinaus ist die Rechenvorrichtung dazu imstande, die Route zwischen einer Ausgangs- und einer Zieladresse zu bestimmen, die von einem Benutzer der Rechenvorrichtung eingegeben werden können. Typischerweise befähigt eine Software die Rechenvorrichtung zur Berechnung einer „besten" oder „optimalen" Route zwischen den Orten der Ausgangs- und Zieladresse aus einer Karten-Datenbank. Eine „beste" oder „optimale" Route wird auf der Grundlage vorbestimmter Kriterien bestimmt und muss nicht notwendigerweise die schnellste oder kürzeste Route sein.
  • Die Navigationsvorrichtung kann typischerweise am Armaturenbrett eines Fahrzeugs angebracht sein, kann aber auch als Teil eines fahrzeugeigenen Computers oder Autoradios ausgebildet sein. Die Navigationsvorrichtung kann außerdem auch ein Hand-System, wie etwa ein PDA, (oder ein Teil eines solchen) sein.
  • Durch die Verwendung von Positionsinformationen, die aus dem GPS-Empfänger stammen, kann die Rechenvorrichtung in regelmäßigen Abständen ihre Position bestimmen und dem Benutzer die aktuelle Position des Fahrzeugs anzeigen. Die Navigationsvorrichtung kann ferner Speichervorrichtungen zum Speichern von Kartendaten und eine Anzeige zum Anzeigen eines ausgewählten Abschnitts der Kartendaten umfassen.
  • Ferner kann sie Anleitungen geben, wie die festgelegte Route zu navigieren ist, indem geeignete Navigationsanweisungen an der Anzeige angezeigt und/oder als akustische Signale aus einem Lautsprecher erzeugt werden (z. B. „In 100 m biegen Sie links ab"). Graphiken, die die auszuführenden Aktionen darstellen (z. B. ein Pfeil, der die voran liegende Linkskurve angibt), können in einer Statusleiste angezeigt und auch über die betreffenden Kreuzungen/Kurven usw. in der Karte selbst gelegt sein.
  • Es ist bekannt, fahrzeugeigene Navigationssysteme dazu zu befähigen, es dem Fahrer zu ermöglichen, während der Fahrt entlang einer vom Navigationssystem berechneten Route eine Neuberechnung der Route einzuleiten. Dies ist dann sinnvoll, wenn das Fahrzeug auf eine Baustelle oder starken Stau stößt.
  • Es ist ferner bekannt, den Benutzer zu befähigen, die Art des Routenberechnungsalgorithmus, der vom Navigationssystem verwendet wird, zu wählen, indem er beispielsweise aus einem „Normalmodus" und einem „Schnellmodus" (der die Route in der schnellst möglichen Zeit berechnet, aber nicht so viele alternative Routen auslotet wie der Normalmodus) auswählt.
  • Es ist außerdem bekannt, die Berechnung einer Route nach benutzerdefinierten Kriterien zu ermöglichen; beispielsweise kann es sein, dass es der Benutzer vorzieht, dass die Vorrichtung eine landschaftlich schöne Route berechnet. Die Vorrichtungssoftware berechnet in einem solchen Fall verschiedenen Routen und bewertet jene als die günstigsten, die entlang ihrer Strecke am meisten Orte von Interesse (als OvI oder auch POI für „Points of Interest" bekannt) aufweisen, die beispielsweise mit dem Kennzeichen landschaftlich schön versehen sind.
  • Nach dem Stand der Technik zeigen Navigationsvorrichtungen Karten an, die, wie die meisten Karten, die Wirklichkeit stark stilisiert oder schematisch darstellen. Viele Menschen empfinden es als schwierig, diese recht abstrakte Version der Wirklichkeit in etwas zu übersetzen, das sie rasch erkennen und verstehen können. Es sind Navigationsvorrichtungen bekannt, die eine (semi-) dreidimensionale Projektion der Karte anzeigen, die einem Blickwinkel über und/oder hinter dem Fahrzeug entspricht. Dies wird getan, um dem Benutzer die Interpretation der angezeigten Kartendaten zu erleichtern, da es der visuellen Erfassung der Welt durch den Benutzer entspricht. Trotzdem ist eine solche (semi-) dreidimensionale perspektivische Ansicht eine stilisierte oder schematische Darstellung, die für die Benutzer noch immer relativ schwer zu interpretieren ist.
  • Das Bedürfnis, Menschen in die Lage zu versetzen, den an der Anzeige angezeigten Anweisungen einfach und rasch Folge leisten zu können, ist aber gerade bei persönlichen Navigationssystemen, die beispielsweise als fahrzeugeigenes Navigationssystem verwendet werden, besonders wichtig. Es versteht sich, dass der/die Fahrer/-in eines Fahrzeugs so wenig wie möglich Zeit dafür aufwenden sollte, die angezeigten Kartendaten zu betrachten und zu interpretieren, da seine oder ihre Hauptaufmerksamkeit auf der Straße und dem Verkehr liegen soll.
  • KURZE BESCHREIBUNG DER ERFINDUNG
  • Es ist deshalb Aufgabe der Erfindung, eine Navigationsvorrichtung bereitzustellen, die zumindest eines der oben genannten Probleme löst und Anweisungen für den Benutzer anzeigt, die eine einfache Interpretation ermöglichen.
  • Um diese Aufgabe zu lösen, stellt die Erfindung eine Navigationsvorrichtung gemäß dem Oberbegriff bereit, die dadurch gekennzeichnet ist, dass die Navigationsvorrichtung ferner angeordnet ist, um eine Einspeisung von einer Kamera zu erhalten, und die Navigationsvorrichtung angeordnet ist, um an der Anzeige eine Kombination aus einem Kamerabild aus der Einspeisung der Kamera und den Navigationsanweisungen anzuzeigen.
  • Durch Übereinanderlegen oder Kombinieren von Navigationsanweisungen mit einem Kamerabild wird dem Fahrer eine benutzerfreundliche Ansicht dargestellt, die eine einfache und rasche Interpretation ermöglicht. Der Benutzer muss keine abstrakte Darstellung der Wirklichkeit übersetzen und interpretieren, da das Kamerabild eine Eins-zu-eins-Darstellung der Ansicht der Wirklichkeit ist, wie sie der Benutzer sieht. Die Kombination der von der Kamera erhaltenen Einspeisung mit den Navigationsanweisungen kann jede beliebige Art der Kombination sein, beispielsweise das Legen Letzterer über die Erstere oder das gleichzeitige Anzeigen an verschiedenen Abschnitten der Anzeige. Die Kombination kann aber eine Kombination über die Zeit sein, d. h. das alternierende Anzeigen der Kameraeinspeisung und der Navigationsanweisungen. Dies kann sich nach Ablauf eines vorbestimmten zeitlichen Intervalls (z. B. nach 5 Sekunden) oder als Resultat einer Eingabe durch den Benutzer ändern.
  • Gemäß einer weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung, wobei eine Kamera einstückig mit der Navigationsvorrichtung ausgebildet ist. Eine solche Navigationsvorrichtung benötigt keine externe Kameraeinspeisung. Die Navigationsvorrichtung kann beispielsweise einfach am Armaturenbrett eines Fahrzeugs angebracht sein, sodass die Kamera ein Bild durch die Windschutzscheibe bereitstellt.
  • Gemäß einer weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung, wobei die Navigationsanweisungen eines oder mehrere aus Positionspfeil, Route, Pfeil, Orten von Interesse, Straßen, Gebäuden, Kartendaten, wie etwa Vektordaten, sind, die in mindestens einer Speichereinheit, wie etwa einer Festplatte, einem Festwertspeicher, einem elektronisch löschbaren, programmierbaren Festwertspeicher und einem Direktzugriffsspeicher, gespeichert sind. Alle Arten von Navigationsanweisungen können angezeigt werden. Es wird angemerkt, dass diese Navigationsanweisungen auch Informationen bereitstellen können, die für die Navigation (das Finden einer Route) an sich nicht erforderlich sind, gegebenenfalls aber zusätzliche Informationen für den Benutzer bieten.
  • Gemäß einer weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung, die ferner angeordnet ist, um die Navigationsanweisungen über das Kamerabild zu legen, sodass die Position der Navigationsanweisungen in einer vorbestimmten räumlichen Beziehung zu entsprechenden Abschnitten des Kamerabilds steht. Dadurch wird dem Benutzer ein Bild geboten, das sehr leicht zu interpretieren ist, da alle Navigationsanweisungen so angezeigt werden können, dass sie mit der tatsächlichen Position des Objekts im Kamerabild übereinstimmen. Beispielsweise kann ein Pfeil, der eine Kurve nach rechts anzeigt, so über das Kamerabild gelegt werden, dass er mit der Kurve übereinstimmt, die im Kamerabild zu sehen ist.
  • Gemäß einer weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung, wobei die Navigationsvorrichtung eine Verarbeitungseinheit, eine Positionsbestimmungsvorrichtung und Ausrichtungssensoren umfasst, wobei die Positionsbestimmungsvorrichtung und die Ausrichtungssensoren angeordnet sind, um mit der Verarbeitungseinheit zu kommunizieren, wobei die Verarbeitungseinheit angeordnet ist, um die Lesungen der Positionsbestimmungsvorrichtung und der Ausrichtungssensoren zu verwenden, um eine Position und eine Ausrichtung der Kamera und/oder der Navigationsvorrichtung zu berechnen, auf deren Grundlage die Positionen der Navigationsanweisungen an der Anzeige von der Verarbeitungseinheit berechnet werden. Sind die exakte Position und Ausrichtung der Kamera und/oder der Navigationsvorrichtung bekannt, so erlaubt dies ein exakteres Legen der Navigationsanweisungen über die Kameraeinspeisung.
  • Gemäß einer weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung, wobei die Positionsbestimmungsvorrichtung eine geographische Position unter Verwendung von Positionsbestimmungstechnologie, wie etwa GPS, dem europäischen Galileo-System oder einem beliebigen anderen globalen Navigationssatellitensystem, oder von Positionsbestimmungstechnologie, die auf bodengestützten Signalen basiert, bestimmt.
  • Gemäß einer weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung, wobei die Verarbeitungseinheit die Ausrichtung der Kamera in Bezug auf eine erste Drehachse berechnet, die in Verwendung im Wesentlichen vertikal ist, indem die Positionen der Kamera und/oder der Navigationsvorrichtung, die von der Positionsbestimmungsvorrichtung zu aufeinander folgenden Zeitpunkten bestimmt werden, verglichen werden. Durch den Vergleich der Positionen der Kamera und/oder der Navigationsvorrichtung zu aufeinander folgenden Zeitpunkten kann die Fahrtrichtung der Kamera und/oder der Navigationsvorrichtung berechnet werden. Ausgehend davon können die Ausrichtung und die Änderung der Ausrichtung der Kamera berechnet werden.
  • Gemäß einer weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung, wobei die Navigationsvorrichtung einen Kompass umfasst, der der Verarbeitungseinheit Kompasslesungen bereitstellt, wobei die Verarbeitungseinheit angeordnet ist, um auf der Grundlage der Kompasslesungen die Ausrichtung der Kamera in Bezug auf eine erste Drehachse berechnet, die in Verwendung im Wesentlichen vertikal ist. Ein Kompass bietet einen einfachen und vorteilhaften Weg zur Bestimmung der Ausrichtung der Kamera.
  • Gemäß einer weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung, wobei die Ausrichtungssensoren Kippsensoren umfassen, um die Ausrichtung der Kamera in Bezug auf eine zweite und eine dritte Drehachse zu bestimmen, wobei die zweite und die dritte Drehachse in Verwendung im Wesentlichen horizontal sind. Um die Navigationsanweisungen in Bezug auf das Kamerabild präziser zu kombinieren oder darüber zu legen, wird die Drehausrichtung der Kamera in Bezug auf eine zweite und/oder dritte Richtung gemessen.
  • Gemäß einer weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung, wobei die Verarbeitungseinheit Mustererkennungsverfahren verwendet, um die Navigationsanweisungen über das Kamerabild zu legen, sodass die Position der Navigationsanweisungen in einer vordefinierten räumlichen Beziehung zu entsprechenden Abschnitten des Kamerabilds steht. Durch die Verwendung von Mustererkennungsverfahren können die Navigationsanweisungen über die Kameraeinspeisung gelegt werden und/oder mit dieser kombiniert werden, ohne die exakte Ausrichtung der Kamera zu kennen. Die Bestimmung der Position der Navigationsanweisungen über dem angezeigten Kamerabild kann ausschließlich unter Verwendung von Mustererkennungsverfahren erfolgen, aber die Mustererkennungsverfahren können auch in Kombination mit einer bestimmten Ausrichtung der Kamera verwendet werden, um die Genauigkeit noch weiter zu steigern.
  • Gemäß einer weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung, wobei die Navigationsvorrichtung Kartendaten als Eingabe für die Mustererkennungsverfahren verwendet. Die Verwendung von Kartendaten kann die Mustererkennungsverfahren vereinfachen, da es einfacher ist, beispielsweise eine Straße zu erkennen, wenn aus der Karte in etwa bekannt ist, wo diese Straße liegt. Dies macht die Mustererkennung genauer und/oder kann Berechnungszeit einsparen.
  • Gemäß einer weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung, wobei die Navigationsvorrichtung angeordnet ist, um Kalibrierungskorrekturen zu empfangen, die Kalibrierungskorrekturen zu speichern und die Kalibrierungskorrekturen anzuwenden, wenn die Navigationsanweisungen und das Kamerabild kombiniert werden. Dies ist insbesondere dann von Vorteil, wenn die Navigationsanweisungen derart kombiniert werden, dass die Navigationsanweisungen so über dem Kamerabild liegen, dass sie eine vordefinierte räumliche Beziehung zum Kamerabild aufweisen. Die Kalibrierungskorrekturen können verwendet werden, um Versatzfehler aufzuheben.
  • Gemäß einer weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung, wobei die Navigationsvorrichtung angeordnet ist, um Kameraeinstellungen zu empfangen oder einzulesen und die Kameraeinstellungen zu verwenden, um die Position der Navigationsanweisungen an der Anzeige zu berechnen. Unterschiedliche Kameraeinstellungen können zu unterschiedlichen Kameraeinspeisungen führen. Das Versorgen der Navigationsvorrichtung mit diesen Kameraeinstellungen steigert die Genauigkeit der Kombination der Navigationsanweisungen mit dem Kamerabild weiter.
  • Gemäß einer weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung, wobei die Navigationsvorrichtung ferner angeordnet ist, um Einspeisungen aus mehr als einer Kamera zu erhalten, und die Navigationsvorrichtung angeordnet ist, um eine aus diesen Einspeisungen für die Anzeige an der Anzeige auszuwählen. Die mehr als eine Kameraeinspeisung, die verschiedene Perspektiven bereitstellen, können beispielsweise von den Mustererkennungsverfahren dazu verwendet werden, die Qualität der Mustererkennung unter Verwendung von Mathematik zu steigern. Die mehr als eine Kamera können auch dazu verwendet werden, dem Benutzer die Option zu bieten, aus verschiedenen Kamerawinkeln wählen zu können.
  • Gemäß einer weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung, wobei die Kamera gegenüber elektromagnetischer Strahlung empfindlich ist, die außerhalb des für das menschliche Auge sichtbaren Bereichs des elektromagnetischen Spektrums liegt.
  • Gemäß einer weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung, wobei die Kamera eine Infrarotkamera ist. Eine solche Kamera ermöglicht die Verwendung der Navigationsvorrichtung bei Nacht.
  • Gemäß einer weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung, wobei die Kamera angeordnet ist, um heran- oder herauszuzoomen. Dies ermöglicht dem Benutzer die Einstellung des Kamerasichtfelds nach Wunsch.
  • Gemäß einer weiteren Ausführungsform betrifft die Erfindung eine Navigationsvorrichtung, wobei die Kamera angeordnet ist, um beispielsweise in Abhängigkeit der Geschwindigkeit der Navigationsvorrichtung/des Fahrzeugs heran- oder herauszuzoomen. Dies stellt eine Kameraeinspeisung bereit, die automatisch an die Geschwindigkeit der Navigationsvorrichtung angepasst ist. In Falle einer relativ hohen Geschwindigkeit der Navigationsvorrichtung kann die Kamera somit heranzoomen, um dem Benutzer eine bessere Voraussicht bereitzustellen.
  • Gemäß einem weiteren Aspekt betrifft die Erfindung ein Armaturenbrett, das eine Navigationsvorrichtung gemäß dem Obigen umfasst.
  • Gemäß einem weiteren Aspekt betrifft die Erfindung ein Fahrzeug, das eine Navigationsvorrichtung gemäß dem Obigen umfasst.
  • Gemäß einer weiteren Ausführungsform betrifft die Erfindung ein Fahrzeug, wobei das Fahrzeug einen Fahrzeugkippsensor umfasst, um die Kippstellung des Fahrzeugs zu bestimmen, der die Lesungen der Fahrzeugkippstellung der Navigationsvorrichtung bereitstellt. Dies ist eine vorteilhafte Art des Messens der Kippstellung des Fahrzeugs.
  • Gemäß einem weiteren Aspekt betrifft die Erfindung ein Computerprogramm mit Programmcode, der umfasst:
    • – Mittel zum Anzeigen von Navigationsanweisungen an einer Anzeige,
    • – Mittel zum Empfangen einer Einspeisung aus einer Kamera, und
    • – Mittel zum Anzeigen einer Kombination aus einem Kamerabild aus der Einspeisung der Kamera und den Navigationsanweisungen über dem Kamerabild an der Anzeige.
  • Gemäß einem weiteren Aspekt betrifft die Erfindung einen Datenträger, der ein Computerprogramm wie oben beschrieben umfasst.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Nun werden ausschließlich zu Beispielzwecken Ausführungsformen der Erfindung beschrieben, wobei auf die beiliegenden schematischen Zeichnungen Bezug genommen wird, bei denen gleiche Bezugszeichnen einander entsprechende Teile kennzeichnen und in denen:
  • 1 ein schematisches Blockdiagramm einer Navigationsvorrichtung schematisch darstellt,
  • 2 eine schematische Ansicht einer Navigationsvorrichtung schematisch darstellt,
  • 3 ein schematisches Blockdiagramm einer Navigationsvorrichtung gemäß einer Ausführungsform der Erfindung schematisch darstellt,
  • 4 ein Fahrzeug, das eine Navigationsvorrichtung gemäß einer Ausführungsform der Erfindung umfasst, schematisch darstellt,
  • 5 eine Navigationsvorrichtung gemäß einer Ausführungsform der Erfindung schematisch darstellt,
  • 6 eine Navigationsvorrichtung gemäß einer Ausführungsform der Erfindung schematisch darstellt,
  • 7 eine Kamera gemäß einer Ausführungsform der Erfindung schematisch darstellt,
  • die 8a und 8b verschiedene Bewegungen des Kamerabilds an der Anzeige als Ergebnis verschiedener Kippstellungen der Kamera schematisch darstellen,
  • 9 ein Flussdiagramm der Funktionsweise der Navigationsvorrichtung 10 gemäß einer Ausführungsform der Erfindung schematisch darstellt,
  • 10 eine Navigationsvorrichtung gemäß einer Ausführungsform der Erfindung schematisch darstellt,
  • 11 eine Navigationsvorrichtung gemäß einer Ausführungsform der Erfindung darstellt, und
  • 12 eine Navigationsvorrichtung gemäß einer weiteren Ausführungsform der Erfindung darstellt.
  • DETAILLIERTE BESCHREIBUNG DER ERFINDUNG
  • 1 zeigt ein schematisches Blockdiagramm einer Ausführungsform einer Navigationsvorrichtung 10, die eine Prozessoreinheit 11 zur Ausführung arithmetischer Rechenoperationen umfasst. Die Prozessoreinheit 11 ist angeordnet, um mit den Speichereinheiten zu kommunizieren, die Befehle und Daten speichern, wie etwa eine Festplatte 12, ein Festwertspeicher (ROM) 13, ein elektronisch löschbarer, programmierbarer Festwertspeicher (EEPROM) 14 und ein Direktzugriffsspeicher (RAM) 15. Die Speichereinheiten können Kartendaten 22 umfassen. Diese Kartendaten können zweidimensionale Kartendaten (Längen- und Breitengrad) sein, aber auch eine dritte Dimension (Höhe) umfassen. Die Kartendaten können ferner zusätzliche Informationen umfassen, wie etwa Informationen über Tankstellen oder Orte von Interesse. Die Kartendaten können auch Informationen über die Gestalt von Gebäuden und Objekten entlang der Straße umfassen.
  • Die Prozessoreinheit 11 kann auch angeordnet sein, um mit einer oder mehreren Eingabevorrichtungen, wie etwa einer Tastatur 16 und einer Maus 17, zu kommunizieren. Die Tastatur 16 kann beispielsweise eine virtuelle Tastatur sein, die an einer Anzeige 18, die ein Touch-Screen ist, bereitgestellt ist. Die Prozessoreinheit 11 kann ferner angeordnet sein, um mit einer oder mehreren Ausgabevorrichtungen, wie etwa einer Anzeige 18, einem Lautsprecher 29, und mit einer oder mehreren Leseeinheiten 19 zum Lesen von beispielsweise Disketten 20 oder CD-ROMS 21 zu kommunizieren. Die Anzeige 18 kann eine herkömmliche Computeranzeige (beispielsweise eine LCD) oder eine Projektionsanzeige sein, wie etwa eine Anzeige vom Typ Head-Up, die zur Projizierung von Instrumentendaten an der Windschutzscheibe eines Fahrzeugs verwendet wird. Die Anzeige 18 kann ferner einen Anzeige sein, die angeordnet ist, sodass sie als Touch-Screen funktioniert, der dem Benutzer die Eingabe von Befehlen und/oder Informationen durch Berühren der Anzeige 18 mit dem Finger ermöglicht.
  • Die Prozessoreinheit 11 kann ferner angeordnet sein, um unter Verwendung einer Eingabe-/Ausgabe-Vorrichtung 25 mit anderen Rechnervorrichtungen oder Kommunikationsvorrichtungen zu kommunizieren. Die Eingabe-/Ausgabe-Vorrichtung 25 ist als zur Einrichtung der Kommunikation über ein Netzwerk 27 angeordnet dargestellt.
  • Der Lautsprecher 29 kann als Teil der Navigationsvorrichtung 10 dargestellt sein. Für den Fall, dass die Navigationsvorrichtung 10 als fahrzeugeigene Navigationsvorrichtung verwendet wird, kann die Navigationsvorrichtung 10 die Lautsprecher des Autoradios, des Boardcomputers und dergleichen verwenden.
  • Die Prozessoreinheit 11 kann ferner angeordnet sein, um mit einer Positionsbestimmungsvorrichtung 23, wie etwa einem GPS-Empfänger, zu kommunizieren, der Informationen über die Position der Navigationsvorrichtung 10 bereitstellt. Gemäß dieser Ausführungsform ist die Positionsbestimmungsvorrichtung 23 eine GPS-basierte Positionsbestimmungsvorrichtung 23. Es versteht sich jedoch, dass die Navigationsvorrichtung 10 eine beliebige Art von Positionsbestimmungstechnologie implementierten kann und nicht auf GPS eingeschränkt ist. Sie kann beispielsweise unter Verwendung anderer Arten eines GNSS (globalen Navigationssatellitensystems), wie etwa des europäischen Galileo-Systems, umgesetzt sein. Gleichermaßen ist sie nicht auf satellitengestützte Positions-/Geschwindigkeitssysteme eingeschränkt, sondern kann genauso unter Verwendung von bodengestützten Signalen oder einer anderen Art System umgesetzt werden, das der Vorrichtung die Bestimmung der eignen geographischen Position ermöglicht.
  • Es versteht sich, dass mehr und/oder andere Speichereinheiten, Eingabevorrichtungen und Lesevorrichtungen, die Fachleuten auf dem Gebiet der Erfindung bekannt sind, bereitgestellt sein können. Außerdem kann/können eine oder mehrere davon physisch entfernt von der Prozessoreinheit 11 bereitgestellt sein, falls dies erforderlich ist. Die Prozessoreinheit 11 ist als ein Kästchen dargestellt, sie kann jedoch verschiedene Verarbeitungseinheiten umfassen, die parallel funktionieren oder von einem Hauptprozessor gesteuert und entfernt voneinander angeordnet sind, wie Fachleuten auf dem Gebiet der Erfindung bekannt ist.
  • Die Navigationsvorrichtung 10 ist als ein Computersystem dargestellt, sie kann aber jedes beliebige Signalverarbeitungssystem mit analoger und/oder digitaler und/oder Software-Technologie, das angeordnet ist, um die hierin erörterten Funktionen auszuüben. Es versteht sich, dass die Navigationsvorrichtung 10 als eine einzige Vorrichtung ausgeführt sein kann, auch wenn die Navigationsvorrichtung 10 in 1 als eine Vielzahl von Komponenten dargestellt ist.
  • Die Navigationsvorrichtung 10 kann Navigationssoftware verwenden, wie etwa die Navigationssoftware von TomTom B. V., die als Navigator bezeichnet wird. Die Navigator-Software kann auf einem PDA mit Pocket-PC-Betriebssystem und Touch-Screen (d. h. stiftgesteuert) laufen, wie etwa dem Compaq iPaq, aber auch auf Vorrichtung, die einen eingebauten GPS-Empfänger 23 aufweisen. Das kombinierte PDA-/GPS-Empfänger-System ist dazu vorgesehen, als fahrzeugeigenes Navigationssystem verwendet zu werden. Die Erfindung kann aber in einer beliebigen anderen Anordnung einer Navigationsvorrichtung 10 umgesetzt werden, beispielsweise in einer integrierten GPS-Empfänger-/Computer-/Anzeige-Vorrichtung oder in ein einer Vorrichtung, die nicht für den Fahrzeuggebrauch (z. B. für Wanderer) oder für andere Fahrzeuge als Autos (z. B. Flugzeuge) vorgesehen ist.
  • 2 zeigt eine Navigationsvorrichtung 10, so wie sie oben beschrieben wurde.
  • Wenn die Navigator-Software auf der Navigationsvorrichtung 10 läuft, veranlasst sie eine Navigationsvorrichtung 10 zum Anzeigen eines Navigationsbildschirms im Normalmodus an der Anzeige 18, so wie in 2 dargestellt ist. Diese Ansicht kann Fahranleitungen unter Verwendung einer Kombination aus Text, Symbolen, Sprachanleitungen und einer sich bewegenden Karte bereitstellten. Schlüsselelemente der Benutzerschnittstelle sind die Folgenden: Eine 3D-Karte nimmt fast den ganzen Bildschirm ein. Es wird angemerkt, dass die Karte auch als 2D-Karte dargestellt sein kann.
  • Die Karte zeigt die Position der Navigationsvorrichtung 10 und deren unmittelbare Umgebung an, und zwar so gedreht, dass die Richtung, in die sich die Navigationsvorrichtung 10 bewegt, immer „oben" ist. Quer über das untere Viertel des Bildschirms kann eine Statusleiste 2 laufen. Die aktuelle Position der Navigationsvorrichtung 10 (die von der Navigationsvorrichtung 10 selbst unter Verwendung herkömmlicher GPS-Positionssuche bestimmt ist) und ihre Ausrichtung (die von ihrer Fahrtrichtung abgeleitet ist) ist durch einen Positionspfeil 3 angegeben. Eine von der Vorrichtung berechnete Route 4 (unter Verwendung von Berechnungsalgorithmen, die in den Speichervorrichtungen 11, 12, 13, 14, 15 gespeichert sind, angewendet auf Kartendaten, die in einer Kartendatenbank in den Speichervorrichtungen 11, 12, 13, 14, 15 gespeichert sind) ist als verdunkelter Weg dargestellt. All wichtigen Aktionen (z. B. Ecken, an denen abgebogen wird, Kreuzungen, Kreisverkehre usw.) entlang der Route 4 sind durch die Pfeile 5, die über die Route 4 gelegt sind, schematisch dargestellt. Die Statusleiste 2 umfasst zudem an ihrer linken Seite ein schematisches Icon, das die nächste Aktion 6 darstellt (hier nach rechts abbiegen). Die Statusleiste 2 gibt auch den Abstand bis zur nächsten Aktion an (d. h. rechts abbiegen – hier beträgt der Abstand 50 m), wie aus einer Datenbank der gesamten von der Vorrichtung berechneten Route (d. h. einer Liste aller Straßen und aller damit in Zusammenhang stehenden Aktionen, die die abzufahrende Route kennzeichnen) entnommen wird. Die Statusleiste 2 gibt ferner den Namen der aktuell befahrenen Straße 8, die geschätzte Zeit bis zur Ankunft 9 (hier sind das 2 Minuten und 40 Sekunden), die geschätzte tatsächliche Zeit der Ankunft 25 (11:36 Uhr) und die Streckenlänge bis zum Ziel 26 (1,4 km) an. Die Statusleiste 2 kann außerdem zusätzliche Informationen, wie etwa die Stärke des GPS-Signals in Form der Signalstärkenangabe bei Mobiltelefonen, anzeigen.
  • Wie bereits erwähnt wurde, kann die Navigationsvorrichtung Eingabevorrichtungen, wie etwa einen Touch-Screen, umfassen, die dem Benutzer das Aufrufen eines Navigationsmenüs (nicht dargestellt) ermöglichen. Ausgehend von diesem Menü können andere Navigationsfunktionen eingeleitet oder gesteuert werden. Das Ermöglichen des Auswählens von Navigationsfunktionen aus einem Menübildschirm, der selbst sehr rasch aufgerufen werden kann (z. B. ist es nur ein Schritt von der Kartenanzeige zum Menübildschirm), vereinfacht die Benutzerinteraktion sehr stark, macht sie schneller und leichter. Das Navigationsmenü umfasst die Option der Zieleingabe durch den Benutzer.
  • Der tatsächliche physische Aufbau der Navigationsvorrichtung 10 selbst kann gegebenenfalls grundsätzlich dem eines konventionellen Handcomputers entsprechen, bis auf den integrierten GPS-Empfänger 23 oder einer GPS-Dateneinspeisung von einem externen GPS-Empfänger. Die Speichervorrichtungen 12, 13, 14, 15 speichern somit die Routenberechnungsalgorithmen, die Kartendatenbank und die Benutzerschnittstellensoftware; eine Prozessoreinheit 11 interpretiert und verarbeitet die Benutzereingabe (z. B. Verwendung eines Touch-Screens zur Eingabe der Ausgangs- und Zieladressen und alle anderen Steuereingaben) und verwendet die Routenberechnungsalgorithmen, um die optimale Route zu berechnen. „Optimal" kann sich auf Kriterien wie etwa die kürzeste Zeit oder die kürzeste Strecke oder auch auf andere benutzerbezogene Faktoren beziehen.
  • Spezifischer gibt also der Benutzer seine Ausgangsposition und das gewollte Ziel in die Navigationssoftware, die auf der Navigationsvorrichtung 10 läuft, ein, wobei er dazu die bereitgestellten Eingabevorrichtungen, wie etwa einen Touch-Screen 18, eine Tatstatur 16 usw., verwendet. Danach wählt der Benutzer die Art der Berechnung der Fahrtroute: Es werden verschiedene Modi angeboten, wie etwa ein „Schnellmodus", der die Route sehr schnell berechnet, die Route gegebenenfalls aber nicht die kürzeste ist; einen „Vollmodus", der alle Routen prüft und die kürzeste bereitstellt, zur Berechnung aber länger braucht, usw. Andere Optionen sind auch möglich, sodass der Benutzer beispielsweise eine landschaftlich schöne Route wählen kann, z. B. jene, die an den meisten OvI (Orte von Interesse) vorbeiführt, die als landschaftlich schön gekennzeichnet sind, oder jene, die an den meisten OvI vorbeiführt, die für Kinder von Interesse sein könnten, oder jene, die die wenigsten Kreuzungen aufweist, usw.
  • Die Straßen selbst sind in der Kartendatenbank, die Teil der auf der Navigationsvorrichtung 10 laufenden Navigationssoftware ist (oder auf die auf andere Weise von dieser zugegriffen wird), als Linien, d. h. als Vektoren (z. B. Ausgangspunkt, Endpunkt, Richtung für eine Straße, wobei eine ganze Straße aus vielen hundert solcher Abschnitte aufgebaut ist, von denen jeder durch Ausgangspunkt-/Endpunkt-Richtungsparameter eindeutig definiert ist), beschrieben. Eine Karte ist somit ein Satz aus solchen Straßenvektoren, plus den Orten von Interesse (OvI), plus den Straßennamen, plus weiterer geographischer Merkmale, wie etwa Parkgrenzen, Flussgrenzen usw., wobei all diese als Vektoren definiert sind. Alle Kartenmerkmale (z. B. Straßenvektoren, OvI usw.) sind in einem Koordinatensystem definiert, das dem GPS-Koordinatensystem entspricht oder eine Beziehung zu diesem aufweist, sodass es ermöglicht ist, die Position einer Vorrichtung, die von einem GPS-System bestimmt wurde, an der betreffenden, in einer Karte dargestellten Straße geortet werden kann.
  • Die Routenberechnung verwendet komplexe Algorithmen, die Teil der Navigationssoftware sind. Die Algorithmen werden angewendet, um eine große Zahl an potentiellen, unterschiedlichen Routen auszumachen. Die Navigationssoftware bewertet diese dann anhand der benutzerdefinierten (oder in der Vorrichtung voreingestellten) Kriterien, wie etwa Vollmodus-Scan, landschaftlich schöne Route, an Museen vorbeiführende Route oder Route ohne Radarfallen. Die Route, die den definierten Kriterien am besten entspricht, wird dann von der Prozessoreinheit 11 berechnet und in einer Datenbank in den Speichervorrichtungen 12, 13, 14, 15 als eine Sequenz von Vektoren, Straßennamen und Aktionen, die an Vektor-Endpunkten auszuführen sind (z. B. entsprechend vorbestimmten Abständen entlang einer jeden Straße der Route, wie etwa nach 100 Metern links in die Straße X abbiegen), gespeichert.
  • 3 zeigt ein schematisches Blockdiagramm einer Navigationsvorrichtung 10 gemäß der Erfindung, in der entsprechende Bezugszeichen entsprechende Teile aus den 1 und 2 kennzeichnen.
  • Gemäß der Erfindung ist eine Kamera 24 bereitgestellt, die angeordnet ist, um eine Echtzeit-Einspeisung für die Prozessoreinheit 11 bereitzustellen. In Verwendung ist die Kamera 24 so angeordnet, dass sie die vor dem Benutzer liegende Straße aufzeichnet. Ist die Kamera 24 in einem Auto angeordnet, so ist sie derart angeordnet, dass sie die Straße vor dem Fahrzeug aufzeichnet. Die Kamera 24 kann einstückig mit der Navigationsvorrichtung 10 ausgebildet sein oder kann auch physisch separat von dieser vorliegen. Falls sie separat vorliegt, kann die Kamera 24 über Kabel oder eine drahtlose Verbindung mit der Prozessoreinheit 11 verbunden sein. Die Kamera 24 kann am Dach des Fahrzeugs oder an der Vorderseite des Fahrzeugs, beispielsweise in der Nähe der Frontscheinwerfer, angeordnet sein.
  • Die Navigationsvorrichtung 10 kann auch mit mehr als einer Kamera 24 ausgestattet sein, um dem Benutzer das Umschalten zwischen verschiedenen Kamerawinkeln zu ermöglichen. Auch eine rückwärts blickende Kamera kann bereitgestellt sein. Die Kamera kann ein beliebiger Typ Kamera sein, wie etwa eine Digitalkamera oder eine Analogkamera. Das von der Kamera 24 aufgezeichnete Bild wird an der Anzeige 18 angezeigt.
  • Die Kamera 24 kann auch eine Kamera sein, die gegenüber elektromagnetischer Strahlung empfindlich ist, die außerhalb des für das menschliche Auge sichtbaren elektromagnetischen Spektrums liegt. Die Kamera kann eine Infrarotkamera sein, die die Verwendung bei Nacht ermöglicht.
  • 4 zeigt ein Beispiel für eine Navigationsvorrichtung 10, die am Armaturenbrett eines Autos 1 angeordnet ist. Die Navigationsvorrichtung 10 umfasst eine Kamera 24, die auf die vor dem Auto 1 liegende Straße ausgerichtet ist. 4 zeigt ferner, dass die Anzeige 18 zum Benutzer hin weist.
  • Gemäß der Erfindung ist die Navigationsvorrichtung 10 angeordnet, um die Echtzeit-Einspeisung der Kamera an der Anzeige 18 anzuzeigen und eine oder mehrere Navigationsanweisungen damit zu kombinieren oder über diese zu legen. Die Navigationsanweisungen können eines oder mehrere aus Folgenden sein: Positionspfeil 3, Route 4, Pfeil 5, Orte von Interesse, Straßen, Gebäude und alle anderen Navigationsanweisungen, die in der Navigationsvorrichtung 10 gespeichert sind. Dies kann auch die Kartendaten selbst umfassen, z. B. die Vektordaten, die die Straßen beschreiben. Eine detaillierte Beschreibung darüber, wie dies erzielt wird, folgt.
  • Die von der Kamera 24 bereitgestellten Bilder werden aufgrund der Holprigkeit der Straße, den Vibrationen des Fahrzeugs, bewirkt durch den Motor, usw. nicht ruhig sein. Deshalb kann die Navigationsvorrichtung 10 mit einer Software ausgestattet sein, die diese unerwünschten Vibrationen beseitigt, um ein ruhiges Bild bereitzustellen. Die Verwendung von Software, die unerwünschte Vibrationen aus den von der Kamera 24 bereitgestellten Bildern beseitigt, ist in Videokameras weit verbreitet und wird in diesem Zusammenhang als „Steady Cam" bezeichnet. Fachleuten auf dem Gebiet der Erfindung ist dies bekannt.
  • Die Einspeisung aus der Kamera 24 kann weiter verarbeitet werden, um die Bildqualität zu steigern. Diese Verarbeitung kann eine Einstellung der Helligkeit und des Kontrasts umfassen, aber auch ein beliebiger geeigneter Filter sein. Filter können verwendet werden, um die Bildqualität bei regnerischen Bedingungen zu verbessern.
  • Die Einspeisung aus der Kamera 24 kann in Echtzeit an der Anzeige angezeigt werden, kann aber auch als Standbild angezeigt werden, das zu gewissen Zeitpunkten, zum Beispiel alle 0,5 Sekunden, aktualisiert wird. Die geeigneten Zeitabstände zwischen aufeinander folgenden Aktualisierungen können in Abhängigkeit der Geschwindigkeit der Navigationsvorrichtung 10/des Fahrzeugs oder der Änderung der Fahrtrichtung (Fahren von Kurven) festgelegt werden.
  • Die Navigationsvorrichtung kann auch angeordnet sein, um beispielsweise in Abhängigkeit der Geschwindigkeit der Navigationsvorrichtung/des Fahrzeugs heran- oder herauszuzoomen. Diese Zoomoperation kann durchgeführt werden, indem ein Steuersignal an die Kamera 24 gesendet wird, das den Befehl erteilt, eine Zoomoperation auszuführen. Die Zoomoperation kann aber auch durch vergrößertes Anzeigen eines Abschnitts der empfangenen Kameraeinspeisung an der Anzeige 18 erfolgen.
  • ERSTE AUSFÜHRUNGSFORM
  • 5 zeigt ein erstes Beispiel der Erfindung. 5 zeigt ein Standbild des von der Kamera 24 aufgenommen Bilds, das von der Navigationsvorrichtung 10 angezeigt wird. Wie zu erkennen ist, ist ein Pfeil 5, der eine Kurve nach rechts angibt, von der Prozessoreinheit 11 darüber gelegt. Gemäß dieser Ausführungsform wird dem Benutzer ein benutzerfreundliches Bild angezeigt, das eine einfache Interpretation zulässt. Diese Ausführungsform weist den Vorteil auf, keine komplexe Mathematik und Datenverarbeitung zu erfordern.
  • Anstelle der in 5 dargestellten Navigationsanweisung können auch andere Navigationsanweisungen so wie zuvor erwähnt angezeigt werden, einschließlich perspektivisch geformter Navigationsanweisungen, wie etwa Pfeile in perspektivischer Form.
  • ZWEITE AUSFÜHRUNGSFORM
  • 6 zeigt ein weiteres Standbild des von der Kamera 24 aufgezeichneten Bilds. Gemäß diesem Beispiel legt die Navigationsvorrichtung 10 die Straße 4 und den Pfeil 5 darüber. Die Straße 4 und der Pfeil 5 werden so darüber gelegt, dass ihre Position an der Anzeige 18 mit dem von der Kamera 24 bereitgestellten Bild übereinstimmt. 6 zeigt deutlich, dass die Straße 4 so angezeigt ist, dass sie der an der Anzeige 18 dargestellten Straße entspricht. Auch der Pfeil 5 ist so angezeigt, dass er die Rechtskurve in dem von der Kamera 24 bereitgestellten Bild präzise anzeigt.
  • Es versteht sich, dass die in 5 dargestellte Ausführungsform einfach durch Übereinanderlegen oder Kombinieren des von der Kamera 24 bereitgestellten Bilds und einer Navigationsanweisung, beispielsweise dem Pfeil 5, erhalten werden kann. Um jedoch ein wie in 6 bereitgestelltes Bild zu erzeugen, ist eine komplexere Datenverarbeitung nötig, damit die von der Kamera 24 bereitgestellten Bilder mit den Navigationsanweisungen zusammenpassen. Dies wird nachstehend noch detaillierter erläutert.
  • Um die Navigationsanweisungen so darüber zu legen, dass sie in einer vordefinierten räumlichen Beziehung zu den entsprechenden Abschnitten des Kamerabilds stehen, müssen die genaue Kameraposition, Richtung und Kameraeinstellungen bekannt sein. Wenn alle diese Informationen bekannt sind, berechnet die Verarbeitungseinheit 11 die Position von beispielsweise der Straße an der Anzeige und legt die Route 4 darüber.
  • Zunächst muss die Position der Kamera 24 bestimmt werden. Dies kann einfach nur durch Verwenden der GPS-Informationen erfolgen, die von der Verarbeitungseinheit 11 und/oder der Positionsbestimmungsvorrichtung 23 bestimmt werden. Die Positionsinformation der Navigationsvorrichtung 10 und somit der Kamera 24 ist bereits gemäß der Verwendung nach dem Stand der Technik in der Navigationsvorrichtung 10 verfügbar.
  • Nun muss die Ausrichtung der Kamera 24 bestimmt werden. Die erfolgt unter Verwendung von Ausrichtungssensoren, die angeordnet sind, um mit der Verarbeitungseinheit 11 zu kommunizieren. Die Ausrichtungssensoren können die Positionsbestimmungsvorrichtung 23 und die Kippsensoren 27, 28 sein. Die Kippsensoren 27, 28 können Gyroskope sein.
  • 7 zeigt eine Kamera 24 gemäß einer Ausführungsform der Erfindung. Eine erste Drehrichtung muss in Bezug auf eine Achse C bestimmt werden, wie in 7 dargestellt ist. Auch dies kann einfach durch Verwenden der GPS-Informationen erfolgen, die von der Verarbeitungseinheit 11 und/oder der Positionsbestimmungsvorrichtung 23 bestimmt werden. Durch Vergleichen der Position der Navigationsvorrichtung 10 zu aufeinander folgenden Zeitpunkten kann die Bewegungsrichtung der Navigationsvorrichtung 10 bestimmt werden. Diese Information ist bereits gemäß der Verwendung nach dem Stand der Technik in der Navigationsvorrichtung 10 verfügbar. Es wird angenommen, dass die Kamera 24 in die Fahrtrichtung der Navigationsvorrichtung 10 blickt. Dies ist jedoch nicht notwendigerweise der Fall, wie nachstehend noch erläutert wird.
  • Die erste Drehrichtung C der Kamera 24 kann auch durch Verwenden eines (elektronischen) Kompasses bestimmt werden, den die Navigationsvorrichtung oder die Kamera 24 aufweist. Der Kompass kann ein elektronischer Kompass oder ein analoger Kompass sein. Der Kompass stellt Kompasslesungen bereit, die der Verarbeitungseinheit 11 übermittelt werden. Auf der Grundlage der Kompasslesungen bestimmt die Verarbeitungseinheit 11 die erste Drehrichtung der Kamera 24.
  • Zur weiteren Bestimmung der Ausrichtung der Kamera 24 kann die Kamera 24 mit Kippsensoren 27, 28 ausgestattet sein, wie in 7 dargestellt ist. Die Kippsensoren 27, 28 sind angeordnet, um die Kippstellung der Kamera 24 zu messen. Der erste Kippsensor 27 ist angeordnet, um die Kippstellung in einer zweiten Drehrichtung zu messen, die anhand des gebogenen Pfeils A in 7 angezeigt ist, d. h. eine Drehung um eine Achse, die im Wesentlichen senkrecht zur Oberfläche der Zeichnungen steht. Die Kippstellung in der zweiten Drehrichtung bestimmt die Höhe des Horizonts im Kamerabild, das an der Anzeige 18 angezeigt wird. Die Auswirkung einer solchen Drehung auf das angezeigte Kamerabild ist schematisch in 8a dargestellt.
  • Der zweite Kippsensor 28 ist angeordnet, um die Kippstellung als Ergebnis einer Drehung um eine dritte Drehachse zu messen, bei der es sich um die Mittelachse der Kamera 24 handelt, wie in 7 anhand der gepunkteten Line B dargestellt ist. Die Auswirkung einer solchen Drehung der Kamera auf das angezeigte Kamerabild ist schematisch in 8b dargestellt.
  • In Verwendung ist die erste Drehasche im Wesentlichen vertikal, und die zweite und die dritte Drehachse sind im Wesentlichen senkrecht in Bezug auf die erste Drehachse und in Bezug aufeinander.
  • Die Kippwerte, die von den Kippsensoren 27, 28 bestimmt werden, werden an die Prozessoreinheit 11 weitergeleitet. Die Kippsensoren 27 und 28 können auch als einzelner, einstückiger Kippsensor ausgebildet sein.
  • Auch die Kameraeinstellungen, insbesondere der Zoomfaktor der Linse der Kamera 24, der Kamerawinkel, die Brennweite usw., können an die Prozessoreinheit 11 übertragen werden.
  • Auf der Grundlage der Informationen, die der Prozessoreinheit 11 zur Beschreibung der Position, der Richtung und der Einstellungen der Kamera 24 zur Verfügung stehen, bestimmt die Prozessoreinheit 11 die jeweilige Position, an der die Straße, Kreuzungen, Gabelungen, Orte von Interesse usw. in Übereinstimmung mit den in den Speichervorrichtungen 11, 12, 13, 14, 15 gespeicherten Kartendaten an der Anzeige 18 angezeigt werden sollen.
  • Auf der Grundlage dieser Informationen kann die Prozessoreinheit 11 Navigationsanweisungen, wie etwa die Route 4, den Pfeil 5, Orte von Interesse OvI usw., über das von der Prozessoreinheit 11 angezeigte Bild legen, sodass sie mit der Kameraansicht übereinstimmen. Es kann nützlich sein, die Navigationsanweisungen so darüber zu legen, dass es den Anschein hat, als würden sie über dem Straßenbelag schweben oder eine sonstige vordefinierte räumliche Beziehung zu diesem aufweisen.
  • Da die Navigationsvorrichtung 10 berechnet, wie weit entfernt jede Kreuzung oder Abbiegestelle (oder andere Richtungsänderung) liegt, kann sie in etwa ermitteln, wie eine Navigationsanweisung, die an der Anzeige 18 angezeigt wird, geformt sein soll und wo sie positioniert sein soll, um mit der tatsächlichen Stelle der Richtungsänderung, die in der Einspeisung aus der Kamera 24 dargestellt ist, übereinzustimmen.
  • Trotzdem können aus verschiedenen Gründen Fehler auftreten. Erstens kann die Navigationsvorrichtung 10 auf viele verschiedene Arten am Armaturenbrett eines Fahrzeugs angebracht werden. Beispielsweise wird bei der Bestimmung der ersten Drehrichtung der Kamera 24 in Bezug auf die Achse C durch Vergleich der Positionen der Navigationsvorrichtung 10 zu aufeinander folgenden Zeitpunkten angenommen, dass die Kamera 24 gerade nach vorne gerichtet ist. Für den Fall, dass die Kamera 24 jedoch nicht perfekt mit dem Fahrzeug ausgerichtet ist, kann es zu einer Fehlpassung der darüber gelegten Navigationsanweisungen kommen.
  • Wie oben erörtert wurde kann dann, wenn die Kamera 24 mit einem eingebauten Kompass ausgestattet ist, die erste Drehrichtung der Kamera in Bezug auf die Achse C durch Vergleichen der Kompasslesungen mit der Fahrtrichtung Navigationsvorrichtung 10, die bestimmt wurde, berechnet werden. Trotzdem kann ein Fehler vorliegen, der zu einer Fehlpassung zwischen den darüber gelegten Navigationsanweisungen und der Kameraeinspeisung führt.
  • Auch die Kippsensoren 27, 28 sing gegebenenfalls nur in der Lage, die relative Kippstellung und nicht die absolute Kippstellung zu messen. Das bedeutet, dass die Navigationsvorrichtung 10 kalibriert werden muss, um eine genaue Positionierung der Navigationsanweisungen über dem Kamerabild zu ermöglichen.
  • Um diese Fehler zu kompensieren, kann die Navigationsvorrichtung 10 mit einer Menüoption ausgestattet sein, die es Benutzer erlaubt, die relative Position des angezeigten Bilds in Bezug auf das angezeigte Kamerabild einzustellen. Diese Einstellung kann von der Navigationsvorrichtung 10 durch Ändern der Position, an der die Navigationsanweisungen angezeigt werden, und/oder durch Ändern der Position, an der das Kamerabild angezeigt wird, und/oder durch Ändern der Ausrichtung der Kamera 24 vorgenommen werden. Für die letzte Option kann die Kamera 24 mit einer Betätigungsvorrichtung ausgestattet sein, um ihre Ausrichtung zu ändern. Die Kamera 24 kann unabhängig von der Navigationsvorrichtung 10 betätigt werden. Für den Fall, dass die Kamera 24 einstückig mit der Navigationsvorrichtung 10 ausgebildet ist, kann die Betätigungsvorrichtung gegebenenfalls die Ausrichtung der Navigationsvorrichtung 10 oder nur der Kamera 24 in Bezug auf die Navigationsvorrichtung 10 ändern.
  • Der Benutzer kann einfach nur Pfeiltasten benutzen, um die Position der Navigationsanweisungen so zu kalibrieren, dass sie zum Kamerabild passen. Ist die Kamera 24 beispielsweise so positioniert, dass sie um die Achse C nach links gekippt ist, wie in 7 dargestellt ist, so liegen die Navigationsanweisungen rechts von den entsprechenden Abschnitten im Kamerabild. Der Benutzer kann diesen Fehler einfach korrigieren, indem er eine linke Pfeiltaste verwendet, um die Navigationsanweisungen nach links zu ziehen. Die Navigationsvorrichtung 10 kann ferner angeordnet sein, um dem Benutzer Optionen zu bieten, die angezeigte Drehrichtung der darüber liegenden Navigationsanweisungen in Bezug auf das angezeigte Kamerabild einzustellen.
  • Die Navigationsvorrichtung kann auch angeordnet sein, um dem Benutzer Optionen zu bieten, perspektivische Fehlpassungen zu korrigieren, die beispielsweise durch unterschiedliche Kamerahöhen bewirkt sind. Eine auf einem Auto angebrachte Kamera 24 stellt eine andere Ansicht der Straße (andere perspektivische Form) bereit als eine Kamera 24, die am Armaturenbrett oder zwischen den Frontscheinwerfern eines Fahrzeugs angeordnet ist. Um dafür zu sorgen, dass die Navigationsanweisungen, wie etwa 3D-Anweisungen (z. B. ein 3D-Pfeil) oder die Vektordarstellung der Straße, an die Kameraansicht angepasst sind, muss eine perspektivische Umformung der Navigationsanweisungen ausgeführt werden. Diese perspektivische Umformung hängt von der Höhe der Kamera 24, den Kameraeinstellungen und der zweiten Drehrichtung der Kamera 24 in die Richtung des Pfeils A, wie in 7 dargestellt ist, ab.
  • Die Prozessoreinheit 11 speichert diese eingegebenen Kalibrierungskorrekturen und wendet auf alle nachfolgend angezeigten Bilder ähnliche Kalibrierungskorrekturen an. Alle weiteren Änderungen in der der gemessenen Position, Richtung und Ausrichtung der Kamera 24 können von der Prozessoreinheit 11 verarbeitet werden, um kontinuierlich ein präzises Darüberlegen der Navigationsanweisungen sicherzustellen. Dies ermöglicht die genaue Kompensierung von Kamerabewegungen, die durch Richtungsänderungen des Fahrzeugs, durch Bremsschwellen, scharfe Kurven, Beschleunigung, Bremsen usw. verursacht sind, sowie von anderen Ursachen, die die Ausrichtung der Kamera 24 beeinflussen.
  • 9 zeigt ein Flussdiagramm, das die Funktionsweise der Navigationsvorrichtung 10 gemäß der zweiten Ausführungsform der Erfindung zeigt. Die im Flussdiagramm gezeigten Schritte können von der Verarbeitungseinheit 11 durchgeführt werden. Es ist anzumerken, dass alle Schritte bezüglich der Eingabe einer Zieladresse, der Auswahl einer Route usw. in dieser Figur ausgelassen wurden, da diese Schritte nach dem Stand der Technik bereits bekannt sind.
  • In einem ersten Schritt 101 wird die Navigationsvorrichtung 10 eingeschaltet, und der Benutzer wählt den Kameramodus aus. Dies ist in 9 durch „Start" angegeben.
  • In einem zweiten Schritt 102 bestimmt die Verarbeitungseinheit 11 die Position der Navigationsvorrichtung 10. Dies erfolgt durch die Verwendung der Eingabe der Positionsbestimmungsvorrichtung 23, wie etwa einer GPS-Vorrichtung, wie zuvor erörtert wurde.
  • Im nächsten Schritt 103 bestimmt die Verarbeitungseinheit 11 die Fahrtrichtung der Navigationsvorrichtung 10. Auch hierzu wird die Eingabe der Positionsbestimmungsvorrichtung 23 verwendet.
  • In Schritt 104 werden nun die Ausrichtung der Kamera 24 und die Kameraeinstellungen von der Verarbeitungseinheit 11 bestimmt. Auch hier wird die Eingabe der Positionsbestimmungsvorrichtung 23 verwendet. Ferner werden Eingaben der Kippsensoren 27, 28 zur Bestimmung der Ausrichtung der Kamera 24 verwendet.
  • Gemäß Schritt 105 wird das Kamerabild von der Verarbeitungseinheit 11 an der Anzeige 18 angezeigt. In Schritt 106 legt die Verarbeitungseinheit 11 eine ausgewählte Anzahl an Navigationsanweisungen (wie etwa den Positionspfeil 3, die Route 4, Orte von Interesse, Straßen, Kartendaten usw.) darüber. Um dies zu tun, werden aller gesammelten Informationen dazu verwendet, die Position und die Form der angezeigten Navigationsanweisungen zu berechnen. Falls nötig kann der Benutzer diese Berechnung kalibrieren, indem er die Position und/oder die Form der darüber liegenden Navigationsanweisungen einstellt. Dieser optionale Schritt ist anhand von Schritt 107 dargestellt.
  • Die Schritte 102 bis 107 können während der Verwendung so oft wie nötig oder erwünscht wiederholt werden.
  • Zusätzlich zu den Richtungspfeilen 5 können auch andere Arten der virtuellen Beschilderung in den Speichervorrichtungen 12, 13, 14, 15 gespeichert sein. Beispielsweise können Icons, die sich auf Straßennamen, Verkehrszeichen, Geschwindigkeitsbegrenzungen, Radarfallen oder Orte von Interesse, die in den Speichervorrichtungen 12, 13, 14, 15 gespeichert sind, beziehen, gespeichert sein. All diese können ebenfalls über die Einspeisung aus der Kamera 24 gelegt werden, und zwar an einer räumlichen Position am angezeigten Kamerabild, die dem Merkmal aus der Wirklichkeit, auf das sich die virtuelle Beschilderung bezieht, entspricht. Die Verarbeitungseinheit 11 könnte somit die 2D-Kartendaten der Navigationssoftware entnehmen, die die Positionsdaten dieser Merkmale der Wirklichkeit einschließen, und eine geometrische Transformation vornehmen, die diese dazu bringt, korrekt positioniert zu sein, wenn sie über die Videoeinspeisung gelegt werden.
  • Für den Fall, dass das Fahrzeug, das eine Navigationsvorrichtung 10 trägt, einen Hügel hinauf oder hinunter fährt, detektieren die Kippsensoren 27, 28 eine Kippstellung in die Richtung von Pfeil A, der in 7 dargestellt ist. Damit die Navigationsanweisungen aber korrekt über das Kamerabild gelegt werden, sodass die Navigationsanweisungen mit dem Kamerabild übereinstimmen, sollte diese Kippstellung nicht korrigiert werden. Dies kann berücksichtigt werden, indem die Navigationsvorrichtung mit Kartendaten ausgestattet ist, die Höheninformationen umfassen. Auf der Grundlage der Kartenhöhendaten berechnet die Navigationsvorrichtung 10 die Kippstellung der Kamera 24, die der Ausrichtung der Straße, auf der das Fahrzeug fährt, entspricht. Diese vorhergesagte Kippstellung wird mit der von den Kippsensoren 27, 28 detektierten Kippstellung verglichen. Die Differenz zwischen der vorhergesagten Kippstellung und der detektierten Kippstellung wird dazu verwendet, die Position der darüber gelegten Navigationsanweisungen einzustellen.
  • Für den Fall, dass die Kartendaten keine Höheninformationen umfassen, kann das Fahrzeug mit einem Fahrzeugkippsensor 30 ausgestattet sein. Der Fahrzeugkippsensor 30 ist angeordnet, um Kippstellungslesungen des Fahrzeugs für die Verarbeitungseinheit 11 bereitzustellen. Diese Lesungen des Fahrzeugkippsensors 30 werden dann mit den Lesungen der Kippsensoren 27, 28 verglichen, und die Differenz, die durch unerwünschte Vibrationen usw. verursacht ist, wird dazu verwendet, die Position der darüber liegenden Navigationsanweisungen einzustellen.
  • Es versteht sich, dass am oben dargelegten und veranschaulichten Beispiel zahlreiche Variationen denkbar sind.
  • 10 zeigt ein Beispiel, in dem die Kartendaten auch Daten umfassen, die Objekte entlang der Straße, wie etwa Gebäude 31, beschreiben. Gemäß diesem Beispiel können die Navigationsanweisungen 3, 4, 5, die über ein Gebäude 31 gelegt sind, in gestrichelten oder blinkenden Linien dargestellt sein. Dies ermöglicht dem Benutzer die Visualisierung von Kartendaten, der Route 4 und von Pfeilen 5, auf die die Sicht ansonsten durch ein Gebäude versperrt wäre.
  • DRITTE AUSFÜHRUNGSFORM
  • Gemäß einer dritten Ausführungsform werden die Navigationsanweisungen mithilfe von Mustererkennungsverfahren über das Kamerabild gelegt.
  • In den letzten Jahren wurden auf dem Gebiet der Echtzeitanalyse von Bildern (z. B. einer Videoeinspeisung wie jener, die von der Kamera 24 bereitgestellt wird), um tatsächliche Objekte in der Videoeinspeisung zu identifizieren, beträchtliche Fortschritte gemacht. Die Literatur dazu ist recht umfassend: Es kann beispielsweise auf das US-Patent Nr. 5,627,915 (Princeton Video Image Inc.) verwiesen werden, in dem ein Video einer Ansicht, etwa eines Sportstadiums, von Mustererkennungssoftware analysiert wird; eine Bedienungsperson gibt manuell Bereiche hohen Kontrasts im Stadium an (z. B. die auf dem Spielfeld aufgemalten Linien; die Ränder des Spielfelds; Werbeflächen), und die Software baut ein geometrisches Modell des gesamten Stadiums unter Verwendung dieser Markierungen von hohem Kontrast. Danach ist die Software in der Lage, eine Echtzeit-Videoeinspeisung zu analysieren und dabei nach diesen Markierungen zu suchen; anschließend ist sie in der Lage, ein gespeichertes, computergeneriertes Bild (z. B. ein Werbebild für eine Werbefläche) heranzuziehen und eine geometrische Transformation auf das gespeicherte Bilds anzuwenden, sodass es dann, wenn es an einer in Bezug auf das geometrische Modell definierten Stelle unter Verwendung von Bildsyntheseverfahren in die Videoeinspeisung eingeführt ist, für den Betrachter des Videos scheint, als wäre es ein vollkommen natürlicher Bestandteil der Ansicht.
  • Ferner kann auf die Schrift US 2001/0043717 an Facet Technology verwiesen werden; diese offenbart ein System, das Videos, die von einem sich bewegenden Fahrzeug aus aufgezeichnet wurden, zur Erkennung von Verkehrszeichen analysieren kann.
  • Insgesamt ist die Anwendung der Kenntnisse der Mustererkennung auf die Analyse von Echtzeit-Videos zur Erkennung von Merkmalen in der Wirklichkeit ein großes, gut etabliertes Gebiet.
  • In einer Art der Umsetzung verwendet die Navigationsvorrichtung 10 Mustererkennungssoftware zur Erkennung von Merkmalen aus der Wirklichkeit in der Videoeinspeisung aus der Kamera 24 und zeigt die Navigationsanweisungen (wie etwa den Pfeil 5) an der Anzeige 18 in einer vordefinierten räumlichen Beziehung zu den Merkmalen der Wirklichkeit, die in der Videoeinspeisung erkannt wurden, an. Beispielsweise kann die Videoeinspeisung die Straße zeigen, auf der die Navigationsvorrichtung 10 gerade entlang fährt, und die Navigationsanweisungen sind diesem Fall 3D-Anweisungen (z. B. ein 3D-Pfeil), die über die Straße gelegt sind. Straßenkurven und andere Merkmale können graphisch oder als Icon dargestellt werden und so angeordnet werden, dass sie über den Merkmalen der Wirklichkeit, auf die sie sich beziehen, liegen.
  • Die Verarbeitungseinheit 11 kann so programmiert sein, dass sie Merkmale mit hohem visuellen Kontrast erkennen kann, die einer bestimmten Straße zugeordnet sind. Die Merkmale könnten auch Fahrzeuge, die sich in eine konstante Richtung bewegen, oder Straßenmarkierungen (z. B. Seitenmarkierungen, Mittelstreifenmarkierungen usw.) sein.
  • Es wird angemerkt, dass die Navigationsvorrichtung 10 so programmiert ist, dass sie Merkmale mit hohem visuellen Kontrast erkennen kann, die einer Straße zugeordnet sind. Die Merkmale könnten beispielsweise Fahrzeuge, die sich in eine konstante Richtung bewegen, oder Straßenmarkierungen sein.
  • Die Navigationsvorrichtung 10 könnte mit einem geometrischen Modell der voran liegenden Straße programmiert sein: Das Modell kann simpel sein, wie etwa nur zwei Linien. Beim Modell kann es sich nur um die Vektordaten handeln, die gespeichert sind, um die Kartendaten zu bilden, wie oben beschrieben wurde.
  • In Verwendung sucht die Mustererkennungssoftware dann in der Echtzeit-Videoeinspeisung, die von der Kamera 24 bereitgestellt wird, nach visuellen Merkmalen, die dem gespeicherten geometrischen Modell (z. B. den zwei Linien) entsprechen. Sobald sie diese Merkmale geortet hat, hat sie die voran liegende Straße erkannt. Dies erfordert typischerweise die Anwendung von schnellen Translationen und Transformationen auf die in der Videoeinspeisung erkannten Merkmale (z. B. die zwei Linien), um ein Zusammenpassen mit dem gespeicherten Modell festzustellen; die Translationen sind x-y-Translationen, um die erkannten Merkmale in etwa auf das gespeicherte Modell auszurichten. Die Transformationen umfassen perspektivische Verkürzungen, um verschiedenen Kamerahöhen gerecht zu werden, und die relative Ausrichtung zwischen den zwei Linien, um verschiedenen Kamerablickwinkeln und dem relativen Winkel zwischen Kamera und Straße gerecht zu werden. Gleichermaßen können die Transformationen verwendet werden, um das gespeicherte Modell auf die erkannten Merkmale auszurichten und diesen entsprechend zu formen.
  • Fachleuten auf dem Gebiet ist klar, dass es vorteilhaft ist, wenn der Mustererkennungsalgorithmus über die Kartendaten als Eingabe verfügt. Die Erkennung eines Musters kann einfacher und schneller erfolgen, wenn der Algorithmus die zu erkennenden Muster im Vorhinein kennt. Diese Kenntnis kann einfach aus den zur Verfügung stehenden Kartendaten gewonnen werden.
  • Sobald die Transformation bekannt ist, ist es relativ einfach, ein zuvor gespeichertes Pfeil-Icon so zu formen, dass seine perspektivische Darstellung, Form und Ausrichtung jener der Straße in einem beliebigen Videobild entspricht (verschiedene Arten geometrischer Transformationen können hiezu geeignet sein), und anschließend unter Einsatz herkömmlicher Bildsynthese den Richtungspfeil über die in der Anzeige dargestellte Straße zu legen. Es kann nützlich sein, den Pfeil so darüber zu legen, dass es aussieht, als würde er über dem Straßenbelag schweben oder eine sonstige vordefinierte räumliche Beziehung zu diesem aufweisen.
  • Da die Navigationsvorrichtung 10 berechnet, wie weit jede Kreuzung oder Abbiegestelle (oder andere Richtungsänderung) entfernt liegt, kann sie in etwa ermitteln, wie eine Navigationsanweisung, die an der Anzeige 18 angezeigt wird, geformt sein soll, um mit der tatsächlichen Stelle der Richtungsänderung, die in der Videoeinspeisung dargestellt ist, übereinzustimmen.
  • Es versteht sich, dass die Navigationsvorrichtung 10 auch eine Kombination der oben erörterten Ausführungsformen verwenden kann. Beispielsweise kann die Navigationsvorrichtung Messungen der Ausrichtung und Positionsbestimmung verwenden, um die Position der Navigationsanweisungen an der Anzeige 18 grob zu bestimmen, und Mustererkennungsverfahren verwenden, um die Position der Navigationsanweisungen an der Anzeige 18 zu bestimmen.
  • Es versteht sich, dass zahlreiche Alternativen und Variationen für die oben angeführten Ausführungsformen denkbar sind. Beispielsweise besteht ein anderes Merkmal darin, dass auch Angaben von Straßennamen, Verkehrsschilder (z. B. Einbahnstraße, Einfahrt nicht gestattet, Ausfahrtsnummern, Ortsnamen usw.), Geschwindigkeitsbegrenzungen, Radarfallen und Orte von Interesse, die im Vorrichtungsspeicher 12, 13, 14, 15 gespeichert sind, ebenfalls über die Videoeinspeisung gelegt werden können, wobei die räumliche Stelle einer solchen „virtuellen Beschilderung" in einem Videobild dem Merkmal aus der Wirklichkeit, auf das sich die virtuelle Beschilderung bezieht, entsprechen kann. Somit könnte eine Geschwindigkeitsbegrenzung (z. B. der Text „30 mph") so darüber gelegt werden, dass es aussieht, als würde sie über dem Straßenbelag oder Teil des Straßenbelags der Straße sein, für die die Geschwindigkeitsbegrenzung von 30 Meilen pro Stunde gilt. Ein Icon, das eine spezielle Art von Verkehrszeichen repräsentiert, könnte so über den Videostream gelegt werden, dass es an jener Stelle zutage tritt, an der auch in Wirklichkeit sinnvollerweise ein Zeichen angeordnet wäre.
  • Andere Arten virtueller Beschilderung, zusätzlich zu den Richtungspfeilen 5, können ebenfalls in den Speichervorrichtungen 12, 13, 14, 15 gespeichert sein. Beispielsweise können Icons, die sich auf Straßennamen, Verkehrsschilder, Geschwindigkeitsbegrenzungen, Radarfallen, Bushaltestellen, Museen, Hausnummern oder Orte von Interesse beziehen, in den Speichervorrichtungen 12, 13, 14, 15 gespeichert sein. All diese können ebenfalls über die Videoeinspeisung gelegt werden, und zwar an einer räumlichen Stelle im angezeigten Video, die dem Merkmal der Wirklichkeit entspricht, auf die sich die virtuelle Beschilderung bezieht. Somit könnte die Software die 2D-Kartendaten aus der Navigationssoftware entnehmen, die die Positionsdaten dieser Merkmale der Wirklichkeit einschließen, und eine geometrische Transformation vornehmen, die diese dazu bringt, korrekt positioniert zu sein, wenn sie über die Videoeinspeisung gelegt werden.
  • Gemäß einer weiteren Alternative können die Mustererkennungsverfahren auch ausgerichtet sein, um Objekte auf der Straße, wie etwa ein anderes Fahrzeug oder einen LKW, zu erkennen. Wird ein solches Objekt erkannt, so kann die angezeigte Route 4 als gepunktete Linie dargestellt werden, wie in 11 gezeigt ist. Dies stellt ein Bild bereit, das für einen Benutzer einfacher zu interpretieren ist.
  • VIERTE AUSFÜHRUNGSFORM
  • Gemäß einer vierten Ausführungsform werden die Einspeisung aus der Kamera 24 und die Navigationsanweisungen, wie etwa Positionspfeil 3, Route 4, Pfeil 5, Orte von Interesse (OvI), Straßen, Gebäude, Kartendaten, z. B. Vektordaten, nicht übereinander gelegt, sondern auf kombinierte Weise an der Anzeige 18 angezeigt.
  • Diese Kombination kann durch Unterteilen der Anzeige in einen ersten Abschnitt und einen zweiten Abschnitt erzielt werden, wobei der erste Abschnitt die Kameraeinspeisung und der zweite Abschnitt die Navigationsanweisungen anzeigt. Die Kombination kann aber auch über die Zeit erfolgen, d. h. die Navigationsvorrichtung kann angeordnet sein, um nacheinander abwechselnd die Kameraeinspeisung und die Navigationsanweisungen anzuzeigen. Dies kann erzielt werden, indem die Kameraeinspeisung für einen ersten Zeitraum (z. B. 2 Sekunden) angezeigt wird, und anschließend die Navigationsanweisungen für einen zweiten Zeitraum (z. B. 2 Sekunden) angezeigt werden. Die Navigationsvorrichtung kann dem Benutzer aber auch die Option bieten, nach Wunsch zwischen der Kameraeinspeisung und den Navigationsanweisungen hin und her zu schalten.
  • Natürlich können auch mehr als eine Kamera verwendet werden. Dem Benutzer kann die Option geboten werden, von einer ersten Kameraeinspeisung auf eine zweite Kameraeinspeisung umzuschalten. Der Benutzer kann gegebenenfalls auch wählen, dass mehr als eine Kameraeinspeisung an der Anzeige 18 gleichzeitig angezeigt werden.
  • Gemäß einer weiteren Alternative kann der Benutzer heran- oder herauszoomen. Beim Herauszoomen wird schrittweise mehr der Umgebung der Navigationsvorrichtung 10 an der Anzeige angezeigt. Es versteht sich, dass der Benutzer beispielsweise eine Helikopteransicht wählen kann, wie in 2 gezeigt ist, einschließlich der Position der Navigationsvorrichtung 10. Eine solche Ansicht bietet ein Bild der Navigationsvorrichtung 10 (oder des Fahrzeugs) von hinten. Natürlich kann eine solche Ansicht nicht von der Kamera bereitgestellt werden, die schließlich an der Navigationsvorrichtung 10 oder am Fahrzeug angebracht ist. Deshalb kann die Navigationsvorrichtung 10 gegebenenfalls ein Bild anzeigen, wie in 12 dargestellt ist, in dem nur ein Teil des Bilds das Kamerablickfeld ist, umgeben von Kartendaten und Navigationsanweisungen.
  • Obwohl verschiedene Ausführungsformen der Erfindung oben beschrieben wurden, versteht es sich, dass die Erfindung auch auf andere Weise als die oben beschriebene in die Praxis umgesetzt werden kann. Beispielsweise kann die Erfindung die Form eines Computerprogramms annehmen, das eine oder mehrere Sequenzen von maschinenlesbaren Befehlen enthält, die ein Verfahren so wie oben offenbart beschreiben, oder in Form eines Datenspeichermediums (z. B. Halbleiterspeicher, magnetische oder optische Platte) umgesetzt werden, auf dem ein solches Computerprogramm gespeichert ist. Es versteht sich für Fachleute auf dem Gebiet der Erfindung, dass jede der Softwarekomponenten auch als Hardwarekomponente ausgestaltet werden kann.
  • Die obige Beschreibung dient der Veranschaulichung und nicht der Einschränkung. Es ist für Fachleute auf dem Gebiet der Erfindung offensichtlich, dass an der Erfindung Modifikationen vorgenommen werden können, ohne den Umfang der nachstehend dargelegten Ansprüche zu verlassen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - US 5627915 [0113]
    • - US 2001/0043717 [0114]

Claims (24)

  1. Navigationsvorrichtung (10), wobei die Navigationsvorrichtung (10) angeordnet ist, um an einer Anzeige (18) Navigationsanweisungen (3, 4, 5) anzuzeigen, dadurch gekennzeichnet, dass die Navigationsvorrichtung (10) ferner angeordnet ist, um eine Einspeisung von einer Kamera (24) zu erhalten, und die Navigationsvorrichtung (10) angeordnet ist, um an der Anzeige (18) eine Kombination aus einem Kamerabild aus der Einspeisung der Kamera (24) und den Navigationsanweisungen (3, 4, 5) anzuzeigen.
  2. Navigationsvorrichtung nach Anspruch 1, wobei die Kamera einstückig mit der Navigationsvorrichtung ausgebildet ist.
  3. Navigationsvorrichtung nach einem der Ansprüche 1 oder 2, wobei die Navigationsanweisungen eines oder mehrere aus Positionspfeil (3), Route (4), Pfeil (5), Orten von Interesse (OvI), Straßen, Gebäuden, Kartendaten, wie etwa Vektordaten, sind, die in mindestens einer Speichereinheit, wie etwa einer Festplatte (12), einem Festwertspeicher (13), einem elektronisch löschbaren, programmierbaren Festwertspeicher (14) und einem Direktzugriffsspeicher (15), gespeichert sind.
  4. Navigationsvorrichtung nach einem der vorangegangenen Ansprüche, die ferner dazu angeordnet ist, die Navigationsanweisungen (3, 4, 5) über das Kamerabild zu legen, sodass die Position der Navigationsanweisungen (3, 4, 5) in einer vordefinierten räumlichen Beziehung zu entsprechenden Abschnitten des Kamerabilds stehen.
  5. Navigationsvorrichtung nach einem der vorangegangenen Ansprüche, wobei die Navigationsvorrichtung (10) eine Verarbeitungseinheit (11), eine Positionsbestimmungsvorrichtung (23) und Ausrichtungssensoren (23, 27, 28) umfasst, wobei die Positionsbestimmungsvorrichtung (23) und die Ausrichtungssensoren (27, 28) angeordnet sind, um mit der Verarbeitungseinheit (11) zu kommunizieren, wobei die Verarbeitungseinheit (11) angeordnet ist, um Lesungen der Positionsbestimmungsvorrichtung (23) und der Ausrichtungssensoren (23, 27, 28) zu verwenden, um eine Position und eine Ausrichtung der Kamera (24) und/oder der Navigationsvorrichtung (10) zu berechnen, auf deren Grundlage die Positionen der Navigationsanweisungen an der Anzeige (18) von der Verarbeitungseinheit (11) berechnet werden.
  6. Navigationsvorrichtung nach Anspruch 5, wobei die Positionsbestimmungsvorrichtung (23) eine geographische Position unter Verwendung von Positionsbestimmungstechnologie, wie etwa GPS, dem europäischen Galileo-System oder einem beliebigen anderen globalen Navigationssatellitensystem, oder von Positionsbestimmungstechnologie, die auf bodengestützten Signalen basiert, bestimmt.
  7. Navigationsvorrichtung nach einem der Ansprüche 5 oder 6, wobei die Verarbeitungseinheit (11) die Ausrichtung der Kamera (24) in Bezug auf eine erste Drehachse (C) berechnet, die in Verwendung im Wesentlichen vertikal ist, indem die Positionen der Kamera (24) und/oder der Navigationsvorrichtung (10), die von der Positionsbestimmungsvorrichtung (23) zu aufeinander folgenden Zeitpunkten bestimmt werden, verglichen werden.
  8. Navigationsvorrichtung nach einem der Ansprüche 5 oder 6, wobei die Navigationsvorrichtung (10) einen Kompass umfasst, der der Verarbeitungseinheit (11) Kompasslesungen bereitstellt, wobei die Verarbeitungseinheit (11) angeordnet ist, um auf der Grundlage der Kompasslesungen die Ausrichtung der Kamera in Bezug auf eine erste Drehachse (C) zu berechnen, die in Verwendung im Wesentlichen vertikal ist.
  9. Navigationsvorrichtung nach einem der Ansprüche 5 bis 8, wobei die Ausrichtungssensoren Kippsensoren (27, 28) umfassen, um die Ausrichtung der Kamera (24) in Bezug auf eine zweite und eine dritte Drehachse zu bestimmen, wobei die zweite und die dritte Drehachse in Verwendung im Wesentlichen horizontal sind.
  10. Navigationsvorrichtung nach einem der vorangegangenen Ansprüche, wobei die Verarbeitungseinheit (11) Mustererkennungsverfahren verwendet, um die Navigationsanweisungen (3, 4, 5) über das Kamerabild zu legen, sodass die Position der Navigationsanweisungen (3, 4, 5) in einer vordefinierten räumlichen Beziehung zu entsprechenden Abschnitten des Kamerabilds steht.
  11. Navigationsvorrichtung nach Anspruch 10, wobei die Navigationsvorrichtung Kartendaten als Eingabe für die Mustererkennungsverfahren verwendet.
  12. Navigationsvorrichtung nach einem der vorangegangenen Ansprüche, wobei die Navigationsvorrichtung (10) Steady-Cam-Verfahren benutzt, um Vibrationen in der Kameraeinspeisung zu kompensieren.
  13. Navigationsvorrichtung nach einem der vorangegangenen Ansprüche, wobei die Navigationsvorrichtung (10) angeordnet ist, um Kalibrierungskorrekturen zu empfangen, die Kalibrierungskorrekturen zu speichern und die Kalibrierungskorrekturen anzuwenden, wenn die Navigationsanweisungen (3, 4, 5) und das Kamerabild kombiniert werden.
  14. Navigationsvorrichtung nach einem der vorangegangenen Ansprüche, wobei die Navigationsvorrichtung angeordnet ist, um Kameraeinstellungen zu empfangen oder einzulesen und die Kameraeinstellungen zu verwenden, um die Position der Navigationsanweisungen (3, 4, 5) an der Anzeige (18) zu berechnen.
  15. Navigationsvorrichtung nach einem der vorangegangenen Ansprüche, wobei die Navigationsvorrichtung (10) ferner angeordnet ist, um Einspeisungen aus mehr als einer Kamera (24) zu erhalten, und die Navigationsvorrichtung (10) angeordnet ist, um eine aus diesen Einspeisungen für die Anzeige an der Anzeige (18) auszuwählen.
  16. Navigationsvorrichtung nach einem der vorangegangenen Ansprüche, wobei die Kamera (24) gegenüber elektromagnetischer Strahlung empfindlich ist, die außerhalb des für das menschliche Auge sichtbaren Bereichs des elektromagnetischen Spektrums liegt.
  17. Navigationsvorrichtung nach Anspruch 16, wobei die Kamera (24) eine Infrarotkamera ist.
  18. Navigationsvorrichtung nach einem der vorangegangenen Ansprüche, wobei die Kamera (24) angeordnet ist, um heran- und/oder herauszuzoomen.
  19. Navigationsvorrichtung nach Anspruch 18, wobei die Kamera angeordnet ist, um beispielsweise in Abhängigkeit der Geschwindigkeit der Navigationsvorrichtung/des Fahrzeugs heran- und/oder herauszuzoomen.
  20. Armaturenbrett, das eine Navigationsvorrichtung (10) nach einem der vorangegangenen Ansprüche umfasst.
  21. Fahrzeug, das eine Navigationsvorrichtung (10) nach einem der vorangegangenen Ansprüche umfasst.
  22. Fahrzeug nach Anspruch 21, wobei das Fahrzeug einen Fahrzeugkippsensor (30) umfasst, um die Kippstellung des Fahrzeugs zu bestimmen, der Lesungen der Fahrzeugkippstellung für die Navigationsvorrichtung (10) bereitstellt.
  23. Computerprogramm, das Programmcode enthält, welcher aufweist: Mittel zum Anzeigen von Navigationsanweisungen (3, 4, 5) an einer Anzeige (18), Mittel zum Empfangen einer Einspeisung von einer Kamera (24), und Mittel zum Anzeigen einer Kombination aus einem Kamerabild aus der Einspeisung der Kamera (24) und den Navigationsanweisungen (3, 4, 5) an der Anzeige (18).
  24. Datenträger, der ein Computerprogramm nach Anspruch 23 umfasst.
DE202005021607U 2005-06-06 2005-06-06 Navigationsvorrichtung mit Kamerainformation Expired - Lifetime DE202005021607U1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE202005021607U DE202005021607U1 (de) 2005-06-06 2005-06-06 Navigationsvorrichtung mit Kamerainformation

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
PCT/NL2005/000405 WO2006132522A1 (en) 2005-06-06 2005-06-06 Navigation device with camera-info
DE202005021607U DE202005021607U1 (de) 2005-06-06 2005-06-06 Navigationsvorrichtung mit Kamerainformation

Publications (1)

Publication Number Publication Date
DE202005021607U1 true DE202005021607U1 (de) 2008-11-20

Family

ID=36129782

Family Applications (2)

Application Number Title Priority Date Filing Date
DE202005021607U Expired - Lifetime DE202005021607U1 (de) 2005-06-06 2005-06-06 Navigationsvorrichtung mit Kamerainformation
DE602005016311T Active DE602005016311D1 (de) 2005-06-06 2005-06-06 Navigationseinrichtung mit kamera-info

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE602005016311T Active DE602005016311D1 (de) 2005-06-06 2005-06-06 Navigationseinrichtung mit kamera-info

Country Status (14)

Country Link
US (2) US8180567B2 (de)
EP (2) EP2003423B1 (de)
JP (1) JP4921462B2 (de)
CN (1) CN101194143B (de)
AT (1) ATE441089T1 (de)
AU (1) AU2005332711B2 (de)
BR (1) BRPI0520250A2 (de)
CA (1) CA2609663A1 (de)
DE (2) DE202005021607U1 (de)
ES (2) ES2404164T3 (de)
MX (1) MX2007015348A (de)
NO (1) NO20080097L (de)
NZ (2) NZ564319A (de)
WO (1) WO2006132522A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009023776A1 (de) 2009-06-03 2010-02-11 Daimler Ag Navigationssystem
DE102010062464A1 (de) 2010-12-06 2012-06-06 Robert Bosch Gmbh Verfahren und Vorrichtung zur Darstellung eines Abschnitts einer Umgebung
DE102014016612A1 (de) 2014-11-11 2015-06-18 Daimler Ag Verfahren und Vorrichtung zur Darstellung von Umgebungsinformationen in einem Fahrzeug und Fahrzeug
DE102017204567A1 (de) 2017-03-20 2018-09-20 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erstellen einer Navigationsinformation zur Führung eines Fahrers eines Fahrzeugs
DE102020122266A1 (de) 2020-08-26 2022-03-03 Audi Aktiengesellschaft Verfahren zum Anpassen einer digitalen Ladestationskarte, Vorrichtung für ein Fahrzeug zum Anpassen einer digitalen Ladestationskarte sowie Kraftfahrzeug

Families Citing this family (131)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8751156B2 (en) * 2004-06-30 2014-06-10 HERE North America LLC Method of operating a navigation system using images
US7460953B2 (en) * 2004-06-30 2008-12-02 Navteq North America, Llc Method of operating a navigation system using images
DE102006010478A1 (de) * 2006-03-07 2007-09-13 Robert Bosch Gmbh Verfahren und Anordnung zur Anzeige von Navigationshinweisen
KR100804763B1 (ko) * 2006-09-19 2008-02-19 주식회사 레인콤 카메라를 구비하는 차량용 네비게이션 시스템
JP5076468B2 (ja) * 2006-12-01 2012-11-21 株式会社デンソー 通信型ナビゲーションシステム、車両ナビゲーション装置及びセンター装置
JP2008145234A (ja) * 2006-12-08 2008-06-26 Denso Corp ナビゲーション装置及びプログラム
US8285475B2 (en) * 2007-03-02 2012-10-09 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Combined beacon and scene navigation system
US20080211652A1 (en) * 2007-03-02 2008-09-04 Nanolumens Acquisition, Inc. Dynamic Vehicle Display System
US20100029293A1 (en) * 2007-05-10 2010-02-04 Sony Ericsson Mobile Communications Ab Navigation system using camera
JP2008309529A (ja) * 2007-06-12 2008-12-25 Panasonic Corp ナビゲーション装置、ナビゲーション方法、及びナビゲーション用プログラム
KR100899655B1 (ko) * 2007-09-03 2009-05-27 (주)디코인 회전 카메라를 이용한 화상통신 및 디브이알 기능을 구비한네비게이션 장치 및 시스템
DE102007053305A1 (de) * 2007-11-08 2009-05-14 Robert Bosch Gmbh Verfahren und Vorrichtung zur Ausgabe von optischen Fahrempfehlungen in einem Fahrzeug
JP5034932B2 (ja) * 2007-12-26 2012-09-26 ソニー株式会社 表示装置、プログラム、及び記録媒体
CN101910792A (zh) * 2007-12-28 2010-12-08 三菱电机株式会社 导航装置
EP2241859B1 (de) * 2007-12-31 2015-04-15 STMicroelectronics Application GmbH Verbessertes Fahrzeugnavigationssystem
JP2009163504A (ja) * 2008-01-07 2009-07-23 Panasonic Corp 画像変形方法等
US8239132B2 (en) * 2008-01-22 2012-08-07 Maran Ma Systems, apparatus and methods for delivery of location-oriented information
US20090296990A1 (en) * 2008-05-30 2009-12-03 United Parcel Service Of America, Inc. Evaluating driver walk distances and building types using overhead imagery
USRE47012E1 (en) * 2008-06-09 2018-08-28 JVC Kenwood Corporation Guide display device and guide display method, and display device and method for switching display contents
US20110103651A1 (en) * 2008-07-31 2011-05-05 Wojciech Tomasz Nowak Computer arrangement and method for displaying navigation data in 3d
AU2008359900A1 (en) * 2008-07-31 2010-02-04 Tele Atlas B.V. Method of displaying navigation data in 3D
DE102008041295A1 (de) 2008-08-18 2010-02-25 Robert Bosch Gmbh Mobiles Navigationsgerät und diesbezügliches Verfahren
EP2156987A1 (de) * 2008-08-22 2010-02-24 Guangzhou SAT Infrared Technology Co., Ltd. Infrarotsystem zur Unterstützung des Fahrers eines Fahrzeugs
EP2327003B1 (de) * 2008-09-17 2017-03-29 Nokia Technologies Oy Benutzeroberfläche für ergänzte wirklichkeit
US20100080489A1 (en) * 2008-09-30 2010-04-01 Microsoft Corporation Hybrid Interface for Interactively Registering Images to Digital Models
US9459113B2 (en) * 2008-11-21 2016-10-04 GM Global Technology Operations LLC Visual guidance for vehicle navigation system
JP5161760B2 (ja) * 2008-12-26 2013-03-13 株式会社東芝 車載用表示システム及び表示方法
DE102009041194A1 (de) * 2009-09-14 2011-03-24 Continental Automotive Gmbh Anzeigeinstrument für Fahrleistungsdaten
KR100982768B1 (ko) * 2009-09-21 2010-09-20 (주)올라웍스 단말기의 각도에 따라 서로 다른 영상 정보를 제공하기 위한 방법, 단말기 및 컴퓨터 판독 가능한 기록 매체
JP4911389B2 (ja) * 2009-09-30 2012-04-04 Necビッグローブ株式会社 情報表示システム、サーバ、端末、及び方法
US8374790B2 (en) 2009-10-30 2013-02-12 Teejet Technologies Illinois, Llc Method and apparatus for guiding a vehicle
KR101768101B1 (ko) * 2009-10-30 2017-08-30 엘지전자 주식회사 정보 표시 장치 및 그 방법
CN102088565B (zh) * 2009-12-02 2015-04-29 新奥特(北京)视频技术有限公司 一种马拉松比赛转播***
CN102088570B (zh) * 2009-12-02 2015-06-17 新奥特(北京)视频技术有限公司 一种马拉松比赛的转播方法
DE102009057949A1 (de) * 2009-12-11 2011-06-16 GM Global Technology Operations LLC, ( n. d. Ges. d. Staates Delaware ), Detroit Verfahren zur Anzeige eines Wertes einer Geschwindigkeitsbegrenzung und Fahrzeug mit einem Kombiinstrument
US20110153198A1 (en) * 2009-12-21 2011-06-23 Navisus LLC Method for the display of navigation instructions using an augmented-reality concept
KR101229078B1 (ko) * 2009-12-21 2013-02-04 한국전자통신연구원 실내외 상황인식 기반의 모바일 혼합현실 콘텐츠 운용 장치 및 방법
WO2011076989A1 (en) * 2009-12-25 2011-06-30 Nokia Corporation Method and apparatus for persistent display of navigation content
US9488488B2 (en) * 2010-02-12 2016-11-08 Apple Inc. Augmented reality maps
CN102200444B (zh) * 2010-03-23 2013-03-20 财团法人资讯工业策进会 实时扩增实境装置及其实时扩增实境方法
CN102200445B (zh) * 2010-03-23 2013-03-13 财团法人资讯工业策进会 实时扩增实境装置及其实时扩增实境方法
DE102010003851A1 (de) * 2010-04-12 2011-10-13 Robert Bosch Gmbh Verfahren und Informationssystem zum Markieren eines Zielorts für ein Fahrzeug
JP5143856B2 (ja) * 2010-04-16 2013-02-13 株式会社ソニー・コンピュータエンタテインメント 3次元画像表示装置、および3次元画像表示方法
TWI426237B (zh) * 2010-04-22 2014-02-11 Mitac Int Corp Instant image navigation system and method
KR101655812B1 (ko) * 2010-05-06 2016-09-08 엘지전자 주식회사 휴대 단말기 및 그 동작 방법
CN102243078B (zh) * 2010-05-13 2016-03-30 上海宾华信息科技有限公司 一种所视即所释型导航装置及实现方法
US9684989B2 (en) 2010-06-16 2017-06-20 Qualcomm Incorporated User interface transition between camera view and map view
CN102338639B (zh) * 2010-07-26 2015-04-22 联想(北京)有限公司 信息处理设备和信息处理方法
KR101259598B1 (ko) * 2010-07-30 2013-04-30 주식회사 팬택 로드뷰 제공 장치 및 방법
KR101193913B1 (ko) * 2010-08-23 2012-10-29 고려대학교 산학협력단 광결정 패턴이 형성된 반도체 발광 소자 및 그 제조 방법
US8700324B2 (en) * 2010-08-25 2014-04-15 Caterpillar Inc. Machine navigation system having integrity checking
CN101986101A (zh) * 2010-09-14 2011-03-16 浙江天鸿汽车用品有限公司 Gps实时导航***
WO2012035886A1 (ja) * 2010-09-16 2012-03-22 パイオニア株式会社 端末保持装置
JP4827994B1 (ja) * 2010-10-22 2011-11-30 パイオニア株式会社 端末装置、端末装置によって実行される画像表示方法及び画像表示プログラム
JP4948682B1 (ja) * 2010-10-22 2012-06-06 パイオニア株式会社 端末保持装置及び端末保持方法
US8723888B2 (en) * 2010-10-29 2014-05-13 Core Wireless Licensing, S.a.r.l. Method and apparatus for determining location offset information
JP5569365B2 (ja) * 2010-11-30 2014-08-13 アイシン・エィ・ダブリュ株式会社 案内装置、案内方法、及び案内プログラム
CN102121831B (zh) * 2010-12-01 2013-01-09 北京腾瑞万里科技有限公司 实时街景导航方法及设备
KR20120067681A (ko) * 2010-12-16 2012-06-26 한국전자통신연구원 차량 안전 센서 제어 장치
KR101732076B1 (ko) * 2010-12-22 2017-05-02 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
KR20120071203A (ko) * 2010-12-22 2012-07-02 한국전자통신연구원 운전자의 시야 확보 장치 및, 운전자의 시야 확보 방법
US9429438B2 (en) 2010-12-23 2016-08-30 Blackberry Limited Updating map data from camera images
EP2469230A1 (de) * 2010-12-23 2012-06-27 Research In Motion Limited Aktualisierung von Kartendaten aus Kamerabildern
KR101708207B1 (ko) 2011-01-10 2017-02-20 삼성전자주식회사 이동통신 시스템에서 사용자의 이동 경로를 제공하기 위한 장치 및 방법
US9146126B2 (en) * 2011-01-27 2015-09-29 Here Global B.V. Interactive geographic feature
TWI456165B (zh) * 2011-02-14 2014-10-11 Mitac Int Corp 車輛導航方法與車輛導航系統
US8881231B2 (en) 2011-03-07 2014-11-04 Ricoh Company, Ltd. Automatically performing an action upon a login
US9716858B2 (en) 2011-03-07 2017-07-25 Ricoh Company, Ltd. Automated selection and switching of displayed information
US9053455B2 (en) 2011-03-07 2015-06-09 Ricoh Company, Ltd. Providing position information in a collaborative environment
US8698873B2 (en) * 2011-03-07 2014-04-15 Ricoh Company, Ltd. Video conferencing with shared drawing
US9086798B2 (en) 2011-03-07 2015-07-21 Ricoh Company, Ltd. Associating information on a whiteboard with a user
CN102788582A (zh) * 2011-05-19 2012-11-21 昆达电脑科技(昆山)有限公司 车辆导航方法与车辆导航***
JP2012095283A (ja) * 2011-09-13 2012-05-17 Pioneer Electronic Corp 端末装置、端末装置によって実行される画像表示方法及び画像表示プログラム
JP2013123970A (ja) * 2011-12-14 2013-06-24 Toshiba Corp 表示装置
US9228838B2 (en) 2011-12-20 2016-01-05 Fluke Corporation Thermal imaging camera with compass calibration
US20130162665A1 (en) * 2011-12-21 2013-06-27 James D. Lynch Image view in mapping
DE102012005471A1 (de) 2012-03-17 2013-09-19 GM Global Technology Operations LLC (n.d. Ges. d. Staates Delaware) Verkehrsinformationssystem
KR20130107697A (ko) * 2012-03-23 2013-10-02 (주)휴맥스 내비게이션 단말기의 배경 화면 표시 장치 및 방법
JP6019680B2 (ja) * 2012-04-04 2016-11-02 株式会社ニコン 表示装置、表示方法、及び、表示プログラム
US9037411B2 (en) * 2012-05-11 2015-05-19 Honeywell International Inc. Systems and methods for landmark selection for navigation
US8666655B2 (en) * 2012-07-30 2014-03-04 Aleksandr Shtukater Systems and methods for navigation
US9175975B2 (en) * 2012-07-30 2015-11-03 RaayonNova LLC Systems and methods for navigation
CN102829788A (zh) * 2012-08-27 2012-12-19 北京百度网讯科技有限公司 一种实景导航方法和实景导航装置
DE102012216144A1 (de) * 2012-09-12 2014-05-28 Bayerische Motoren Werke Aktiengesellschaft Kontaktanaloge Anzeige insbesondere eines Fahrspurwechsels
CN102879000A (zh) * 2012-09-20 2013-01-16 华为终端有限公司 导航终端、导航方法及远程导航服务***
KR20140054909A (ko) * 2012-10-30 2014-05-09 팅크웨어(주) 광각 렌즈 카메라 영상을 이용한 내비게이션 안내 장치 및 방법
CN103090875A (zh) * 2012-11-26 2013-05-08 华南理工大学 一种基于双摄像头的实时实景匹配车载导航方法及装置
EP2938969A4 (de) * 2012-12-27 2016-10-12 Harman Int Ind Fahrzeugnavigation
ITMO20130012A1 (it) * 2013-01-21 2014-07-22 Fabio Lettieri Dispositivo per l'assistenza alla guida di autoveicoli
CN103101497A (zh) * 2013-01-25 2013-05-15 深圳市保千里电子有限公司 汽车摄像***及其视角与车速同步变化的数据处理方法
CN103105174B (zh) * 2013-01-29 2016-06-15 四川长虹佳华信息产品有限责任公司 一种基于ar增强现实技术的车载实景安全导航方法
CN103134499A (zh) * 2013-02-06 2013-06-05 腾讯科技(深圳)有限公司 导航方法及导航装置
US9915539B2 (en) 2013-02-25 2018-03-13 Continental Automotive Gmbh Intelligent video navigation for automobiles
EP2798928B1 (de) * 2013-04-29 2024-02-07 CLAAS E-Systems GmbH Betriebssystem für, und verfahren zum betrieb eines automatischen lenksystems eines landwirtschaftlichen fahrzeugs
JP6484228B2 (ja) * 2013-06-13 2019-03-13 モービルアイ ビジョン テクノロジーズ リミテッド 視覚強化ナビゲーション
KR102068700B1 (ko) * 2013-07-02 2020-01-21 현대모비스 주식회사 차량용 네비게이션의 디스플레이 모드 자동 전환 장치 및 방법
US9538077B1 (en) 2013-07-26 2017-01-03 Ambarella, Inc. Surround camera to generate a parking video signal and a recorder video signal from a single sensor
KR102222336B1 (ko) * 2013-08-19 2021-03-04 삼성전자주식회사 맵 화면을 디스플레이 하는 사용자 단말 장치 및 그 디스플레이 방법
CN103581627A (zh) * 2013-11-07 2014-02-12 北京环境特性研究所 一种高清视频的图像和信息融合显示方法
CN103674016B (zh) * 2013-12-16 2017-01-18 维沃移动通信有限公司 一种基于移动终端的步行指引***及其实现方法
DE102014003284A1 (de) 2014-03-05 2015-09-10 Astrium Gmbh Verfahren zur Positions- und Lagebestimmung mittels virtueller Referenzbilder
WO2015136144A1 (en) * 2014-03-14 2015-09-17 Nokia Technologies Oy Method and apparatus for superimposing images upon a map
US9459115B1 (en) * 2014-03-28 2016-10-04 Amazon Technologies, Inc. Unobstructed map navigation using animation
GB201407643D0 (en) 2014-04-30 2014-06-11 Tomtom Global Content Bv Improved positioning relatie to a digital map for assisted and automated driving operations
JP2015007632A (ja) * 2014-07-14 2015-01-15 コア ワイヤレス ライセンシング エス.アー.エール.エル. 位置オフセット情報を決定する方法および装置
KR20160041435A (ko) 2014-10-07 2016-04-18 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
CN104535066B (zh) * 2014-12-19 2017-07-11 大连海事大学 一种船载红外视频图像中的海上目标与电子海图的叠加方法及***
CA3067160A1 (en) * 2015-02-10 2016-08-18 Mobileye Vision Technologies Ltd. Sparse map for autonomous vehicle navigation
US9802539B2 (en) * 2015-04-01 2017-10-31 Robert Bosch Gmbh Distance and direction estimation of a target point from a vehicle using monocular video camera
WO2016188547A1 (en) * 2015-05-22 2016-12-01 Here Global B.V. An apparatus and associated methods for providing turn guidance
US9927246B2 (en) * 2015-05-27 2018-03-27 Here Global B.V. Method, apparatus and computer program product for providing navigation information in relation to augmented reality guidance
US11137255B2 (en) 2015-08-03 2021-10-05 Tomtom Global Content B.V. Methods and systems for generating and using localization reference data
WO2017020132A1 (en) 2015-08-04 2017-02-09 Yasrebi Seyed-Nima Augmented reality in vehicle platforms
EP3130945B1 (de) * 2015-08-11 2018-05-02 Continental Automotive GmbH System und verfahren zur genauen positionierung eines fahrzeugs
EP3131020B1 (de) 2015-08-11 2017-12-13 Continental Automotive GmbH System und verfahren zur zweistufigen objektdatenverarbeitung durch ein fahrzeug und server-datenbank zur erzeugung, aktualisierung und abgabe einer präzisen strasseneigenschaftsdatenbank
EP3130891B1 (de) 2015-08-11 2018-01-03 Continental Automotive GmbH Verfahren zur aktualisierung einer präzisionsstrassendatenbank auf einem server
MX2018003908A (es) * 2015-09-30 2018-05-23 Nissan Motor Dispositivo de despliegue vehicular.
GB2561302B (en) * 2016-02-17 2020-02-19 Ford Global Tech Llc A method of illuminating a display screen of a vehicle
FR3048794B1 (fr) * 2016-03-09 2020-11-27 Illusion 3D Systeme et procede de guidage en trois dimensions d'un utilisateur
CN105890613A (zh) * 2016-04-01 2016-08-24 乐视控股(北京)有限公司 导航信息显示方法和装置
US9813642B1 (en) * 2016-05-06 2017-11-07 Snap Inc. Dynamic activity-based image generation
JP6152232B1 (ja) * 2017-02-23 2017-06-21 京セラ株式会社 電子機器
CN107014393A (zh) * 2017-05-24 2017-08-04 刘兴丹 一种图像地图导航的方法、装置
CN108362279B (zh) * 2018-01-08 2022-02-15 北京小米移动软件有限公司 基于增强现实技术ar的购物导航方法、装置及***
JP6987662B2 (ja) * 2018-02-07 2022-01-05 京セラ株式会社 電子機器、制御方法およびプログラム
DE102018210528A1 (de) 2018-06-27 2020-01-02 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben eines Dialogsystems
CN110942603B (zh) * 2018-09-21 2021-09-17 北汽福田汽车股份有限公司 车辆碰撞报警方法、装置、车辆和服务器
JP2022510548A (ja) * 2018-10-12 2022-01-27 ベステル エレクトロニク サナイー ベ ティカレト エー.エス. ナビゲーション装置及びナビゲーション装置の動作方法
US10755571B1 (en) * 2019-03-01 2020-08-25 Amazon Technologies, Inc. Identifying parking location using single camera reverse projection
US11619745B2 (en) * 2019-10-29 2023-04-04 Qualcomm Incorporated Camera-based GNSS environment detector
JP2023051224A (ja) * 2021-09-30 2023-04-11 コベルコ建機株式会社 作業機械

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5627915A (en) 1995-01-31 1997-05-06 Princeton Video Image, Inc. Pattern recognition system employing unlike templates to detect objects having distinctive features in a video field
US20010043717A1 (en) 1998-10-23 2001-11-22 Facet Technology Corporation Method and apparatus for rapidly determining whether a digitized image frame contains an object of interest

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6388403A (ja) * 1986-10-02 1988-04-19 Tokyo Keiki Kk 道路標示車両用運転標示装置
JPS6413259A (en) 1987-07-03 1989-01-18 Sony Corp Digital signal recording and reproducing device
JPH01125799A (ja) 1987-11-11 1989-05-18 Fujitsu Ltd 半導体記憶装置
JPH01133833A (ja) 1987-11-16 1989-05-25 Ricoh Co Ltd 自動原稿送給装置
NL8900056A (nl) * 1989-01-11 1990-08-01 Philips Nv Werkwijze voor het visueel weergeven van een deel van een topografische kaart, alsmede inrichting geschikt voor een dergelijke werkwijze.
NL8901695A (nl) * 1989-07-04 1991-02-01 Koninkl Philips Electronics Nv Werkwijze voor het weergeven van navigatiegegevens voor een voertuig in een omgevingsbeeld van het voertuig, navigatiesysteem voor het uitvoeren van de werkwijze, alsmede voertuig voorzien van een navigatiesysteem.
US5815411A (en) * 1993-09-10 1998-09-29 Criticom Corporation Electro-optic vision system which exploits position and attitude
JP3233017B2 (ja) * 1996-05-14 2001-11-26 トヨタ自動車株式会社 車両用経路案内装置
JPH09304101A (ja) 1996-05-14 1997-11-28 Matsushita Electric Ind Co Ltd ナビゲーション装置
JPH1047978A (ja) 1996-08-02 1998-02-20 Nissan Motor Co Ltd 車両用前方モニタ装置
JPH10132598A (ja) 1996-10-31 1998-05-22 Sony Corp ナビゲート方法、ナビゲーション装置及び自動車
JPH1123305A (ja) 1997-07-03 1999-01-29 Toyota Motor Corp 車両用走行案内装置
JPH11108684A (ja) * 1997-08-05 1999-04-23 Harness Syst Tech Res Ltd カーナビゲーションシステム
JPH1186034A (ja) * 1997-09-05 1999-03-30 Nippon Telegr & Teleph Corp <Ntt> 景観ラベル付ヒューマンナビゲーション装置およびシステム
JPH11304499A (ja) * 1998-04-22 1999-11-05 Matsushita Electric Ind Co Ltd カーナビゲーション装置
JPH11338339A (ja) 1998-05-21 1999-12-10 Otsuka Shokai Co Ltd 遠隔講義システム
JP3399506B2 (ja) 1998-12-22 2003-04-21 アイシン・エィ・ダブリュ株式会社 車両用ナビゲーション装置
JP2000251193A (ja) 1999-03-02 2000-09-14 Canon Inc 映像処理装置及び方法並びに記憶媒体
US7366595B1 (en) * 1999-06-25 2008-04-29 Seiko Epson Corporation Vehicle drive assist system
JP2001272242A (ja) 2000-03-23 2001-10-05 Kenwood Corp ナビゲーションシステム、誘導経路報知方法及び記録媒体
DE10037573B4 (de) * 2000-08-02 2005-05-19 Robert Bosch Gmbh Navigationsverfahren in einem Kraftfahrzeug
JP2002092012A (ja) * 2000-09-19 2002-03-29 Olympus Optical Co Ltd 特定地域内情報表示システム
JP2002213973A (ja) 2001-01-18 2002-07-31 Sony Corp 画像取得装置、画像取得方法、画像取得のプログラム
DE10138719A1 (de) * 2001-08-07 2003-03-06 Siemens Ag Verfahren und Vorrichtung zur Darstellung von Fahrhinweisen, insbesondere in Auto-Navigationssystemen
JP2003111128A (ja) 2001-09-28 2003-04-11 J-Phone East Co Ltd 現在位置特定方法、現在位置情報提供方法、移動経路案内方法、位置情報管理システム及び情報通信端末
JP3886769B2 (ja) * 2001-10-26 2007-02-28 富士通株式会社 補正画像生成装置および補正画像生成プログラム
JP2002228466A (ja) 2001-11-08 2002-08-14 Sony Corp ナビゲーション装置
JP3893983B2 (ja) 2002-01-17 2007-03-14 ソニー株式会社 情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラム
JP3801049B2 (ja) 2002-01-22 2006-07-26 ソニー株式会社 情報処理装置及び情報処理方法並びに情報処理プログラム
JP2003259363A (ja) * 2002-02-27 2003-09-12 Denso Corp ナイトビジョン装置
JP4015051B2 (ja) * 2002-04-22 2007-11-28 松下電器産業株式会社 カメラ補正装置
DE10236221C1 (de) * 2002-08-07 2003-11-20 Siemens Ag Verfahren und Vorrichtung zur Anzeige von Navigationsinformationen für ein Fahrzeug
JP4136529B2 (ja) 2002-08-12 2008-08-20 パイオニア株式会社 情報処理装置、そのシステム、その方法、そのプログラム、そのプログラムを記録する記録媒体、および、ナビゲーション装置
JP4086605B2 (ja) * 2002-09-24 2008-05-14 キヤノン株式会社 撮像装置
WO2004048895A1 (ja) 2002-11-22 2004-06-10 Kumamoto Technology & Industry Foundation 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置
EP1608935B1 (de) 2003-02-26 2007-11-14 TomTom International B.V. Navigationseinrichtung und verfahren zum anzeigen simulierter navigationsdaten
JP2004257979A (ja) * 2003-02-27 2004-09-16 Sanyo Electric Co Ltd ナビゲーション装置
US7071970B2 (en) * 2003-03-10 2006-07-04 Charles Benton Video augmented orientation sensor
JP2004328399A (ja) * 2003-04-24 2004-11-18 Denso Corp 車載カメラ装置
JP2005214857A (ja) * 2004-01-30 2005-08-11 Sony Corp ナビゲーション装置、案内画像作成方法
GB2414799A (en) 2004-06-02 2005-12-07 Nec Technologies Visual navigation system
US7460953B2 (en) * 2004-06-30 2008-12-02 Navteq North America, Llc Method of operating a navigation system using images
US7456847B2 (en) * 2004-08-12 2008-11-25 Russell Steven Krajec Video with map overlay
US8195386B2 (en) 2004-09-28 2012-06-05 National University Corporation Kumamoto University Movable-body navigation information display method and movable-body navigation information display unit
JP2006105640A (ja) 2004-10-01 2006-04-20 Hitachi Ltd ナビゲーション装置
JP4632793B2 (ja) 2005-01-12 2011-02-16 京セラ株式会社 ナビゲーション機能付き携帯型端末機
JP4483798B2 (ja) 2005-04-06 2010-06-16 株式会社デンソー 経路案内装置およびプログラム
US7728869B2 (en) * 2005-06-14 2010-06-01 Lg Electronics Inc. Matching camera-photographed image with map data in portable terminal and travel route guidance method
JP4550927B2 (ja) 2006-03-28 2010-09-22 パナソニック株式会社 ナビゲーション装置
JP4888703B2 (ja) 2006-10-11 2012-02-29 株式会社デンソー 車両用ナビゲーション装置
US20100029293A1 (en) 2007-05-10 2010-02-04 Sony Ericsson Mobile Communications Ab Navigation system using camera

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5627915A (en) 1995-01-31 1997-05-06 Princeton Video Image, Inc. Pattern recognition system employing unlike templates to detect objects having distinctive features in a video field
US20010043717A1 (en) 1998-10-23 2001-11-22 Facet Technology Corporation Method and apparatus for rapidly determining whether a digitized image frame contains an object of interest

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009023776A1 (de) 2009-06-03 2010-02-11 Daimler Ag Navigationssystem
DE102010062464A1 (de) 2010-12-06 2012-06-06 Robert Bosch Gmbh Verfahren und Vorrichtung zur Darstellung eines Abschnitts einer Umgebung
DE102014016612A1 (de) 2014-11-11 2015-06-18 Daimler Ag Verfahren und Vorrichtung zur Darstellung von Umgebungsinformationen in einem Fahrzeug und Fahrzeug
DE102017204567A1 (de) 2017-03-20 2018-09-20 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erstellen einer Navigationsinformation zur Führung eines Fahrers eines Fahrzeugs
DE102020122266A1 (de) 2020-08-26 2022-03-03 Audi Aktiengesellschaft Verfahren zum Anpassen einer digitalen Ladestationskarte, Vorrichtung für ein Fahrzeug zum Anpassen einer digitalen Ladestationskarte sowie Kraftfahrzeug

Also Published As

Publication number Publication date
US20090125234A1 (en) 2009-05-14
US20120191346A1 (en) 2012-07-26
CN101194143A (zh) 2008-06-04
AU2005332711A1 (en) 2006-12-14
EP2003423B1 (de) 2013-03-27
EP2003423A1 (de) 2008-12-17
BRPI0520250A2 (pt) 2009-04-28
CA2609663A1 (en) 2006-12-14
NZ564319A (en) 2009-05-31
JP4921462B2 (ja) 2012-04-25
US8352180B2 (en) 2013-01-08
WO2006132522A1 (en) 2006-12-14
EP1889007B1 (de) 2009-08-26
EP1889007A1 (de) 2008-02-20
NO20080097L (no) 2008-01-07
ES2404164T3 (es) 2013-05-24
NZ575752A (en) 2010-10-29
DE602005016311D1 (de) 2009-10-08
ATE441089T1 (de) 2009-09-15
JP2008542746A (ja) 2008-11-27
ES2330351T3 (es) 2009-12-09
AU2005332711B2 (en) 2010-12-02
US8180567B2 (en) 2012-05-15
MX2007015348A (es) 2008-02-15
CN101194143B (zh) 2012-10-03

Similar Documents

Publication Publication Date Title
DE202005021607U1 (de) Navigationsvorrichtung mit Kamerainformation
US8423292B2 (en) Navigation device with camera-info
EP1415128B1 (de) Verfahren und vorrichtung zur darstellung von fahrhinweisen in auto-navigationssystemen
DE69731159T2 (de) Navigationssystem für Landfahrzeug mit Auswahl des Anzeigemodus
DE102010042063B4 (de) Verfahren und Vorrichtung zum Bestimmen von aufbereiteten Bilddaten über ein Umfeld eines Fahrzeugs
DE69532977T2 (de) Kartenanzeigegerät für Fahrzeug
DE69738209T2 (de) Verfahren und Vorrichtung zur Kartenanzeige
DE112008003424B4 (de) Navigationsgerät, das Videobilder einer Kamera verwendet
EP1877731B1 (de) Verfahren zum steuern der anzeige einer geografischen karte in einem fahrzeug und anzeigevorrichtung hierfür
DE19835422B4 (de) Kartenanzeigevorrichtung und Aufzeichnungsmedium
DE19836156B4 (de) Fahrzeugnavigationssystem und Speichermedium
DE112018004521T5 (de) Anzeigevorrichtung eines überlagerten Bildes und Computerprogramm
DE202014103884U1 (de) Navigationsvorrichtung mit verbesserten Widgets und Anwendungen
DE69815940T2 (de) Verfahren und Anordnung zur Informationsdarstellung in Form einer Landkarte für Fahrzeugsnavigationsgeräte
DE112018004519T5 (de) Anzeigevorrichtung eines überlagerten Bildes und Computerprogramm
DE102010003851A1 (de) Verfahren und Informationssystem zum Markieren eines Zielorts für ein Fahrzeug
DE112013007423B4 (de) Informationsverarbeitungsvorrichtung, Informationsanzeigevorrichtung und Anzeigesteuerverfahren
RU2375756C2 (ru) Навигационное устройство с информацией, получаемой от камеры
KR20080019690A (ko) 카메라 정보를 구비하는 내비게이션 기기
DE202020005800U1 (de) Head-up-Display-Vorrichtung
EP2943750B1 (de) Navigationsvorrichtung für ein fahrzeug und verfahren zur erzeugung eines anzeigesignals für eine navigationsvorrichtung für ein fahrzeug
DE4323081A1 (de) Verfahren und Vorrichtung zur Darstellung geographischer Daten
JP2011022152A (ja) ナビゲーションデバイス

Legal Events

Date Code Title Description
R207 Utility model specification

Effective date: 20081224

R150 Utility model maintained after payment of first maintenance fee after three years

Effective date: 20081120

R151 Utility model maintained after payment of second maintenance fee after six years

Effective date: 20111117

R152 Utility model maintained after payment of third maintenance fee after eight years
R152 Utility model maintained after payment of third maintenance fee after eight years

Effective date: 20130625

R071 Expiry of right