DE69736766T2 - Verfahren und Vorrichtung zum Anzeigen einer Navigationskarte - Google Patents

Verfahren und Vorrichtung zum Anzeigen einer Navigationskarte Download PDF

Info

Publication number
DE69736766T2
DE69736766T2 DE69736766T DE69736766T DE69736766T2 DE 69736766 T2 DE69736766 T2 DE 69736766T2 DE 69736766 T DE69736766 T DE 69736766T DE 69736766 T DE69736766 T DE 69736766T DE 69736766 T2 DE69736766 T2 DE 69736766T2
Authority
DE
Germany
Prior art keywords
viewpoint
map
height
information
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69736766T
Other languages
English (en)
Other versions
DE69736766D1 (de
Inventor
Mariko Higtachi-shi Okude
Yoshinori Mito-shi Endo
Yasuhiro Hitachioota-shi Gunji
Kozo Hitachioota-shi Nakamura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Xanavi Informatics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xanavi Informatics Corp filed Critical Xanavi Informatics Corp
Publication of DE69736766D1 publication Critical patent/DE69736766D1/de
Application granted granted Critical
Publication of DE69736766T2 publication Critical patent/DE69736766T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • G09B29/106Map spot or coordinate position indicators; Map reading aids using electronic means
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Educational Technology (AREA)
  • Mathematical Physics (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung betrifft ein Kartenanzeigeverfahren und eine Vorrichtung sowie ein Navigationssystem, das eine solche Kartenanzeigevorrichtung enthält. Insbesondere betrifft die vorliegende Erfindung ein stereoskopisches Kartenanzeigeverfahren, das vorteilhaft ist für das Navigationssystem, in dem Karteninformationen von einer Kartendatenbank gemäß einer gegenwärtigen Position eines mobilen Objekts ausgewählt werden, wie z.B. eines Automobils, und eine perspektivische Karte, die die Bodenoberfläche betrachtet entlang einer Richtung, die einen Winkel zu der Bodenoberfläche aufweist, angezeigt wird.
  • 2. BESCHREIBUNG DER VERWANDTEN TECHNIK
  • Das Navigationssystem ist bekannt als eine Vorrichtung, die einem Fahrer eines Automobils hilft, durch Abrufen digitaler Kartendaten, die in einem Speichermedium, wie zum Beispiel einer CD-ROM gespeichert sind, durch Anzeigen einer Karte, die Gebäude, Straßen und ähnliches auf einem Anzeigebildschirm zeigt, und durch Überlagern einer gegenwärtigen Position des Automobils und einer Richtung zu seinem Ziel auf der Karte hin, welche erkannt werden durch verschiedene Sensoren, wie zum Beispiel GPS.
  • Ein neueres Navigationssystem, wie zum Beispiel offenbart in der japanischen Patentanmeldungsveröffentlichung (KOKAI) No. 2-244188, ver wendet ein pseudodreidimensionales Anzeigeverfahren, bei dem eine Koordinatentransformation von zweidimensionalen Karteninformationen durchgeführt wird zum Erzeugen eines pseudodreidimensionales Bildes, um so die Karteninformation in der Nähe der gegenwärtigen Automobilposition in einer einfacher zu erfassenden Weise anzuzeigen. Die pseudodreidimensionale Anzeige kann eine Art eines dreidimensionalen Eindrucks dem Betrachter geben, der die zweidimensionale Kartendimension verwendet, da ein Betrachtungspunkt in der pseudodreidimensionalen Anzeige bei einer vorbestimmten Position über dem Automobil festgesetzt wird und ein perspektivisches Bild, das entlang einer Sichtrichtung betrachtet wird, die einen spitzen Winkel in Bezug auf die Bodenoberfläche bildet, angezeigt wird.
  • Die pseudodreidimensionale Anzeige des Standes der Technik wird erzeugt aus der zweidimensionalen Karteninformation unter Verwendung des Betrachtungspunktes, der unter der Annahme einer ebenen Bodenoberfläche bestimmt wird. Dies kann einige Probleme hervorrufen, wenn das stereoskopische Kartenanzeigeverfahren, das oben erwähnt ist, ausgeführt wird unter Verwendung dreidimensionaler Karteninformation, die Informationen bezüglich einer topografischen Erhöhung enthält, wie zum Beispiel bekannt aus US-A-4,940,972, statt in der zweidimensionalen Karteninformation.
  • Die dreidimensionalen Karteninformationen enthalten nämlich topografische Informationen, wie zum Beispiel Höhen von Bergen, Gebäuden oder Ähnlichem. Wenn solche dreidimensionalen Informationen verwendet werden und der Betrachtungspunkt in Bezug auf die Bodenoberfläche bei Meeresspiegel (Höhe von 0 m) in der gleichen Weise festgelegt wird wie diejenige des pseudodreidimensionalen Anzeigeverfahrens, kann es sich ergeben, dass der Betrachtungspunkt innerhalb eines Berges festgelegt wird, welcher sich über die Bodenoberfläche erhebt, in Abhängigkeit von seiner Höhe. Wenn dies der Fall ist, kann es sein, dass das Navigationssystem nicht in der Lage ist, eine Position des Automobils anzuzeigen oder die Navigationsprozedur auszuführen.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die vorliegende Erfindung wurde im Licht der oben genannten Probleme erfunden und hat eine Aufgabe zum Bereitstellen eines Kartenanzeigeverfahrens und einer Vorrichtung, die eine stereoskopische Kartenanzeige ermöglichen unter Verwendung dreidimensionaler Kartendaten, die Informationen einschließen, welche die horizontalen Positionen von kartenbildenden Elementen anzeigen, wie zum Beispiel von topografischen Merkmalen, Straßen, Gebäuden und Informationen, die Höhen oder Erhebungen oder Höhen über dem Meeresspiegel von zumindest einigen der kartenbildenden Elemente anzeigen, welche sich in zumindest einem Teil des verfügbaren horizontalen Kartengebiets befinden.
  • Eine weitere Aufgabe der vorliegenden Erfindung ist es, ein Navigationssystem bereitzustellen, das eine stereoskopische Kartenanzeigefunktion aufweist, die eine Erneuerung der Inhalte der Anzeige mit der Bewegung eines Fahrzeugs problemlos ermöglicht, selbst mit den topografischen Variationen oder Höhen und Tiefen von Straßen.
  • Die obigen Aufgaben werden gemäß der vorliegenden Erfindung erzielt durch das Kartenanzeigeverfahren von Anspruch 1 und die Kartenanzeigevorrichtung von Anspruch 3. Bevorzugte Ausführungsformen werden in den abhängigen Ansprüchen beschrieben.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Blockdiagramm, das eine Konstruktion des Navigationssystems in einer Ausführungsform der vorliegenden Erfindung zeigt;
  • 2 ist ein Blockdiagramm, das eine Hardwarekonstruktion einer Betriebs- und Verarbeitungseinheit 1-1 von 1 zeigt;
  • 3 ist ein Blockdiagramm, das eine funktionale Konstruktion der Betriebs- und Verarbeitungseinheit 1-1 von 1 zeigt;
  • 4 ist eine beispielhafte Illustration, die ein Beispiel einer stereoskopischen Anzeige gemäß einem Anzeigeverfahren der vorliegenden Erfindung zeigt;
  • 5 ist ein Blockdiagramm zum Illustrieren von Datenflüssen in dem Anzeigeverfahren der vorliegenden Erfindung;
  • 6 ist eine beispielhafte Illustration, die ein Konzept der Koordinatentransformation in der Kartenanzeige zeigt;
  • 7 ist ein Flussdiagramm zum Illustrieren eines Betrachtungspunktsetzverfahrens, welches ein Merkmal der vorliegenden Erfindung ist;
  • 8 ist eine beispielhafte Illustration zum Ergänzen von 7;
  • 9 ist ein Flussdiagramm zum Illustrieren eines Betrachtungspunktsetzverfahrens, welches eine Blickrichtung ändert entsprechend einer Bewegung des Fahrzeugs;
  • 10 ist ein Flussdiagramm zum Illustrieren des Betrachtungspunktsetzverfahrens, welches eine Nöhe des Betrachtungspunkts fixiert, wenn ein Gebiet ein beinahe flaches topografisches Merkmal aufweist;
  • 11 ist eine beispielhafte Illustration, die ein Konzept des Betrachtungspunktsetzverfahrens zeigt, welches den Betrachtungspunkt innerhalb des Fahrzeugs festlegt;
  • 12 ist eine beispielhafte Illustration, die ein Beispiel der Anzeige zeigt, wenn der Betrachtungspunkt innerhalb des Fahrzeugs festgelegt ist;
  • 13 ist ein Flussdiagramm zum Illustrieren des Betrachtungspunktsetzverfahrens, welches den Betrachtungspunkt nach innerhalb oder außerhalb des Fahrzeugs umschaltet gemäß einer Höhe des Betrachtungspunkts;
  • 14 ist ein Flussdiagramm zum Illustrieren des Betrachtungspunktsetzverfahrens, welches den Betrachtungspunkt nach innerhalb oder außerhalb des Fahrzeugs umschaltet gemäß eines Maßstabs der Anzeige;
  • 15 ist ein Flussdiagramm zum Illustrieren des Betrachtungspunktsetzverfahrens, welches einen Betrachtungswinkel variiert in Übereinstimmung mit einer Betrachtungswinkelauswahl von normal/weit;
  • 16 ist ein Flussdiagramm zum Illustrieren des Betrachtungspunktsetzverfahrens, welches eine Höhe des Betrachtungspunkts variiert gemäß einer Anzeigeverfahrensauswahl von der pseudodreidimensionalen Anzeige/der dreidimensionalen Anzeige;
  • 17A ist eine beispielhafte Illustration, die die relative Position des Fahrzeugs und des Betrachtungspunkts in der dreidimensionalen Anzeige zeigt;
  • 17B ist eine beispielhafte Illustration, die die relative Position des Fahrzeugs und des Betrachtungspunkts in der pseudodreidimensionalen Anzeige zeigt;
  • 18 ist ein Flussdiagramm zum Illustrieren des Betrachtungspunktsetzverfahrens, welches eine Höhe des Betrachtungspunkts variiert gemäß einer Auswahl des Scrollens oder nicht;
  • 19 ist eine beispielhafte Illustration, die ein Beispiel eines Datenformats der Kartendatenbank gemäß der vorliegenden Erfindung zeigt;
  • 20 ist ein Flussdiagramm zum Illustrieren des Betrachtungspunktsetzverfahrens, welches eine Höhe des Betrachtungspunkts variiert in Anhängigkeit davon, ob Informationen bezüglich einer Erhöhung der topografischen Merkmale verfügbar sind oder nicht;
  • 21 ist ein Flussdiagramm zum Illustrieren des Betrachtungspunktsetzverfahrens, welches eine Höhe des Betrachtungspunkts variiert in Anhängigkeit davon, ob Informationen bezüglich einer Erhöhung der Straße verfügbar sind oder nicht;
  • 22 ist eine beispielhafte Illustration zum Ergänzen von 21.
  • 23A ist ein Anzeigebeispiel des Fahrzeugs, wenn der Betrachtungspunkt bei einer höheren Poisition festgelegt ist;
  • 23B ist ein Anzeigebeispiel des Fahrzeugs, wenn der Betrachtungspunkt bei einer niedrigeren Poisition festgelegt ist; und
  • 24 ist ein Blockdiagamm, das eine Konstruktion einer Kartenanzeigevorrichtung in einer anderen Ausführungsform der vorliegenden Erfindung zeigt.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Eine Ausführungsform der vorliegenden Erfindung wird nun beschrieben werden mit Bezugnahme auf die Zeichnungen.
  • Wie in 1 gezeigt, umfasst ein Navigationssystem gemäß der Ausführungsform zum Beispiel eine Betriebs- und Verarbeitungseinheit 1-1, ein Anzeigegerät 1-2, eine Kartendatenbankeinheit 1-3, ein Spracheingabe/-ausgabegerät 1-4 und ein Eingabegerät 1-5.
  • Die Betriebs- und Verarbeitungseinheit 1-1 ist eine Haupteinheit für verschiedene Verarbeitungen, wie zum Beispiel die Erkennung einer gegenwärtigen Position des Fahrzeugs basierend auf Ausgabeinformationen der Sensoren 1-71-10, welche später beschrieben werden, die grafische Entwicklung von Kartenbildern von der Karteninformation, welche für das Anzeigen notwendig ist und ausgelesen wird aus der Kartendatenbankeinheit 1-3 in Übereinstimmung mit der erkannten gegenwärtigen Position des Fahrzeugs, und das Überlagern eines Fahrzeugsymbols auf dem Kartenbild zum Anzeigen der gegenwärtigen Position des Fahrzeugs, welche durch die Sensoren 1-71-10 erkannt wird; oder das Berechnen der am besten angepassten Route zu einer Position, die durch einen Benutzer über das Eingabegerät 1-5 angefordert wurde (zum Beispiel von der gegenwärtigen Position zu einem bezeichneten Ziel), sowie das Führen des Benutzers entlang der am besten angepassten Route unter Verwendung des Spracheingabe-/-ausgabegeräts 1-4 und/oder des Anzeigegeräts 1-2.
  • Das Anzeigegerät 1-2 ist eine Einheit zum Anzeigen der grafischen Informationen, die in der Betriebs- und Verarbeitungseinheit 1-1 erzeugt worden sind, und umfasst ein CRT- oder Flüssigkristallanzeigegerät oder Ähnliches. Typischerweise wird ein RGB-Signal oder NTSC (National Television System Committee)-Signal verwendet für ein S1-Signal, das die Betriebs- und Verarbeitungseinheit 1-1 und das Anzeigegerät 1-2 verbindet.
  • Die Kartendatenbankeinheit 1-3 umfasst ein Speichermedium mit einer großen Kapazität wie zum Beispiel eine CD-ROM, eine IC-Karte oder DVD (Digital Video Disc) und führt die Lese-/Schreibverarbeitung der notwendigen Kartendaten durch. Das Spracheingabe-/-ausgabegerät 1-4 transformiert eine Nachricht für den Benutzer, welche durch die Betriebs- und Verarbeitungseinheit 1-1 erzeugt worden ist, in ein Sprachsignal und gibt das Sprachsignal aus, wie es auch die Sprache eines Benutzers erkennt und ihren Inhalt an die Betriebs- und Verarbeitungseinheit 1-1 überträgt.
  • Das Eingabegerät 1-5 ist eine Einheit zum Annehmen verschiedener Operationsbefehle, welche später beschrieben werden, von dem Benutzer und umfasst Hardware-Schalter, wie zum Beispiel eine Scroll-Taste zum Scrollen der angezeigten Karte, eine Maßstabsänderungstaste zum Ändern eines Maßstabs der angezeigten Karte, einen Joystick sowie ein Berührfeld, das auf dem Anzeigebildschirm angeordnet ist.
  • Das System in der Ausführungsform umfasst weiterhin Sensoren, die zu verwenden sind zum Erkennen einer gegenwärtigen Position des Fahrzeugs im Navigationsbetrieb eines bewegten Fahrzeugs, wie zum Beispiel einen Radrotationsgeschwindigkeitssensor 1-7 zum Messen einer Entfernung durch Multiplizieren einer erkannten Rotationsrate des Rades mit einem Umfang des Rades; einen Azimut-Sensor 1-8 zum Erkennen eines Azimuts, auf den sich das Fahrzeug zu bewegt, durch Messen eines geomagnetischen Feldes der Erde; einen Gyrosensor 1-9 zum Erkennen eines Rotationswinkels des Fahrzeugs, das ein optisches Fasergyroskop oder ein Oszillationsgyroskop aufweist; einen GPS-Empfänger 1-10 zum Erkennen der gegenwärtigen Position, der Kursrichtung und des Kurs-Azimuts des Fahrzeugs durch gleichzeitiges Empfangen von Signalen von drei oder mehr GPS-Satelliten und Messen von Entfernungen und Entfernungsraten zwischen dem Fahrzeug und den GPS-Satelliten.
  • Das System der Ausführungsform umfasst weiterhin einen Verkehrsinformationsempfänger 1-11 zum Empfangen von Signalen von einer FM-Multiplexübertragungsstation oder einem Funkfeuersender, der ein Verkehrsinformationssignal überträgt bezüglich Verkehrsstörungen, Straßenarbeiten oder Straßenschließung, verfügbare Parkplätze und Ähnlichem. Weiterhin umfasst das System ein Fahrzeug-LAN-Gerät 1-6 zum Empfangen unterschiedlicher Informationen über den Fahrzeugszustand wie zum Beispiel offen/geschlossen von Türen, Zustand und Typen von Lichtern, die angeschaltet sind, Zustand des Motors und ein Resultat einer Problemdiagnoseoperation.
  • 2 zeigt ein Beispiel einer Hardwarestruktur der Betriebs- und Verarbeitungseinheit 1-1.
  • Die Betriebs- und Verarbeitungseinheit 1-1 umfasst die folgenden Geräte, welche miteinander über einen Bus verbunden sind. Diese einzelnen Geräte sind eine CPU 2-1, die verschiedene Operationen ausführt, wie zum Beispiel eine numerische Operation oder eine Steuerung der Geräte, ein RAM 2-2, der Kartendaten oder Operationsdaten speichert, ein ROM 2-3, der Programme oder Daten speichert, eine DMA (Direct Memory Access) 2-4 zum Ausführen einer Nnchgeschwindigkeitsdatenübertragung zwischen den Speichern sowie zwischen dem Speicher und dem Gerät, ein Grafik-Controller 2-5, der verschiedene Grafikbildoperationen ausführt, wie zum Beispiel Entwickeln von Vektordaten zu Pixelinformationen und Steuern der Anzeigeoperation, ein VRAM 2-6, der Grafikbilddaten speichert, eine Farbpalette 2-7, die Bilddaten in das RGB-Signal umwandelt, einen A/D-Wandler 2-8, der ein Analogsignal in ein Digitalsignal umwandelt, ein SCI 2-9, der ein serielles Signal in ein Bus-synchronisiertes paralleles Signal umwandelt, einen PIO 2-10, der das Signal während der Synchronisation mit dem parallelen Signal auf den Bus sendet, und einen Zähler 2-11, der ein Pulssignal akkumuliert.
  • 3 zeigt eine funktionale Struktur, die durch die Betriebs- und Verarbeitungseinheit 1-1 realisiert ist, die die oben genannte Hardwarestruktur aufweist. Jeder der funktionalen Blöcke wird nun beschrieben werden.
  • Eine Erkennungseinheit für die gegenwärtige Position 3-5 führt Operationen zum Erlangen einer Position des Fahrzeugs nach seiner Bewegung (X', Y') von einer initialen Position (X, Y) aus unter Verwendung von Entfernungs- und Winkeldaten, die durch Integrieren von Entfernungsimpulsdaten S5 erhalten werden, die durch den Radrotationsgeschwindigkeitssensor 1-7 gemessen werden, sowie von Winkelbeschleunigungsdaten S7, die am Gyroskop 1-9 gemessen werden, und weiterhin durch Zeitintegration dieser Daten. Weiterhin wird in der Positionsberechnungseinheit 3-5 der Betrag des Azimuts, auf den sich das Fahrzeug zu bewegt, korrigiert unter Verwendung der Azimut-Daten S6 von dem Azimut-Sensor 1-8 und den Winkeldaten, die durch Integrieren der Winkelbeschleunigungsdaten S7 von dem Gyroskop 1-9 erhalten werden, um so den Rotationswinkel des Fahrzeugs und den Bewegungs-Azimuts in Übereinstimmung zu bringen. Weiterhin kann die Erkennungseinheit für die gegenwärtige Position in 3-5 Information bezüglich der gegenwärtigen Position des Fahrzeugs nach Ausführung einer Operation ausgeben, welche Fehler auslöscht, die sich in den Daten angesammelt haben, die von den genannten Sensoren aufgrund ihrer Integrationsoperationen unter Verwendung der Positionsdaten S8 ausgegeben werden, die periodisch bei dem GPS-Empfänger mit einer bestimmten Periode erhalten werden, wenn die Positionsdaten S8 verfügbar sind.
  • Informationen bezüglich der gegenwärtigen Position, die auf diese Weise erhalten werden, beinhalten Fehler, die in den Sensordaten ihren Ursprung haben. Daher wird eine Kartenanpassungsverarbeitungseinheit 3-6 bereitgestellt, um die Genauigkeit beim Erkennen der gegenwärtigen Position des Fahrzeugs zu erhöhen. Die Kartenanpassungsverarbeitungseinheit 3-6 führt Operationen aus, wie zum Beispiel Vergleichen von Straßendaten, welche in der Karte in der Umgebung der gegenwärtigen Position des Fahrzeugs enthalten sind, die von der Datenleseeinheit 3-7 gelesen wurde, und eine Trajektorie des Fahrzeugs, die von der Erkennungseinheit für die gegenwärtige Position 3-5 erhalten wird, sowie ein Korrigieren der gegenwärtigen Position, so dass die gegenwärtige Position die beste Korrelation zwischen Formen der Straßendaten und der Trajektorie des Fahrzeugs gibt. In vielen Fällen ermöglicht der Kartenanpassungsprozess ein Anpassen der gegenwärtigen Position an eine Straße, auf der sich das Fahrzeug tatsächlich bewegt, und somit das Ausgeben einer präzisen gegenwärtigen Position des Fahrzeugs.
  • Die Informationen bezüglich der gegenwärtigen Position des Fahrzeugs werden in einer Trajektorien-Speichereinheit 3-8 jedes Mal gespeichert, wenn das Fahrzeug eine bestimmte Entfernung zurückgelegt hat. Die Trajektorien-Daten werden zum Erzeugen eines grafischen Bildes zum Markieren der Trajektorie des Fahrzeugs auf Straßen der entsprechenden Karte verwendet, wo sich das Fahrzeug bewegt hatte.
  • Eine Befehl-Dekodiereinheit 3-1 akzeptiert Anforderungen (Befehle) von einem Benutzer über das Eingabegerät 1-5, analysiert Inhalte der Anforderungen und steuert jede der Einheiten, um so Operationen in Reaktion auf die Befehle auszuführen. Wenn zum Beispiel der Benutzer eine Routen führung zu einem Ziel anfordert, fordert die Befehl-Dekodiereinheit 3-1 eine Anzeigeverarbeitungseinheit 3-10 auf, Operationen zum Anzeigen einer Karte zum Festlegen des Ziels auszuführen, und fordert weiterhin eine Routenberechnungseinheit 3-2 auf, Operationen zum Berechnen einer Route von der gegenwärtigen Position zum Ziel auszuführen.
  • Die Routenberechnungseinheit 3-2 sucht nach einer Route zwischen den bezeichneten Positionen aus den Kartendaten unter Verwendung von dem Dijkstra-Algorithmus oder Ähnlichem und speichert die Route in einer Routenspeichereinheit 3-3. Die Routenberechnungseinheit 3-2 kann verschiedene Arten von Routen berechnen, wie zum Beispiel die kürzeste Route zwischen den bezeichneten Positionen, eine Route, die innerhalb der kürzesten Reisezeit erreichbar ist, sowie die kostengünstigste Route.
  • Eine Routenführungseinheit 3-4 vergleicht Verbindungsinformationen für die Routenführung, die in der Routenspeichereinheit 3-3 gespeichert ist, mit den gegenwärtigen Fahrzeugspositionsinformationen, die in der Erkennungseinheit für die gegenwärtige Position 3-5 und der Kartenanpassungsverarbeitungseinheit 3-6 erhalten werden, und führt den Benutzer durch sprachliche Mitteilung, ob er geradeaus fahren oder links/rechts abbiegen soll unter Verwendung eines Spracheingabe-/-ausgabegeräts 1-4, eine vorbestimmte Zeitperiode, bevor das Fahrzeug eine Kreuzung passiert, oder überlagert eine Markierung, die eine Richtung anzeigt, in die das Fahrzeug gelenkt werden soll, auf der Karte, die auf einem Bildschirm des Anzeigegeräts 1-2 angezeigt wird.
  • Die Datenleseeinheit 3-7 wird zum Erfassen und Vorbereiten von Kartendaten eines von der Kartendateneinheit 1-3 angeforderten Gebiets betrieben.
  • Die Betrachtungspunktsetzeinheit 3-11 ist eines der charakteristischen Merkmale der vorliegenden Erfindung, welche Variablen festlegt, wie zum Beispiel einen Betrachtungspunkt, eine Blickrichtung, einen Betrachtungswinkel, die für das Kartenanzeigeverfahren der vorliegenden Erfindung festgelegt werden sollen.
  • Die Anzeigeverarbeitungseinheit 3-11 empfängt die Kartendaten in der Umgebung einer Position, die zum Anzeigen von der Datenleseeinheit 3-7 angefordert wird, entwickelt die Kartendaten in ein grafisches Bild unter Verwendung des Betrachtungspunkts/der Blickrichtung/des Betrachtungswinkels, die festgelegt sind durch die Betrachtungspunktsetzeinheit 3-11, und unter Verwendung eines Anzeigemaßstabs, eines Abbildeverfahrens, eines Abbilde-Azimuts, die bezeichnet werden durch die Befehl-Dekodiereinheit 3-1, und überträgt das entwickelte Grafikbild an den VRAM 2-6. Eine Menu-Anzeigeeinheit 3-9 akzeptiert unterschiedliche Anforderungen, die von der Befehl-Dekodiereinheit 3-1 ausgegeben werden, und überträgt Bilder von unterschiedlichen Typen von Menus oder Symbolen, welche an die Anzeigeverarbeitungseinheit 3-10 zum Überlagern der Bilder auf der angezeigten Karte angefordert sind.
  • 4 zeigt ein Beispiel der stereoskopischen Kartenanzeige, die durch das Gerät der vorliegenden Ausführungsform angezeigt wird und in der ein Teil der Kartendaten, wie zum Beispiel topografische Merkmale, Straßen usw., grafisch zu einem Bild entwickelt werden, das anzuzeigen ist. Dort ist 4-2 ein Berg, der auf der Basis der topografischen Höhendaten (Erhebungsdaten) gezeichnet ist, 4-3 sind Straßen, die unter Verwendung einer Linie mit fester Breite gezeichnet sind, und 4-4 ist ein Symbol, das die gegenwärtige Position des Fahrzeugs anzeigt. Das Anzeigebeispiel 4-1 wird durch Auslesen der Kartendaten in der Umgebung der gegenwärtigen Position des Fahrzeugs von der Kartendatenbankeinheit 1-3 erzeugt, basierend auf der gegenwärtigen Position des Fahrzeugs, die von dem Sensorsystem ausgegeben wird, und Anzeigen eines Landschaftsbildes (einer perspektivischen Karte), das von einem Betrachtungspunkt aus betrachtet wird, der in der Luft über dem Fahrzeug unter Verwendung eines Verfahrens der vorliegenden Erfindung festgelegt ist.
  • 5 zeigt ein Beispiel eines Datenflusses, wenn eine stereoskopische Karte ähnlich derjenigen in 4 angezeigt wird.
  • Die Datenleseeinheit 3-7 liest die Kartendaten in der Umgebung der gegenwärtigen Position des Fahrzeugs von der Kartendatenbankeinheit 1-3 aus, basierend auf der gegenwärtigen Position des Fahrzeugs, die von der Erkennungseinheit für die gegenwärtige Position 3-5 erkannt wird. Die Betrachtungspunktsetzeinheit 3-11 liest die gegenwärtige Position des Fahrzeugs, die von der Erkennungseinheit für die gegenwärtige Position 3-5 erkannt wird, sowie die Kartendaten, welche topografische Merkmale, Straßen, Gebäude enthalten, von der Datenleseeinheit 3-7 und legt Variable fest, wie zum Beispiel den Betrachtungspunkt, die Blickrichtung, den Betrachtungswinkel usw., welche für die stereoskopische Kartenanzeige festgelegt werden sollten.
  • Die Anzeigeverarbeitungseinheit 3-10 führt eine Koordinatentransformation der Kartendaten in der Umgebung des Fahrzeugs gemäß dem Betrachtungspunkt, der Blickrichtung und dem Betrachtungswinkel durch, die durch die Betrachtungspunktsetzeinheit 3-11 festgelegt sind, und erzeugt das anzuzeigende perspektivische Kartenbild. Die Kartenanpassungsverarbeitungseinheit 3-6, welche die gegenwärtige Position des Fahrzeugs mit höherer Genauigkeit erhält und die genaue gegenwärtige Position in die Betrachtungspunktsetzeinheit 3-11 und die Anzeigeverarbeitungseinheit 3-10 eingibt, wie in 3 gezeigt, ist hier in 5 ausgelassen, unter der Annahme, dass die Erkennungseinheit für die gegenwärtige Position 3-5 die gegenwärtige Position des Fahrzeugs mit einer ausreichend hohen Genauigkeit erhält.
  • Die Koordinatentransformationsoperation, die bei dem Anzeigeverfahren der vorliegenden Ausführungsform verwendet wird, wird nun mit Bezugnahme auf 6 beschrieben.
  • Eine perspektivische Karte 6-6 wird erzeugt durch Projektion eines topografischen Merkmals 6-2, das über einer Bodenoberfläche 6-4 bei Meeresniveau angeordnet ist, auf einen Bildschirm (Betrachtungsebene) 6-3, die zwischen dem Betrachtungspunkt (Betrachtungsreferenzpunkt) 6-1 und dem topografischen Merkmal 6-2 angeordnet ist, durch eine Reihe von Koordinatentransformationen. Die Reihe von Koordinatentransformationen umfasst zum Beispiel die erste Transformation zum Transformieren der Kartendaten, die in einer Objektkoordinate ausgedrückt sind, zu denjenigen einer Weltkoordinate, die zweite Transformation zum Transformieren des Resultats der ersten Transformation in eine Betrachtungspunktkoordinate, deren Ursprung bei dem Betrachtungspunkt 6-1 festgelegt ist, und der dritten Transformation zum Transformieren des Resultats der zweiten Transformation in eine Bildschirmkoordinate, um so das Resultat der zweiten Transformation auf den Bildschirm 6-3 zu projizieren.
  • Gemäß der Reihe von Koordinatentransformationen kann die perspektivische Karte 6-6 in einem Bildschirmfenster entsprechend einem Teil des topografischen Merkmals erzeugt werden in Abhängigkeit von einer räumlichen Beziehung zwischen dem Betrachtungspunkt 6-1 und dem topografischen Merkmal 6-2. In der vorliegenden Ausführungsform zeigt das Anzeigegerät 1-2 ein grafisches Bild an, das unter Verwendung von Daten der perspektivischen Karte 6-6 erzeugt wird, um so die Landschaft (ein Landschaftsbild) zu zeigen, welches gesehen werden soll, wenn ein Teil des topografischen Merkmals 6-5 von oben in der Luft betrachtet wird.
  • In dieser Beschreibung bedeutet „die Bodenoberfläche bei Meeresniveau" eine plane Ebene wie die Ebene 6-4, die in 6 gezeigt ist, und „die Bodenoberfläche" bedeutet eine Oberfläche der Bodenfläche wie 6-2.
  • Nun wird ein Beispiel der Prozedur in der Betrachtungspunktsetzeinheit 3-11 der vorliegenden Ausführungsform mit Bezug auf die 7 und 8 beschrieben. 7 ist ein Flussdiagramm der Prozessschritte und 8 ist eine beispielhafte Illustration zur Ergänzung von 7. Im Folgenden wird angenommen, dass ein Ort des Fahrzeugs bei einem Punkt 8-1 ist.
  • Zuerst wird die gegenwärtige Position des Fahrzeugs 8-1 von der Erkennungseinheit für die gegenwärtige Position 3-5 oder über die Kartenanpassungsverarbeitungseinheit 3-6 erhalten (Schritt 7100). Dann wird eine Höhe (Erhebung) ht bei der gegenwärtigen Position des Fahrzeugs berechnet, basierend auf Daten bezüglich einer Höhe des topografischen Merkmals (Erhebungsdaten), welche über die Datenleseeinheit 3-7 erhalten werden (Schritt 7200). Wenn angenommen wird, dass die Genauigkeit der Daten in der Höhenrichtung des GPS-Signals ausreichend hoch zum Erkennen der Position des Fahrzeugs ist, kann Schritt 7200 ausgelassen werden.
  • Als Nächstes wird eine vorbestimmte Höhe Y zu der Fahrzeughöhe ht hinzu addiert zur Berechnung einer Betrachtungspunkthöhe Yv, um so den Betrachtungspunkt über die Fahrzeughöhe ht zu setzen (Schritt 7300). Im Schritt 7400 wird entschieden, ob der festgelegte Betrachtungspunkt über der Bodenoberfläche ist oder nicht, indem die Betrachtungspunkthöhe Yv und die Erhebung hv bei einem Ort, der mit einer vorbestimmten Abstandsentfernung L hinter der gegenwärtigen Position des Fahrzeugs ist, verglichen wird.
  • Wenn entschieden ist, dass der Betrachtungspunkt oberhalb der Bodenoberfläche ist (Y bei Schritt 7400), wird der Betrachtungspunkt 8-2 endgültig hinter der gegenwärtigen Position des Fahrzeugs mit der vorbestimmten Abstandsentfernung L und bei der Höhe yv (Schritt 7600) festgelegt, und die Blickrichtung des Betrachtungspunkts wird in der Richtung der gegenwärtigen Position des Fahrzeugs 8-1 festgelegt (Schritt 7700). Wenn der Betrachtungspunkt unterhalb der Bodenoberfläche lokalisiert ist (N in Schritt 7400), wird yv erneut festgelegt, so dass sein Wert größer wird als hv (Schritt 7500), und dann schreit die Operationsprozedur zu Schritt 7600 fort.
  • Wie oben beschrieben, ermöglicht die vorliegende Prozedur ein Festsetzen und erneutes Festsetzen der Höhe des Betrachtungspunkts, so dass der Betrachtungspunkt immer oberhalb in der Luft lokalisiert ist, während sich das Fahrzeug bewegt.
  • Alternativ kann die Betrachtungspunkthöhe yv (yv' bei einer Position 8-3) festgesetzt werden unter Verwendung einer festen Höhendifferenz Y zwischen dem Fahrzeug und dem Betrachtungspunkt, während sich das Fahrzeug von der Position 8-1 zur Position 8-3 bewegt, wie in 8 gezeigt ist. Dies macht es möglich, eine relative räumliche Beziehung zwischen der Position des Fahrzeugs und dem Betrachtungspunkt festzulegen.
  • Gemäß der Prozedur, die in 7 gezeigt ist, kann die räumliche Beziehung in einer normalen Situation beibehalten werden und der Ort des Betrachtungspunkts kann immer oberhalb in der Luft festgelegt sein durch Ausführen eines außergewöhnlichen Schritts wie Schritt 7500, selbst wenn es dort einen großen Betrag der topografischen Variation gibt.
  • Es ist offensichtlich, dass das Festsetzverfahren der Betrachtungspunkthöhe in der vorliegenden Ausführungsform auch in derselben Weise, wie o ben erwähnt, angewendet werden kann, wenn die topografische Erhebung oder die Straßenerhebung unter dem Meeresniveau liegt, d.h. selbst wenn die Höhenwerte weniger als Null sind.
  • Eine andere Ausführungsform der Prozedur der Betrachtungspunktsetzeinheit 3-11 der vorliegenden Erfindung wird nun unter Bezugnahme auf 9 beschrieben.
  • In der vorliegenden Ausführungsform werden Prozedurschritte zum Anzeigen des Fahrzeugs und der Landschaft in der Umgebung des Fahrzeugs während die Änderung des Betrachtungspunkt mit der Bewegung des Fahrzeugs zu der Prozedur von 7 hinzugefügt. Die Schritte 7110, 7210, 7710 der vorliegenden Prozedur sind jeweils die gleichen Schritte wie die Schritte 7100, 7200, 7700 von 7 mit der Ausnahme, dass die gegenwärtige Position des Fahrzeugs in der vorliegenden Ausführungsform angenommener Maßen die Position 8-3 von 8 ist.
  • In der vorliegenden Prozedur erhält die Betrachtungspunktsetzeinheit 3-11 die gegenwärtige Position des Fahrzeugs (Schritt 7110), berechnet die Fahrzeughöhe ht + dt (Schritt 7210), erhält die vorherige Betrachtungsposition 8-2 (Schritt 7211) und berechnet eine Entfernung d zwischen dem vorherigen Betrachtungspunkt 8-2 und der gegenwärtigen Position des Fahrzeugs 8-3 (Schritt 7212).
  • Weiterhin wird entschieden, ob die Entfernung d innerhalb eines vorbestimmten Bereichs ist oder nicht (Schritt 7213). Wenn die vorbestimmte Entfernung d innerhalb des vorbestimmten Bereichs ist (Y bei Schritt 7213), wird der gleiche Betrachtungspunkt beibehalten (Schritt 7214) und es wird nur die Blickrichtung in Richtung der neuen gegenwärtigen Position des Fahrzeugs geändert (7710). Wenn die Entfernung d größer ist als der vorbestimmte Bereich (N bei Schritt 7213) schreitet die Prozedur zu Schritt 7300 von 7 fort.
  • Eine weitere Ausführungsform der Prozedur der Betrachtungspunktsetzeinheit 3-11 der vorliegenden Erfindung wird nun unter Bezugnahme auf 10 beschrieben.
  • In der vorliegenden Ausführungsform werden Prozedurschritte zum Setzen der Betrachtungspunkthöhe zu der Prozedur von 7 hinzugefügt, während die Notwendigkeit ihrer Erneuerung basierend auf einem Betrag der topografischen Variation in der Umgebung der gegenwärtigen Position des Fahrzeugs beurteilt wird. Schritte 7110, 7210, 7710 der vorliegenden Prozedur sind jeweils die gleichen Schritte wie die Schritte 7100, 7200, 7700 von 7 mit der Ausnahme, dass die gegenwärtige Position des Fahrzeugs in der vorliegenden Ausführungsform angenommener Maßen bei der Position 8-3 von 8 ist.
  • In der vorliegenden Prozedur erhält die Betrachtungspunktsetzeinheit 3-11 die gegenwärtige Position des Fahrzeugs 8-3 (Schritt 7110), berechnet die Fahrzeughöhe ht + dt (Schritt 7210), erhält die vorherige Betrachtungspunkthöhe yv (Schritt 7211), berechnet eine Höhendifferenz Δ h zwischen der Fahrzeughöhe ht + dt bei seiner gegenwärtigen Position und der Höhe des vorherigen Betrachtungspunkts (Schritt 7221) und prüft, ob die Höhendifferenz Δ h innerhalb eines vorbestimmten Bereichs ist oder nicht (Schritt 7222).
  • Wenn die Höhendifferenz Δ h innerhalb des vorbestimmten Bereichs ist (Y bei Schritt 7222), wird die gleiche Höhe des Betrachtungspunkts wie bei dem vorherigen beibehalten, und der neue Betrachtungspunkt 8-4 wird bei dieser Höhe festgelegt (Schritte 7223, 7710). Wenn nicht, schreitet die Prozedur zu Schritt 7300 von 7 fort.
  • Es ist notwendig, die vorliegende Prozedur auszuführen, während sich das Fahrzeug bewegt. Anstelle der vorliegenden Prozedur kann es möglich sein, die Karte in eine Mehrzahl von Netzen aufzuteilen, von denen jedes ein vorbestimmtes Kartengebiet aufweist, und die Betrachtungspunkthöhe auf einen fixen Wert innerhalb jedes der Netze durch Evaluieren des Betrags der topografischen Variation innerhalb des Netzes festzulegen. Alternativ kann eine Auswahl von Straßen, wo die Betrachtungspunkthöhe fix sein kann, im voraus spezifiziert werden durch Evaluieren eines Betrags von Höhen und Tiefen von Straßen, auf denen sich das Fahrzeug laut Plan bewegen wird.
  • Eine weitere Ausführung der Prozedur der Betrachtungspunktsetzeinheit 3-11 der vorliegenden Erfindung wird nun unter Bezugnahme auf 11 und 12 beschrieben.
  • In der vorliegenden Ausführungsform wird der Betrachtungspunkt, der in den vorherigen Ausführungsformen oberhalb in der Luft und hinter dem Fahrzeug festgelegt wurde, nun innerhalb des Fahrzeugs festgelegt. Konkret wird die Höhe des Betrachtungspunkts 11-2, die innerhalb des Fahrzeugs 11-1 festgelegt ist, welches sich auf dem Boden mit einer Erhöhung h vom Meeresniveau bewegt, bestimmt durch Addieren der Höhe h der gegenwärtigen Position des Fahrzeugs zu einer vorbestimmten Höhe Yi. Der Betrachtungspunkt, der innerhalb des Fahrzeugs festgelegt ist, wird im Folgenden „In-Fahrzeug-Betrachtungspunkt" genannt.
  • Die Prozedur der vorliegenden Ausführungsform ist im Wesentlichen die gleiche wie diejenige von 7, wobei die vorbestimmte Höhe Y durch Yi in Schritt 7300 ersetzt wird, und macht es möglich, den In-Fahrzeug-Betrachtungspunkt festzulegen. Weiterhin können in der vorliegenden Ausführungsform die Schritte 7400 und 7500 von 7 eliminiert wer den, da der Betrachtungspunkt immer bei Schritt 7300 oberhalb der Bodenfläche festgelegt wird.
  • Alternativ kann die Höhe Yi als eine Variable definiert werden, so dass ihr Wert angepasst werden kann in Reaktion auf Fahrzeugtyp oder Fahrzeughöhe, die durch den Benutzer unter Verwendung des Eingabegeräts 1-5 eingegeben oder ausgewählt wird.
  • 12 illustriert ein Beispiel 12-1 der Anzeige, welche ein Landschaftsbild nahe einer Kreuzung mit dem In-Fahrzeug-Betrachtungspunkt zeigt. Das Anzeigebeispiel 12-1 zeigt ebenfalls einen Teil der Fahrzeugstruktur, die vom Fahrer (Benutzer) gesehen werden kann, wenn er oder sie vom Inneren des Fahrzeugs nach außen blickt, wie zum Beispiel einen Frontscheibenrahmen 12-2 und einen Rückspiegel 12-3, welche dem Landschaftsbild überlagert sind. Der Teil der Fahrzeugstruktur kann grafisch erzeugt werden unter Verwendung seiner Strukturdaten, die in einem Speichergerät gespeichert sein können, wie zum Beispiel in dem Kartendatenbankgerät 1-3 oder dem ROM 2-3.
  • Die Anzeige des Teils der Fahrzeugstruktur, die auf dem Landschaftsbild überlagert ist, ermöglicht es dem Fahrer, den tatsächlichen Blick vom Inneren des Fahrzeugs sowie die angezeigten Straßen und Gebäude einfacher aufeinander zu beziehen, und erhöht daher die Erkennbarkeit. Alternativ kann das Navigationssystem in einer solchen Weise strukturiert sein, dass das Eingabegerät 1-5 die Auswahl des Benutzers in Bezug darauf akzeptiert, welches Teil der Fahrzeugstruktur angezeigt werden soll, und das Anzeigebild wird gemäß der Auswahl des Benutzers erzeugt. Weiterhin kann die Anzeige mit mehr Klarheit realisiert werden, indem zusätzlich transparente Verarbeitung während der Anzeigeprozedur ausgeführt wird.
  • Eine weitere Ausführungsform der Prozedur der Betrachtungspunktsetzeinheit 3-11 der vorliegenden Erfindung wird nun unter Bezugnahme auf 13 beschrieben.
  • Die Prozedur der vorliegenden Erfindung enthält zusätzlich zu der Prozedur, die in 7 illustriert ist, Schritte zum Schalten einer Position des Betrachtungspunkts zwischen innerhalb und außerhalb des Fahrzeugs in Abhängigkeit von einer Betrachtungspunkthöhe, die durch den Benutzer angefordert wird. Weiterhin ist in der vorliegenden Ausführungsform das Eingabegerät 1-5 strukturiert, um eine Auswahl oder eine Schaltoperation von dem Benutzer anzunehmen, um schrittweise die Betrachtungspunkthöhe zu ändern.
  • In der vorliegenden Erfindung wird die Betrachtungspunkthöhe yv, die durch den Benutzer angefordert wird, erhalten (Schritt 1310) und dann wird geprüft, ob die Betrachtungspunkthöhe yv geringer als eine vorbestimmte Höhe Y1 ist (Schritt 1320). Wenn sie geringer ist als Y1, wird die Betrachtungspunkthöhe yv innerhalb des Fahrzeugs festgelegt unter Verwendung des Verfahrens, das mit Bezug auf 11 beschrieben ist (Schritt 1330), und die Blickrichtung wird entlang der Bewegungsrichtung des Fahrzeugs festgelegt (Schritt 1340).
  • Wenn die Betrachtungspunkthöhe yv nicht geringer als Y1 in Schritt 1320 ist, wird die Betrachtungspunkthöhe yv weiter geprüft, um zu sehen, ob sie größer ist als eine andere vorbestimmte Höhe Y2 (Schritt 1350). Wenn sie größer ist als Y2, wird die Blickrichtung in einer vertikalen Richtung zu der Bodenobenfläche bei Meeresniveau 6-4 festgelegt (Schritt 1360). Wenn die Betrachtungspunkthöhe yv nicht geringer als Y1 und nicht größer als Y2 ist, werden die Betrachtungspunkthöhe und eine Richtung der Blickrichtung unter Verwendung von Schritten 72007700 von 7 verwendet.
  • Eine weitere Ausführungsform der Prozedur der Betrachtungspunktsetzeinheit 3-11 der vorliegenden Erfindung wird nun unter Bezugnahme auf 14 beschrieben.
  • Die Prozedur der vorliegenden Ausführungsform schließt Schritte zum Schalten einer Position des Betrachtungspunkts zwischen innerhalb und außerhalb des Fahrzeugs in Abhängigkeit von einem Kartenanzeigemaßstab ein, der durch den Benutzer zusätzlich zu der Prozedur, die in 7 illustriert ist, angefordert wird. Weiterhin ist in der vorliegenden Ausführungsform das Eingabegerät 1-5 strukturiert, so dass es in der Lage ist, eine Auswahl oder Schaltoperation von dem Benutzer zu akzeptieren, und den Kartenanzeigemaßstab zu ändern. Weiterhin sind die Schritte 1430, 1440, 1460 in der vorliegenden Prozedur jeweils die gleichen wie die Schritte 1330, 1340, 1360 in der Prozedur, die in 13 gezeigt ist.
  • In der vorliegenden Prozedur wird der Anzeigemaßstab s, der vom Benutzer angefordert wird, erhalten (Schritt 1410), und dann wird der Anzeigemaßstab s geprüft, um zu sehen, ob er geringer ist als ein vorbestimmter Maßstab S1 (Schritt 1420). Wenn er geringer ist als S1, wird die Betrachtungspunkthöhe yv innerhalb des Fahrzeugs unter Verwendung des Verfahrens festgelegt, das mit Bezug auf 11 beschrieben ist (Schritt 1430), und die Blickrichtung wird entlang der Bewegungsrichtung des Fahrzeugs festgelegt (Schritt 1440).
  • Wenn der Anzeigemaßstab nicht geringer ist als S1 in Schritt 1420, wird der Anzeigemaßstab s weiter geprüft, um zu sehen, ob er größer ist als ein anderer vorbestimmter Maßstab S2 (Schritt 140). Wenn er größer ist als S2, wird die Blickrichtung in einer vertikalen Richtung zu der Bodenobenfläche bei Meeresniveau 6-4 festgelegt (Schritt 1460). Wenn der Anzeigemaßstab s nicht kleiner ist S1 und nicht größer als S2 ist, wird die Be trachtungspunkthöhe und eine Richtung der Blickrichtung unter Verwendung der Schritte 72007700 von 7 festgelegt.
  • Eine weitere Ausführungsform der Prozedur der Betrachtungspunktsetzeinheit 3-11 der vorliegenden Erfindung wird nun unter Bezugnahme auf 15 beschrieben.
  • Die Prozedur der vorliegenden Ausführungsform schließt Schritte ein, die es möglich machen, einen Betrachtungswinkel zum Anzeigen der Karte zu schalten gemäß einer Anforderung des Benutzers bezüglich von Variablen, wie zum Beispiel einem Anzeigeformat des Anzeigegeräts 1-2, zusätzlich zu der Prozedur, die in 7 illustriert ist. Weiterhin ist in der vorliegenden Ausführungsform das Eingabegerät 1-5 so strukturiert, dass es entweder einen weiten Anzeigemodus oder einen normalen Anzeigemodus ermöglicht, um den Betrachtungswinkel der Anzeige einzustellen.
  • Zuerst wird in der vorliegenden Prozedur der Betrachtungswinkel, der durch den Benutzer angefordert wird, erhalten (Schritt 1510), und ein Wert des Betrachtungswinkels wird geprüft, um zu entscheiden, ob der Anzeigemodus in dem weiten Modus oder im Normalmodus sein soll (Schritt 1520). Wenn der normale Anzeigemodus ausgewählt ist, wird der Betrachtungswinkel auf einen Vorgabewert gesetzt (Schritt 1530). Wenn der weite Anzeigemodus ausgewählt ist, wird der Betrachtungswinkel auf einen größeren Wert gesetzt als der Vorgabebetrachtungswinkel (Schritt 1540). Die Prozedur schreitet dann fort zu Schritt 7200 von 7 zum Bestimmen der Betrachtungspunkthöhe sowie einer Richtung der Blickrichtung.
  • Die Anzeigegröße kann zu einer weiteren Form geändert werden, zum Beispiel wie in dem Anzeigebeispiel 12-1, das in 12 gezeigt ist. Weiterhin können die Prozeduren, die in 13 und 14 illustriert sind, in der vorliegenden Prozedur zum Umschalten des Betrachtungspunkts zwi schen innerhalb und außerhalb des Fahrzeugs verwendet werden, um den Betrachtungswinkel in Reaktion auf das Schalten der Betrachtungspunktposition zu verändern.
  • Eine weitere Ausführungsform der Prozedur der Betrachtungspunktsetzeinheit 3-11 der vorliegenden Erfindung wird nun unter Bezugnahme auf 16, 17A und 17B beschrieben.
  • Die Prozedur der vorliegenden Ausführungsform schließt Schritte zum Schalten des Betrachtungspunkts ein in Reaktion auf das Schalten des Anzeigeverfahrens zwischen einer dreidimensionalen Anzeige und einer pseudodreidimensionalen Anzeige gemäß der Anforderung des Benutzers zusätzlich zu der Prozedur, die in 7 illustriert ist. In der vorliegenden Beschreibung bedeutet das dreidimensionale Anzeigeverfahren ein Verfahren zum Anzeigen einer stereoskopischen dreidimensionalen Karte unter Verwendung der Karteninformation, welche Höheninformationen enthält, wie zum Beispiel die Erhebung oder Ähnliches, und das pseudodreidimensionale Verfahren bedeutet ein Verfahren zum Erzeugen eines Kartenbildes von den zweidimensionalen Karteninformationen durch die perspektivische Transformation, um so die Karte anzuzeigen, die es möglich macht, einen markanten Eindruck von der Entfernung abzugeben.
  • Weiterhin ist in der vorliegenden Ausführungsform das Eingabegerät 1-5 so strukturiert, dass es in der Lage ist, eine Anforderung vom Benutzer zum Auswählen der dreidimensionalen Anzeige oder der pseudodreidimensionalen Anzeige zu empfangen. Schritt 7710 der vorliegenden Prozedur ist der gleiche wie 7700 von 7.
  • In der vorliegenden Prozedur wird das Anzeigeverfahren, das durch den Benutzer angefordert wird, erhalten (Schritt 1610) und es wird dann entschieden, ob die Anzeige mit dem dreidimensionalen Anzeigeverfahren oder dem pseudodreidimensionalen Anzeigeverfahren ausgeführt werden soll (Schritt 1620). Wenn das dreidimensionale Anzeigeverfahren ausgewählt ist, schreitet die Prozedur zu Schritt 7200 von 7 fort. Dort wird, wie in 17A gezeigt, die Betrachtungspunkthöhe yv bestimmt, basierend auf der topografischen Höhe ht bei der gegenwärtigen Position des Fahrzeugs 8-3 und der vorbestimmten Höhe Y, und der Betrachtungspunkt 8-4 wird an einem Ort hinter dem Fahrzeug gesetzt, der getrennt ist um die vorbestimmte Entfernung L, mit der Betrachtungspunkthöhe, die durch die Schritte 72007700 bestimmt ist. Wenn das pseudodreidimensionale Anzeigeverfahren ausgewählt ist, wird der Betrachtungspunkt 17-2 auf eine Position hinter der gegenwärtigen Position des Fahrzeugs 17-1 gesetzt, die durch die vorbestimmte Entfernung betrennt ist, und der vorbestimmten Höhe y über Meeresniveau (Schritt 1630), und die Blickrichtung wird entlang einer Richtung zum Fahrzeug hin vom festgelegten Betrachtungspunkt aus gesetzt (Schritt 7710).
  • Die Anzeigeverarbeitungseinheit 3-10 erzeugt die Grafikdaten zum Anzeigen einer perspektivischen Karte, die von dem Betrachtungspunkt betrachtet wird, der in der obigen Prozedur unter Verwendung des vom Benutzer ausgewählten Anzeigeverfahrens festgelegt ist, und gibt die Grafikdaten an das Anzeigegerät 1-2 aus.
  • Alternativ kann die Prozedur so strukturiert sein, dass die Höhe Y über Meeresniveau 6-4 auf einen fixen Wert geschaltet werden kann, während das Anzeigeverfahren in der vorliegenden Prozedur umgeschaltet wird.
  • Eine weitere Ausführungsform der Prozedur der Betrachtungspunktsetzeinheit 3-11 der vorliegenden Erfindung wird nun unter Bezugnahme auf 18 beschrieben.
  • Die Prozedur der vorliegenden Ausführungsform schließt Schritte zum Schalten des Betrachtungspunkts zu einer Position 8-4 oder 17-2 von 17A und 17B ein, in Reaktion auf eine Scroll-Anforderung von dem Benutzer, zusätzlich zu der in 7 illustrierten Prozedur.
  • Weiterhin ist in der vorliegenden Ausführungsform das Eingabegerät 1-5 so strukturiert, dass es in der Lage ist, eine Scroll-Anforderungsoperation zu akzeptieren, die durch den Benutzer eingegeben wird. Schritt 7110 der vorliegenden Prozedur ist der gleiche wie Schritt 7100 von 7.
  • In der vorliegenden Prozedur wird die gegenwärtige Position des Fahrzeugs erhalten (Schritt 7110), und dann wird entschieden, ob der Benutzer die Scroll-Operation anfordert (Schritt 7111). Wenn die Scroll-Operation angefordert ist, wird der Betrachtungspunkt 17-2, wie in 17B gezeigt, bei einer vorbestimmten Höhe über der Bodenoberfläche bei Meeresniveau gesetzt (Schritt 7112), und die Blickrichtung von dem Betrachtungspunkt aus wird entlang der Scroll-Richtung gesetzt (Schritt 7113).
  • In der vorliegenden Ausführungsform legt die Betrachtungspunktsetzeinheit 3-11 die Betrachtungspunkthöhe mit Bezug auf das Meeresniveau fest, wenn eine Scroll-Taste gedrückt wird, die in dem Eingabegerät 1-5 angeordnet ist. Eine Verarbeitungsgeschwindigkeit zum Erneuern des Anzeigebildes kann graduell erhöht werden, wenn die Scroll-Taste gedrückt bleibt. Alternativ kann die Prozedur so strukturiert sein, dass eine Scroll-Geschwindigkeit oder ein Verstreichen von Zeit, seitdem die Scroll-Taste gedrückt wurde, geprüft wird, ob sie über einen entsprechend vorbestimmten Wert in Schritt 7111 hinausgeht, wenn die Anzeige in einer solchen Weise gesteuert wird, dass das Anzeigebild bei einer konstanten Periode gesteuert wird; und die obige Schaltprozedur kann ausgeführt werden, wenn die Scroll-Geschwindigkeit oder die verstrichene Zeit über dem entsprechend vorbestimmten Wert liegt.
  • Ein Beispiel der Datenstruktur in dem Kartendatenbankgerät 1-3 der vorliegenden Erfindung wird nun beschrieben.
  • Die Kartendaten des vorliegenden Beispiels umfassen eine Datenmanagementeinheit 19-1 und eine Dateneinheit 19-2, wie in 19 dargestellt. Die Kartendaten können zum Beispiel unter Verwendung eines „Standardgebietsnetzes" gemanagt werden, welches durch Aufteilen eines Gesamtgebietes mit Längen- und Breiten-Linien erhalten wird, die voneinander um einen festen Betrag getrennt sind. Eine Identifikationsnummer, die Netzcode genannt wird, wird jedem der Standardgebietsnetze gegeben.
  • Die Datenspeichereinheit 19-1 speichert eine Mehrzahl von Management-Tabellen, von denen jede einem der Standardgebietsnetze entspricht. Jede der Management-Tabellen speichert den Netzcode 19-3, die Attributinformation 19-4, eine Höhendaten-Management-Einheit 19-5, eine Straßendaten-Management-Einheit 19-6, eine Gebäudedaten-Management-Einheit 19-7 und Ähnliches.
  • Die Attributinformation 19-4 speichert einen Maßstab der Karte, ein Datum der Kartendatenerzeugung und eine Nummer/Namen der Karte. Die Höhendaten-Management-Einheit 19-5 speichert Verbindungsziele in Höhendaten 19-8. Die Höhendaten 19-8 umfassen Höhenwerte, die bei Positionen abgetastet werden, welche in dem Standardgebietsnetz äquidistant zueinander sind, und ermöglichen es, ein Anzeigebild seines topografischen Merkmals zu erzeugen.
  • Die Straßendaten-Management-Einheit 19-6 speichert Verbindungsziele auf ähnliche Weise in den Straßendaten 19-9. Die Straßendaten 19-9 speichern Verbindungsinformationen, die Kreuzungen (Knoten) verbinden, Knotenkoordinaten, Attributinformationen, die die Art einer Straße identi fizieren, wie zum Beispiel eine Zollstraße oder eine Nationalstraße, Straßenhöheninformationen und Ähnliches. Weiterhin speichert die Gebäudedaten-Management-Einheit 19-7 Verbindungsziele in den Gebäudedaten 19-10. Die Gebäudedaten 19-10 speichern Informationen, wie zum Beispiel Namen, Formen und Höhen der Gebäude.
  • Weiterhin werden Identifikationscodes gespeichert zum Anzeigen der Nichtverfügbarkeit eines Verbindungsziels der Straßen-/Gebäude-Höheninformationen, die in einer der Datenmanagementeinheiten 19-519-7 und den Daten 19-819-10 aufgrund des Fehlens der entsprechenden Daten gespeichert sind.
  • Eine weitere Ausführungsform der Prozedur der Betrachtungspunktsetzeinheit 3-11 der vorliegenden Erfindung wird nun unter Bezugnahme auf 2022 beschrieben.
  • Die Prozedur der vorliegenden Ausführungsform schließt Schritte zum Schalten des Betrachtungspunkts ein in Reaktion auf die oben beschriebenen Identifikationscodes, welche unter Verwendung des Kartendatenbankgeräts 1-3 mit der in 19 beschriebenen Datenstruktur zusätzlich zu der in 7 illustrierten Prozedur erhalten werden können.
  • 20 zeigt ein Beispiel der Prozedur zum Schalten des Betrachtungspunkts in Reaktion auf die Erkennung der Höheninformation des topografischen Merkmals (Höhendaten). Die Schritte 7110, 7710 und 7123 der vorliegenden Prozedur sind jeweils die gleichen wie die Schritte 7100, 7700 von 7 und Schritt 1630 von 16.
  • In der vorliegenden Prozedur werden die Kartenmanagementinformationen 19-319-7 des Standardgebietsnetzes, das einem Gebiet in der Umgebung der gegenwärtigen Position des Fahrzeugs entspricht, von dem Kartenda tenbankgerät 1-3 erfasst, und Inhalte der Kartenmanagementinformationen werden erhalten (Schritt 7121). Weiterhin wird entschieden, ob die Höheninformationen des topografischen Merkmals in dem entsprechenden Standardgebietsnetze verfügbar sind oder nicht durch Höhendaten-Management-Einheit 19-5 der erhaltenen Karteninformationen (Schritt 7122).
  • Wenn die Höheninformationen des topografischen Merkmals verfügbar sind, schreitet die Prozedur zu Schritt 7200 von 7 fort und legt den Betrachtungspunkt und die Blickrichtung für die dreidimensionale Anzeige gemäß Schritt 72007700 fest. Wenn die Höheninformationen des topografischen Merkmals nicht verfügbar sind, schreitet die Prozedur zu Schritt 7123 fort, um den Betrachtungspunkt für die pseudodreidimensionale Anzeige bei dem Ort 17-2 von 17B sowie die Blickrichtung entlang einer Richtung zum Fahrzeug hin zu setzen (Schritt 7710).
  • 21 illustriert ein Beispiel der Prozedur zum Schalten des Betrachtungspunkts in Reaktion auf die Erkennung der Höheninformation der Straße. 22 ist eine beispielhafte Illustration, die 21 ergänzt. Die Prozedur der vorliegenden Ausführungsform schließt die Schritte 7231, 7232 zusätzlich zu der Prozedur ein, welche in 7 illustriert ist. In der vorliegenden Prozedur sind diese zusätzlichen Schritte nach Schritt 7200 von 7 platziert, und es wird angenommen, dass sich das Fahrzeug bei einer Position 22-1 von 22 befindet.
  • In der vorliegenden Prozedur wird entschieden, ob die Höheninformationen der Straße verfügbar sind oder nicht, indem die Straßendaten 19-9 geprüft werden, die in den erhaltenen Karteninformationen bei der gegenwärtigen Position des Fahrzeugs 22-1 enthalten worden sind (Schritt 7231). Wenn die Straßenhöhe hd 22-3 verfügbar ist, wird die Betrachtungspunkthöhe yv aus der Straßenhöhe hd, der topografischen Höhe h und der vor bestimmten Höhe Y berechnet (Schritt 7232), und der Betrachtungspunkt 22-2 wird hinter dem Fahrzeug mit dem vorbestimmten Abstand L festgelegt. Wenn die Straßenhöhe hd nicht verfügbar ist, wird der Betrachtungspunkt gemäß Schritten 73007700 festgelegt.
  • Wenn die Daten von einer Mehrzahl von Netzen simultan in ein Anzeigebild entwickelt werden, kann die Prozedur alternativ so strukturiert sein, dass der Betrachtungspunkt 17-2 für die pseudodreidimensionale Anzeige gesetzt wird, wenn das Netz ohne Höhendaten des topografischen Merkmals enthalten ist.
  • Wenn weiterhin die Kartendatenbank Identifikationsinformationen zum Identifizieren eines Abschnitts einer Straße einschließt, die innerhalb eines Tunnels lokalisiert ist, kann die Prozedur so strukturiert sein, dass der Betrachtungspunkt zu dem In-Fahrzeug-Betrachtungspunkt unter Verwendung der Identifikationsinformationen geschaltet werden kann, um zu entscheiden, wann der Straßenabschnitt, wo sich das Fahrzeug gegenwärtig bewegt, als innerhalb des Tunnels identifiziert ist.
  • Eine weitere Ausführungsform des Kartenanzeigeverfahrens der vorliegenden Erfindung wird unter Bezugnahme auf 23A und 23B beschrieben.
  • In der vorliegenden Ausführungsform des Kartenanzeigeverfahrens wird Form/Farbe/Muster/Größe des angezeigten Bildes des Fahrzeugs variiert in Reaktion auf eine Änderung der Anzeigesetzbedingung, wie zum Beispiel des Betrachtungspunkts, der Blickrichtung, des Betrachtungswinkels und Ähnlichem.
  • Um konkret zu sein, kann das Fahrzeugsymbol in einer einfachen Form, wie in 23A gezeigt, angezeigt werden, wenn der Betrachtungspunkt bei einer höheren oder von dem Fahrzeug entfernten Position festgesetzt ist, und kann in stereoskopischen Form angezeigt werden, wie in 23B gezeigt, wenn der Betrachtungspunkt bei einer niedrigeren Position oder einer Position nahe des Fahrzeugs festgesetzt ist.
  • Die oben genannte Verarbeitung kann durch Schalten von Strukturdaten des zu verwendenden Fahrzeugsymbols realisiert werden, zum Beispiel gemäß einem Resultat der Entscheidung bei Schritt 1320 oder 1350 in 13. Weiterhin kann die Anzeigeform des Fahrzeugsymbols geändert werden in Reaktion auf das Umschalten des Anzeigeverfahrens zwischen der dreidimensionalen Anzeige und der pseudodreidimensionalen Anzeige, wenn die Änderung der Anzeigeform des Fahrzeugs in Abhängigkeit von einem Resultat der Entscheidung bei Schritt 1620 in 16 ausgeführt wird.
  • Gemäß der vorliegenden Erfindung, wie oben beschrieben, werden die Kartendaten, die topografische Merkmale, Straßen und Gebäude in der Umgebung der gegenwärtigen Position des Fahrzeugs einschließen, von der Kartendatenbank gelesen, während sich das Fahrzeug bewegt, und der Betrachtungspunkt wird kontinuierlich erneuert, um an einem Punkt so festgelegt zu werden, der höher liegt als die Höhe eines topografischen Merkmals in der Umgebung der gegenwärtigen Position des Fahrzeugs. Daher ist es möglich, das Navigationssystem bereitzustellen, welches es möglich macht, den Betrachtungspunkt oberhalb der Bodenoberfläche selbst bei der topografischen Variation beizubehalten, und das Landschaftsbild problemlos mit der Fahrzeugbewegung zu erneuern.
  • In den oben genannten Ausführungsformen sind die Kartenanzeigeverfahren, die in dem Navigationssystem mit der Struktur, die in 1 gezeigt ist, verwendet werden, als Beispiele beschrieben. Jedoch ist das Kartenanzeigeverfahren der vorliegenden Erfindung nicht auf diese Ausführungs formen beschränkt. Zum Beispiel kann ein System realisiert werden, in dem Programme zum Ausführen des Kartenanzeigeverfahrens in Speichermedien gespeichert werden, wie zum Beispiel Diskette, CD oder Ähnlichem, und die Programme in ein konventionelles Computersystem zum Ausführen der geladenen Programme geladen werden.
  • Konkret kann eine Kartenanzeigevorrichtung zum Ausführen unterschiedlicher oben erwähnter Kartenanzeigeverfahren realisiert werden, indem ein Kartenanzeigeprogramm zum Ausführen des Kartenanzeigeverfahrens der vorliegenden Erfindung in einem Speichermedium 24-2 gespeichert wird und das Kartenanzeigprogramm in ein Computersystem geladen wird, das ein zentrales Betriebs- und Verarbeitungsgerät 24-1, eine Anzeige 24-5 und ein Eingabegerät 24-6 zum Ausführen des Kartenanzeigeprogramms umfasst. Dort ist die Kartendatenbank 24-3 mit dem Computersystem verbunden um Karteninformationen bereitzustellen, und Positionsinformationen 24-4, die eine anzuzeigende Position anzeigen, werden dem Computersystem zugeführt. Die Positionsinformationen können zum Beispiel von einer GPS-Karte bereitgestellt werden, die mit einem Computer verbunden ist und die als GPS-Empfänger funktioniert.
  • In den obigen Ausführungsformen wird das Navigationssystem für ein Automobil als Beispiel der vorliegenden Erfindung angenommen. Jedoch ist die vorliegende Erfindung ebenfalls auf ein tragbares Navigationssystem für andere Arten von beweglichen Objekten anwendbar, wie zum Beispiel eine Person, die das System während des Wanderns benutzen kann, oder Ähnliches in der gleichen Weise wie die vorhergehenden Ausführungsformen.
  • Gemäß der vorliegenden Erfindung ist es möglich, ein Kartenanzeigeverfahren und eine Vorrichtung bereitzustellen, die es möglich machen, ein stereoskopisches Kartenbild basierend auf dreidimensionalen Karteninformationen anzuzeigen.
  • Weiterhin ist es gemäß der vorliegenden Erfindung möglich. Ein Navigationssystem bereitzustellen, das eine Funktion zum Anzeigen eines stereoskopischen Kartenbildes aufweist, welches es möglich macht, ein Landschaftsbild problemlos mit der Bewegung des Fahrzeugs zu erneuern, unabhängig von topografischer Variation.

Claims (18)

  1. Kartenanzeigeverfahren, bei dem Karteninformation in einem Gebiet, das in Reaktion auf einen Ort spezifiziert ist, der bezeichnet ist durch eine Eingabeortinformation, von einer Kartendatenbank (1.3) gelesen wird; wobei eine perspektivische Karte, die von einem Betrachtungspunkt zu einer Bodenoberfläche blickt, erzeugt wird durch Ausführen von Koordinatentransformationsprozeduren auf den Karteninformationen; und wobei ein Landschaftsbild entsprechend zu der perspektivischen Karte auf einem Anzeigegerät (1.2) angezeigt wird, wobei die Kartendatenbank Höheninformation von Karten bildenden Elementen einschließt, die zumindest in einem Teil des verfügbaren Kartengebiets existieren; ein vorbestimmter Höhenwert (Y) hinzugefügt wird zu der Höhe, die in Reaktion auf den Ort spezifiziert ist, der bezeichnet wird durch die Eingabeortinformation, zum Berechnen einer Betrachtungspunkthöhe (yv), der Betrachtungspunkt (hv) hinter den Ort gesetzt wird, der bezeichnet wird durch die Eingabeortinformation, mit einem vorbestimmten Abstand (L) bei der Betrachtungspunkthöhe (yv), und die Betrachtungspunkthöhe (yv) wird neu gesetzt, so dass ihr Wert größer wird, wenn der Betrachtungspunkt (hv) unter der Bodenoberfläche lokalisiert ist; und wobei der Betrachtungspunkt (hv) erneuert wird, wenn eine neue Eingabeortinformation bereitgestellt wird.
  2. Kartenanzeigeverfahren nach Anspruch 1, wobei der Ort, der bezeichnet wird durch die Eingabeortinformation, ein gegenwärtiger Ort eines bewegten Objekts (8.1, 8.3, 11.1, 17.1, 22.1) ist und der Betrachtungspunkt (hv) erneut gesetzt wird mit der Bewegung des bewegten Objekts (8.1, 8.3, 11.1, 17.1, 22.1).
  3. Kartenanzeigevorrichtung, die zu einer Kartendatenbank (1.3) verbindet, und ein Anzeigegerät (1.2) zum Anzeigen einer Karte, in dem Karteninformation in einem Gebiet, das in Reaktion auf einen Ort spezifiziert wird, der bezeichnet wird durch eine Eingabeortinformation, von der Kartendatenbank (1.3) gelesen wird; eine perspektivische Karte, die von einem Betrachtungspunkt (8.2, 8.4, 11.2, 17.2, 22.2) zu einer Bodenoberfläche blickt, wird erzeugt unter Verwendung der erhaltenen Karteninformation; Graphikdaten zum Anzeigen eines Landschaftsbildes werden entsprechend zu der perspektivischen Karte erzeugt; und die Graphikdaten werden zu dem Anzeigegerät (1.2) ausgegeben, welches eine Betrachtungspunktsetzeinheit (3.11) zum Setzen zumindest einer Höhe des Betrachtungspunkts unter zu setzenden Variablen zum Erzeugen der perspektivischen Karte umfasst; und eine Anzeigeverarbeitungseinheit zum Erzeugen graphischer Daten zum Anzeigen eines Landschaftsbildes entsprechend zu der perspektivischen Karte, die erzeugt wird in Reaktion auf den Betrachtungspunkt (8.2, 8.4, 11.2, 17.2, 22.2), der festgelegt wird durch die Betrachtungspunktsetzeinheit (3.11); wobei die Kartendatenbank (1.3) Höheninformation bezüglich Höhen von topographischen Merkmalen einschließt, die zumindest in einem Teil eines verfügbaren Kartengebiets existieren, und die Betrachtungspunktsetzeinheit (3.11) einen vorbestimmten Höhenwert (Y) zu einer Höhe (hv) hinzuaddiert, die spezifiziert ist in Reaktion auf den Ort, der bezeichnet wird durch die Eingabeortinformation, zum Berechnen einer Betrachtungspunkthöhe (yv), den Betrachtungspunkt (8.2, 8.4, 11.2, 17.2, 22.2) hinter den Ort setzt, der bezeichnet wird durch die Eingabeortinformation, mit einem vorbestimmten Abstand (L) bei der Betrachtungs punkthöhe (yv), und die Betrachtungspunkthöhe (yv) erneut setzt, so dass ihr Wert größer wird, wenn der Betrachtungspunkt (8.2, 8.4, 11.2, 17.2, 22.2) unter der Bodenoberfläche lokalisiert ist.
  4. Kartenanzeigevorrichtung nach Anspruch 3, wobei der Ort, der bezeichnet wird durch die Eingabeortinformation, ein gegenwärtiger Ort eines bewegten Objekts (8.1, 8.3, 11.1, 17.1, 22.1) ist und die Betrachtungspunktsetzeinheit (3.11) ihre Betrachtungspunktsetzverarbeitung wiederholt, wenn erneuerte Ortinformation bereitgestellt wird mit der Bewegung des bewegten Objekts (8.1, 8.3, 11.1, 17.1, 22.1).
  5. Kartenanzeigevorrichtung nach Anspruch 4, wobei die Betrachtungspunktsetzeinheit (3.11) den Betrachtungspunkt (8.2, 8.4, 11.2, 17.2, 22.2) beständig erneuert.
  6. Kartenanzeigevorrichtung nach Anspruch 4, wobei die Betrachtungspunktsetzeinheit (3.11) die vorherige Betrachtungspunktposition beibehält und eine Blickrichtung erneut festlegt, um in der Lage zu sein, das bewegte Objekt (8.1, 8.3, 11.1, 17.1, 22.1) in dem gegenwärtigen Ort zu erfassen innerhalb seines Blickfelds, wenn eine relative örtliche Beziehung zwischen der neu bereitgestellten gegenwärtigen Position des bewegten Objektes (8.1, 8.3, 11.1, 17.1, 22.1) und dem vorher festgelegten Betrachtungspunkt einen vorbestimmten Bedingungsbereich erfüllt.
  7. Kartenanzeigevorrichtung nach Anspruch 4, wobei die Betrachtungspunktsetzeinheit (3.11) die Höhe (yv) des Betrachtungspunktes (8.2, 8.4, 11.2, 17.2, 22.2) fixiert, wenn das bewegte Objekt (8.1, 8.3, 11.1, 17.1, 22.1) lokalisiert ist innerhalb eines Abschnitts des Bereichs, der spezifiziert ist in Reaktion auf einen vorbestimmten Bereich, wenn ein Betrag von topographischer Variation in einem Gebiet, das sich so weit wie der vorbestimmte Bereich erstreckt, von der gegenwärtigen Position des bewegten Objekts (8.1, 8.3, 11.1, 17.1, 22.1), nicht größer ist als ein vorbestimmter Wert.
  8. Kartenanzeigevorrichtung nach Anspruch 4, wobei das bewegte Objekt ein Automobil (8.1, 8.3, 11.1, 17.1, 22.1) ist und Mittel zum Schalten des Orts des Betrachtungspunkts (8.2, 8.4, 11.2, 17.2, 22.2) von außerhalb des Automobils nach innerhalb des Automobils zum Erzeugen der perspektivischen Karte einschließt, die von innerhalb des Automobils (8.1, 8.3, 11.1, 17.1, 22.1) blickt mit einer Höhe eines topographischen Merkmals an dem gegenwärtigen Ort des Automobils (8.1, 8.3, 11.1, 17.1, 22.1) und einer Höhe des Automobilkörpers.
  9. Kartenanzeigevorrichtung nach Anspruch 4, weiter umfassend Eingabemittel (1.5) zum Annehmen von Anforderungen von einem Benutzer bezüglich der Höhe des Betrachtungspunkts (8.2, 8.4, 11.2, 17.2, 22.2), der zu setzen ist, wobei das bewegte Objekt ein Automobil (8.1, 8.3, 11.1, 17.1, 22.1) ist; die Betrachtungspunktsetzeinheit (3.11) den Betrachtungspunkt (11.2) festlegt innerhalb des Automobils und eine Blickrichtung festlegt in Richtung einer Bewegungsrichtung des Automobils, wenn die angeforderte Höhe des Betrachtungspunkts nicht größer ist als ein erster vorbestimmter Wert; und die Betrachtungspunktsetzeinheit (3.11) die Blickrichtung festlegt vertikal von dem Betrachtungspunkt (8.2, 8.4, 11.2, 17.2, 22.2), der festgelegt ist in Reaktion auf die angeforderte Betrachtungspunkthöhe, um so die Bodenoberfläche bei Meeresniveau, die direkt darunter ist, zu betrachten, wenn die angeforderte Betrachtungspunkthöhe größer ist als ein zweiter vorbestimmter Wert.
  10. Kartenanzeigevorrichtung nach Anspruch 4, weiter umfassend Eingabemittel zur Annahme von Anforderungen von einem Benutzer bezüglich ei nes zu setzenden Anzeigemaßstabs, wobei das bewegte Objekt ein Automobil (8.1, 8.3, 11.1, 17.1, 22.1) ist; die Betrachtungspunktsetzeinheit (3.11) legt den Betrachtungspunkt (11.2) fest innerhalb des Automobils (11.1) und legt eine Blickrichtung fest in Richtung einer Bewegungsrichtung des Automobils, wenn der angeforderte Anzeigemaßstab nicht größer ist als ein erster vorbestimmter Wert; und die Betrachtungspunktsetzeinheit (3.11) legt die Blickrichtung fest vertikal von dem Betrachtungspunkt (8.2, 8.4, 11.2, 17.2, 22.2), der festgelegt ist in Reaktion auf die angeforderte Betrachtungspunkthöhe, um die Bodenoberfläche bei Meeresniveau, die direkt darunter ist, zu betrachten, wenn der angeforderte Anzeigemaßstab größer ist als ein zweiter vorbestimmter Wert.
  11. Kartenanzeigevorrichtung nach Anspruch 4, weiter umfassend Eingabemittel (1.5) zum Annehmen von Anforderungen bezüglich eines Betrachtungswinkels, der zu setzen ist, zum Erzeugen der perspektivischen Karte, wobei die Anzeigeverarbeitungseinheit einen Wert eines Betrachtungswinkels auf einen von einem vorbestimmten Normalwert und einem großen Wert, der größer ist als der normale Wert, entsprechend zu der angenommenen Anforderung setzt und Graphikdaten erzeugt zum Anzeigen der Perspektive in Übereinstimmung mit dem festgelegten Betrachtungswinkel.
  12. Kartenanzeigevorrichtung nach Anspruch 4, weiter umfassend Auswahlmittel zum Annehmen von Anforderungen bezüglich einer Auswahl eines Anzeigeverfahrens zwischen einem pseudo-dreidimensionalen Anzeigeverfahren, das es möglich macht, einen ausgeprägten Eindruck von Entfernung zu geben durch Ausführen perspektivischer Transformationsprozeduren auf zweidimensionalen, horizontalen Daten, die die Kartendaten beinhalten, und einem dreidimensionalen Anzeigeverfahren, welches ein Land schaftsbild anzeigt unter Verwendung dreidimensionaler Daten, die die Kartendaten beinhalten, wobei die Betrachtungspunktsetzeinheit (3.11) den Betrachtungspunkt (8.2, 8.4, 11.2, 17.2, 22.2) festlegt bei einer vorbestimmten Höhe mit Bezug auf die Bodenoberfläche bei Meeresniveau, wenn das pseudo-dreidimensionale Anzeigeverfahren ausgewählt ist.
  13. Kartenanzeigevorrichtung nach Anspruch 12, wobei die Betrachtungspunktsetzeinheit (3.11) die Höhe (hv) des Betrachtungspunkts (8.2, 8.4, 11.2, 17.2, 22.2) erneut festlegt, um einen Abstand in der Höhenrichtung von der Bodenoberfläche zu dem Betrachtungspunkt nicht zu ändern, wenn das Anzeigeverfahren geändert wird durch die Auswahlmittel zwischen dem pseudo-dreidimensionalen Anzeigeverfahren und dem dreidimensionalen Anzeigeverfahren.
  14. Kartenanzeigevorrichtung nach Anspruch 4, weiter umfassend Entscheidungsmittel zum Entscheiden, ob Höheninformation zumindest eines topographischen Merkmals, einer Straße und eines Gebäudes enthalten ist in der erhaltenen Karteninformation, wobei die Betrachtungspunktsetzeinheit (3.11) den Betrachtungspunkt (8.2, 8.4, 11.2, 17.2, 22.2) bei einer vorbestimmten Höhe mit Bezug auf die Bodenoberfläche bei Meeresniveau festlegt, wenn die Entscheidungsmittel entscheiden, dass die Höheninformation des topographischen Merkmals nicht enthalten ist.
  15. Kartenanzeigevorrichtung nach Anspruch 4, weiter umfassend Entscheidungsmittel zum Entscheiden, ob Höheninformation zumindest eines topographischen Merkmals, einer Straße und eines Gebäudes enthalten ist in der erhaltenden Karteninformation, wobei die Betrachtungspunktsetzeinheit (3.11) den Betrachtungspunkt (8.2, 8.4, 11.2, 17.2, 22.2) bei einer vorbestimmten Höhe mit Bezug auf die Boden oberfläche bei Meeresniveau festlegt, wenn eine Mehrzahl von Kartennetzen, die anzuzeigen sind, weiter enthalten sind in der Karteninformation, und wobei die Entscheidungsmittel entscheiden, dass zumindest eines der Kartennetze keine Höheninformation eines topographischen Merkmals beinhaltet.
  16. Kartenanzeigevorrichtung nach Anspruch 4, wobei die Anzeigeverarbeitungseinheit Graphikdaten erzeugt zum Anzeigen eines graphischen Bildes, das das bewegte Objekt (8.1, 8.3, 11.1, 17.1, 22.1) illustriert, welches überlagert ist auf einem anzuzeigenden Landschaftsbild, und das Graphikbild des bewegten Objekts (8.1, 8.3, 11.1, 17.1, 22.1) ändert in Reaktion auf eine Änderung einer relativen örtlichen Beziehung zwischen dem festgelegten Betrachtungspunkt (8.2, 8.4, 11.2, 17.2, 22.2) und dem bewegten Objekt aufgrund einer Änderung in der Setzbedingung der Betrachtungspunktsetzeinheit (3.11).
  17. Navigationssystem, umfassend: ein Kartendatenbankgerät (1.3) zum Speichern von Karteninformation, die zumindest Information bezüglich topographischer Merkmale und Straßen einschließt; ein Erkennungsgerät für den gegenwärtigen Ort (1.7, 1.8, 1.9, 1.10) zum Erkennen eines gegenwärtigen Orts eines Automobils (8.1, 8.3, 11.1, 17.1, 22.1), bei dem das Navigationssystem befestigt ist; und eine Kartenanzeigevorrichtung nach Anspruch 3.
  18. Navigationssystem nach Anspruch 17, umfassend eine Benutzeroberfläche (1.5) zum Annehmen von Anforderungen, um zumindest eines von einem Typ und einer Höhe des Automobils (8.1, 8.3, 11.1, 17.1, 22.1) zu setzen, wobei das Kartenanzeigegerät den Betrachtungspunkt (8.2, 8.4, 11.2, 17.2, 22.2) festlegt unter Verwendung der festgelegten Variablen in Reaktion auf die angenommene Anforderung und Graphikdaten erzeugt zum Anzeigen eines Landschaftsbildes entsprechend zu der perspektivischen Karte, die erzeugt ist unter Verwendung des festgelegten Betrachtungspunkts.
DE69736766T 1996-11-07 1997-11-05 Verfahren und Vorrichtung zum Anzeigen einer Navigationskarte Expired - Lifetime DE69736766T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP29491996A JP3375258B2 (ja) 1996-11-07 1996-11-07 地図表示方法及び装置並びにその装置を備えたナビゲーション装置
JP29491996 1996-11-07

Publications (2)

Publication Number Publication Date
DE69736766D1 DE69736766D1 (de) 2006-11-16
DE69736766T2 true DE69736766T2 (de) 2007-08-16

Family

ID=17813961

Family Applications (2)

Application Number Title Priority Date Filing Date
DE69736766T Expired - Lifetime DE69736766T2 (de) 1996-11-07 1997-11-05 Verfahren und Vorrichtung zum Anzeigen einer Navigationskarte
DE69738209T Expired - Lifetime DE69738209T2 (de) 1996-11-07 1997-11-05 Verfahren und Vorrichtung zur Kartenanzeige

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE69738209T Expired - Lifetime DE69738209T2 (de) 1996-11-07 1997-11-05 Verfahren und Vorrichtung zur Kartenanzeige

Country Status (5)

Country Link
US (3) US6175802B1 (de)
EP (2) EP1640690B1 (de)
JP (1) JP3375258B2 (de)
KR (1) KR100268071B1 (de)
DE (2) DE69736766T2 (de)

Families Citing this family (109)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3375258B2 (ja) * 1996-11-07 2003-02-10 株式会社日立製作所 地図表示方法及び装置並びにその装置を備えたナビゲーション装置
JP3027574B1 (ja) * 1999-01-13 2000-04-04 松下電器産業株式会社 多層道路における自車道路位置判別方法
JP4486175B2 (ja) * 1999-01-29 2010-06-23 株式会社日立製作所 立体地図表示装置および方法
JP3664119B2 (ja) * 1999-05-12 2005-06-22 株式会社デンソー 地図表示装置
JP2002149057A (ja) * 1999-05-12 2002-05-22 Denso Corp 車両用表示制御装置
US6710774B1 (en) 1999-05-12 2004-03-23 Denso Corporation Map display device
JP3391311B2 (ja) * 1999-05-12 2003-03-31 株式会社デンソー 地図表示装置
JP2000329570A (ja) * 1999-05-17 2000-11-30 Clarion Co Ltd 移動体用衛星測位装置及びカーナビゲーションシステム
EP1054354B1 (de) 1999-05-21 2004-01-28 Siemens Aktiengesellschaft Verfahren zum Gewinnen einer dreidimensionalen Kartendarstellung und Navigationssystem
KR100570872B1 (ko) * 1999-07-05 2006-04-12 주식회사 현대오토넷 진행방향이 유사한 경로에서의 경로안내장치를 구비한 차량항법장치 및 그 경로안내방법
DE19941477A1 (de) * 1999-09-01 2001-03-22 Bosch Gmbh Robert Navigationsgerät für ein landgebundenes Fahrzeug
JP2001074477A (ja) * 1999-09-06 2001-03-23 Fujitsu Ten Ltd ナビゲーションシステム
JP3922857B2 (ja) * 1999-12-13 2007-05-30 パイオニア株式会社 ナビゲーションシステム
JP2001221643A (ja) * 2000-02-04 2001-08-17 Pioneer Electronic Corp カーナビゲーションシステムからの地図情報切り出し装置
US6621423B1 (en) * 2000-03-06 2003-09-16 Sony Corporation System and method for effectively implementing an electronic visual map device
DE10010310B4 (de) * 2000-03-06 2009-06-10 Harman Becker Automotive Systems Gmbh Verfahren und Vorrichtung zur Darstellung eines geografischen Bildes auf einem Bildschirm
EP1134554B1 (de) * 2000-03-17 2009-02-18 Panasonic Corporation Kartenanzeige- und Navigationsvorrichtung
JP2001269482A (ja) * 2000-03-24 2001-10-02 Konami Computer Entertainment Japan Inc ゲームシステム、ゲーム用プログラムを記録したコンピュータ読み取り可能な記録媒体及び画像表示方法
JP3814154B2 (ja) 2001-03-02 2006-08-23 富士通テン株式会社 ナビゲーション装置
US7668648B2 (en) * 2001-03-06 2010-02-23 Harman Becker Automotive Systems Gmbh Motor vehicle navigation system
JP3568159B2 (ja) * 2001-03-15 2004-09-22 松下電器産業株式会社 三次元地図オブジェクト表示装置および方法、およびその方法を用いたナビゲーション装置
JP2002311821A (ja) * 2001-04-13 2002-10-25 Mitsubishi Electric Corp ナビゲーションにおける地図表示方法およびナビゲーション装置
JP4584575B2 (ja) * 2001-07-06 2010-11-24 クゥアルコム・インコーポレイテッド 3d画像に表示される3dサーフェイスとインタラクトする画像処理方法
DE10137632A1 (de) * 2001-08-03 2003-02-27 Daimler Chrysler Ag Verfahren und System zum Auffinden eines Ortes in einer digitalen Karte
JP3642514B2 (ja) * 2001-09-13 2005-04-27 松下電器産業株式会社 簡易型交通情報の生成方法と装置
JP4807693B2 (ja) * 2001-09-26 2011-11-02 パイオニア株式会社 画像作成装置及びその方法、電子機器並びにコンピュータプログラム
JP2003109032A (ja) * 2001-09-26 2003-04-11 Pioneer Electronic Corp 画像作成装置及びコンピュータプログラム
US6725152B2 (en) 2002-02-21 2004-04-20 Lockheed Martin Corporation Real-time route and sensor planning system with variable mission objectives
US6718261B2 (en) 2002-02-21 2004-04-06 Lockheed Martin Corporation Architecture for real-time maintenance of distributed mission plans
US7647232B2 (en) 2002-02-21 2010-01-12 Lockheed Martin Corporation Real-time team coordination system for reconnaissance and surveillance missions
US6687606B1 (en) 2002-02-21 2004-02-03 Lockheed Martin Corporation Architecture for automatic evaluation of team reconnaissance and surveillance plans
JP3716801B2 (ja) * 2002-02-27 2005-11-16 ヤマハ株式会社 自動車位置通信システム及び携帯通信装置
JP3992227B2 (ja) * 2002-04-26 2007-10-17 パイオニア株式会社 3次元情報表示装置
US7827507B2 (en) 2002-05-03 2010-11-02 Pixearth Corporation System to navigate within images spatially referenced to a computed space
JP2003324770A (ja) * 2002-05-07 2003-11-14 Hitachi Ltd 携帯端末、サーバ及びプログラム実行システム
US20070035562A1 (en) * 2002-09-25 2007-02-15 Azuma Ronald T Method and apparatus for image enhancement
US7002551B2 (en) * 2002-09-25 2006-02-21 Hrl Laboratories, Llc Optical see-through augmented reality modified-scale display
US20040068758A1 (en) * 2002-10-02 2004-04-08 Mike Daily Dynamic video annotation
US20040066391A1 (en) * 2002-10-02 2004-04-08 Mike Daily Method and apparatus for static image enhancement
JP2004271901A (ja) * 2003-03-07 2004-09-30 Matsushita Electric Ind Co Ltd 地図表示装置
US6836713B2 (en) * 2003-04-03 2004-12-28 Coato Workshop, Inc. Navigational method and device for user interface for motor vehicles
US7068815B2 (en) * 2003-06-13 2006-06-27 Sarnoff Corporation Method and apparatus for ground detection and removal in vision systems
KR100520708B1 (ko) * 2003-10-20 2005-10-14 엘지전자 주식회사 3차원 지도의 표시방법
KR100506822B1 (ko) * 2003-11-08 2005-08-10 엘지전자 주식회사 3차원 다각형의 화면 표시방법
CN1938739B (zh) * 2004-03-31 2012-08-29 日本先锋公司 地图信息生成装置、地图信息生成方法
US7751651B2 (en) 2004-04-02 2010-07-06 The Boeing Company Processing architecture for automatic image registration
US8055100B2 (en) 2004-04-02 2011-11-08 The Boeing Company Method and system for image registration quality confirmation and improvement
US7773799B2 (en) 2004-04-02 2010-08-10 The Boeing Company Method for automatic stereo measurement of a point of interest in a scene
JP2005321370A (ja) 2004-04-05 2005-11-17 Sony Corp ナビゲーション装置、およびデータ処理方法、並びにコンピュータ・プログラム
JP4506862B2 (ja) * 2004-04-05 2010-07-21 ソニー株式会社 ナビゲーション装置、およびデータ処理方法、並びにコンピュータ・プログラム
JP4123187B2 (ja) 2004-05-13 2008-07-23 ソニー株式会社 アニメーション生成装置、アニメーション生成方法およびアニメーション生成プログラム
KR100663024B1 (ko) * 2004-07-20 2006-12-28 엘지전자 주식회사 고도별 상이한 이미지 표현 방법
US7379063B2 (en) 2004-07-29 2008-05-27 Raytheon Company Mapping application for rendering pixel imagery
JP4487188B2 (ja) * 2004-10-25 2010-06-23 ソニー株式会社 情報処理装置および方法、プログラム、並びにナビゲーション装置
JP2006154538A (ja) * 2004-11-30 2006-06-15 Aisin Aw Co Ltd 地図描画方法、地図描画システム、ナビゲーション装置及び入出力装置
JP2006177818A (ja) * 2004-12-22 2006-07-06 Denso Corp ナビゲーション装置
JP2006209340A (ja) * 2005-01-26 2006-08-10 Matsushita Electric Ind Co Ltd 携帯端末、ネットワークサーバ、ネットワークシステム、ネットワーク通信方法及びプログラム
CN101166952A (zh) * 2005-03-09 2008-04-23 通腾科技股份有限公司 用于编译组合图片并将其显示于显示器上的设备及方法
DE102005017313A1 (de) * 2005-04-14 2006-10-19 Volkswagen Ag Verfahren zur Darstellung von Informationen in einem Verkehrsmittel und Kombiinstrument für ein Kraftfahrzeug
US8850011B2 (en) 2005-04-21 2014-09-30 Microsoft Corporation Obtaining and displaying virtual earth images
US20060291396A1 (en) * 2005-06-27 2006-12-28 Monplaisir Hamilton Optimizing driving directions
US7580591B2 (en) 2005-07-01 2009-08-25 The Boeing Company Method for generating a synthetic perspective image
US7873240B2 (en) 2005-07-01 2011-01-18 The Boeing Company Method for analyzing geographic location and elevation data and geocoding an image with the data
US20070035563A1 (en) * 2005-08-12 2007-02-15 The Board Of Trustees Of Michigan State University Augmented reality spatial interaction and navigational system
JP4783603B2 (ja) * 2005-08-26 2011-09-28 株式会社デンソー 地図表示装置、地図表示方法、地図表示プログラム、及びそのプログラムを記録した記録媒体
KR100572119B1 (ko) 2005-10-26 2006-04-18 한진정보통신(주) 수치지도와 항공 레이저 측량데이터를 이용한 지형지물의변화 검출방법
JP2007133489A (ja) * 2005-11-08 2007-05-31 Sony Corp 仮想空間画像表示方法、装置、仮想空間画像表示プログラム及び記録媒体
JP2007256124A (ja) * 2006-03-24 2007-10-04 Alpine Electronics Inc ナビゲーション装置
CN101467005A (zh) * 2006-06-12 2009-06-24 松下电器产业株式会社 导航装置以及导航方法
JP4995499B2 (ja) * 2006-06-23 2012-08-08 アイシン・エィ・ダブリュ株式会社 地図情報配信システム
KR100821503B1 (ko) 2006-11-08 2008-04-14 팅크웨어(주) 차량 항법 시스템에서의 동적 디스플레이 모드 변경 방법및 그 장치
JP4896761B2 (ja) * 2007-02-16 2012-03-14 株式会社日立製作所 立体地図表示システム、立体地図の表示方法、及びそのプログラム
US8335642B2 (en) * 2007-05-11 2012-12-18 The Boeing Company Method and apparatus for displaying a symbol for a vehicle
JP4994256B2 (ja) * 2008-01-28 2012-08-08 株式会社ジオ技術研究所 経路案内データベースのデータ構造
US8525704B2 (en) 2008-05-29 2013-09-03 Tomtom International B.V. Displaying route information on a digital map image
CN101983316A (zh) * 2008-05-29 2011-03-02 通腾科技股份有限公司 用于更改与可听信息相关的地图信息的导航装置和方法
US8880332B2 (en) * 2008-09-10 2014-11-04 Toshiba Global Commerce Solutions Holdings Corporation People guidance using kiosk and user ID
US8587617B2 (en) 2009-02-04 2013-11-19 Raytheon Company Apparatus and method for map zooming
KR101609679B1 (ko) * 2009-03-31 2016-04-06 팅크웨어(주) 도로의 면형 데이터를 이용한 맵 매칭장치 및 그 방법
JP5781080B2 (ja) * 2010-10-20 2015-09-16 三菱電機株式会社 3次元立体表示装置および3次元立体表示処理装置
US8825392B2 (en) 2011-06-30 2014-09-02 Navteq B.V. Map view
JP5328852B2 (ja) * 2011-07-25 2013-10-30 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、プログラム及び情報記憶媒体
EP2761326B1 (de) * 2011-09-16 2020-03-25 Saab Ab Verfahren zur verbesserung der genauigkeit eines funkbasierten navigationssystems
RU2510585C2 (ru) * 2012-06-05 2014-03-27 Открытое акционерное общество "Завод им. В.А. Дегтярева" Способ информационного взаимодействия автономной аппаратуры топопривязки и навигации и бортовой эвм
DE102012012567A1 (de) * 2012-06-23 2013-12-24 Audi Ag Navigationsvorrichtung mit einer Reichweitenanzeige für einen elektrischen Fahrbetrieb und Kraftwagen mit einer Navigationsvorrichtung
DE102012023481A1 (de) 2012-10-30 2014-04-30 Volkswagen Aktiengesellschaft Vorrichtung, Verfahren und Computerprogramm zur räumlichen Darstellung eines digitalen Kartenausschnitts
CN103900582A (zh) * 2012-12-25 2014-07-02 上海博泰悦臻电子设备制造有限公司 小区地图记录方法和***
CN104215251A (zh) * 2013-05-31 2014-12-17 北京图盟科技有限公司 导航电子地图中导航拓扑数据的更新方法及相关装置
US9945687B2 (en) 2013-06-07 2018-04-17 The Yokohama Rubber Co., Ltd. Travel route display device, travel route display method and travel route display program
US9146299B2 (en) 2013-08-06 2015-09-29 Qualcomm Incorporated Method and apparatus for position estimation using trajectory
GB201318049D0 (en) 2013-10-11 2013-11-27 Tomtom Int Bv Apparatus and methods of displaying navigation instructions
JP6189774B2 (ja) * 2014-03-19 2017-08-30 株式会社ジオ技術研究所 3次元地図表示システム
US10024955B2 (en) 2014-03-28 2018-07-17 GM Global Technology Operations LLC System and method for determining of and compensating for misalignment of a sensor
US9494938B1 (en) 2014-04-03 2016-11-15 Google Inc. Unique signaling for autonomous vehicles to preserve user privacy
US10477159B1 (en) * 2014-04-03 2019-11-12 Waymo Llc Augmented reality display for identifying vehicles to preserve user privacy
US10467896B2 (en) 2014-05-29 2019-11-05 Rideshare Displays, Inc. Vehicle identification system and method
US9892637B2 (en) 2014-05-29 2018-02-13 Rideshare Displays, Inc. Vehicle identification system
US9958287B2 (en) 2014-07-18 2018-05-01 Mitsubishi Electric Corporation Map display system and map display method
JP7345237B2 (ja) 2014-11-05 2023-09-15 シエラ・ネバダ・コーポレイション 移動体用の改良型環境表示を生成するためのシステムおよび方法
KR102406489B1 (ko) * 2014-12-01 2022-06-10 현대자동차주식회사 전자 장치, 전자 장치의 제어 방법, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체
US9886801B2 (en) * 2015-02-04 2018-02-06 GM Global Technology Operations LLC Vehicle sensor compensation
RU2621964C1 (ru) * 2016-05-04 2017-06-08 Открытое акционерное общество "Завод им. В.А. Дегтярева" Способ информационно-технического взаимодействия системы топопривязки и навигации с программно-техническим комплексом наземного пункта управления
DE102016207991B4 (de) * 2016-05-10 2022-09-15 Volkswagen Aktiengesellschaft Verfahren zur fahrsituationsabhängigen Wiedergabe einer Kartendarstellung in einem Fahrzeug
US10440536B2 (en) 2017-05-19 2019-10-08 Waymo Llc Early boarding of passengers in autonomous vehicles
US10579788B2 (en) 2017-08-17 2020-03-03 Waymo Llc Recognizing assigned passengers for autonomous vehicles
US10446027B1 (en) * 2017-12-11 2019-10-15 Waymo Llc Differentiating roadways by elevation
EP3667236B1 (de) * 2018-12-13 2023-09-06 Ordnance Survey Limited Verfahren zur bestimmung von positionsdaten
CN110072085A (zh) * 2019-04-25 2019-07-30 深圳市商汤科技有限公司 视频监控方法及装置
KR20230028852A (ko) * 2021-08-23 2023-03-03 현대자동차주식회사 모빌리티 배차 시스템 및 방법

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2524177B1 (fr) 1982-03-25 1987-10-30 Dassault Electronique Procede et dispositif pour fournir a partir de donnees memorisees une image dynamique d'une surface, telle que le sol, vue d'un point d'observation mobile
FR2610752B1 (fr) 1987-02-10 1989-07-21 Sagem Procede de representation de l'image en perspective d'un terrain et systeme pour sa mise en oeuvre
US4903216A (en) * 1988-04-11 1990-02-20 Hughes Aircraft Company Method for displaying intervisibility data
NL8900056A (nl) * 1989-01-11 1990-08-01 Philips Nv Werkwijze voor het visueel weergeven van een deel van een topografische kaart, alsmede inrichting geschikt voor een dergelijke werkwijze.
JP3063125B2 (ja) 1990-08-28 2000-07-12 ソニー株式会社 地形データ作成装置
JPH0546080A (ja) 1991-08-13 1993-02-26 Furuno Electric Co Ltd 透視図作成装置
JP3376593B2 (ja) 1991-11-14 2003-02-10 株式会社日立製作所 地図データ表示装置
JPH05203457A (ja) 1992-01-29 1993-08-10 Nec Home Electron Ltd 経路誘導装置
JP3311830B2 (ja) 1993-09-20 2002-08-05 株式会社東芝 3次元動画作成装置
JP3360398B2 (ja) 1994-03-16 2002-12-24 日産自動車株式会社 車載用ナビゲーション装置
EP0678731B1 (de) 1994-04-15 1999-06-30 Nissan Motor Co., Ltd. Fahrzeug-Navigationssystem
US5838277A (en) * 1994-05-20 1998-11-17 Trimble Navigation Limited GPS-based controller module
JP3447397B2 (ja) 1994-10-24 2003-09-16 株式会社ナムコ 3次元シミュレータ装置及び画像合成方法
JP3428747B2 (ja) 1994-11-14 2003-07-22 株式会社ザナヴィ・インフォマティクス 道路地図表示制御方法および道路地図表示制御装置
JP3428193B2 (ja) 1994-12-27 2003-07-22 日産自動車株式会社 車両用経路誘導装置
EP1174843B1 (de) * 1995-06-13 2005-11-09 Matsushita Electric Industrial Co., Ltd. Fahrzeugnavigationsvorrichtung und Aufzeichnungsmedium zur Programmabspeicherung dafür
EP1426910A3 (de) 1996-04-16 2006-11-02 Xanavi Informatics Corporation karten-Anzeigegerät, Navigationsgerät und Karten-Anzeigeverfahren
JP3375258B2 (ja) * 1996-11-07 2003-02-10 株式会社日立製作所 地図表示方法及び装置並びにその装置を備えたナビゲーション装置

Also Published As

Publication number Publication date
DE69736766D1 (de) 2006-11-16
EP1640690A2 (de) 2006-03-29
DE69738209T2 (de) 2008-07-10
KR100268071B1 (ko) 2000-12-01
EP1640690B1 (de) 2007-10-10
DE69738209D1 (de) 2007-11-22
US6714861B2 (en) 2004-03-30
EP0841537A3 (de) 1999-10-27
JP3375258B2 (ja) 2003-02-10
US20020038181A1 (en) 2002-03-28
US6341254B1 (en) 2002-01-22
EP0841537B1 (de) 2006-10-04
US6175802B1 (en) 2001-01-16
EP0841537A2 (de) 1998-05-13
JPH10143066A (ja) 1998-05-29
EP1640690A3 (de) 2006-04-05
KR19980042145A (ko) 1998-08-17

Similar Documents

Publication Publication Date Title
DE69736766T2 (de) Verfahren und Vorrichtung zum Anzeigen einer Navigationskarte
DE69730262T2 (de) Karten-Anzeigegerät, Navigationsgerät und Karten-Anzeigeverfahren
DE60028109T2 (de) Verfahren zur Herstellung von dreidimensionalen Karten und Navigationsgerät
DE69633421T2 (de) Navigationsanzeige mit Vogelperspektive
DE69731159T2 (de) Navigationssystem für Landfahrzeug mit Auswahl des Anzeigemodus
DE112008003424B4 (de) Navigationsgerät, das Videobilder einer Kamera verwendet
DE60009365T2 (de) Verfahren zur stereoskopischen Kartenanzeige und Navigationssystem zur Verwendung bei dem Verfahren
DE102012214988B4 (de) Fahrzeug-Spielesystem mit erweiterter Realität für Vorder- und Rück-Sitz zur Unterhaltung und Information von Passagieren
DE69535717T2 (de) Straßenkartenanzeige-Steuerungsvorrichtung für ein Motorfahrzeug
DE69631280T2 (de) Fahrzeugsnavigationsgerät, das die Strassenbreite berücksichtigt
DE10023160A1 (de) Kartenanzeigevorrichtung
DE69729684T2 (de) Navigationsvorrichtung mit Formveränderungsanzeigefunktion
DE102010042063B4 (de) Verfahren und Vorrichtung zum Bestimmen von aufbereiteten Bilddaten über ein Umfeld eines Fahrzeugs
DE69938018T2 (de) Vorrichtung und Verfahren zum Anzeigen von Fahzeugpositionsinformation
DE19830314B4 (de) Fahrzeugnavigationssystem und Aufzeichnungsmedium
DE69532977T2 (de) Kartenanzeigegerät für Fahrzeug
DE60034752T2 (de) Navigationssystem und in dem Navigationssystem eingesetztes Navigationsgerät
DE19835422B4 (de) Kartenanzeigevorrichtung und Aufzeichnungsmedium
DE69637102T2 (de) Kartenanzeigegerät mit künstlichem Hintergrund
DE112007002119B4 (de) Karteninformations-Verarbeitungsvorrichtung
EP1415128B1 (de) Verfahren und vorrichtung zur darstellung von fahrhinweisen in auto-navigationssystemen
DE102007029359B4 (de) Fahrzeug-Steuerungsvorrichtung
DE112008003588B4 (de) Navigationsgerät verwendend Videobilder einer Kamera
DE202005021607U1 (de) Navigationsvorrichtung mit Kamerainformation
DE4118606A1 (de) Navigationssystem

Legal Events

Date Code Title Description
8364 No opposition during term of opposition