DE112019007155T5 - Fahrzeug-positionierungseinrichtung - Google Patents

Fahrzeug-positionierungseinrichtung Download PDF

Info

Publication number
DE112019007155T5
DE112019007155T5 DE112019007155.6T DE112019007155T DE112019007155T5 DE 112019007155 T5 DE112019007155 T5 DE 112019007155T5 DE 112019007155 T DE112019007155 T DE 112019007155T DE 112019007155 T5 DE112019007155 T5 DE 112019007155T5
Authority
DE
Germany
Prior art keywords
observation value
sensor
vehicle
value
positioning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112019007155.6T
Other languages
English (en)
Inventor
Shota Kameoka
Rin Shinomoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112019007155T5 publication Critical patent/DE112019007155T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • G01C21/3819Road shape data, e.g. outline of a route
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3841Data obtained from two or more sources, e.g. probe vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/49Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an inertial position system, e.g. loosely-coupled
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/91Radar or analogous systems specially adapted for specific applications for traffic control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Navigation (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Die vorliegende Erfindung betrifft Folgendes: eine Fahrzeug-Positionierungseinrichtung, die mit einem ersten Sensor verbunden ist, der Satelliten-Positionierungsdaten ausgibt, und mit einem zweiten Sensor, der einen Zustandswert des Fahrzeugs detektiert und den Zustandswert als Zustandswert-Daten ausgibt, und die mit zumindest einem der Folgenden verbunden ist: einem dritten Sensor, der ein terrestrisches Objekt detektiert und Daten einer Relativ-Relation zwischen dem terrestrischen Objekt und dem Fahrzeug ausgibt, und einem vierten Sensor, der eine Straßenlinienform bzw. Straßenmarkierungsform detektiert und Straßenlinienformdaten ausgibt. Die Fahrzeug-Positionierungseinrichtung weist Folgendes auf: eine Beobachtungswert-Verarbeitungseinheit, die so konfiguriert ist, dass sie die Satelliten-Positionierungsdaten und zumindest einen Typ der Daten der Relativ-Relation und der Straßenlinienformdaten empfängt und einen tatsächlichen Beobachtungswert erzeugt, indem sie die empfangenen Datenelemente integriert; eine Sensor-Korrektureinheit, die so konfiguriert ist, dass sie einen Sensorfehler korrigiert, der in den Zustandswert-Daten enthalten ist, wobei die Sensor-Korrektureinheit mit dem zweiten Sensor verbunden ist; eine Inertial-Positionierungseinheit, die so konfiguriert ist, dass sie eine Inertial-Positionierung durchführt, indem sie einen korrigierten Sensorwert verwendet, der in der Sensor-Korrektureinheit korrigiert ist, und Ergebnisse als Inertial-Positionierungsergebnisse ausgibt; und eine Beobachtungswert-Vorhersageeinheit, die so konfiguriert ist, dass sie einen Beobachtungswert vorhersagt, indem sie zumindest die Inertial-Positionierungsergebnisse verwendet, und den Beobachtungswert als einen Vorhersage-Beobachtungswert ausgibt. Die Positionierungs-Berechnung wird unter Verwendung des Vorhersage-Beobachtungswerts und des tatsächlichen Beobachtungswerts durchgeführt, und die Ergebnisse werden als Positionierungsergebnisse ausgegeben.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft eine Fahrzeug-Positionierungseinrichtung oder Fahrzeug-Ortungseinrichtung, die an einem Fahrzeug montiert ist und eine Positionsbestimmung der Position des Fahrzeugs vornimmt. Sie betrifft insbesondere eine Fahrzeug-Positionierungseinrichtung, die durch den Radiowellenzustand eines Satelliten nicht leicht beeinflusst wird.
  • Stand der Technik
  • Im Stand der Technik wird eine Fahrzeug-Positionierungseinrichtung vorgeschlagen, die die Ausgabe eines Inertialsensors korrigiert, in dem die Positionierungsergebnisse einer Inertial-Positionierung fehlerhaft verzerrt werden, und zwar durch Verwendung von Satelliten-Positionierungsergebnissen, die von einem globalen Navigationssatelliten-System (GNSS) erhalten werden, so dass die Positionierungsgenauigkeit des Fahrzeugs verbessert wird. Mit solch einer Technologie kann die Genauigkeit der Inertial-Positionierung verbessert werden, wenn die Positionierung bzw. Positionsbestimmung zu Zeitpunkten durchgeführt wird, wenn die systematischen Messfehler des Inertialsensors mit einem Satelliten erfasst werden können, und sogar dann, wenn der Satellit nicht erfasst werden kann, wie z. B. dann, wenn sich das Fahrzeug an einem Innenraum-Standort oder in einem Tunnel befindet, kann die Positionierungsgenauigkeit aufrechterhalten werden.
  • Beispielsweise offenbart Abs. [0007] in dem Patentdokument 1, dass die Zielsetzung besteht, eine nahtlose und hochgenaue Positionierungs-Technologie zu erhalten, und zwar ungeachtet dessen, ob es sich um einen Innenraum- oder einen Außenraum-Standort handelt, indem ein globales Innenraum-Positionierungssystem (GPS) zur Verwendung im Innenraum zusätzlich zur Satelliten-Positionierung verwendet wird.
  • Stand-der- Technik-Dokumente
  • Patentdokumente
  • Patentdokument 1: Japanische Patentanmeldungs-Offenlegungsschrift JP 2016-170124 A
  • Zusammenfassung
  • Mit der Erfindung zu lösendes Problem
  • Bei der Fahrzeug-Positionierungstechnologie gemäß dem Stand der Technik kann die Positionierung bzw. Positionsbestimmung bzw. Ortung sogar an einem Innenraum-Standort fortgesetzt werden, an welchem der Satellit nicht erfasst werden kann. Es besteht jedoch das Problem, dass die Positionierungsgenauigkeit nicht beibehalten werden kann, wenn sich das Satelliten-Positionierungssignal wesentlich verschlechtert, und zwar selbst dann, wenn der Satellit erfasst werden kann.
  • Beispiele für einen solchen Fall schließen eine Positionierung in folgenden Fällen ein: In einem städtischen Gebiet, wo es wahrscheinlich ist, dass eine Mehrwege-Ausbreitung verursacht wird, bei welcher die Funkwellen von Satelliten an Strukturen wie z. B. Gebäuden reflektiert werden und eine GNSS-Antenne auf einer Mehrzahl von Wegen erreichen; in einem bergigen Gebiet, wo die Funkwellenstärke von Satelliten infolge von Bäumen abgeschwächt wird; und dergleichen.
  • Die vorliegende Erfindung wurde konzipiert, um die oben beschriebenen Probleme zu lösen. Sie hat die Aufgabe, eine Fahrzeug-Positionierungseinrichtung anzugeben, bei welcher die Positionierungsgenauigkeit aufrechterhalten werden kann und die Situationen vermehrt werden können, in welchen eine Positionierung weiter durchgeführt werden kann.
  • Wege zum Lösen des Problems
  • Eine Fahrzeug-Positionierungseinrichtung gemäß der vorliegenden Erfindung ist eine Fahrzeug-Positionierungseinrichtung, die an einem Fahrzeug montiert wird und für die Position des Fahrzeugs eine Positionierung bzw. Positionsbestimmung bzw. Ortung vornimmt. Die Fahrzeug-Positionierungseinrichtung ist mit einem ersten Sensor verbunden, der Satelliten-Positionierungsdaten ausgibt, und mit einem zweiten Sensor, der einen Zustandswert des Fahrzeugs detektiert und den Zustandswert als Zustandswert-Daten ausgibt, und sie ist mit zumindest einer der folgenden Komponenten verbunden: einem dritten Sensor, der ein terrestrisches Objekt detektiert und Daten einer Relativ-Relation zwischen dem terrestrischen Objekt und dem Fahrzeug ausgibt, und einem vierten Sensor, der eine Straßenlinienform bzw. Straßenmarkierungsform detektiert und Straßenlinienformdaten ausgibt.
  • Die Fahrzeug-Positionierungseinrichtung weist Folgendes auf: eine Beobachtungswert-Verarbeitungseinheit, die so konfiguriert ist, dass sie die Satelliten-Positionierungsdaten und zumindest einen Typ der Daten der Relativ-Relation und der Straßenlinienformdaten empfängt und einen tatsächlichen Beobachtungswert erzeugt, indem sie die empfangenen Datenelemente integriert; eine Sensor-Korrektureinheit, die so konfiguriert ist, dass sie einen Sensorfehler korrigiert, der in den Zustandswert-Daten enthalten ist, wobei die Sensor-Korrektureinheit mit dem zweiten Sensor verbunden ist; eine Inertial-Positionierungseinheit, die so konfiguriert ist, dass sie eine Inertial-Positionierung durchführt, indem sie einen korrigierten Sensorwert verwendet, der in der Sensor-Korrektureinheit korrigiert ist, und Ergebnisse als Inertial-Positionierungsergebnisse ausgibt; eine Beobachtungswert-Vorhersageeinheit, die so konfiguriert ist, dass sie einen Beobachtungswert vorhersagt, indem sie zumindest die Inertial-Positionierungsergebnisse verwendet, und den Beobachtungswert als einen Vorhersage-Beobachtungswert ausgibt; und ein Filter, das so konfiguriert ist, dass es eine Positionierungs-Berechnung durchführt, indem es den Vorhersage-Beobachtungswert und den tatsächlichen Beobachtungswert verwendet und Ergebnisse als Positionierungsergebnisse ausgibt, und den Sensorfehler als einen Sensor-Korrekturwert ausgibt. Das Filter führt den Sensor-Korrekturwert an die Sensor-Korrektureinheit zurück. Die Sensor-Korrektureinheit korrigiert den Sensorfehler, indem sie den Sensor-Korrekturwert verwendet.
  • Wirkungen der Erfindung
  • Bei der Fahrzeug-Positionierungseinrichtung gemäß der vorliegenden Erfindung gilt Folgendes: Selbst in Situationen, in welchen es wahrscheinlich ist, dass eine Mehrwege-Ausbreitung verursacht wird, kann die Positionierungsgenauigkeit aufrechterhalten werden, und es können die Situationen vermehrt werden, in welchen die Positionierung weiter durchgeführt werden kann.
  • Figurenliste
    • 1 ist ein Funktions-Blockdiagramm, das die Konfiguration einer Fahrzeug-Positionierungseinrichtung der ersten Ausführungsform gemäß der vorliegenden Erfindung veranschaulicht.
    • 2 ist ein Diagramm, das die Positionierung in einer Umgebung mit Mehrwege-Ausbreitung veranschaulicht.
    • 3 ist ein Diagramm, das statische Informationen einer digitalen Karte veranschaulicht.
    • 4 ist ein Diagramm, das ein Fahrzeug-Navigations-Koordinatensystem veranschaulicht.
    • 5 ist ein Ablaufdiagramm, dass den Gesamtprozessablauf der Fahrzeug-Positionierungseinrichtung der ersten Ausführungsform gemäß der vorliegenden Erfindung veranschaulicht.
    • 6 ist ein Diagramm, das die relative Positions-Relation mit einem terrestrischen Objekt veranschaulicht.
    • 7 ist ein Funktions-Blockdiagramm, das die Konfiguration einer Fahrzeug-Positionierungseinrichtung der zweiten Ausführungsform gemäß der vorliegenden Erfindung veranschaulicht.
    • 8 ist ein Ablaufdiagramm, dass den Gesamtprozessablauf der Fahrzeug-Positionierungseinrichtung der zweiten Ausführungsform gemäß der vorliegenden Erfindung veranschaulicht.
    • 9 ist ein Diagramm, das eine Straßenmarkierungsform bzw. Straßenlinienform veranschaulicht.
    • 10 ist ein Ablaufdiagramm, das eine Berechnungsverarbeitung der Straßenlinienform veranschaulicht.
    • 11 ist ein konzeptuelles Diagramm, das die Straßenlinienform veranschaulicht.
    • 12 ist ein Funktions-Blockdiagramm, das die Konfiguration einer Fahrzeug-Positionierungseinrichtung der dritten Ausführungsform gemäß der vorliegenden Erfindung veranschaulicht.
    • 13 ist ein Diagramm, das eine Hardware-Konfiguration zum Implementieren der Fahrzeug-Positionierungseinrichtung der ersten bis dritten Ausführungsform gemäß der vorliegenden Erfindung veranschaulicht.
    • 14 ist ein Diagramm, das eine Hardware-Konfiguration zum Implementieren der Fahrzeug-Positionierungseinrichtung der ersten bis dritten Ausführungsform gemäß der vorliegenden Erfindung veranschaulicht.
  • Beschreibung von Ausführungsformen
  • Einführung
  • Bei den nachstehend beschriebenen Ausführungsformen gilt Folgendes: Ein terrestrisches Objekt schließt ein Straßenschild, eine Ampel, einen Leitungsmasten und dergleichen ein. Straßeninformationen schließen Knotendaten, die Fahrspurbreite, Steigungsdaten und dergleichen ein, die sich auf die Straße beziehen. Ein autonomer Sensor ist ein Sensor, der einen Zustandswert eines Fahrzeugs selbst detektiert, an dem eine Fahrzeug-Positionierungseinrichtung gemäß der Ausführungsform installiert ist, und schließt einen Fahrzeug-Geschwindigkeitsmesser, einen Beschleunigungsmesser, einen Winkelgeschwindigkeitsmesser und dergleichen ein.
  • Ein externer Sensor ist ein Sensor, der Informationen bezüglich der Umgebung detektiert, in welcher sich das Fahrzeug befindet, an dem die Fahrzeug-Positionierungseinrichtung gemäß der Ausführungsform installiert ist, und schließt einen Laser-Entfernungsmesser, eine Kamera und ein Radar ein. Die Straßenlinienform ist die Form einer Straße. Die Straßenlinienformdaten schließen Informationen über eine Vielfalt von Kombinationen aus einer geraden und einer gekrümmten Linie, dem Steigungsgrad u. dgl. ein.
  • Erste Ausführungsform
  • Einrichtungs-Konfiguration: Aufbau
  • 1 ist ein Funktions-Blockdiagramm, das die Konfiguration einer Fahrzeug-Positionierungseinrichtung 20 der ersten Ausführungsform gemäß der vorliegenden Erfindung veranschaulicht. Wie in 1 veranschaulicht, sind ein GNSS-Sensor (Globales-Satelliten-Navigationssystem-Sensor) 1 (erster Sensor) und ein Detektor 3 für terrestrische Objekte (dritter Sensor) mit der Fahrzeug-Positionierungseinrichtung 20 als externe Sensoren verbunden, und die Fahrzeug-Positionierungseinrichtung 20 detektiert externe Informationen in der Umgebung des Fahrzeugs. Außerdem sind ein Informationsspeicher 4 für terrestrische Objekte und ein autonomer Sensor 6 (zweiter Sensor) mit der Fahrzeug-Positionierungseinrichtung 20 verbunden.
  • Die Fahrzeug-Positionierungseinrichtung 20 weist Folgendes auf: eine Beobachtungswert-Verarbeitungseinheit 12, ein Filter 13, eine Sensor-Korrektureinheit 14, eine Inertial-Positionierungseinheit 15 und eine Beobachtungswert-Vorhersageeinheit 16.
  • Die Beobachtungswert-Verarbeitungseinheit 12 hat folgende Funktionen: Empfangen von Daten einer Relativ-Relation zwischen Satelliten-Beobachtungsdaten, die aus dem GNSS-Sensor 1 ausgegeben werden, und einem terrestrischen Objekt, das aus dem Detektor 3 für terrestrische Objekte ausgegeben wird, Berechnen eines tatsächlichen Beobachtungswerts, der notwendig ist, um die Positionierungs-Berechnung und Schätzung eines Korrekturwerts der Zustandswert-Daten durchzuführen, die vom autonomen Sensor 6 ausgegeben werden, und Ausgeben der Ergebnisse an das Filter 13.
  • Die Sensor-Korrektureinheit 14 hat folgende Funktionen: Korrigieren eines Skalierungsfaktor-Fehlers und eines systematischen Messfehlers des autonomen Sensors 6, und Ausgeben der Ergebnisse an die Inertial-Positionierungseinheit 15 als einen korrigierten Sensorwert.
  • Die Inertial-Positionierungseinheit 15 hat folgende Funktionen: Durchführen einer Inertial-Positionierungs-Berechnung der Position, der Ausrichtung, der Geschwindigkeit und dergleichen, die Positionierungsergebnisse des Fahrzeugs sind, wenn der korrigierte Sensorwert verwendet werden, der von der Sensor-Korrektureinheit 14 eingegeben wird, und Ausgeben der Ergebnisse an die Beobachtungswert-Vorhersageeinheit 16 als Inertial-Positionierungsergebnisse.
  • Die Beobachtungswert-Vorhersageeinheit 16 hat folgende Funktionen: Berechnen eines Vorhersage-Beobachtungswerts, der zur Positionierungs-Berechnung und Schätzung eines Korrekturwerts der Zustandswert-Daten notwendig ist, die vom autonomen Sensor ausgegeben werden, wenn die Inertial-Positionierungsergebnisse, die von der Inertial-Positionierungseinheit 15 eingegeben werden, und terrestrische Objektinformationen verwendet werden, die von der Informationsspeicher 4 für terrestrische Objekte eingegeben werden, und Ausgeben der Ergebnisse an das Filter 13.
  • Das Filter 13 hat folgende Funktionen: Positionierungs-Berechnung und Schätzen eines Sensorfehlers des autonomen Sensors 6, indem der tatsächliche Beobachtungswert, der von der Beobachtungswert-Verarbeitungseinheit 12 eingegeben wird, und ein Vorhersage-Beobachtungswert verwendet werden, der von der Beobachtungswert-Vorhersageeinheit 16 vorhersagt wird. Der Sensorfehler, der vom Filter 13 geschätzt wird, wird an die Sensor-Korrektureinheit 14 als ein Sensor-Korrekturwert zurückgeführt.
  • Außerdem werden die Ergebnisse der Positionierungs-Berechnung im Filter 13 an die Fahrzeug-Positionierungseinrichtung 20 als Positionierungsergebnisse ausgegeben. Falls die Daten nicht vom externen Sensor erfasst werden können, gibt das Filter 13 die Inertial-Positionierungsergebnisse, die von der Inertial-Positionierungseinheit 15 ausgeben werden, als Ausgabe der Fahrzeug-Positionierungseinrichtung 20 aus.
  • Außerdem gilt im Filter 13 Folgendes: Obwohl der Sensor-Korrekturwert zu einem Zeitpunkt geschätzt wird, wenn Daten vom externen Sensor erhalten werden, wird der Wert gespeichert, und folglich kann sogar dann, wenn Daten nicht vom externen Sensor erhalten werden können, eine Sensor-Korrektur durchgeführt werden, und die Positionierungsgenauigkeit kann aufrechterhalten werden.
  • Bei der Fahrzeug-Positionierungseinrichtung 20, die die oben beschriebene Konfiguration hat, gilt Folgendes: Wenn Daten von irgendeinem von dem GNSS-Sensor 1 und dem Detektor 3 für terrestrische Objekte erhalten werden, können die Positionierungs-Berechnung und die Berechnung des Sensor-Korrekturwerts durchgeführt werden, und die Positionierungsgenauigkeit kann aufrechterhalten werden. Außerdem gilt Folgendes: Wenn Daten sowohl vom GNSS-Sensor 1, als auch vom Detektor 3 für terrestrische Objekte erhalten werden, können Positionierungsergebnisse ausgegeben werden, die eine höhere Zuverlässigkeit haben.
  • Außerdem werden der tatsächliche Beobachtungswert, der unter Verwendung der Daten vom GNSS-Sensor 1 und dem Detektor 3 für terrestrische Objekte erhalten wird, und der Vorhersage-Beobachtungswert, der unter Verwendung der Daten vom autonomen Sensor 6 erhalten wird, vom Filter 13 zusammengeführt. Folglich ist ein Umschaltvorgang zum Auswählen von einem aus dem tatsächlichen Beobachtungswert und dem Vorhersage-Beobachtungswert nicht nötig. Daher kann ein unvorteilhaftes Phänomen, wie z. B. ein Springen der Position verringert werden, bei welchem die Positionierungsergebnisse zum Zeitpunkt des Umschaltens diskontinuierlich werden.
  • Außerdem erlaubt die Verwendung einer Mehrzahl von externen Sensoren die Verarbeitung von - wenn einige Ausgaben des externen Sensors einen abnormalen Wert ausgeben - einer probabilistischen bzw. wahrscheinlichkeitstheoretischen Bestimmung des abnormalen Werts, wobei der abnormale Wert für die Positionierungs-Berechnung nicht verwendet wird. Im Ergebnis kann die Zuverlässigkeit der Positionierungs-Berechnung aufrechterhalten werden.
  • Außerdem ist der Aktualisierungszyklus des Sensorwerts eines externen Sensors im Allgemeinen ein niedriger Zyklus, d. h. im Allgemeinen niedriger als 10 Hz. Wenn also eine Positionierung mit einem hohen Zyklus notwendig ist, kann das Erfordernis nicht mit nur dem externen Sensor erfüllt werden. Im Gegensatz dazu kann der autonome Sensor einen Sensorwert mit einem hohen Zyklus erhalten, d. h. im Allgemeinen so hoch wie 100 Hz, und kann demzufolge die Inertial-Positionierung mit dem Zyklus ausführen. Daher kann in der Fahrzeug-Positionierungseinrichtung 20 auch die Wirkung erzielt werden, dass Positionierungsergebnisse mit einem hohen Zyklus erfasst werden, und zwar verglichen damit, wenn nur der Sensorwert des externen Sensors verwendet wird.
  • 2 ist ein Diagramm, das schematisch ein Beispiel veranschaulicht, in welchem sich die Satelliten-Positionierungsgenauigkeit verschlechtert, wenn ein Satellit erfasst werden kann. Wie in 2 veranschaulicht, gibt es an einem Ort, wo es eine Mehrzahl von Gebäuden BD in einem urbanen und dem zugehörigen suburbanen Gebiet gibt, den Fall, in welchem eine reflektierte Funkwelle WR, die eine Funkwelle vom Satelliten ST ist, die ein Fahrzeug OV erreicht, nachdem sie an einer Struktur, wie z. B. dem Gebäude BD reflektiert worden ist, und eine direkt erreichende Funkwelle WS, die eine Funkwelle vom Satelliten ST ist, die das Fahrzeug OV direkt erreicht, gleichzeitig empfangen werden.
  • Wenn die Satelliten-Positionierung in einer solchen Situation durchgeführt wird, besteht im Allgemeinen das Problem, dass die Positionierungsgenauigkeit signifikant verschlechtert wird, und dass die Positionierungsgenauigkeit der Satelliten-Positionierung nicht aufrechterhalten werden kann. Bei der Technologie, die in der japanischen Patentanmeldungs-Offenlegungsschrift JP 2016-170124 A offenbart ist, ist das Lösen des Problems schwierig.
  • Im Gegensatz dazu kann gemäß der Fahrzeug-Positionierungseinrichtung 20 die Positionierungsgenauigkeit aufrechterhalten werden, indem Daten einer Relativ-Relation mit einem terrestrischen Objekt verwendet werden, und zwar sogar in einer Situation, wie in 2 veranschaulicht. Genauer gesagt: Wenn Informationen integriert werden, die vom Fahrzeug OV beobachtet werden können, wie z. B. eine Markierungslinie CL und ein terrestrisches Objekt FE - neben dem GNSS-Sensor 1 - können die Situationen vermehrt werden, in welchen die Positionierung durchgeführt werden kann.
  • Als ein Beispiel für eine Positionierungseinrichtung, die terrestrische Objektinformationen verwendet, gibt es eine Technologie, die in der japanischen Patentanmeldungs-Offenlegungsschrift JP 2005-265 494 A offenbart ist. Bei der in dem obenstehenden Dokument vorgeschlagenen Positionierungs-Schätzungseinrichtung werden terrestrische Objekte und weiße Linien mit einer Kamera an Bord detektiert, und dadurch wird die Positionierung durchgeführt. Zu Zeiten, wenn die terrestrischen Objekte und weißen Linien nicht detektiert werden, wird jedoch die Position geschätzt, indem nur ein Fahrzeug-Geschwindigkeitsmesser verwendet wird, und folglich kann eine Straßenlinienform, die eine Kurvenlinienform hat, nicht gehandhabt werden. Außerdem wird auch ein Sensorfehler nicht in Abhängigkeit von einem terrestrischen Objekt und einer weißen Linie geschätzt. Wenn der Fahrzeug-Geschwindigkeitsmesser einen Fehler hat, werden folglich die Sensorfehler akkumuliert, was zu einer Verschlechterung der Positionierungsgenauigkeit führt.
  • Bei der Fahrzeug-Positionierungseinrichtung 20 gilt im Gegensatz dazu Folgendes: Zu den Zeiten, wenn externe Informationen vom externen Sensor beobachtet werden können, wird ein Sensorfehler geschätzt, und zu den Zeiten, wenn die externen Informationen nicht beobachtet werden können, wird der Sensorfehler verwendet, der zu den Zeitpunkten geschätzt wird, wenn die externen Informationen beobachtet werden können. Auf diese Weise kann die Genauigkeit der Inertial-Positionierung aufrechterhalten werden.
  • In jüngster Zeit hat man weltweit die Vorbereitung einer digitalen Karte zum Verteilen von hochauflösenden, statischen und dynamischen Informationen zum automatisierten Fahren von Fahrzeugen durchgeführt, die in Japan als eine dynamische Karte bezeichnet wird. Ein zugehöriges Referenzdokument ist dynamische Kartenvorbereitung beim automatischen Fahren (System/Steuerung/Information, Band 60, Nr. 11, Seiten 463-468, 2018) („dynamic map preparation in automated traveling (system/control/information, Vol. 60, No. 11 pp. 463-468, 2016)‟).
  • Das obenstehende Referenzdokument beschreibt ein Konzept dahingehend, welche Art von Informationen die dynamische Karte verteilt. 3 veranschaulicht ein Beispiel von Informationen von terrestrischen Objekten, die als statische Informationen in der dynamischen Karte verteilt werden, die im obenstehenden Referenzdokument beschrieben ist.
  • In 3 sind als statische Informationen folgende enthalten: Absolutpositionsinformationen von tatsächlich existierenden terrestrischen Objekten, die auf einer Straße tatsächlich vorhanden sind, wie z. B. ein Bahnübergang, ein Straßenschild, eine Leitplanke, ein Leitungsmast und eine Ampel, sowie Karteninformationen, wie z. B. Straßenzentrumskoordinaten. Als ein imaginäres terrestrisches Objekt, das auf der Basis des tatsächlich vorhandenen terrestrischen Objekts erzeugt wird, sind Informationen über einen Straßenanschluss, einen Fahrspuranschluss, einen Knotenpunkt auf dem Straßenanschluss, einer Fahrspurregion und dergleichen enthalten.
  • Es sei angemerkt, dass sich die Straße auf eine Begrenzungslinie bezieht, deren Grenze physisch beschränkt ist, wie z. B. eine Wand, eine Leitplanke und ein Bordstein, und ein terrestrisches Objekt das eine Höhenbeschränkung hat, wie z. B. ein Tunnel und ein Höhleneingang. Außerdem ist die Begrenzungslinie einer Fahrspur auf eine Markierungslinie (eine weiße Linie oder dergleichen) einer Übergangszone beschränkt.
  • In der Fahrzeug-Positionierungseinrichtung 20 kann die dynamische Karte als eine Datenbank des Informationsspeichers 4 für terrestrische Objekte verwendet werden.
  • Die Verteilung der digitalen Karte, die die dynamische Karte enthält, hat man weltweit studiert und diese in der Internationalen Organisation für Standardisierung (ISO) und dergleichen standardisiert; und sie wird folglich weltweit als ein Standard verwendet.
  • Einrichtungskonfiguration: Einzelheiten
  • Es werden einzelne Funktionsblöcke der Fahrzeug-Positionierungseinrichtung 20 detailliert beschrieben.
  • GNSS-Sensor
  • Die GNSS-Antenne 1a ist mit dem GNSS-Sensor 1 verbunden. Der GNSS-Sensor 1 kann verschiedene Elemente der beobachteten Daten von einem Satelliten erfassen, wenn er Positionierungssignale von Positionierungssatelliten empfängt, die sich auf einem Satelliten-Orbit auf einer Umlaufbahn befinden, und zwar mit der GNSS-Antenne 1, und wenn er eine Signalverarbeitung auf den empfangenen Positionierungssignalen durchführt.
  • Der GNSS-Sensor 1 kann die Funktion haben, dass er - als Positionierungs-Rohdaten - Beobachtungsdaten des GNSS ausgibt, bevor er eine Positionierungs-Berechnung durchführt, sowie die Positionierungs-Berechnungsergebnisse, die der Positionierungs-Berechnung im GNSS-Sensor 1 unterzogen worden sind, und zwar abhängig von Einstellungen der Ausgabe. Die Positionierungs-Rohdaten schließen Folgendes ein: Einen Pseudobereichs-Beobachtungswert, einen Doppler-Beobachtungswert und einen Trägerwellenphasen-Beobachtungswert, und dieses Beobachtungswerte werden für jedes Frequenzband erhalten, in welchen die Satelliten ausstrahlen (beispielsweise im L1-Band, im L2-Band, im L5-Band und dergleichen).
  • Der Positionierungssatellit weist Folgendes auf: Globales Navigationssatelliten-System (GLONASS) aus Russland, Galileo aus der Europäischen Union, Quasi-Zenit-Satellitensystem (QZSS) aus Japan, Beidou aus China, Navigation Indian Constellation (NavIC) aus India und dergleichen, sowie GPS aus den Vereinigten Staaten. Die Fahrzeug-Positionierungseinrichtung gemäß der ersten bis dritten Ausführungsform können bei all diesen verwendet werden.
  • Für die Positionierungs-Berechnung im GNSS-Sensor 1 kann irgendeines der folgenden Positionierungsverfahren durchgeführt werden: Punktpositionierung, Differentielle-GPS-Positionierung (DGPS), Echtzeit-Kinematik-Positionierung (RTK), Echtzeit-Kinematik-Positionierung vom Netzwerktyp und dergleichen. Außerdem kann der GNSS-Sensor 1 für gewöhnlich Zuverlässigkeitsinformationen der Positionierungs-Berechnungsergebnisse ausgeben.
  • Eine Punktpositionierung ist ein Typ eines Satelliten-Positionierungsverfahrens, bei welchem die Positionierung unter Verwendung von Pseudobereichs-Beobachtungswerten durchgeführt wird, die von vier oder mehr Positionierungssatelliten empfangen werden.
  • Eine DGPS-Positionierung ist ein Positionierungsverfahren, bei welchem Satelliten-Positionierungsergebnisse mit höherer Zuverlässigkeit im Vergleich zur Punktpositionierung erhalten werden können, indem eine Positionierungs-Berechnung unter Verwendung von augmentierten Satelliten-Positionierungs-Fehlerdaten durchgeführt wird, die aus einem Satellitennavigations-Augmentationssystem vom stationären Satellitentyp (satellitenbasierten Augmentationssystem (SBAS)), einem elektronischen Referenzpunkt und einer privaten festen Station erzeugt werden können.
  • Eine RTK-Positionierung ist ein Positionierungsverfahren, bei welchem eine hochgenaue Satelliten-Positionierung ermöglicht wird, indem Satelliten-Rohdaten eines elektronischen Referenzpunkts und einer privaten festen Station an eine mobile Station übertragen werden und der Satelliten-Positionierungsfehlerfaktor nahe einer Basisstation entfernt wird. Bei der RTK-Positionierung kann die Positionierung mit einer Genauigkeit im Zentimeterbereich durchgeführt werden, wenn eine Ganzzahl-Variable, die als Mehrdeutigkeit bzw. Ambiguität bezeichnet wird, mit hoher Zuverlässigkeit erhalten wird. Eine Positionierungs-Lösung wird in diesem Fall als eine Fix-Lösung bezeichnet, und wenn die Mehrdeutigkeit nicht erhalten wird, wird eine Float-Lösung ausgegeben.
  • Eine Echtzeit-Kinematik-Positionierung vom Netzwerktyp ist ein Positionierungsverfahren, bei welchem eine hochgenaue Positionierung durchgeführt wird, indem Satelliten-Positionierungsdaten erfasst werden, die einer Basisstations-Installation entsprechen, und zwar unter Verwendung eines Netzwerks.
  • Einige GNSS-Sensoren 1 können die Absolutgeschwindigkeit in drei axialen Richtungen der GNSS-Antenne 1a bezogen auf die Erde berechnen, beispielsweise die Nord-, die Ost- und die Vertikalrichtung, indem ein Doppler-Beobachtungswert und Satellitennavigationsdaten verwendet werden, sowie Absolutpositionsinformationen, wie z. B. Breitengrad, Längengrad und Höhe. Mit der Verwendung der Absolutgeschwindigkeitsinformationen kann die Richtung, genauer gesagt: der Azimut, detektiert werden, in welcher bzw. welchem sich die GNSS-Antenne 1a bewegt. Es sei angemerkt, dass das Satelliten-Positionierungsverfahren, das bei der Fahrzeug-Positionierungseinrichtung der ersten bis dritten Ausführungsform gemäß der vorliegenden Erfindung verwendet werden kann, auch sämtliche Satelliten-Positionierungsverfahren einschließt, die von den oben beschriebenen Verfahren verschieden sind.
  • Detektor für terrestrische Objekte
  • Der Detektor 3 für terrestrische Objekte hat die Funktion, ein terrestrisches Objekt zu detektieren, und zwar unter Verwendung einer am Fahrzeug angebrachten peripheren Erkennungskamera, Lichtdetektion und Abstandsmessung (LiDAR), was auch als Laser-Entfernungsmesser bezeichnet wird, Radar und dergleichen, und Folgendes auszugeben: die Relativ-Relation zwischen dem terrestrischen Objekt, das sich in der Umgebung des Fahrzeugs befindet, und dem Fahrzeug, sowie Anzeige-Einzelheiten der terrestrischen Objekte, und zwar als Detektionsergebnisse für terrestrische Objekte.
  • Die Relativ-Relation zwischen dem terrestrischen Objekt und dem Fahrzeug gibt die relative Abstandsrelation, die relative Geschwindigkeitsrelation und dergleichen mit repräsentativen Punkten des terrestrischen Objekts (Punkten), die mit Koordinaten-Informationen einer Karten-Datenbank zusammenhängen, von einem Navigationszentrum (beispielsweise dem Zentrum in der Rückachse) des Fahrzeugs an, und zwar in einem Fahrzeug-Navigations-Koordinatensystem.
  • Für das Fahrzeug-Navigations-Koordinatensystem wird beispielsweise Folgendes oft verwendet, wie in 4 veranschaulicht: ein Koordinatensystem, in welchem die zb-Achse so genommen wird, dass die Rechte-Hand-Regel mit der xb-Achse und der yb-Achse erfüllt ist, wobei der Ursprung das Navigationszentrum des Fahrzeugs OV ist, hier: das Zentrum in der Rückachse, wobei die xb-Achse die Vorausrichtung des Fahrzeugs darstellt, und wobei die yb-Achse die Linksrichtung darstellt.
  • Außerdem kann der Detektor 3 für terrestrische Objekte Informationen ausgeben, die sich auf das terrestrische Objekt beziehen und mit der Relativ-Relation zwischen dem terrestrischen Objekt und dem Fahrzeug zusammenhängen, indem er sich auf eine Datenbank für terrestrische Objekte des Informationsspeichers 4 für terrestrische Objekte bezieht, die terrestrische Objektinformationen speichert, die sich auf das terrestrische Objekt beziehen, und eine Kombination mit den Detektionsergebnissen des Detektors 3 für terrestrische Objekte vornimmt.
  • Die terrestrischen Objektinformationen, die sich auf das terrestrische Objekt beziehen, bezeichnen den Typ des terrestrischen Objekts, wie z. B. Leitungsmast, Straßenschild und Leitplanke, die Absolutpositionskoordinaten, sowie Anzeige-Einzelheiten. Genauer gesagt: Der Detektor 3 für terrestrische Objekte kann gleichzeitig den Abstand zum terrestrischen Objekt, definiert im Fahrzeug-Koordinatensystem, die Geschwindigkeit, den Typ des terrestrischen Objekts, Absolutpositionskoordinaten, Anzeige-Einzelheiten und dergleichen ausgeben.
  • Der GNSS-Sensor 1 und der Detektor 3 für terrestrische Objekte, die externe Sensoren sind, haben voneinander verschiedene Detektionsziele, und demzufolge sind die Situationen, in welchen die Detektion durchgeführt werden kann, voneinander verschieden. Beispielsweise kann in einer Situation, in welcher ein Satellit vom GNSS-Sensor 1 nicht erfasst werden kann, wie z. B. in einem Tunnel, der GNSS-Sensor 1 den Beobachtungswert nicht erhalten. Außerdem kann der Detektor 3 für terrestrische Objekte Detektionsergebnisse in einer Zone nicht ausgeben, wo es keine terrestrischen Objekte gibt.
  • Beobachtungswert-Verarbeitungseinheit
  • Die Beobachtungswert-Verarbeitungseinheit 12 hat die Funktion, den Beobachtungswert, der vom GNSS-Sensor 1 erhalten wird, und die Relativ-Relation zwischen dem terrestrischen Objekt und dem Fahrzeug, die vom Detektor 3 für terrestrische Objekte erhalten wird, integral zu verarbeiten und die Ergebnisse an das Filter 13 auszugeben, und zwar als einen tatsächlichen Beobachtungswert.
  • Sensor-Korrektureinheit
  • Die Sensor-Korrektureinheit 14 hat die Funktion, Sensordaten zu korrigieren, die vom autonomen Sensor 6 erhalten werden, indem sie den Sensor-Korrekturwert verwendet, der im Filter 13 geschätzt wird.
  • Autonomer Sensor
  • Der autonome Sensor 6 weist Folgendes auf: Sensoren zur Positionierung einer Position, Geschwindigkeit und Ausrichtung des Fahrzeugs, wie z. B. einen Fahrzeug-Geschwindigkeitsmesser, der die Fahrzeuggeschwindigkeit des Fahrzeugs misst, eine Inertialmesseinrichtung (Inertialmesseinheit (IMU)), die die Beschleunigung und Wingkelgeschwindigkeit des Fahrzeugs misst, und einen Lenkwinkelmesser, der den Lenkwinkel des Fahrzeugs misst.
  • Der Fahrzeug-Geschwindigkeitsmesser ist an einem Rad des Fahrzeugs angebracht und hat die Funktion, eine Umwandlung in die Fahrzeuggeschwindigkeit des Fahrzeugs vorzunehmen, indem er die Ausgabe aus einem Impulssensor verwendet, der die Drehgeschwindigkeit bzw. Drehzahl des Rades detektiert.
  • Die IMU ist auf dem Dach des Fahrzeugs oder innerhalb des Fahrzeugs installiert und hat die Funktion, die Beschleunigung und Winkelgeschwindigkeit im Fahrzeug-Koordinatensystem zu detektieren. Als IMU sind beispielsweise IMUs erhältlich, die ein mikroelektromechanisches System (MEMS) und ein optisches Faser-Gyroskop (faserobtisches Gyroskop) verwenden, oder dergleichen.
  • Inertial- Positionierungseinheit
  • Die Inertial-Positionierungseinheit 15 hat die Funktion, die Position, die Geschwindigkeit und die Ausrichtung des Fahrzeugs zu positionieren, und zwar auf der Basis der Fahrzeuggeschwindigkeit und der Beschleunigung des Fahrzeugs, sowie einem integrierten Wert des Winkelgeschwindigkeitssensors, indem der Sensorwert des autonomen Sensors 6, der von der Sensor-Korrektureinheit 14 korrigiert wird, sowie ein Betriebsmodell des Fahrzeugs verwendet werden.
  • In der Inertial-Positionierungseinheit wird die Positionierung durchgeführt, indem Sensorwerte integriert werden, die vom autonomen Sensor 6 erfasst werden, und zwar von Moment zu Moment, auf der Basis des Betriebsmodells des Fahrzeugs. Für gewöhnlich schließt der Sensorwert des autonomen Sensors 6 einen Skalierungsfaktor-Fehler, einen systematischen Messfehler und dergleichen ein, und dieser wird von Moment zu Moment integriert. Folglich ergibt sich das Problem, dass sich die Genauigkeit der Inertial-Positionierung im Zeitverlauf verschlechtert.
  • Im Gegensatz dazu werden bei der Fahrzeug-Positionierungseinrichtung gemäß der ersten bis dritten Ausführungsform gemäß der vorliegenden Erfindung die Sensorfehler vom Filter geschätzt, und der Sensorwert des autonomen Sensors 6 wird als Sensor-Korrekturwert korrigiert. Folglich kann die Genauigkeit der Inertial-Positionierung verbessert werden.
  • Beobachtungswert- Vorhersageeinheit
  • Die Beobachtungswert-Vorhersageeinheit 16 hat die Funktion, den Vorhersage-Beobachtungswert zu berechnen, indem sie die Inertial-Positionierungsergebnisse und die terrestrischen Objektinformationen in der Umgebung des Fahrzeugs bezüglich des tatsächlichen Beobachtungswert verwendet, der in der Beobachtungswert-Verarbeitungseinheit 12 berechnet und verarbeitet wird, und die Ergebnisse an das Filter 13 ausgibt.
  • Filter
  • Das Filter 13 hat die Funktion, die Positionierungs-Berechnung der Position, Geschwindigkeit, Ausrichtung und dergleichen durchzuführen, und außerdem Sensorfehler des autonomen Sensors 6 zu schätzen, wie z. B. einen Skalierungsfaktor-Fehler und einen systematischen Messfehler, indem es den wahrscheinlichkeitstheoretisch wahrscheinlichsten Zustandswert schätzt, indem der tatsächliche Beobachtungswert, der von der Beobachtungswert-Verarbeitungseinheit 12 erhalten wird, und der Vorhersage--, der von der Beobachtungswert-Verarbeitungseinheit 16 erhalten wird, verwendet werden.
  • Der Zustandswert ist hierbei die Position, die Geschwindigkeit und die Ausrichtung des Fahrzeugs in der dreidimensionalen Richtung, und der Sensorfehler des autonomen Sensors 6 und dergleichen. Die Positionierungs-Berechnungsergebnisse, die im Filter 13 geschätzt werden, werden aus der Fahrzeug-Positionierungseinrichtung 20 als Positionierungsergebnisse ausgegeben, und die Sensorfehler werden in die Sensor-Korrektureinheit 14 als Sensor-Korrekturwert eingegeben.
  • Betrieb
  • Als Nächstes wird der Gesamtprozessablauf der Fahrzeug-Positionierungseinrichtung 20 unter Bezugnahme auf das in 5 dargestellte Ablaufdiagramm beschrieben. Wenn die Fahrzeug-Positionierungseinrichtung 20 mit der Positionierung beginnt, werden zunächst der Anfangswert der Inertial-Positionierung und die gegenwärtigen Inertial-Positionierungsergebnisse, die in der Beobachtungswert-Vorhersageeinheit 16 verwendet werden, erfasst (Schritt S100).
  • Es sei Folgendes angemerkt: Wenn die gegenwärtigen Inertial-Positionierungsergebnisse nicht erfasst werden können, wie z. B. unmittelbar, nachdem die Energieversorgung der Fahrzeug-Positionierungseinrichtung 20 eingeschaltet worden ist, können grob berechnete Positionierungsergebnise verwendet werden, die vom GNSS-Sensor 1 erfasst werden, und es kann ein vorbestimmter Wert als Anfangswert der Inertial-Positionierung verwendet werden.
  • Als Nächstes bestimmt die Fahrzeug-Positionierungseinrichtung 20, ob Daten von den externen Sensoren, wie z. B. dem GNSS-Sensor 1 und dem Detektor 3 für terrestrische Objekte erhalten werden (Schritt S101). Die externen Sensoren haben voneinander verschiedene Detektionsziele. Falls es zumindest einen Sensor gibt, der einen Sensorwert erhält (bei „Ja“), fährt die Verarbeitung mit dem Schritt S102 fort. Anderenfalls (bei „Nein“) fährt die Verarbeitung mit dem Schritt S131 fort.
  • Falls die Fahrzeug-Positionierungseinrichtung 20 Daten vom externen Sensor nicht erhalten kann, gibt im Schritt S131 die Fahrzeug-Positionierungseinrichtung 20 Inertial-Positionierungsergebnisse aus, die bei der Inertial-Positionierungs-Berechnung im Schritt S113 berechnet worden sind, der später noch beschrieben wird, und zwar als Positionierungsergebnisse der Fahrzeug-Positionierungseinrichtung 20.
  • Im Schritt S102 verarbeitet die Beobachtungswert-Verarbeitungseinheit 12 den Sensorwert, der im externen Sensor erhalten wird, so dass er vom Filter 13 im nächsten Schritt S103 verwendet wird, und gibt die Ergebnisse als einen tatsächlichen Beobachtungswert aus.
  • Nachstehend wird die Verarbeitung für den Beobachtungswert in jedem von dem GNSS-Sensor 1 und dem Detektor 3 für terrestrische Objekte in dem GNSS-Sensor 12 beschrieben.
  • Verarbeitung für Beobachtungswert im GNSS-Sensor
  • Bei der ersten Ausführungsform gibt der GNSS-Sensor 1 Koordinaten-Informationen des Breitengrads, des Längengrads, der Höhe und des Azimuts im Phasenzentrum der GNSS-Antenne 1a und deren jeweilige Zuverlässigkeiten aus. Für gewöhnlich wird die Übertragung vom GNSS-Sensor 1 mit dem Protokoll durchgeführt, das in der National Marine Electronics Association (NMEA) definiert ist. Die Ausgabe-Spezifikationen unterscheiden sich jedoch in Abhängigkeit vom Hersteller.
  • Demzufolge werden in der Beobachtungswert-Verarbeitungseinheit 12 die Sensorwerte, die im GNSS-Sensor 1 hinsichtlich Längengrad, Breitengrad und Azimut erhalten werden, in ein Einheitensystem, wie z. B. Grad oder Radiant (deg oder rad) konvertiert, und der Sensorwert hinsichtlich der Höhe wird in ein Einheitensystem, wie z. B. m (Meter) konvertiert.
  • Verarbeitung für Beobachtungswert im Detektor für terrestrisches Objekte
  • Bei der ersten Ausführungsform werden aus dem Detektor 3 für terrestrische Objekte Absolutpositionskoordinaten eines repräsentativen Punkts eines terrestrischen Objekts, wie z. B. Breitengrad, Längengrad, Höheninformationen und eine relative Positions-Relation zwischen dem Fahrzeugnavigationszentrum und einem repräsentativen Punkt für das terrestrische Objekt erhalten. Obwohl es verschiedene Verfahren zum Ausdrücken der relativen Positions-Relation gibt, werden hier - wie in 6 veranschaulicht - der relative Abstand und der relative Azimut vom Navigationszentrum des Fahrzeugs OV zum repräsentativen Punkt für das terrestrische Objekt verwendet.
  • XYZ in 6 stellt ein Absolutkoordinatensystem dar. In diesem Fall stellt es ein ECEF-Koordinatensystem dar (erdzentrierte erdfeste Koordinaten), was ein Koordinatensystem ist, das bezüglich der Erde fest ist, wobei der Ursprung der Schwerpunkt bzw. das Zentroid der Erde ist. Die Koordinaten (Xi, Yi, Zi) und die Koordinaten (Xb, Yb, Zb) gemäß 6 stellen jeweils Absolutpositionskoordinaten des terrestrischen Objekts FE und Absolutpositionskoordinaten des Navigationszentrums des Fahrzeugs OV dar.
  • Es sei angemerkt, dass zi in der Zeichnung nicht dargestellt ist. Außerdem stellen die Achse n, die Achse e und die Achse d in 6 ein Koordinatensystem dar, in welchem die Koordinatenachsen in der Nordrichtung, der Ostrichtung und der Vertikalrichtung verwendet werden, wobei der Ursprung das Navigationszentrum des Fahrzeugs OV ist, welches auch als ein NED-Koordinatensystem bezeichnet wird. Es sei angemerkt, dass ψ in der Zeichnung den Fahrzeug-Azimut bezeichnet, wobei die Richtung im Uhrzeigersinn als positiv angenommen wird und Norden die Referenz ist.
  • Wenn die Ausgabe im Detektor 3 für terrestrische Objekte die Koordinaten (xi, yi, zi) bezüglich des terrestrischen Objekts FE darstellt, werden der relative Abstand ρm,i und der relative Azimut θm,i jeweils durch die folgenden Ausdrücke (1) und (2) berechnet.
    [Ausdruck 1] ρ m , i = x i 2 + y i 2 + z i 2
    Figure DE112019007155T5_0001

    [Ausdruck 2] θ m , i = atan ( x i y i )
    Figure DE112019007155T5_0002
  • Diese Informationselemente werden zusammen mit den Koordinaten (Xi, Yi, Zi) ausgegeben, die Koordinaten des repräsentativen Punkts für das terrestrische Objekt sind. Es sei angemerkt, dass hier nur der relative Abstand und der relative Azimut beschrieben werden. Als Ausgabe des Detektors 3 für terrestrische Objekte können jedoch auch relative Geschwindigkeitsinformationen ausgegeben werden, und folglich können die relativen Geschwindigkeitsinformationen als Beobachtungswert verwendet werden. Außerdem wird in diesem Fall nur der relative Azimut verwendet.
  • Ein relativer Nickwinkel, ein relativer Rollwinkel und dergleichen können ebenfalls aus den Koordinaten (xi, yi, zi) berechnet werden, und demzufolge kann dieser als Beobachtungswert hinzugefügt werden. In diesem Fall kann die Positionierung eines Ausrichtungswinkels des Fahrzeugs und dergleichen ebenfalls durchgeführt werden, und folglich kann eine erweiterte Positionierung durchgeführt werden. Hierbei sind der Nickwinkel und der Rollwinkel Begriffe bezüglich der Winkel um die yb-Achse und bzw. um die xb-Achse, wie in 4 gezeigt.
  • Die Beschreibung kehrt dann zum Ablaufdiagramm gemäß 5 zurück, und es wird der Ablauf beschrieben, der mit dem Schritt S111 beginnt.
  • Die Fahrzeug-Positionierungseinrichtung 20 erfasst einen Sensorwert vom autonomen Sensor 6 parallel zur Bestimmung gemäß dem Schritt S101 (Schritt S111). Genauer gesagt: Die Beschleunigung und die Winkelgeschwindigkeit werden von der IMU erfasst, und die Fahrzeug-Geschwindigkeitsinformationen und dergleichen werden vom Fahrzeug-Geschwindigkeitsmesser erfasst.
  • Korrektur des Sensorwerts des autonomen Sensors
  • Als Nächstes wird in der Sensor-Korrektureinheit 14 der vom autonomen Sensor 6 erfasste Sensorwert korrigiert (Schritt S112). Im Folgenden wird der Fall beschrieben, in welchem der Fahrzeug-Geschwindigkeitsmesser und ein Sensor für die Winkelgeschwindigkeit in Gierachsen-Richtung (nachfolgend: „Gierrate“) des Fahrzeugs als autonomer Sensor 6 verwendet werden, und in welchem eine Korrektur durchgeführt wird, indem Sensorfehler-Modelle verwendet werden, mit dem folgenden Ausdruck (3) und Ausdruck (4) beschrieben.
    [Ausdruck (3)] V = ( 1 + s ν ) V t
    Figure DE112019007155T5_0003
    V: Sensorwert der Fahrzeuggeschwindigkeit
    Vt: Wahrer wert der Fahrzeuggeschwindigkeit
    sv: Skalierungsfaktor der Fahrzeuggeschwindigkeit
    [Ausdruck (4)] γ = ( 1 + s γ ) ( γ t + b γ )
    Figure DE112019007155T5_0004
    γ: Gierraten-Sensorwert
    γt: wahrer Gierraten-Wert
    sγ: Skalierungsfaktor der Gierrate
    bγ: Vorbelastung des Gierraten-Sensors
  • Ausdruck (3) ist ein Modell, in welchem ein Skalierungsfaktor sv der Fahrzeuggeschwindigkeit mit einem wahren Wert Vt der Fahrzeuggeschwindigkeit multipliziert wird, und Ausdruck (4) ist ein Modell, in welchem eine Vorbelastung bγ eines Gierraten-sensors dem wahren Wert γt der Gierrate hinzugefügt wird und ein Skalierungsfaktor sγ der Gierrate damit multipliziert wird.
  • Wie später noch beschrieben, werden in diesem Beispiel im Filter 13 Schätzwerte sve, sγe und bye der jeweiligen Werte sv, sγ und bγ als Sensorfehler geschätzt. Die Sensor-Korrektureinheit 14 korrigiert den Sensorfehler des autonomen Sensors 6 gemäß den folgenden Ausdrücken (5) und (6) unter Verwendung der Schätzwerte der Sensorfehler.
    [Ausdruck 5] V e = 1 1 + s ν e V
    Figure DE112019007155T5_0005

    [Ausdruck 6] γ e = 1 1 + s γ e γ b γ e
    Figure DE112019007155T5_0006
  • In den Ausdrücken (5) und (6) sind Ve und γe die korrigierte Fahrzeuggeschwindigkeit bzw. Gierrate. Es sei angemerkt, dass die Sensorfehler-Modelle, die oben beschrieben sind, bloß ein Beispiel sind, und dass auch andere Sensorfehler-Modelle verwendet werden können.
  • Verarbeitung in der Inertial-Positionierungseinheit
  • Die Beschreibung kehrt dann zum Ablaufdiagramm gemäß 5 zurück, und es wird der Ablauf des Schrittes S113 beschrieben. Genauer gesagt: Es wird eine Inertial-Positionierungs-Berechnung von der Inertial-Positionierungseinheit 15 durchgeführt, indem der korrigierte Sensorwert und das Betriebsmodell des Fahrzeugs verwendet werden. Als ein spezifisches Berechnungsverfahren der Inertial-Positionierungs-Berechnung wird eine Modellierung durchgeführt, unter der Annahme, dass sich das Fahrzeug grob innerhalb einer Ebene bewegt. Es sei angemerkt, dass der folgende Ausdruck ein Navigations-Koordinatensystem gemäß einem Ellipsoid von GRS 80 (Geodäsie-Referenzsystem 1980) verwendet. Zunächst wird eine Zustandsvariable definiert, mit dem folgenden Ausdruck (7) ausgedrückt.
    [Ausdruck 7] y d = [ λ d φ d h d ψ d ] T
    Figure DE112019007155T5_0007
    yd in Ausdruck (7) stellt einen Zustandsvektor dar, der sich auf Inertial-Positionierungen bezieht, wobei Zustandsvariablen, die sich auf die Inertial-Positionierungen beziehen, miteinander kombiniert werden. Außerdem gilt Folgendes: λd bezeichnet den Breitengrad, der bei der Inertial-Positionierungs-Berechnung erhalten wird. φd bezeichnet den Längengrad, der bei der Inertial-Positionierungs-Berechnung erhalten wird. hd bezeichnet die Ellipsoid-Höhe, die bei der Inertial-Positionierungs-Berechnung erhalten wird. ψd bezeichnet den Azimut, der bei der Inertial-Positionierungs-Berechnung erhalten wird.
  • Die Zustandsvariable wird durch ein Betriebsmodell modelliert, wie durch den folgenden Ausdruck (8) ausgedrückt.
    [Ausdruck 8] y d = g ( y d , u ) = [ Vcos ψ d M + h d Vsin ψ d ( N + h d ) cos φ d 0 γ ]
    Figure DE112019007155T5_0008
  • λd
    Breitengrad durch Inertial-Positionierung [rad]
    φd
    Längengrad durch Inertial-Positionierung [rad]
    hd
    Höhe durch Inertial-Positionierung [m]
    ψd
    Azimut durch Inertial-Positionierung (bezogen auf Norden im Uhrzeigersinn) [rad]
    V
    Fahrzeuggeschwindigkeit [m/s]
    γ
    Gierrate [rad/s]
    a
    Äquatorialradius (= 6378137.0 [m])
    Fe
    Erdabplattung (= 1/298.257223563)
    yd im Ausdruck (8) bezeichnet einen Vektor, der erhalten wird, indem der Zustandsvektor, der sich auf die Inertial-Positionierung bezieht, nach der Zeit abgeleitet wird. Außerdem ist g(yd,u) eine nichtlineare Funktion, wobei yd, u als Eingaben verwendet werden und u ein Eingabevektor ist, wobei Eingabevariablen V und y kombiniert werden, und er stellt u = [Vγ]T dar.
  • Ferner bezeichnet N im Ausdruck (8) einen Normalkrümmungshalbmesser und M bezeichnet den Meridian-Radius, die jeweils in den folgenden Ausdrücken (9) und (10) definiert sind.
    [Ausdruck 9] N = a ( 1 e 2 sin 2 λ d ) 1 / 2 e : Exzentrizit a ¨ t ( = F e ( 2 F e ) )
    Figure DE112019007155T5_0009

    [Ausdruck 10] M = a ( 1 e 2 ) ( 1 e 2 sin 2 λ d ) 3 / 2
    Figure DE112019007155T5_0010
  • Indem der korrigierte Sensorwert in Ausdruck (8) eingesetzt wird und eine Integration von Moment zu Moment durchgeführt wird, können die Inertial-Positionierungsergebnisse erhalten werden. Als Verfahren zur Integration wird oft ein Verfahren wie das Runge-Kutta-Verfahren verwendet. Es sei angemerkt, dass Koordinaten, wie z. B. der Breitengrad, der Längengrad und die Höhe der Inertialnavigation als Koordinaten des Navigationszentrums des Fahrzeugs verwendet werden.
  • Die Beschreibung kehrt dann zum Ablaufdiagramm gemäß 5 zurück, und es wird der Ablauf des Schrittes S114 beschrieben. Genauer gesagt: Unter Verwendung der Informationen, die bei der Inertial-Positionierung eralten werden, wird in der Beobachtungswert-Vorhersageeinheit 16 der Vorhersage-Beobachtungswert berechnet. Die Beobachtungswert-Vorhersage des GNSS-Sensors 1 und die Beobachtungswert-Vorhersage des Detektors 3 für terrestrische Objekte werden nachstehend beschrieben.
  • Verarbeitung in Beobachtungswert-Vorhersageeinheit
  • Vorhersage für Beobachtungswert des GNSS-Sensors
  • Der Beobachtungswert, der im GNSS-Sensor 1 erhalten wird, stellt Koordinaten-Informationen, wie z. B. den Breitengrad, den Längengrad und die Höhe der GNSS-Antenne 1a dar. Nachfolgend wird der Beobachtungswert des GNSS-Sensors 1 als (λm, φm, hm, ψm) dargestellt. Im Gegensatz dazu können die Inertial-Positionierungsergebnisse auch diese Elemente der Koordinaten-Informationen enthalten. Die Inertial-Positionierungsergebnisse sind jedoch Koordinaten des Navigationszentrums des Fahrzeugs. Folglich wird der Beobachtungswert des GNSS-Sensors 1 vorhersagt, indem ein Offset-Wert vom Fahrzeugnavigationszentrum zu der Position der GNSS-Antenne 1a verwendet wird.
  • Genauer gesagt: Der Vorhersage-Beobachtungswert (λp, φp, hp, ψp) des GNSS-Sensors 1 kann mit dem folgenden Ausdruck (11) berechnet werden, indem eine Koordinaten-Umwandlungsfunktion c(yd, v) verwendet wird, und zwar auf der Basis eines Inertial-Positionierungswerts yd(λd, φd, hd, ψd) und eines Offset-Werts v (Δx, Δy, Δz), wobei (Δx, Δy, Δz) den Offset-Wert vom Fahrzeug-Navigationszentrum ausgedrückt im Navigations-Koordinatensystem des Fahrzeugs zur GNSS-Antenne 1a angibt.
    [Ausdruck 11] [ λ d φ d h d ψ d ] = c ( λ d , φ d , h d , ψ d , Δ x , Δ y , Δ z )
    Figure DE112019007155T5_0011
  • Vorhersage für Beobachtungswert des Detektors für terrestrische Objekte
  • Der Beobachtungswert, der im Detektor 3 für terrestrische Objekte erhalten wird, ist ein Abstand und ein Azimutwinkel zwischen dem Fahrzeug und dem repräsentativen Punkt für das terrestrische Objekt. Unter Verwendung der Inertial-Positionierungsergebnisse und der Absolutpositionskoordinaten des repräsentativen Punkts für das terrestrische Objekt können diese Beobachtungswerte vorhersagt werden. Genauer gesagt: Wenn ein Vorhersagewert eines Abstands und eines relativen Winkels zwischen dem Fahrzeug und dem repräsentativen Punkt (Xi, Yi, Zi) des terrestrischen Objekts FE jeweils durch ρp,i und θp,i dargestellt werden, können diese jeweils durch die folgenden Ausdrücke (12) und (13) berechnet werden.
    [Ausdruck 12] ρ p , i = ( X i X d ) 2 + ( Y i Y d ) 2 + ( Z i Z d ) 2
    Figure DE112019007155T5_0012

    [Ausdruck 13] θ p , i = atan ( e i / n i ) ψ d
    Figure DE112019007155T5_0013
  • Hierbei stellt (Xd, Yd, Zd) aus Ausdruck (12) λd, φd und hd dar, die Inertial-Positionierungsergebnisse im ECEF-Koordinatensystem sind und mittels des folgenden Ausdrucks (14) berechnet werden können.
    [Ausdruck 14] [ X d Y d Z d ] = [ ( N + h d ) cos λ d  cos φ d ( N + h d ) cos λ d  sin φ d ( N ( 1 e 2 ) + h d ) sin λ d ]
    Figure DE112019007155T5_0014
  • Außerdem stellen ei und ni in Ausdruck (13) den repräsentativen Punkt für das terrestrische Objekt im NED-Koordinatensystem dar und können mittels des folgenden Ausdrucks (15) berechnet werden.
    [Ausdruck 15] [ n i e i d i ] = [ sin λ d  cos φ d sin λ d  sin φ d cos λ d sin φ d cos φ d 0 cos λ d  cos φ d cos λ d  sin φ d sin λ d ] [ X i Y i Z i ]
    Figure DE112019007155T5_0015
  • Verarbeitung im Filter
  • Die Beschreibung kehrt dann zum Ablaufdiagramm gemäß 5 zurück, und es wird der Ablauf des Schrittes S103 beschrieben. Im Filter 13 werden eine Filter-Positionierungs-Berechnung und eine Fehlerschätzung des autonomen Sensors 6 durchgeführt, unter Verwendung des tatsächlichen Beobachtungswerts, der im Schritt S102 erhalten wird, und des Vorhersage-Beobachtungswerts, der im Schritt S114 erhalten wird (Schritt S103).
  • Zunächst wird ein Zustandsvektor definiert, der im folgenden Ausdruck (16) ausgedrückt wird, wobei die Variablen ein Schätzungsziel sind, das der Breitengrad, der Längengrad, die Höhe, der Azimut, der Fahrzeuggeschwindigkeit-Skalierungsfaktor, der Gierraten-Skalierungsfaktor und die Gierraten-Vorbelastung sind.
    [Ausdruck 16] x = [ λ φ h ψ s ν s γ b γ ] T
    Figure DE112019007155T5_0016
  • Falls der Skalierungsfaktor sv der Fahrzeuggeschwindigkeit und der Skalierungsfaktor sγ der Gierrate klein sind, können gemäß den Ausdrücken (5) und (6) der wahre Wert Vt der Fahrzeuggeschwindigkeit und der wahre Wert γt der Gierrate jeweils gemäß den folgenden Ausdrücken (17) und (18) angenähert werden.
    [Ausdruck 17] V t = ( 1 s ν ) V
    Figure DE112019007155T5_0017

    [Ausdruck 18] γ t = ( 1 s γ ) γ b γ
    Figure DE112019007155T5_0018
  • Dynamische Modelle des Skalierungsfaktors sv der Fahrzeuggeschwindigkeit, des Skalierungsfaktors sγ der Gierrate und des Skalierungsfaktors bγ des Gierraten-Sensors werden jeweils durch die folgenden Ausdrücke (19), (20) und (21) ausgedrückt. Genauer gesagt: Diese werden durch einen linearen Markov-Prozess zum Vorhersagen des nächsten Zustands aus dem gegenwärtigen Zustand getrieben.
    [Ausdruck 19] s ν ' = ( s ν + w s ν ) / τ s ν
    Figure DE112019007155T5_0019
    wsv: Prozessrauschen des Fahrzeuggeschwindigkeit-Skalierungsfaktors [-] τsv: Modellparameterwert des Fahrzeuggeschwindigkeit-Skalierungsfaktors [s]
    [Ausdruck 20] s γ ' = ( s γ + w s γ ) / τ s γ
    Figure DE112019007155T5_0020
    w: Prozessrauschen des Gierraten-Skalierungsfaktors [-]
    τ: Modellparameterwert des Gierraten-Skalierungsfaktors [s]
    [Ausdruck 21] b γ ' = ( b γ + w b γ ) / τ b γ
    Figure DE112019007155T5_0021
    w: Prozessrauschen der Gierraten-Vorbelastung [rad/s]
    τ: Modellparameterwert der Gierraten-Vorbelastung [s]
  • In den Ausdrücken (19) bis (21) gilt Folgendes: sv. gibt die zeitliche Ableitung von sv an. sγ gibt die zeitliche Ableitung von sγ an. bγ. gibt die zeitliche Ableitung von bγ an. Außerdem ist das Prozessrauschen Wsv des Fahrzeuggeschwindigkeit-Skalierungsfaktors das Rauschen, das mit dem zeitlichen Übergang des Fahrzeuggeschwindigkeit-Skalierungsfaktors zusammenhängt.
  • Das Prozessrauschen W des Gierraten-Skalierungsfaktors ist das Rauschen, das mit dem zeitlichen Übergang des Gierraten-Skalierungsfaktors zusammenhängt. Das Prozessrauschen W der Gierraten-Vorbelastung ist das Rauschen, das mit dem zeitlichen Übergang der Gierraten-Vorbelastung zusammenhängt.
  • Wenn die Ausdrücke (19) bis (21) zusammengefasst werden, kann die Zustandsgleichung durch den folgenden Ausdruck (22) ausgedrückt werden.
    [Ausdruck 22] x . = f ( x , u ) : = [ ( 1 s ν ) V cos ψ M + h ( 1 s ν ) V sin ψ ( N + h )  cos λ 0 ( 1 s γ ) γ b γ s ν / τ s ν b γ / τ b γ ]
    Figure DE112019007155T5_0022
  • Im Ausdruck (22) gibt x. einen Vektor an, der erhalten wird, indem ein Zustandsvektor x bezüglich der Zeit abgeleitet wird. Außerdem ist u ein Eingabevektor, der durch den folgenden Ausdruck (23) ausgedrückt werden kann.
    [Ausdruck 23] u = [ V γ ] T
    Figure DE112019007155T5_0023
  • Indem der Zustandsvektor x mit dem Ausdruck (22) als eine Zustandsgleichung, dem Ausdruck (11) als eine Beobachtungsgleichung mittels des GNSS-Sensors 1 und den Ausdrücken (12) und (13) als Beobachtungsgleichungen mittels terrestrischer Objekt-Detektion geschätzt werden, können die Positionierungs-Berechnung und die Schätzung von Fehlern des autonomen Sensors 6 durchgeführt werden.
  • Die Zustandsgleichung gemäß dem Ausdruck (22) und die Beobachtungsgleichungen gemäß den Ausdrücken (11) bis (13) sind nichtlinear bezüglich des Zustandsvektors. Folglich muss eine nichtlineare Zustandsschätzung angewendet werden, um die Positionierungs-Berechnung und Schätzung der Fehler des autonomen Sensors 6 durchzuführen. Als ein Verfahren für eine nichtlineare Zustandsschätzung können ein Partikelfilter, der als Partikelfilter oder sequenzielles Monte-Carlo-Verfahren bezeichnet wird, und ein bekanntes Verfahren, wie z. B. das erweiterte Kalman-Filter angewendet werden. Diese Verfahren sind Verfahren zum Schätzen des wahrscheinlichkeitstheoretisch wahrscheinlichsten Zustandswerts, und sie werden oft bei Zustandsschätzunsproblemen verwendet.
  • Ein Verfahren, das ein erweitertes Kalman-Filter verwendet, wird nachstehend beschrieben. Im Kalman-Filter wird die Schätzung des Zustandsvektors durchgeführt, und zwar unter der Annahme, dass Störungen bzw. Rauschen, die das System begleiten, der Gauss-Verteilung folgen. Dies ist bei der Implementierung vorteilhaft, da die Rechenlast klein ist und eine nur kleine Berechnungsschaltung ausreichend ist, verglichen mit dem Partikelfilter.
  • Zustandsschätzung durch erweitertes Kalman-Filter
  • Indem die lineare Taylor-Entwicklung mit dem Ausdruck (22) um den vorab geschätzten Wert xb des Zustandsvektors durchgeführt wird, kann dieser durch den folgenden Ausdruck (24) ausgedrückt werden.
    [Ausdruck 24] δ x . = F a δ x + w
    Figure DE112019007155T5_0024
  • Im Ausdruck (24) ist w das Prozessrauschen, und δx ist ein Fehler-Zustandsvektor, der durch den nachfolgenden Ausdruck (25) ausgedrückt werden kann.
    [Ausdruck 25] δ x : = x x b
    Figure DE112019007155T5_0025
  • Außerdem kann im Ausdruck (24) Fa durch den folgenden Ausdruck (26) ausgedrückt werden.
    [Ausdruck 26] F a : = f x | x = x b
    Figure DE112019007155T5_0026
  • Eine Beobachtungsgleichung zGNSS durch den GNSS-Sensor 1 wird mit dem folgenden Ausdruck (27) ausgedrückt.
    [Ausdruck 27] z GNSS = [ λ p φ p h p ψ p ] T
    Figure DE112019007155T5_0027
  • Eine Beobachtungsgleichung Zland,i durch ein terrestrisches Objekt i wird mit dem folgenden Ausdruck (28) ausgedrückt.
    [Ausdruck 28] z land , i = [ ρ p , i θ p , i ] T
    Figure DE112019007155T5_0028
  • Wenn N terrestrische Objekte gleichzeitig beobachtet werden können, ist eine Beobachtungsgleichung zland, die i =1 bis N Beobachtungswerte für terrestrische Objekte kombiniert, mit dem folgenden Ausdruck (29) ausgedrückt.
    [Ausdruck 29] z land = [ ρ p ,1 θ p ,1 ρ p ,2 θ p ,2 ρ p , N θ p , N ] T
    Figure DE112019007155T5_0029
  • Ein Element, bei welchem Beobachtungswerte, die in verschiedenen Situationen beobachtet werden können, kombiniert sind, wird als Ausgabevektor z bezeichnet. Der Ausgabevektor z hat verschiedene Inhalte in Situationen, in welchen der Beobachtungswert erhalten wird. z in jeder der Situationen wird nachstehend beschrieben.
  • Wenn nur der GNSS-Sensor beobachten kann
  • Wenn es keine terrestrischen Objekte in der Umgebung des Fahrzeugs gibt und nur der Beobachtungswert durch den GNSS-Sensor 1 zufriedenstellend ist, ist der Ausgabevektor z mit dem folgenden Ausdruck (30) ausgedrückt.
    [Ausdruck 30] z = [ z GNSS T ] T
    Figure DE112019007155T5_0030
  • Wenn nur der Detektor für terrestrische Objekte beobachten kann
  • Wenn die Zuverlässigkeit des Beobachtungswerts durch den GNSS-Sensor 1 wie in einem Innenstadtbereich niedrig ist und das terrestrische Objekt detektiert werden kann, ist der Ausgabevektor z mit dem folgenden Ausdruck (31) ausgedrückt.
    [Ausdruck 31] z = [ z land T ] T
    Figure DE112019007155T5_0031
  • Wenn der GNSS-Sensor und der Detektor für terrestrische Objekte beobachten können
  • Wenn der Beobachtungswert des GNSS-Sensors 1 zufriedenstellend ist und das terrestrische Objekt detektiert werden kann, wird der Ausgabevektor z mit dem folgenden Ausdruck (32) ausgedrückt.
    [Ausdruck 32] z = [ z GNSS T   z land T ] T
    Figure DE112019007155T5_0032
  • Es sei angemerkt, dass der Ausgabevektor z als eine Funktion des Zustandsvektors x und u ausgedrückt werden kann, und in der obigen Situation kann es alles mit dem folgenden Ausdruck (33) beschrieben werden.
    [Ausdruck 33] z = h 0 ( x , u )
    Figure DE112019007155T5_0033
  • Indem die Beobachtungsgleichung auf eine verbindende Art und Weise verwendet wird, wie im Ausdruck (32), können die Positionierungs-Berechnung und die Fehlerschätzung des autonomen Sensors mit höherer Zuverlässigkeit durchgeführt werden. Außerdem kann durch die verbindende Nutzung ohne Umschalten der Beobachtungsgleichung mit dem Ausdruck (32) ein unvorteilhaftes Phänomen, wie z. B. ein Springen der Position verringert werden.
  • Indem die Taylor-Entwicklung mit dem Ausdruck (33) um den vorab geschätzten Wert xb des Zustandsvektors durchgeführt wird, kann dieser durch die folgenden Ausdrücke (34) und (35) ausgedrückt werden.
    [Ausdruck 34] δ z = h 0 x | δ x x = x b
    Figure DE112019007155T5_0034

    [Ausdruck 35] δ z = H δ x
    Figure DE112019007155T5_0035
  • In Ausdruck (34) ist der Ausgabevektor z die Beobachtungsgleichung, die im obigen Ausdruck (33) ausgedrückt ist.
  • Außerdem ist im Ausdruck (35) H eine Matrix, die erhalten wird, indem die lineare Taylor-Entwicklung auf der Beobachtungsgleichung hinsichtlich des Zustandsvektors x durchgeführt wird und der vorab geschätzte Wert xb als x eingesetzt wird, und sie wird durch den folgenden Ausdruck (36) ausgedrückt.
    [Ausdruck 36] H : = h 0 x | x = x b
    Figure DE112019007155T5_0036
  • Es sei angemerkt, dass die Matrix H berechnet werden kann, indem entweder eine analytische Berechnung vorgenommen wird oder eine numerische Differenzierung durchgeführt wird.
  • Indem der Ausdruck (24) und der Ausdruck (35) mit einer Abtastzeit Δt des autonomen Sensors 6 diskretisiert werden, wobei die diskrete Zeit mit k bezeichnet ist, können die Ausdrücke wie folgt mit dem Ausdruck (37) bzw. dem Ausdruck (38) ausgedrückt werden.
    [Ausdruck 37] δ x k = F δ x k 1 + w k
    Figure DE112019007155T5_0037

    [Ausdruck 38] δ z k = H δ x k + ν k
    Figure DE112019007155T5_0038
  • Im Ausdruck (37) und Ausdruck (38) ist F eine Zustandsübergangsmatrix, die mit einem Fehler-Zustandsvektor δxk zusammenhängt, der mit der Zeit k zusammenhängt und durch F = (1 + Fa · dt) ausgedrückt wird, und wird durch wk = w · Δt ausgedrückt. vk ist das Sensorrauschen, das jedem Beobachtungswert entspricht. Das Prozessrauschen w und das Sensorrauschen vk sind Parameter des Kalman-Filters, und sie können durch Verwendung von vorab gemessenen Werten oder dergleichen vorgegeben werden.
  • Indem der Verarbeitungsalgorithmus des Kalman-Filters unter Verwendung von Ausdruck (37) und Ausdruck (38) angewendet wird, kann ein Schätzwert δxe,k des Fehler-Zustandsvektors zum diskreten Zeitpunkt k berechnet werden.
  • Zeitentwicklungs-Verarbeitung
  • Eine Zeitentwicklungs-Verarbeitung ist eine Verarbeitung, die zu jedem Abtastzeitpunkt des autonomen Sensors 6 ausgeführt wird. Ein vorab geschätzter Wert xb,k des Zustandsvektors zum Zeitpunkt k wird durch den folgenden Ausdruck (39) ausgedrückt, indem Inertial-Positionierungsergebnisse yd,k und ein autonomer Sensorfehler esensor,k zum Zeitpunkt k verwendet werden.
    [Ausdruck 39] x b ,k = [ y d ,k T e sensor ,k T ] T
    Figure DE112019007155T5_0039
  • Wenn ein vorab geschätzter Wert des Fehler-Zustandsvektors zum Zeitpunkt k als δxb,k ausgedrückt wird, eine Fehler-Kovarianzmatrix als Pk(n × n-Matrizen) und eine Vor-Fehler-Kovarianzmatrix als Pb,k(n × n-Matrizen), dann führen der vorab geschätzte Wert δxb,k und die vorab geschätzte Kovarianzmatrix Pb,k die Zeitentwicklungs-Verarbeitung gemäß dem folgenden Ausdruck (40) bzw. Ausdruck (41) durch.
    [Ausdruck 40] δ x b ,k = F δ x b ,k 1
    Figure DE112019007155T5_0040

    [Ausdruck 41] P b ,k = FP k - 1 F T + Q
    Figure DE112019007155T5_0041
  • Im Ausdruck (41) ist Q die Kovarianz-Matrix (n × n-Matrizen) des Prozessrauschens, wobei die Varianz von wk eine Diagonalkomponente ist. Obwohl der Anfangswert der Fehler-Kovarianz-Matrix unmittelbar nach dem Einschalten der Energieversorgung der Fahrzeug-Positionierungseinrichtung 20 oder dergleichen notwendig ist, wird oft Pk-1, das im folgenden Ausdruck (42) ausgedrückt ist, unter Verwendung irgendeines skalaren Werts α, der 0 oder größer erfüllt, und n × n-Einheitsmatrizen In×n oder dergleichen als Anfangswert verwendet. Außerdem wird als Anfangswert von δxb,k ein Vektor verwendet, wobei sämtliche Elementen von δxb,k gleich 0 sind.
    [Ausdruck 42] P k 1 = α · I n × n
    Figure DE112019007155T5_0042
  • Beobachtungs-Aktualisierungsverarbeitung
  • Zu dem Zeitpunkt, wenn der Beobachtungswert durch den externen Sensor erhalten wird, wird die Beobachungs-Aktualisierungsverarbeitung durchgeführt, die durch die folgenden Ausdrücke (43), (44) und (45) definiert ist.
    [Ausdruck 43] G k = P b ,k H T ( HP b ,k H T + R ) 1
    Figure DE112019007155T5_0043

    [Ausdruck 44] δ x e ,k = δ x b ,k + G k ( δ z k H δ x b ,k )
    Figure DE112019007155T5_0044

    [Ausdruck 45] P k = ( I n × n G k H ) P b ,k
    Figure DE112019007155T5_0045
  • In den Ausdrücken (43) bis (45) ist δxe,k ein Schätzwert des Fehler-Zustandsvektors, R ist eine Kovarianz-Matrix (p × p-Matrizen) des Sensorrauschens, und Gk ist die Kalman-Verstärkung.
  • Außerdem ist δzk ein Vektor, der durch den folgenden Ausdruck (46) ausgedrückt wird, wobei zm,k ein tatsächlicher Beobachtungswert zum Zeitpunkt k ist und zp,k ein Vorhersage-Beobachtungswert ist.
    [Ausdruck 46] δ z k = z m ,k z p ,k
    Figure DE112019007155T5_0046
  • Auf diese Weise wird der Schätzwert δxe,k des Fehler-Zustandsvektors zum Zeitpunkt k berechnet, und folglich kann der Schätzwert xe,k des Zustandsvektors xk mit dem folgenden Ausdruck (47) berechnet werden.
    [Ausdruck 47] x e ,k = x b ,k + δ x e ,k
    Figure DE112019007155T5_0047
  • Hierbei gibt Pk die Verteilung hinsichtlich der Differenz zwischen dem wahren Wert und dem Schätzwert des Zustandsvektors an, und indem der Wert verwendet wird, kann der abnormale Wert des externen Sensors bestimmt werden. Beispielsweise kann der folgende Rückweisungs-Mechanismus konfiguriert werden. Beispielsweise wird eine Ellipse, die als eine Fehler-Ellipse bezeichnet wird, erhalten, indem Elemente für den Breitengrad und den Längengrad von Pk extrahiert werden und Kennwert-Analyseresultate durchgeführt werden, und wenn es einen Sensorwert des GNSS-Sensors 1 innerhalb des Bereichs der Fehler-Ellipse gibt, dann wird der Wert als Beobachtungswert verwendet, und wenn nicht, dann wird der Wert nicht als Beobachtungswert verwendet.
  • Unter Verwendung des Partikelfilters kann ebenfalls ein ähnlicher Rückweisungs-Mechanismus konfiguriert werden, und indem der abnormale Wert zurückgewiesen wird, kann eine Schätzung mit höherer Zuverlässigkeit durchgeführt werden.
  • Es ist bevorzugt, dass die Elemente der Kovarianz-Matrix R des Sensorrauschens entsprechend dem GNSS-Sensor 1 gemäß dem Positionierungszustand des GNSS-Sensors 1 getauscht werden können, beispielsweise eine Punktpositionierung, DGPS, eine Float-Lösung und eine Fix-Lösung.
  • Es ist bevorzugt, dass die Elemente der Kovarianz-Matrix R des Sensorrauschens entsprechend dem Beobachtungswert für terrestrische Objekte gemäß jedem der terrestrischen Objekttypen geändert werden, da die Elemente für jeden terrestrischen Objekttypen unterschiedlich sein können, und zwar auf der Basis der Performanz des Detektors 3 für terrestrische Objekte.
  • Die Beschreibung kehrt dann zum Ablaufdiagramm gemäß 5 zurück, und es wird der Ablauf des Schrittes S104 beschrieben. Der Schätzwert xe,k des Zustandsvektors, der im Schritt S103 erhalten wird, wird als Zustandsvektor xe verwendet, und er ist mit dem folgenden Ausdruck (48) definiert.
    [Ausdruck 48] x e = [ λ e   φ h e   ψ e  s ve  s γ e  b γ e ] T
    Figure DE112019007155T5_0048
  • Im Ausdruck (48) sind λe, φe, he und ψe jeweils Schätzwerte des Breitengrads, des Längengrads, der Höhe und des Azimuts, und sve, sγe und bγe sind jeweils Schätzwerte des Fahrzeuggeschwindigkeit-Skalierungsfaktors, des Gierraten-Skalierungsfaktors und der Gierraten-Vorbelastung.
  • Auf der Basis der Annahme von ye = [λeφeheψe]T werden die Positionierungsergebnisse yout, die aus der Fahrzeug-Positionierungseinrichtung 20 ausgegeben werden, durch den folgenden Ausdruck (49) ausgedrückt.
    [Ausdruck 49] y out = y e
    Figure DE112019007155T5_0049
  • Außerdem wird der autonome Sensor esensor durch den folgenden Ausdruck (50) ausgedrückt, und er wird in die Sensor-Korrektureinheit 14 eingegeben.
    [Ausdruck 50] e sensor = [ s vc  s γ c  b γ c ] T
    Figure DE112019007155T5_0050
  • Indem die Fahrzeug-Positionierungseinrichtung 20, die die oben beschriebene Konfiguration hat, am Fahrzeug montiert wird, kann die Positionierungsgenauigkeit beibehalten werden, und Situationen können vermehrt werden, in welchen die Positionierung weiter durchgeführt werden kann, und zwar selbst im städtischen Gebiet und dem zugehörigen suburbanen Gebiet, wo es wahrscheinlich ist, dass Mehrwege-Ausbreitung verursacht wird.
  • Es sei angemerkt, dass bei der vorliegenden Ausführungsform die Ergebnisse, die durch Positionierungs-Berechnung mittels des GNSS-Sensors 1 erhalten werden, wie z. B. Breitengrad, Längengrad, Höhe und Azimut, als Beobachtungswert des GNSS-Sensors 1 verwendet werden. Der GNSS-Sensor 1 kann jedoch auch dazu imstande sein, Rohdaten auszugeben, wie z. B. den Pseudobereichs-Beobachtungswert, den Doppler-Beobachtungswert und den Trägerwellenphasen-Beobachtungswert, und in diesem Fall kann irgendeiner oder sämtliche dieser Werte als Beobachtungswert verwendet werden.
  • In diesem Fall gilt Folgendes: Obwohl eine Drift und dergleichen der Empfängerzeit des GNSS-Sensors 1 zur Zustandsvariable hinzugefügt werden muss und auch eine Fehlerschätzung hinsichtlich der Empfängerzeit durchgeführt werden muss, kann der Beobachtungswert mittels des GNSS-Sensors 1 selbst dann erzeugt werden, wenn es nur eine kleine Anzahl von sichtbaren Satelliten gibt (beispielsweise nur einen Satelliten). Eine solche Technologie wird als enge Kopplung bezeichnet, und es kann eine Positionierung mit höherer Genauigkeit durchgeführt werden, indem sie mit dem Beobachtungswert des Detektors 3 für terrestrische Objekte kombiniert wird, wie bei der vorliegenden Ausführungsform.
  • Außerdem wird bei der vorliegenden Ausführungsform ein Modell, bei welchem die Bewegung grob innerhalb einer Ebene erfolgt, als Modell der Inertial-Positionierung verwendet. Indem die Dreiachsen-Beschleunigung und Winkelgeschwindigkeit als autonomer Sensor 6 verwendet wird, kann jedoch ein Inertial-Positionierungs-Modell konstruiert werden, bei welchem der Rollwinkel und der Nickwinkel des Fahrzeugs variieren, und demzufolge kann eine Positionierung und Ausrichtungs-Schätzung mit höherer Genauigkeit durchgeführt werden.
  • Außerdem werden bei der vorliegenden Ausführungsform als Beobachtungswert für terrestrische Objekte der relative Abstand und der relative Winkel als Beobachtungswert verwendet. In Abhängigkeit von der Verarbeitung der terrestrischen Objekt-Detektion ist es auch denkbar, dass die relative Geschwindigkeit bezüglich des terrestrischen Objekts ausgegeben wird. In diesem Fall wird die relative Geschwindigkeit dem Beobachtungswert des terrestrischen Objekts hinzugefügt, und folglich kann eine Positionierung mit höherer Genauigkeit durchgeführt werden.
  • Außerdem ist bei der vorliegenden Ausführungsform das Schätzverfahren unter Verwendung eines erweiterten Kalman-Filters dargestellt. Wenn das Rauschen bzw. die Störungen im System jedoch nicht der Gauss-Verteilung folgen, können die Positionierung und die Schätzung des Sensorfehlers mit höherer Genauigkeit durchgeführt werden, indem das Partikelfilter verwendet wird.
  • Außerdem werden nur die Positionierungsergebnisse als Ausgabe der Fahrzeug-Positionierungseinrichtung 20 verwendet. Es kann jedoch auch ein korrigierter Sensorwert ausgegeben werden.
  • Zweite Ausführungsform
  • Bei der oben beschriebenen ersten Ausführungsform wird die Positionierung durchgeführt, indem der Beobachtungswert des terrestrischen Objekts verwendet wird. In einem städtischen Gebiet und dem zugehörigen suburbanen Gebiet, wo es wahrscheinlich ist, dass eine Mehrwege-Ausbreitung verursacht wird, können die Positionierungs-Berechnung und Schätzung des Sensor-Korrekturwerts auch durch Durchführen einer Positionierung unter Verwendung von Linienforminformationen einer Straße durchgeführt werden.
  • 7 ist ein Funktions-Blockdiagramm, das die Konfiguration einer Fahrzeug-Positionierungseinrichtung 20A der zweiten Ausführungsform gemäß der vorliegenden Erfindung veranschaulicht. Es sei angemerkt, dass in 7 Konfigurationen, die die gleichen wie diejenigen der Fahrzeug-Positionierungseinrichtung 20 sind, die unter Bezugnahme auf 1 beschrieben sind, mit den gleichen Bezugszeichen versehen sind, und dass deren überlappende Beschreibung weggelassen wird.
  • Wie in 7 veranschaulicht, werden in der Fahrzeug-Positionierungseinrichtung 20A Straßenlinienformdaten von einem Straßenlinienform-Detektor 2 (vierter Sensor) empfangen, und zwar anstelle des Detektors 3 für terrestrische Objekte der Fahrzeug-Positionierungseinrichtung 20, die in 1 gezeigt ist.
  • Der Straßenlinienform-Detektor 2 hat die Funktion, eine Straßenlinienform zu detektieren, indem er eine Kamera oder dergleichen verwendet, die am Fahrzeug angebracht ist, und die Detektionsergebnisse ausgibt. Für gewöhnlich ist die Kamera an der Vorderseite des Fahrzeugs angebracht, und die rechten und linken Markierungslinien vor dem Fahrzeug werden durch Bildverarbeitung detektiert und in die Beobachtungswert-Verarbeitungseinheit 12 als Straßenlinienformdaten eingegeben.
  • Ein Straßenlinienform-Rechner 11 hat die Funktion, die Straßenlinienform in der Nähe des Fahrzeugs zu berechnen, indem er Straßeninformationen verwendet, die von einem Straßeninformationsspeicher 5 erhalten werden, und die Ergebnisse an die Beobachtungswert-Vorhersageeinheit 16 als Straßenlinienforminformationen auszugeben.
  • Betrieb
  • Als Nächstes wird der Gesamtprozessablauf der Fahrzeug-Positionierungseinrichtung 20A unter Bezugnahme auf das in 8 dargestellte Ablaufdiagramm beschrieben. Es sei angemerkt, dass in 8 mit der Ausnahme der Hinzufügung der Schritte S121 und S122 die Verarbeitung, die die gleiche ist wie diejenige des Ablaufdiagramms, das unter Bezugnahme auf 5 beschrieben ist, mit den gleichen Bezugszeichen versehen ist, und dass deren überlappende Beschreibung weggelassen wird.
  • Wenn die Fahrzeug-Positionierungseinrichtung 20A mit der Positionierung beginnt, werden zunächst der Anfangswert der Inertial-Positionierung und die gegenwärtigen Inertial-Positionierungsergebnisse, die in der Beobachtungswert-Vorhersageeinheit 16 verwendet werden, erfasst (Schritt S100).
  • Als Nächstes bestimmt die Fahrzeug-Positionierungseinrichtung 20A, ob Daten von den externen Sensoren, wie z. B. dem GNSS-Sensor 1 und dem Straßenlinienform-Detektor 2 erhalten werden (Schritt S101). Die externen Sensoren haben voneinander verschiedene Detektionsziele. Falls es zumindest einen Sensor gibt, der einen Sensorwert erhält (bei „Ja“), fährt die Verarbeitung mit dem Schritt S102 fort. Anderenfalls (bei „Nein“) fährt die Verarbeitung mit dem Schritt S131 fort.
  • Falls die Fahrzeug-Positionierungseinrichtung 20A Daten vom externen Sensor nicht erhalten kann, gibt im Schritt S131 die Fahrzeug-Positionierungseinrichtung 20A Inertial-Positionierungsergebnisse aus, die bei der Inertial-Positionierungs-Berechnung im Schritt S113 berechnet worden sind, und zwar als Positionierungsergebnisse der Fahrzeug-Positionierungseinrichtung 20A.
  • Im Schritt S102 verarbeitet die Beobachtungswert-Verarbeitungseinheit 12 den Sensorwert, der im externen Sensor erhalten wird, so dass er vom Filter 13 im nächsten Schritt S103 verwendet wird, und gibt die Ergebnisse als einen tatsächlichen Beobachtungswert aus.
  • Nachstehend wird die Verarbeitung für den Beobachtungswert beschrieben, der in der Straßenlinienform-Detektor 2 in der Beobachtungswert-Verarbeitungseinheit 12 erhalten wird. Es sei angemerkt, dass die Verarbeitung für den Beobachtungswert, der im GNSS-Sensor 1 erhalten wird, die gleiche ist wie diejenige bei der ersten Ausführungsform, und dass demzufolge deren erneute Beschreibung weggelassen wird.
  • Verarbeitung für Beobachtungswert im Straßenlinienform-Detektor
  • Im Straßenlinienform-Detektor 2 können die Markierungslinien in Rechts- und Linksrichtung des Fahrzeugs mit einer Kamera detektiert werden, die an der Vorderseite des Fahrzeugs angebracht ist. Im Straßenlinienform-Detektor 2 wird ein kubischer Koeffizient als Detektionsergebnisse ausgeben, die sich auf die rechten und linken Markierungslinien beziehen, und die rechte Markierungslinie und die linke Markierungslinie werden jeweils durch die folgenden Ausdrücke (51) und (52) im Fahrzeug-Koordinatensystem ausgedrückt.
    [Ausdruck 51] yb = C 3r · xb 3 + C 2r · xb 2 + C 1r · xb 1 + C 0r
    Figure DE112019007155T5_0051

    [Ausdruck 52] yb = C 3l · xb 3 + C 2l · xb 2 + C 1l · xb 1 + C 0l
    Figure DE112019007155T5_0052
  • Bei der vorliegenden Ausführungsform wird die Straßenlinienform an der Fahrspurmitte als ein repräsentativer Wert verwendet. Demzufolge wird in der Beobachtungswert-Verarbeitungseinheit 12 eine Verarbeitung durchgeführt, die durch den folgenden Ausdruck (53) ausgedrückt wird, und zwar hinsichtlich der Straßenlinienform-Berechnungsergebnisse.
    [Ausdruck 53] yb = C 3c · xb 3 + C 2c · xb 2 + C 1c · xb 1 + C 0c
    Figure DE112019007155T5_0053
  • Im Ausdruck (53) gilt Folgendes: C 3c = ( C 3r + C 31 ) / 2, C 2c = ( C 2r + C 21 ) / 2, C 1c = ( C 1r + C 11 ) / 2, and C 0c = ( C 0r + C 01 ) / 2.
    Figure DE112019007155T5_0054
  • Bei der vorliegenden Ausführungsform werden als Beobachtungswert, der im Straßenlinienform-Detektor 2 detektiert wird, eine horizontale Positionsabweichung ym, ein Abweichungswinkel θm und eine Krümmung κm am Punkt xb = 0 verwendet. Diese werden durch die folgenden Ausdrücke (54), (55) bzw. (56) berechnet, und zwar auf der Basis der Straßenlinienform der Fahrspurmitte.
    [Ausdruck 54] y m = C 0c
    Figure DE112019007155T5_0055

    [Ausdruck 55] θ m = atan ( C 1c )
    Figure DE112019007155T5_0056

    [Ausdruck 56] κ m = 2C 2c
    Figure DE112019007155T5_0057
  • 9 ist ein Diagramm, das die Straßenlinienform veranschaulicht, das die Definition der horizontalen Positionsabweichung ym, des Abweichungswinkels θm und der Krümmung κm veranschaulicht, und das die Position des Fahrzeugs OV mit dem Fahrzeug-Navigations-Koordinatensystem und dem NED-Koordinatensystem zeigt. Außerdem sind die rechte Markierungslinie, die durch Ausdruck (51) ausgedrückt wird, und die linke Markierungslinie, die durch Ausdruck (52) ausgedrückt wird, schematisch dargestellt.
  • Verarbeitung im Straßenlinienform-Rechner
  • Die Beschreibung kehrt dann zum Ablaufdiagramm gemäß 8 zurück, und es wird der Schritt S121 beschrieben. Die Fahrzeug-Positionierungseinrichtung 20A erfasst Straßeninformationen in der Umgebung des Fahrzeugs von der Straßeninformationsspeicher 5 parallel zum Schritt S101 und Schritt S111 (Schritt 121).
  • Wie in 3 veranschaulicht, speichert der Straßeninformationsspeicher 5 Informationen bezüglich des tatsächlich existierenden terrestrischen Objekts und des imaginären terrestrischen Objekts auf einer Straße in einer Zone, wo Kartendaten vorbereitet werden, und speichert - als Informationen bezüglich des imaginären terrestrischen Objekts - Informationen eines Straßenanschlusses, eines Fahrspuranschlusses, eines Knotens auf dem Fahrspuranschluss, eines schraffierten Bereichs und dergleichen. Außerdem können auch Informationen der Fahrspurbreite der Fahrspur, vertikale und horizontale Neigungen und dergleichen enthalten sein.
  • Nachdem die Straßeninformationen im Schritt S121 erfasst worden sind, fährt die Verarbeitung mit dem Schritt S122 fort. Im Schritt S122 werden im Straßenlinienform-Rechner 11 die Straßenlinienformen in der Umgebung des Fahrzeugs berechnet, die später in der Beobachtungswert-Vorhersageeinheit 16 verwendet werden. Bei der vorliegenden Ausführungsform werden Absolutpositionskoordinaten der Fahrspurmitte im Straßeninformationsspeicher 5 als Kartenknoten gespeichert, und nachstehend wird ein Verfahren zum Berechnen der Straßenlinienform unter Verwendung der Informationen beschrieben.
  • 10 ist ein Ablaufdiagramm, das die Verarbeitung im Schritt S122 zeigt. Die Verarbeitung vom Schritt S122 wird nachstehend unter Bezugnahme auf 10 beschrieben.
  • Zunächst werden im Schritt S201 Kartenknotendaten vom
  • Straßeninformationsspeicher 5 bezogen. Nachstehend werden Absolutpositionskoordinaten der Fahrspurmitte, auf welcher sich das Fahrzeug als Kartenknotendaten befindet, als Breitengrad, Längengrad und Höhe erhalten. Die Kartenknotendaten einer Mehrzahl von Punkten in der Umgebung des Fahrzeugs werden nachfolgend als eine Kartenpunktgruppe bezeichnet.
  • Als Nächstes wird im Schritt S202 eine Funktionsapproximierung auf der im Schritt S201 erhaltenen Kartenpunktgruppe durchgeführt. Genauer gesagt: Zunächst wird die Kartenpunktgruppe als eine Linie ausgedrückt, die durch jeden Knoten geht, und zwar von dem Knoten an der Startposition bis zum Knoten an der Endposition, und die Straßenlinienform wird auf der Basis der erhaltenen Linie berechnet.
  • Genauer gesagt: Die Straßenpunktgruppe wird als Straßenlinienform ausgedrückt, indem ein Linienlängenparameter s verwendet wird, wobei s am Startpositionsknoten s = 0 erfüllt und s am Endpunktknoten s = 1 erfüllt, s an jeder Knotenposition kann auf der Basis des Breitengrads, des Längengrads und des Höhengrads der Kartenknotendaten berechnet werden, und demzufolge können durch eine Interpolationsverarbeitung, wie z. B. die Funktionsapproximierung, die Absolutpositionskoordinaten des Breitengrads, des Längengrads und der Höhe an jedem Knoten der Kartenpunktgruppe als eine Linie unter Verwendung von s ausgedrückt werden.
  • Beispiele für ein Verfahren zur Funktionsapproximierung schließen Verfahren ein, die eine Bezier-Kurve, eine Spline-Kurve usw. verwenden. Bei der vorliegenden Ausführungsform wird ein Verfahren zum Durchführen der Approximierung mit einem kubischen Polynom beschrieben.
  • 11 veranschaulicht ein konzeptuelles Diagramm der Kartenpunktgruppe, sowie die Straßenlinienform, die einer Funktionsapproximierung unterzogen wird. Wenn die Kartenpunktgruppe der Funktionsapproximierung unterzogen wird, genauer gesagt die Absolutpositionskoordinaten der Straßenmitte mit den Funktionen lX(s), lY(s) und lZ(s) in den ECEF-Koordinaten (X, Y, Z) ausgedrückt werden, können diese durch ein kubisches Polynom ausgedrückt werden, wie in den folgenden Ausdrücken (57), (58) bzw. (59).
    [Ausdruck 57] 1 x ( s ) : X = C 3x s 3 + C 2x s 2 + C 1x s + C 0x
    Figure DE112019007155T5_0058

    [Ausdruck 58] 1 y ( s ) :Y = C 3Y s 3 + C 2Y s 2 + C 1Y s + C 0Y
    Figure DE112019007155T5_0059

    [Ausdruck 59] 1 z ( s ) :Z = C 3Z s 3 + C 2Z s 2 + C 1Z s + C 0Z
    Figure DE112019007155T5_0060
  • Es sei angemerkt, dass es als ein anderes Verfahren zum Berechnen der Straßenlinienform ein Verfahren zum Berechnen der Straßenlinienform auf der Basis von Fahrspurverknüpfungs- und Knoteninformationen gibt, und beispielsweise kann die japanische Patentanmeldungs-Offenlegungsschrift JP 2005-313 803 A verwendet werden.
  • Als Nächstes wird im Schritt S203 als Straßenlinienform, die im Schritt S202 erhalten wird, ein kubischer Approximierungskoeffizient als Berechnungsergebnis ausgegeben.
  • Die Informationen über die Straßenlinienform, die im Schritt S122 berechnet werden, werden an die Beobachtungswert-Vorhersageeinheit 16 ausgegeben, und die Verarbeitung gemäß Schritt S114 wird durchgeführt. Genauer gesagt: Im Schritt S114 wird der Vorhersage-Beobachtungswert berechnet, indem die Inertial-Positionierungsergebnisse, die in der Inertial-Positionierungseinheit 15 erhalten werden, und die Straßenlinienforminformationen verwendet werden, die im Straßenlinienform-Rechner 11 erhalten werden. Es sei angemerkt, dass die Vorhersage für den Beobachtungswert des GNSS-Sensors 1 die gleiche ist wie diejenige bei der ersten Ausführungsform, und folglich wird die Vorhersage für den Beobachtungswert des Straßenlinienform-Detektors 2 nachstehend beschrieben.
  • Verarbeitung in Beobachtungswert-Vorhersageeinheit
  • Vorhersage für Beobachtungswert des Straßenlinienform-Detektors
  • Der Beobachtungswert, der im Straßenlinienform-Detektor 2 erhalten wird, ist die horizontale Positionsabweichung, der Abweichungswinkel und die Krümmung. Die horizontale Positionsabweichung, der Abweichungswinkel und die Krümmung können vorhersagt werden auf der Basis der Inertial-Positionierungsergebnisse und der Straßenlinienform in der Umgebung des Fahrzeugs, die vom Straßenlinienform-Rechner 11 erhalten werden. Genauer gesagt: Wie in 9 veranschaulicht, wird die Straßenlinienform (lx(s), ly(s), lz(s)), die im Straßenlinienform-Detektor 2 erhalten wird, in eine Straßenlinienform (lnx(s), lnY(s), lnZ(s)) konvertiert, die im Fahrzeug-Navigations-Koordinatensystem ausgedrückt ist, und zwar unter Verwendung einer Koordinaten-Umwandlung.
  • Genauer gesagt: Diese werden ausgedrückt als xb = lnx(s), yb = lnY(s) und zb = lnZ(s). Außerdem wird s, das xb = 0 erfüllt, analytisch oder numerisch berechnet. Wenn s in diesem Fall durch sc ausgedrückt wird, dann werden die vorhersagte horizontale Positionsabweichung, der Abweichungswinkel und die Krümmung jeweils wie in den folgenden Ausdrücken (60), (61) und (62) berechnet. Diese können entweder analytisch berechnet werden oder unter Verwendung von numerischer Berechnung berechnet werden.
    [Ausdruck 60] y p = 1 nY | s = sc
    Figure DE112019007155T5_0061

    [Ausdruck 61] θ p = atan ( dy b dx b | s = s c )
    Figure DE112019007155T5_0062

    [Ausdruck 62] κ p = d 2 y b dx 2 b { 1 + ( dy b dx b ) 2 } 3 2 | s = s c
    Figure DE112019007155T5_0063
  • Verarbeitung im Filter
  • Die Beschreibung kehrt dann zum Ablaufdiagramm gemäß 8 zurück, und es wird der Ablauf des Schrittes S103 beschrieben. Im Filter 13 werden eine Filter-Positionierungs-Berechnung und eine Fehlerschätzung des autonomen Sensors 6 durchgeführt, unter Verwendung des tatsächlichen Beobachtungswerts, der im Schritt S102 erhalten wird, und des Vorhersage-Beobachtungswerts, der im Schritt S114 erhalten wird. Der Unterschied zur ersten Ausführungsform ist die Beobachtungsgleichung.
  • Eine Beobachtungsgleichung zroad durch die Straßenlinienform wird mit dem folgenden Ausdruck (63) ausgedrückt.
    [Ausdruck 63] z road = [ y θ κ p ] T
    Figure DE112019007155T5_0064
  • Wenn nur der GNSS-Sensor beobachten kann
  • Wenn die Straßenlinienform nicht detektiert werden kann und der Beobachtungswert mittels des GNSS-Sensors 1 zufriedenstellend ist, wird der Ausgabevektor z mit dem folgenden Ausdruck (64) ausgedrückt.
    [Ausdruck 64] z = [ z GNSS T ] T
    Figure DE112019007155T5_0065
  • Wenn nur der Straßenlinienform-Detektor beobachten kann
  • Wenn die Zuverlässigkeit des Beobachtungswerts durch den GNSS-Sensor 1 wie in einem Innenstadtbereich niedrig ist und die Straßenlinienform detektiert werden kann, ist der Ausgabevektor z mit dem folgenden Ausdruck (65) ausgedrückt.
    [Ausdruck 65] z = [ z road T ] T
    Figure DE112019007155T5_0066
  • Wenn der GNSS-Sensor und der Straßenlinienform-Detektor beobachten können
  • Wenn der Beobachtungswert des GNSS-Sensors 1 zufriedenstellend ist und die Straßenlinienform detektiert werden kann, ist der Ausgabevektor z mit dem folgenden Ausdruck (66) ausgedrückt.
    [Ausdruck 66] z = [ z GNSS T  z road T ] T
    Figure DE112019007155T5_0067
  • Indem eine Verarbeitung ähnlich wie bei der ersten Ausführungsform in jeder der Situationen durchgeführt wird, können die Positionierungs-Berechnung und die Schätzung des Korrekturwerts des autonomen Sensors durchgeführt werden.
  • Außerdem wird im obigen Ausdruck der Punkt xb = 0 als Beobachtungswert der Straßenlinienform verwendet. Als xb kann jedoch irgendein Punkt ausgewählt werden. Außerdem kann eine Mehrzahl von Punkten verwendet werden, anstelle von nur einem Punkt, wie in dem Fall von xb = 0. Beispielsweise können der Punkt xb = 0 und der Punkt xb = 10 gleichzeitig verwendet werden. In diesem Fall wird die Anzahl von Beobachtungswerten, die sich auf die Straßenlinienform beziehen, erhöht, und folglich kann eine Positionierung mit höherer Genauigkeit durchgeführt werden.
  • Außerdem werden die horizontale Positionsabweichung, der Abweichungswinkel und die Krümmung als Beobachtungswert durch die Straßenlinienform verwendet. Wenn jedoch der Beobachtungswert der Straßenlinienform einer Kurvenapproximation mit einem höheren Grad unterzogen wird, kann auch eine Krümmungsänderung oder dergleichen als Beobachtungswert hinzugefügt werden. In diesem Fall wird die Anzahl von Beobachtungswerten erhöht, und folglich kann eine Positionierung mit höherer Genauigkeit durchgeführt werden.
  • Wie oben beschrieben, gilt Folgendes: Indem der Straßenlinienform-Detektor 2 und der Straßeninformationsspeicher 5 verwendet werden, können die Positionierungs-Berechnung und die Schätzung des Sensor-Korrekturwerts durchgeführt werden. Gemäß der oben beschriebenen Konfiguration können die Situationen, in welchen die Positionierung fortgesetzt werden kann, erhöht werden, und zwar ähnlich zu dem Fall, bei welchem das terrestrisches Objekt benutzt wird.
  • Dritte Ausführungsform
  • Die Positionierung kann durchgeführt werden, indem der Beobachtungswert des terrestrischen Objekts und die Linienforminformationen der Straße verwendet werden, indem die oben beschriebe erste Ausführungsform und die zweite Ausführungsform kombiniert werden.
  • Konfiguration der Einrichtung
  • 12 ist ein Funktions-Blockdiagramm, das die Konfiguration einer Fahrzeug-Positionierungseinrichtung 20B der dritten Ausführungsform gemäß der vorliegenden Erfindung veranschaulicht. Es sei angemerkt, dass in 12 Konfigurationen, die die gleichen wie diejenigen der Fahrzeug-Positionierungseinrichtungen 20 und 20A sind, die unter Bezugnahme auf 1 und 7 beschrieben sind, mit den gleichen Bezugszeichen versehen sind, und dass deren überlappende Beschreibung weggelassen wird.
  • Wie in 12 veranschaulicht, werden in der Fahrzeug-Positionierungseinrichtung 20B die Straßenlinienformdaten vom Straßenlinienform-Detektor 2 empfangen, und Daten einer Relativ-Relation für terrestrische Objektinformationen werden vom Detektor 3 für terrestrische Objekte empfangen.
  • Betrieb
  • Der Gesamtverarbeitungsablauf der Fahrzeug-Positionierungseinrichtung 20B ist ähnlich derjenigen gemäß 8, und demzufolge wird auf 8 Bezug genommen, und es erfolgt nur die Beschreibung der Unterschiede gegenüber der ersten und der zweiten Ausführungsform.
  • Wenn die Fahrzeug-Positionierungseinrichtung 20B mit der Positionierung beginnt, werden zunächst der Anfangswert der Inertial-Positionierung und die gegenwärtigen Inertial-Positionierungsergebnisse, die in der Beobachtungswert-Vorhersageeinheit 16 verwendet werden, erfasst (Schritt S100).
  • Als Nächstes bestimmt die Fahrzeug-Positionierungseinrichtung 20B, ob Daten von den externen Sensoren, wie z. B. dem GNSS-Sensor 1, dem Straßenlinienform-Detektor 2 und dem Detektor 3 für terrestrische Objekte erhalten werden (Schritt S101). Die externen Sensoren haben voneinander verschiedene Detektionsziele. Falls es zumindest einen Sensor gibt, der einen Sensorwert erhält (bei „Ja“), fährt die Verarbeitung mit dem Schritt S102 fort. Anderenfalls (bei „Nein“) fährt die Verarbeitung mit dem Schritt S131 fort.
  • Falls die Fahrzeug-Positionierungseinrichtung 20B Daten vom externen Sensor nicht erhalten kann, gibt im Schritt S131 die Fahrzeug-Positionierungseinrichtung 20B Inertial-Positionierungsergebnisse aus, die bei der Inertial-Positionierungs-Berechnung im Schritt S113 berechnet worden sind, und zwar als Positionierungsergebnisse der Fahrzeug-Positionierungseinrichtung 20B.
  • Im Schritt S102 verarbeitet die Beobachtungswert-Verarbeitungseinheit 12 den Sensorwert, der im externen Sensor erhalten wird, so dass er vom Filter 13 im nächsten Schritt S103 verwendet wird, und gibt die Ergebnisse als einen tatsächlichen Beobachtungswert aus.
  • Nachstehend wird die Verarbeitung für den Beobachtungswert in jedem von dem GNSS-Sensor 1 und dem Detektor 3 für terrestrische Objekte in der Beobachtungswert-Verarbeitungseinheit 12 beschrieben.
  • Verarbeitung im Filter
  • Die Beschreibung kehrt dann zum Ablaufdiagramm gemäß 8 zurück, und es wird der Ablauf des Schrittes S103 beschrieben. Im Filter 13 werden eine Filter-Positionierungs-Berechnung und eine Fehlerschätzung des autonomen Sensors 6 durchgeführt, unter Verwendung des tatsächlichen Beobachtungswerts, der im Schritt S102 erhalten wird, und des Vorhersage-Beobachtungswerts, der im Schritt S114 erhalten wird. Der Unterschied zur ersten und zweiten Ausführungsform ist die Beobachtungsgleichung. Die Beobachtungsgleichung im Filter 13 kann wie folgt ausgedrückt werden, und zwar in Abhängigkeit von der jeweiligen Situationen.
  • Wenn nur der GNSS-Sensor beobachten kann
  • Wenn es keine terrestrischen Objekte in der Umgebung des Fahrzeugs gibt, die Straßenlinienform nicht detektiert werden kann und nur der Beobachtungswert durch den GNSS-Sensor 1 zufriedenstellend ist, so wird der Ausgabevektor z mit dem folgenden Ausdruck (67) ausgedrückt.
    [Ausdruck 67] z = [ z GNSS T ] T
    Figure DE112019007155T5_0068
  • Wenn nur der Detektor für terrestrische Objekte beobachten kann
  • Wenn die Zuverlässigkeit des Beobachtungswerts durch den GNSS-Sensor 1 wie in einem Innenstadtbereich niedrig ist und nur das terrestrische Objekt detektiert werden kann, wird der Ausgabevektor z mit dem folgenden Ausdruck (68) ausgedrückt.
    [Ausdruck 68] z = [ z land T ] T
    Figure DE112019007155T5_0069
  • Wenn nur der Straßenlinienform-Detektor beobachten kann
  • Wenn es keine terrestrischen Objekte in der Umgebung des Fahrzeugs gibt, der Beobachtungswert durch den GNSS-Sensor 1 wie in einem Innenstadtbereich niedrig ist und nur die Straßenlinienform detektiert werden kann , wird der Ausgabevektor z mit dem folgenden Ausdruck (69) ausgedrückt.
    [Ausdruck 69] z = [ z road T ] T
    Figure DE112019007155T5_0070
  • Wenn der GNSS-Sensor und der Detektor für terrestrische Objekte beobachten können
  • Wenn die Straßenlinienform nicht detektiert werden kann, der Beobachtungswert durch den GNSS-Sensor 1 zufriedenstellend ist und das terrestrische Objekt detektiert werden kann, wird der Ausgabevektor z mit dem folgenden Ausdruck (70) ausgedrückt.
    [Ausdruck 70] z = [ z GNSS T  z land T ] T
    Figure DE112019007155T5_0071
  • Wenn der GNSS-Sensor und der Straßenlinienform-Detektor beobachten können
  • Wenn es keine terrestrischen Objekte in der Umgebung des Fahrzeugs gibt, der Beobachtungswert durch den GNSS-Sensor 1 zufriedenstellend ist und die Straßenlinienform detektiert werden kann, wird der Ausgabevektor z mit dem folgenden Ausdruck (71) ausgedrückt.
    [Ausdruck 71] z = [ z GNSS T  z road T ] T
    Figure DE112019007155T5_0072
  • Wenn der Detektor für terrestrische Objekte und der Straßenlinienform-Detektor beobachten können
  • Wenn die Zuverlässigkeit des Beobachtungswerts durch den GNSS-Sensor 1 wie in einem Innenstadtbereich niedrig ist und die Straßenlinienform und das terrestrische Objekt detektiert werden können, wird der Ausgabevektor z mit dem folgenden Ausdruck (72) ausgedrückt.
    [Ausdruck 72] z = [ z road T  z land T ] T
    Figure DE112019007155T5_0073
  • Wenn der GNSS-Sensor, der Straßenlinienform-Detektor und der Detektor für terrestrische Objekte beobachten können
  • Wenn der Beobachtungswert durch den GNSS-Sensor 1 zufriedenstellend ist und die Straßenlinienform und das terrestrische Objekt detektiert werden können, wird der Ausgabevektor z mit dem folgenden Ausdruck (73) ausgedrückt.
    [Ausdruck 73] z = [ z GNSS T  z road T  z land T ] T
    Figure DE112019007155T5_0074
  • Indem die Beobachtungsgleichung entsprechend den jeweiligen oben beschriebenen Situationen verwendet wird, können die Filter-Positionierungs-Berechnung und die Schätzung des Fehlers des autonomen Sensors 6 im Filter 13 durchgeführt werden.
  • Wie oben beschrieben, gilt Folgendes: Indem der Straßenlinienform-Detektor 2, der Detektor 3 für terrestrische Objekte, der Informationsspeicher 4 für terrestrische Objekte und der Straßeninformationsspeicher 5 verwendet werden, können die Positionierungs-Berechnung und die Schätzung des Sensor-Korrekturwerts durchgeführt werden. Gemäß der oben beschriebenen Konfiguration kann die Fahrzeug-Positionierungseinrichtung implementiert werden, wobei Situationen, in welchen die Positionierung fortgesetzt werden kann, erhöht sind und ein Springen der Position oder dergleichen verringert sind.
  • Hardware-Konfiguration
  • Es sei angemerkt, dass jede Komponente der Fahrzeug-Positionierungseinrichtungen 20, 20A und 20B der oben beschriebenen ersten bis dritten Ausführungsform unter Verwendung eines Computers konfiguriert werden kann, und dass sie ausgeführt werden, indem der Computer ein Programm ausführt. Genauer gesagt: Die Fahrzeug-Positionierungseinrichtungen 20 bis 20B sind beispielsweise mittels einer Verarbeitungsschaltung 50 implementiert, die in 13 veranschaulicht ist. Ein Prozessor, wie z. B. eine CPU und ein digitaler Signalprozessor (DSP) wird auf die Verarbeitungsschaltung 50 angewendet, und die Funktion jeder Einheit wird durch Ausführen eines in einer Speichereinrichtung gespeicherten Programms implementiert.
  • Es sei angemerkt, dass als Verarbeitungsschaltung 50 dedizierte Hardware verwendet werden kann. Wenn die Verarbeitungsschaltung 50 dedizierte Hardware ist, schließen Beispiele der Verarbeitungsschaltung 50 Folgendes ein: eine Einzelschaltung, eine zusammengesetzte Schaltung, einen programmierten Prozessor, einen Prozessor für parallele Programmierung, eine anwendungsspezifische integrierte Schaltung (ASIC), ein feldprogrammierbares Gate-Array (FPGA), eine Kombination von diesen, und dergleichen.
  • Hinsichtlich der Fahrzeug-Positionierungseinrichtungen 20 bis 20B kann die Funktion jeder der Komponenten mittels einer einzelnen Verarbeitungsschaltung implementiert werden, oder die Funktionen können gemeinsam mittels einer Verarbeitungsschaltung implementiert werden.
  • Außerdem veranschaulicht 14 eine Hardware-Konfiguration, wenn die Verarbeitungsschaltung 50 unter Verwendung eines Prozessors konfiguriert ist. In diesem Fall ist die Funktion jeder Einheit der Fahrzeug-Positionierungseinrichtungen 20 bis 20B mittels einer Kombination mit Software oder dergleichen implementiert (Software; Firmware; oder Software und Firmware). Die Software oder dergleichen ist als ein Programm beschrieben und ist in einem Speicher 52 gespeichert.
  • Ein Prozessor 51, der als Verarbeitungsschaltung 50 fungiert, implementiert die Funktion jeder Einheit, indem er das Programm, das im Speicher 52 (der Speichereinrichtung) gespeichert ist, liest und ausführt. Genauer gesagt: Es kann gesagt werden, dass das Programm den Computer zum Ausführen von Prozeduren und Methoden von Operationen der Komponenten der Fahrzeug-Positionierungseinrichtung 20 bis 20B veranlasst.
  • Hierbei können Beispiele des Speichers 52 Folgendes einschließen: einen nichtflüchtigen oder flüchtigen Halbleiterspeicher, wie z. B. RAM, ROM, Flash-Speicher, einen löschbaren programmierbaren Nur-Lese-Speicher (EPROM) und einen elektrisch löschbaren programmierbaren Nur-Lese-Speicher (EEPROM), eine Festplatte (HDD), eine Magnetscheibe, eine flexible Scheibe, eine optische Scheibe, eine Compact Disc, eine MiniDisc, eine Digital Versatile Disc (DVD), ein Laufwerk dafür, sowie jegliches Speichermedium, das in der Zukunft verwendet werden kann.
  • Vorstehend ist eine Konfiguration beschrieben, bei welcher die Funktion jeder Komponente der Fahrzeug-Positionierungseinrichtungen 20 bis 20B durch irgendeines von Hardware oder Software oder dergleichen implementiert ist. Dies ist jedoch nicht einschränkend, und ein Teil der Komponenten der Fahrzeug-Positionierungseinrichtungen 20 bis 20B kann in dedizierter Hardware implementiert sein, und ein anderer Teil der Komponenten kann als Software oder dergleichen implementiert sein. Beispielsweise können die Funktionen des Teils der Komponenten durch die Verarbeitungsschaltung 50 als dedizierte Hardware implementiert sein, und die Funktionen eines anderen Teils der Komponenten können durch die Verarbeitungsschaltung 50 als Prozessor 51 implementiert sein, der das im Speicher 52 gespeicherte Programm liest und ausführt.
  • Wie oben beschrieben, können die Fahrzeug-Positionierungseinrichtungen 20 bis 20B jede oben beschriebene Funktion mit Hardware, Software oder dergleichen oder einer Kombination dieser implementieren.
  • Während die Erfindung detailliert gezeigt und beschrieben ist, ist die obige Beschreibung in sämtlichen Aspekten nur anschaulich und nicht einschränkend. Es versteht sich daher, dass zahlreiche nicht gezeigte Modifikationen verwendet werden können, ohne vom Umfang der vorliegenden Erfindung abzuweichen.
  • Es sei angemerkt, dass bei der vorliegenden Erfindung sämtliche Ausführungsformen frei miteinander kombiniert werden können, und dass jede Ausführungsformen modifiziert werden kann oder dabei Merkmale weggelassen werden können, und zwar wie zweckmäßig und innerhalb des Umfangs der Erfindung.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2016170124 A [0004, 0027]
    • JP 2005265494 A [0029]
    • JP 2005313803 A [0171]
  • Zitierte Nicht-Patentliteratur
    • System/Steuerung/Information, Band 60, Nr. 11, Seiten 463-468, 2018 [0031]
    • „dynamic map preparation in automated traveling (system/control/information, Vol. 60, No. 11 pp. 463-468, 2016)‟ [0031]

Claims (12)

  1. Fahrzeug-Positionierungseinrichtung, die an einem Fahrzeug montiert wird und eine Position des Fahrzeugs liefert, wobei die Fahrzeug-Positionierungseinrichtung verbunden ist mit einem ersten Sensor, der Satelliten-Positionierungsdaten ausgibt, und einem zweiten Sensor, der einen Zustandswert des Fahrzeugs detektiert und den Zustandswert als Zustandswert-Daten ausgibt, und verbunden ist mit zumindest einem von einem dritten Sensor, der ein terrestrisches Objekt detektiert und Daten einer Relativ-Relation zwischen dem terrestrischen Objekt und dem Fahrzeug ausgibt, und einem vierten Sensor, der eine Straßenlinienform detektiert und Straßenlinienformdaten ausgibt, wobei die Fahrzeug-Positionierungseinrichtung Folgendes aufweist: - eine Beobachtungswert-Verarbeitungseinheit, die so konfiguriert ist, dass sie die Satelliten-Positionierungsdaten und zumindest einen Typ der Daten der Relativ-Relation und der Straßenlinienformdaten empfängt und einen tatsächlichen Beobachtungswert erzeugt, indem sie die empfangenen Datenelemente integriert; - eine Sensor-Korrektureinheit, die so konfiguriert ist, dass sie einen Sensorfehler korrigiert, der in den Zustandswert-Daten enthalten ist, wobei die Sensor-Korrektureinheit mit dem zweiten Sensor verbunden ist; - eine Inertial-Positionierungseinheit, die so konfiguriert ist, dass sie eine Inertial-Positionierung durchführt, indem sie einen korrigierten Sensorwert verwendet, der in der Sensor-Korrektureinheit korrigiert ist, und Ergebnisse als Inertial-Positionierungsergebnisse ausgibt; - eine Beobachtungswert-Vorhersageeinheit, die so konfiguriert ist, dass sie einen Beobachtungswert vorhersagt, indem sie zumindest die Inertial-Positionierungsergebnisse verwendet, und den Beobachtungswert als einen Vorhersage-Beobachtungswert ausgibt; und - ein Filter, das so konfiguriert ist, dass es eine Positionierungs-Berechnung durchführt, indem es den Vorhersage-Beobachtungswert und den tatsächlichen Beobachtungswert verwendet und Ergebnisse als Positionierungsergebnisse ausgibt, und den Sensorfehler als einen Sensor-Korrekturwert ausgibt, wobei das Filter den Sensor-Korrekturwert an die Sensor-Korrektureinheit zurückführt, und wobei die Sensor-Korrektureinheit den Sensorfehler korrigiert, indem sie den Sensor-Korrekturwert verwendet.
  2. Fahrzeug-Positionierungseinrichtung nach Anspruch 1, wobei die Fahrzeug-Positionierungseinrichtung mit dem ersten, zweiten und dritten Sensor verbunden ist und mit einem Informationsspeicher für terrestrische Objekte verbunden ist, der terrestrische Objektinformationen speichert, der dritte Sensor die Daten der Relativ-Relation berechnet, indem er Detektionsergebnisse für terrestrische Objekte verwendet, die durch Detektion des terrestrischen Objekts erhalten werden, und terrestrische Objektinformationen, die im Informationsspeicher für terrestrische Objekte gespeichert sind, die Beobachtungswert-Verarbeitungseinheit den tatsächlichen Beobachtungswert erzeugt, indem sie die Satelliten-Positionierungsdaten und die Daten der Relativ-Relation integriert, und die Beobachtungswert-Vorhersageeinheit den Vorhersage-Beobachtungswert durch Verwendung der Inertial-Positionierungsergebnisse und der terrestrischen Objektinformationen berechnet, die im Informationsspeicher für terrestrische Objekte gespeichert sind.
  3. Fahrzeug-Positionierungseinrichtung nach Anspruch 1, wobei die Fahrzeug-Positionierungseinrichtung mit dem ersten, zweiten und vierten Sensor verbunden ist und mit einem Straßeninformationsspeicher verbunden ist, der Straßeninformationen speichert, wobei die Fahrzeug-Positionierungseinrichtung ferner einen Straßenlinienform-Rechner aufweist, der konfiguriert ist zum Berechnen einer Straßenlinienform, die bei der Berechnung des Vorhersage-Beobachtungswerts in der Beobachtungswert-Vorhersageeinheit verwendet wird, wobei der Straßenlinienform-Rechner die Straßenlinienform berechnet, indem er die Straßeninformationen verwendet, die im Straßeninformationsspeicher gespeichert sind, wobei die Beobachtungswert-Verarbeitungseinheit den tatsächlichen Beobachtungswert erzeugt, indem sie die Satelliten-Positionierungsdaten und die Straßenlinienformdaten integriert, und wobei die Beobachtungswert-Vorhersageeinheit den Vorhersage-Beobachtungswert durch Verwendung der Inertial-Positionierungsergebnisse und der Straßenlinienform berechnet, die im Straßenlinienform-Rechner berechnet wird.
  4. Fahrzeug-Positionierungseinrichtung nach Anspruch 1, wobei die Fahrzeug-Positionierungseinrichtung mit dem ersten, zweiten, dritten und vierten Sensor verbunden ist und mit einem Informationsspeicher für terrestrische Objekte verbunden ist, der terrestrische Objektinformationen speichert, und einem Straßeninformationsspeicher verbunden ist, der Straßeninformationen speichert, wobei die Fahrzeug-Positionierungseinrichtung ferner einen Straßenlinienform-Rechner aufweist, der konfiguriert ist zum Berechnen einer Straßenlinienform, die bei der Berechnung des Vorhersage-Beobachtungswerts in der Beobachtungswert-Vorhersageeinheit verwendet wird, wobei der dritte Sensor die Daten der Relativ-Relation berechnet, indem er Detektionsergebnisse für terrestrische Objekte verwendet, die durch Detektion des terrestrischen Objekts erhalten werden, und terrestrische Objektinformationen, die im Informationsspeicher für terrestrische Objekte gespeichert sind, wobei die Beobachtungswert-Verarbeitungseinheit den tatsächlichen Beobachtungswert erzeugt, indem sie die Satelliten-Positionierungsdaten, die Daten der Relativ-Relation und die Straßenlinienformdaten integriert, und wobei die Beobachtungswert-Vorhersageeinheit den Vorhersage-Beobachtungswert durch Verwendung der Inertial-Positionierungsergebnisse, der terrestrischen Objektinformationen, die im Informationsspeicher für terrestrische Objekte gespeichert sind, und der Straßenlinienform berechnet, die im Straßenlinienform-Rechner berechnet wird.
  5. Fahrzeug-Positionierungseinrichtung nach Anspruch 1, wobei wenn Daten nicht aus dem ersten, dritten und vierten Sensor ausgegeben werden, das Filter die Inertial-Positionierungsergebnisse, die aus der Sensor-Korrektureinheit ausgegeben werden, als Positionierungsergebnis ausgibt.
  6. Fahrzeug-Positionierungseinrichtung nach Anspruch 2 oder 4, wobei der Informationsspeicher für terrestrische Objekte Informationen einer Absolutposition und eines terrestrischen Objekttyps speichert, die sich auf das terrestrische Objekt beziehen, das tatsächlich in der Umgebung einer Straße existiert, und zwar als terrestrische Objektinformationen, und wobei der dritte Sensor die Daten der Relativ-Relation mit dem Fahrzeug auf der Basis der Absolutposition des detektierten terrestrischen Objekts berechnet und die Daten gemeinsam mit dem terrestrischen Objekt ausgibt.
  7. Fahrzeug-Positionierungseinrichtung nach Anspruch 1, wobei der erste Sensor als Beobachtungswert einen Pseudobereichs-Beobachtungswerte, einen Doppler-Beobachtungswert und einen Trägerwellenphasen-Beobachtungswert einschließt, und die Beobachtungswert-Verarbeitungseinheit zumindest einen aus dem Pseudobereichs-Beobachtungswert, dem Doppler-Beobachtungswert und dem Trägerwellenphasen-Beobachtungswert zur Erzeugung des tatsächlichen Beobachtungswerts verwendet.
  8. Fahrzeug-Positionierungseinrichtung nach Anspruch 1, wobei der dritte Sensor als Beobachtungswert einen relativen Abstand, eine relative Geschwindigkeit und einen relativen Winkel bezüglich des terrestrischen Objekts einschließt, und die Beobachtungswert-Verarbeitungseinheit zumindest einen von dem relativen Abstand, der relativen Geschwindigkeit und dem relativen Winkel zur Erzeugung des tatsächlichen Beobachtungswerts verwendet.
  9. Fahrzeug-Positionierungseinrichtung nach Anspruch 1, wobei der vierte Sensor als Beobachtungswert eine horizontale Positionsabweichung, einen Abweichungswinkel, eine Krümmung und eine Krümmungsänderung einschließt, und wobei die Beobachtungswert-Verarbeitungseinheit zumindest einen von der horizontalen Positionsabweichung, dem Abweichungswinkel, der Krümmung und der Krümmungsänderung zur Erzeugung des tatsächlichen Beobachtungswerts verwendet.
  10. Fahrzeug-Positionierungseinrichtung nach Anspruch 3 oder 4, wobei der Straßeninformationsspeicher als Straßeninformationen einen Straßenanschluss, einen Fahrspuranschluss, einen Knoten auf dem Fahrspuranschluss und eine Fahrspurregion einschließt, und wobei der Straßenlinienform-Rechner zumindest eine Komponente von dem Straßenanschluss, dem Fahrspuranschluss, dem Knoten auf dem Fahrspuranschluss und der Fahrspurregion zur Berechnung der Straßenlinienform verwendet.
  11. Fahrzeug-Positionierungseinrichtung nach Anspruch 7, wobei die Beobachtungswert-Vorhersageeinheit als Vorhersage-Beobachtungswert zumindest einen von dem Pseudobereichs-Beobachtungswert, dem Doppler-Beobachtungswert und dem Trägerwellenphasen-Beobachtungswert vorhersagt.
  12. Fahrzeug-Positionierungseinrichtung nach Anspruch 1, wobei das Filter die Positionierungs-Berechnung unter Verwendung des Vorhersage-Beobachtungswerts und des tatsächlichen Beobachtungswerts durchführt, die Wahrscheinlichkeitsverteilung der Zustandswert-Daten berechnet, die vom zweiten Sensor ausgegeben werden, und den Sensorfehler schätzt, und zwar auf der Basis des Zustandswerts, der am wahrscheinlichsten ist.
DE112019007155.6T 2019-04-04 2019-04-04 Fahrzeug-positionierungseinrichtung Pending DE112019007155T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/014930 WO2020202522A1 (ja) 2019-04-04 2019-04-04 車両測位装置

Publications (1)

Publication Number Publication Date
DE112019007155T5 true DE112019007155T5 (de) 2021-12-30

Family

ID=72666727

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112019007155.6T Pending DE112019007155T5 (de) 2019-04-04 2019-04-04 Fahrzeug-positionierungseinrichtung

Country Status (5)

Country Link
US (1) US11874117B2 (de)
JP (1) JP7034379B2 (de)
CN (1) CN113631883B (de)
DE (1) DE112019007155T5 (de)
WO (1) WO2020202522A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021112078A1 (ja) * 2019-12-02 2021-06-10 パイオニア株式会社 情報処理装置、制御方法、プログラム及び記憶媒体
WO2022029878A1 (ja) * 2020-08-04 2022-02-10 三菱電機株式会社 車両制御装置
JP7046281B1 (ja) * 2021-03-29 2022-04-01 三菱電機株式会社 位置推定装置、位置推定プログラムおよび位置推定方法
CN114353835B (zh) * 2022-01-21 2022-10-11 中国铁道科学研究院集团有限公司铁道建筑研究所 惯性轨道测量仪动态校准***、方法及其应用

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005265494A (ja) 2004-03-17 2005-09-29 Hitachi Ltd 車両位置推定装置およびこれを用いた運転支援装置
JP2005313803A (ja) 2004-04-30 2005-11-10 Koito Mfg Co Ltd 車両用照明装置
JP2016170124A (ja) 2015-03-13 2016-09-23 Vbox Japan株式会社 移動体測位装置、及び移動体測位方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4600357B2 (ja) 2006-06-21 2010-12-15 トヨタ自動車株式会社 測位装置
JP4897542B2 (ja) * 2007-03-30 2012-03-14 三菱電機株式会社 自己位置標定装置、自己位置標定方法および自己位置標定プログラム
JP2009041932A (ja) * 2007-08-06 2009-02-26 Toyota Motor Corp 移動体用測位装置
JP4986883B2 (ja) * 2008-02-27 2012-07-25 三菱電機株式会社 標定装置、標定方法および標定プログラム
JP5419665B2 (ja) * 2009-12-10 2014-02-19 三菱電機株式会社 位置標定装置、位置標定方法、位置標定プログラム、速度ベクトル算出装置、速度ベクトル算出方法および速度ベクトル算出プログラム
WO2016033797A1 (en) * 2014-09-05 2016-03-10 SZ DJI Technology Co., Ltd. Multi-sensor environmental mapping
KR102172145B1 (ko) * 2015-06-05 2020-10-30 한국전자통신연구원 추측 항법 시스템에서의 밀결합 측위 방법 및 그 장치
JP6677533B2 (ja) * 2016-03-01 2020-04-08 クラリオン株式会社 車載装置、及び、推定方法
WO2017154131A1 (ja) * 2016-03-09 2017-09-14 三菱電機株式会社 測位装置および測位方法
CN105824039A (zh) * 2016-03-17 2016-08-03 孙红星 基于里程计的克服卫星失锁时的gnss/ins车载组合定位定向算法
CN107289930B (zh) * 2016-04-01 2020-09-11 南京理工大学 基于mems惯性测量单元的纯惯性车辆导航方法
JP6870507B2 (ja) * 2017-07-07 2021-05-12 株式会社デンソー 測位装置
CN109059906B (zh) * 2018-06-26 2020-09-29 上海西井信息科技有限公司 车辆定位方法、装置、电子设备、存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005265494A (ja) 2004-03-17 2005-09-29 Hitachi Ltd 車両位置推定装置およびこれを用いた運転支援装置
JP2005313803A (ja) 2004-04-30 2005-11-10 Koito Mfg Co Ltd 車両用照明装置
JP2016170124A (ja) 2015-03-13 2016-09-23 Vbox Japan株式会社 移動体測位装置、及び移動体測位方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
„dynamic map preparation in automated traveling (system/control/information, Vol. 60, No. 11 pp. 463-468, 2016)‟
System/Steuerung/Information, Band 60, Nr. 11, Seiten 463-468, 2018

Also Published As

Publication number Publication date
JPWO2020202522A1 (ja) 2021-11-04
US20220082390A1 (en) 2022-03-17
JP7034379B2 (ja) 2022-03-11
CN113631883A (zh) 2021-11-09
WO2020202522A1 (ja) 2020-10-08
CN113631883B (zh) 2024-04-30
US11874117B2 (en) 2024-01-16

Similar Documents

Publication Publication Date Title
DE102014112351B4 (de) Sensorgestütztes fahrzeugpositionsbestimmungssystem
DE69636482T2 (de) Verbessertes fahrzeugnavigationssystem und -verfahren mittels gps-geschwindigkeiten
DE112019007155T5 (de) Fahrzeug-positionierungseinrichtung
EP2819901B1 (de) Verfahren und vorrichtung zur ermittlung der geschwindigkeit und/oder position eines fahrzeuges
EP2446298B1 (de) Verfahren zur bestimmung der geographischen koordinaten von bildpunkten in sar bildern
DE102009058737B4 (de) Messniveauintegration von GPS und anderen entfernungs- und richtungsmessungsfähigen Sensoren für eine allgegenwärtige Positionsbestimmungsfähigkeit
DE602004001143T2 (de) Vorrichtung und Verfahren zur Bestimmung der Position eines Mobilkörpers in einem Navigationssystem
DE112008002434B4 (de) Navigationsausrüstung
Melendez-Pastor et al. A data fusion system of GNSS data and on-vehicle sensors data for improving car positioning precision in urban environments
EP3776000B1 (de) Verfahren zur ermittlung der position eines fahrzeugs
DE102016222272B4 (de) Schätzen einer Eigenposition
DE102012024171A1 (de) Minikartenabstimmung für Navigationssysteme
DE112018008222T5 (de) Bewegungsplan-erzeugungseinrichtung und autonomes fahrsystem
DE112008001278T5 (de) Hochgenaues Post-Mission-Positions- und Orientierungssystem
DE112010001235T5 (de) Verfahren und Vorrichtung zum Verbessern einer GPS-Empfängergenauigkeit unter Verwendung einer eingebetteten Kartendatenbank
DE112018003443T5 (de) Positioniervorrichtung
DE102018202983A1 (de) Verfahren zur Ermittlung eines Datenprofils für die satellitengestützte Ermittlung einer Position eines Fahrzeugs
EP3491338B1 (de) Verfahren zum senden von daten von einem fahrzeug an einen server und verfahren zum aktualisieren einer karte
DE102014211176A1 (de) Verfahren und System zur Korrektur von Messdaten und/oder Navigationsdaten eines Sensorbasissystems
DE60217218T2 (de) Verfahren und Gerät für GPS, Navigationssystem und Computerprogramm
EP2409174B1 (de) Verfahren und einrichtung zum ermitteln von aspektwinkelverläufen
DE102014211172A1 (de) Verfahren und System zur Korrektur von Ausgabedaten eines Sensorbasissystems
EP3376256A1 (de) Verfahren zur positionsbestimmung und radarsystem
WO2021018575A1 (de) Verfahren zum ermitteln eines modells zur beschreibung mindestens eines umgebungsspezifischen gnss-profils
DE102016007182B4 (de) System und Verfahren zur Ermittlung und Speicherung von ortsbezogenen Problemstellen Navigationssatelliten-gestützter Positionsbestimmung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R084 Declaration of willingness to licence