DE112019007451T5 - Hochpräzises Verfahren sowie Gerät zur Fahrzeugpositionierung in mehreren Szenen, und fahrzeugmontiertes Terminal - Google Patents

Hochpräzises Verfahren sowie Gerät zur Fahrzeugpositionierung in mehreren Szenen, und fahrzeugmontiertes Terminal Download PDF

Info

Publication number
DE112019007451T5
DE112019007451T5 DE112019007451.2T DE112019007451T DE112019007451T5 DE 112019007451 T5 DE112019007451 T5 DE 112019007451T5 DE 112019007451 T DE112019007451 T DE 112019007451T DE 112019007451 T5 DE112019007451 T5 DE 112019007451T5
Authority
DE
Germany
Prior art keywords
vehicle
parking lot
positioning
pose
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112019007451.2T
Other languages
English (en)
Inventor
Zenan Shi
Xiubao Jiang
Guofu XIE
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Momenta Suzhou Technology Co Ltd
Original Assignee
Momenta Suzhou Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Momenta Suzhou Technology Co Ltd filed Critical Momenta Suzhou Technology Co Ltd
Publication of DE112019007451T5 publication Critical patent/DE112019007451T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • G01S19/47Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement the supplementary measurement being an inertial measurement, e.g. tightly coupled inertial
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/01Determining conditions which influence positioning, e.g. radio environment, state of motion or energy consumption
    • G01S5/014Identifying transitions between environments
    • G01S5/015Identifying transitions between environments between indoor and outdoor environments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Navigation (AREA)

Abstract

Die vorliegende Erfindung offenbart ein hochpräzises Verfahren zur Fahrzeugpositionierung in mehreren Szenen und ein fahrzeugmontiertes Terminal. Das Verfahren umfasst: (S110) Bestimmen einer Fahrzeugstellung abhängig von MU-Daten und Satellitendaten, wenn ein Fahrzeug im Freien fährt; (S120) Bestimmen, abhängig von einem Straßenmerkmal in einem ersten Parkplatzbild, das in einem ersten Initialisierungsbereich erfasst ist, einer ersten Startstellung zum Starten einer visuellen Positionierung, wenn das Fahrzeug vom Freien in den ersten Initialisierungsbereich am Eingang eines Parkplatzes einfährt; (S130) Bestimmen einer Fahrzeugstellung des Fahrzeugs basierend auf den IMU-Daten, der ersten Startstellung und einem Abgleichergebnis zwischen dem Straßenmerkmal in dem ersten Parkplatzbild und einem Straßenmerkmal in einer voreingestellten Karte; (S140) Erhalten, wenn bestimmt wird, dass sich die visuelle Positionierung in einem Startzustand befindet, und wenn abhängig von der Fahrzeugstellung bestimmt wird, dass das Fahrzeug auf dem Parkplatz fährt, eines durch die Kameravorrichtung erfassten Parkplatzbilds, Erhalten der letzten Fahrzeugstellung, und Bestimmen einer Fahrzeugstellung des Fahrzeugs basierend auf den IMU-Daten, der letzten Fahrzeugstellung und einem Abgleichergebnis zwischen einem Straßenmerkmal in dem Parkplatzbild und einem Straßenmerkmal in der voreingestellten Karte; (S150) Bestimmen einer Fahrzeugstellung des Fahrzeugs basierend auf den IMU-Daten und den Satellitendaten, wenn bestimmt wird, dass das Fahrzeug vom Parkplatz ins Freie fährt. Durch Anwenden der von den Ausführungsbeispielen der vorliegenden Erfindung bereitgestellten Ausgestaltungen kann eine genaue Positionierung von Fahrzeugen in verschiedenen Szenen und beim Umschalten zwischen verschiedenen Szenen realisiert werden.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung bezieht sich auf das technische Gebiet des intelligenten Fahrens, insbesondere auf ein hochpräzises Verfahren sowie ein Gerät zur Fahrzeugpositionierung in mehreren Szenen, und ein fahrzeugmontiertes Terminal.
  • STAND DER TECHNIK
  • Im technischen Gebiet des intelligenten Fahrens stellt die Positionierung von Fahrzeugen einen wichtigen Bestandteil des intelligenten Fahrens dar. Im Allgemeinen kann beim Fahren eines Fahrzeugs die Fahrzeugstellung basierend auf Daten bestimmt werden, die vom Globalen Satellitennavigationssystem (GNSS, En: Global Navigation Satellite System) erfasst werden. Bei tatsächlichen Anwendungen kann das Fahrzeug jedoch in verschiedenen Szenen fahren. Beispielsweise kann das Fahrzeug im Freien, auf einem oberirdischen Parkplatz oder einem Tiefgaragenparkplatz usw. fahren. Bei verschiedenen Szenen ist es offensichtlich, dass ein einzelnes Positionierungsverfahren die Positionierungsanforderungen der Fahrzeugstellung beim intelligenten Fahren nicht erfüllen kann. Daher besteht ein dringender Bedarf an einem hochpräzisen Positionierungsverfahren, das an mehreren Szenarien angepasst werden kann.
  • INHALT DER VORLIEGENDEN ERFINDUNG
  • Die vorliegende Erfindung stellt ein hochpräzises Verfahren zur Fahrzeugpositionierung in mehreren Szenen und ein fahrzeugmontiertes Terminal bereit, um eine genaue Positionierung des Fahrzeugs in verschiedenen Szenen und beim Umschalten zwischen verschiedenen Szenen zu realisieren. Die konkreten technischen Ausgestaltungen sind im Folgenden beschrieben.
  • Gemäß einem ersten Aspekt wird in einem Ausführungsbeispiel der vorliegenden Anmeldung ein Hochpräzises Verfahren zur Fahrzeugpositionierung in mehreren Szenen offenbart, das umfasst:
    • Erhalten, wenn ein Fahrzeug im Freien fährt, von IMU-Daten, die durch eine Trägheitsmesseinheit IMU erfasst sind, und von Satellitendaten, die durch eine Satellitenpositionierungseinheit GNSS erfasst sind, und Bestimmen einer Fahrzeugstellung abhängig von den IMU-Daten und den Satellitendaten;
    • Erhalten, wenn abhängig von der Fahrzeugstellung bestimmt wird, dass das Fahrzeug vom Freien in einen an einem Eingang eines Parkplatzes voreingestellten ersten Initialisierungsbereich einfährt, eines ersten Parkplatzbildes, das durch eine Kameravorrichtung in dem ersten Initialisierungsbereich erfasst ist, und Bestimmen, abhängig von einem Straßenmerkmal im ersten Parkplatzbild, einer ersten Startstellung zum Starten einer visuellen Positionierung;
    • Bestimmen einer Fahrzeugstellung des Fahrzeugs basierend auf den IMU-Daten, der ersten Startstellung und einem Abgleichergebnis zwischen dem Straßenmerkmal in dem ersten Parkplatzbild und einem Straßenmerkmal in einer voreingestellten Karte;
    • Erhalten, wenn bestimmt wird, dass sich die visuelle Positionierung in einem Startzustand befindet, und wenn abhängig von der Fahrzeugstellung bestimmt wird, dass das Fahrzeug auf dem Parkplatz fährt, eines durch die Kameravorrichtung erfassten Parkplatzbilds, Erhalten der letzten Fahrzeugstellung, und Bestimmen einer Fahrzeugstellung des Fahrzeugs basierend auf den IMU-Daten, der letzten Fahrzeugstellung und einem Abgleichergebnis zwischen einem Straßenmerkmal in dem Parkplatzbild und einem Straßenmerkmal in der voreingestellten Karte;
  • Zurückkehren zum Schritt des „Erhaltens von IMU-Daten, die durch eine Trägheitsmesseinheit IMU erfasst sind, und von Satellitendaten, die durch eine Satellitenpositionierungseinheit GNSS erfasst sind“, wenn abhängig von der Fahrzeugstellung bestimmt wird, dass das Fahrzeug vom Parkplatz ins Freie fährt.
  • Gemäß einem zweiten Aspekt wird in einem Ausführungsbeispiel der vorliegenden Anmeldung ein fahrzeugmontiertes Terminal offenbart, das einen Prozessor, eine Kameravorrichtung, eine IMU und eine GNSS umfasst, wobei der Prozessor ein Outdoor-Positionierungsmodul, ein Bestimmungsmodul zum Starten, ein erstes visuelles Positionierungsmodul, ein zweites visuelles Positionierungsmodul und ein Szenenumschaltmodul umfasst;
    wobei das Outdoor-Positionierungsmodul zum Erhalten, wenn ein Fahrzeug im Freien fährt, von IMU-Daten, die durch eine Trägheitsmesseinheit IMU erfasst sind, und von Satellitendaten, die durch eine Satellitenpositionierungseinheit GNSS erfasst sind, und zum Bestimmen einer Fahrzeugstellung abhängig von den IMU-Daten und den Satellitendaten dient;
    wobei das Aktivierbestimmungsmodul zum Erhalten, wenn abhängig von der Fahrzeugstellung bestimmt wird, dass das Fahrzeug vom Freien in einen an einem Eingang eines Parkplatzes voreingestellten ersten Initialisierungsbereich einfährt, eines ersten Parkplatzbildes, das durch die Kameravorrichtung in dem ersten Initialisierungsbereich erfasst ist, und zum Bestimmen, abhängig von einem Straßenmerkmal im ersten Parkplatzbild, einer ersten Startstellung zum Starten einer visuellen Positionierung dient;
    wobei das erste visuelle Positionierungsmodul zum Bestimmen einer Fahrzeugstellung des Fahrzeugs basierend auf den IMU-Daten, der ersten Startstellung und einem Abgleichergebnis zwischen dem Straßenmerkmal in dem ersten Parkplatzbild und einem Straßenmerkmal in einer voreingestellten Karte dient;
    wobei das zweite visuelle Positionierungsmodul zum Erhalten, wenn bestimmt wird, dass sich die visuelle Positionierung in einem Startzustand befindet, und wenn abhängig von der Fahrzeugstellung bestimmt wird, dass das Fahrzeug auf dem Parkplatz fährt, eines durch die Kameravorrichtung erfassten Parkplatzbilds, zum Erhalten der letzten Fahrzeugstellung, und zum Bestimmen einer Fahrzeugstellung des Fahrzeugs basierend auf den IMU-Daten, der letzten Fahrzeugstellung und einem Abgleichergebnis zwischen einem Straßenmerkmal in dem Parkplatzbild und einem Straßenmerkmal in der voreingestellten Karte dient;
    wobei das Szenenumschaltmodul zum Zurückkehren zum Vorgang des „Erhaltens von IMU-Daten, die durch eine Trägheitsmesseinheit IMU erfasst sind, und von Satellitendaten, die durch eine Satellitenpositionierungseinheit GNSS erfasst sind“ dient, wenn abhängig von der Fahrzeugstellung bestimmt wird, dass das Fahrzeug vom Parkplatz ins Freie fährt.
  • Aus dem obigen Inhalt ist ersichtlich, dass das hochpräzise Verfahren zur Fahrzeugpositionierung in mehreren Szenen und das fahrzeugmontierte Terminal, die durch Ausführungsbeispiele der vorliegenden Erfindung bereitgestellt sind, die Fahrzeugstellung des Fahrzeugs abhängig von MU-Daten und Satellitendaten bestimmen kann, wenn das Fahrzeug im Freien fährt oder vom Parkplatz ins Freie fährt. Wenn das Fahrzeug vom Freien in den Eingang des Parkplatzes einfährt, wird die visuelle Positionierung im ersten Initialisierungsbereich gestartet. Wenn das Fahrzeug auf einem Parkplatz fährt, wird die Fahrzeugstellung des Fahrzeugs basierend auf den IMU-Daten, der letzten Fahrzeugstellung und dem Abgleichergebnis zwischen dem Straßenmerkmal in dem ersten Parkplatzbild und dem Straßenmerkmal in einer voreingestellten Karte bestimmt wird. In den Ausführungsbeispielen der vorliegenden Erfindung wird beim Umschalten zwischen das Fahren im Freien und das Fahren auf dem Parkplatz die Fahrzeugstellung gemäß einem entsprechenden Fahrzeugpositionierungsmodus bestimmt wird, wobei auf Parkplätzen ohne Satellitensignale die Fahrzeugpositionierung basierend auf IMU und visueller Positionsbestimmung erfolgen kann, um die Positionsgenauigkeit zu verbessern. Daher können die Ausführungsbeispiele der vorliegenden Erfindung eine genaue Positionierung von Fahrzeugen in verschiedenen Szenen und beim Umschalten zwischen verschiedenen Szenen realisieren. Selbstverständlich muss die Implementierung irgendeines Produkts oder Verfahrens der vorliegenden Erfindung nicht notwendigerweise alle oben beschriebenen Vorteile gleichzeitig erzielen.
  • Die erfinderischen Punkte der Ausführungsbeispiele der vorliegenden Erfindung liegen darin:
    1. 1. Wenn sich das Fahrzeug im Freien befindet, erfolgt die Positionierung abhängig von IMU-Daten und Satellitendaten. Wenn sich das Fahrzeug auf einem Parkplatz befindet, erfolgt die Positionierung basierend auf einem Abgleichen zwischen IMU und visuellen Merkmalen. Am Eingang des Parkplatzes wird die visuelle Positionierung basierend auf IMU-Daten, Satellitendaten und dem Initialisierungsbereich gestartet. Damit kann die Positionierung in verschiedenen Szenen erfolgen, und es kann auch in verschiedenen Szenen reibungslos zwischen verschiedenen Positionierungsmodi gewechselt werden.
    2. 2. Auf einem Parkplatz ohne Satellitensignal wird die Fahrzeugstellung basierend auf einer Fusion von IMU-Trajektorienberechnung und visueller Positionierung bestimmt. Die Kombination der beiden Positionierungsmodi kann die Fehler in einem einzelnen Positionierungsmodus korrigieren und das Positionierungsergebnis genauer machen.
    3. 3. Nach dem Bestimmen der visuellen Stellung wird die Genauigkeit der visuellen Stellung abhängig von dem Abbildungsfehler zwischen Straßenmerkmalen und von der vorab hergestellten Entsprechung zwischen dem Abbildungsfehler und dem Positionierungsfehler bestimmt, so dass eine Bewertung des Positionierungseffekts der visuellen Stellung ermöglicht werden kann.
  • Figurenliste
  • Um die technischen Ausgestaltungen der Ausführungsbeispiele in der vorliegenden Erfindung oder im Stand der Technik klarer zu anzugeben, werden im Folgenden die Zeichnungen kurz vorgestellt, die bei der Beschreibung der Ausführungsbeispiele oder des Stands der Technik verwendet werden müssen. Offensichtlich stellen die im Folgenden beschriebenen Zeichnungen nur einige Ausführungsbeispiele der vorliegenden Offenbarung dar. Der Durchschnittsfachmann kann auch weitere Zeichnungen auf der Grundlage dieser Zeichnungen erhalten, ohne erfinderische Arbeit zu leisten.
    • 1 zeigt ein schematisches Ablaufdiagramm eines hochpräzisen Verfahrens zur Fahrzeugpositionierung in mehreren Szenen gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
    • 2 zeigt eine schematische Ansicht eines Kartenbereichs im Freien und eines Kartenbereichs des Parkplatzes in einer voreingestellten Karte;
    • 3 zeigt eine schematische Ansicht eines ersten Initialisierungsbereichs am Eingang des Parkplatzes;
    • 4 zeigt ein schematisches Ablaufdiagramm von Schritt S140 aus 1;
    • 5 zeigt eine schematische Ansicht verschiedener Positionspunkte in einer ersten Trajektorie und einer zweiten Trajektorie;
    • 6 zeigt eine schematische Strukturansicht eines fahrzeugmontierten Terminals gemäß einem Ausführungsbeispiel der vorliegenden Erfindung.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die technischen Ausgestaltungen in Ausführungsbeispielen der vorliegenden Erfindung werden im Folgenden unter Bezugnahme auf die beigefügten Zeichnungen der Ausführungsbeispiele der vorliegenden Erfindung klar und vollständig beschrieben. Offensichtlich sind die beschriebenen Ausführungsbeispiele nur ein Teil der Ausführungsbeispiele der vorliegenden Erfindung und umfassen nicht alle Ausführungsbeispiele. Alle anderen Ausführungsbeispiele, die vom Durchschnittsfachmann auf der Grundlage der Ausführungsbeispiele in der vorliegenden Erfindung ohne schöpferischen Aufwand erzielt werden, sollten in den Schutzumfang der vorliegenden Erfindung fallen.
  • Es ist anzugeben, dass die Begriffe „umfassen“ und „aufweisen“ in den Ausführungsformen der vorliegenden Erfindung und den Zeichnungen und jegliche Variationen davon nicht ausschließliche Einschlüsse abdecken sollen. Der Prozess, das Verfahren, das System, das Produkt oder die Vorrichtung, das/die eine Reihe von Schritten oder Einheiten enthält, ist beispielsweise nicht auf die aufgeführten Schritte oder Einheiten beschränkt, sondern umfasst optional auch weitere Schritte oder Einheiten, die nicht aufgeführt sind, oder umfasst optional andere Schritte oder Einheiten, die diesem Prozess, Verfahren, Produkt oder dieser Vorrichtung innewohnen.
  • In den Ausführungsbeispielen der vorliegenden Erfindung sind ein hochpräzises Verfahren zur Fahrzeugpositionierung in mehreren Szenen und ein fahrzeugmontiertes Terminal offenbart, um eine genaue Positionierung des Fahrzeugs in verschiedenen Szenen und beim Umschalten zwischen verschiedenen Szenen zu realisieren. Nachfolgend werden die Ausführungsbeispiele der vorliegenden Erfindung detailliert beschrieben.
  • 1 zeigt ein schematisches Ablaufdiagramm eines hochpräzisen Verfahrens zur Fahrzeugpositionierung in mehreren Szenen gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Dieses Verfahren ist auf eine elektronische Vorrichtung angewendet. Diese elektronische Vorrichtung kann ein gewöhnlicher Computer, ein Server oder ein intelligentes Endgerät oder ein fahrzeuginternes Terminal, wie beispielsweise ein fahrzeuginterner Computer oder ein fahrzeuginterner industrieller Steuercomputer (Industrial Personal Computer, IPC) sein. Im vorliegenden Ausführungsbeispiel umfassen Sensoren, die im Fahrzeug vorgesehen sind, eine Trägheitsmesseinheit (Inertial Measurement Unit, IMU), GNSS (Globales Navigationssatellitensystem, Global Navigation Satellite System), eine Kameravorrichtung und dergleichen. Das Verfahren kann insbesondere die folgenden Schritte umfassen.
  • S110: Erhalten, wenn ein Fahrzeug im Freien fährt, von IMU-Daten, die durch eine Trägheitsmesseinheit IMU erfasst sind, und von Satellitendaten, die durch eine Satellitenpositionierungseinheit GNSS erfasst sind, und Bestimmen einer Fahrzeugstellung des Fahrzeugs abhängig von den IMU-Daten und den Satellitendaten.
  • Die im vorliegenden Ausführungsbeispiel bestimmte Fahrzeugstellung ist eine Fahrzeugstellung in einer voreingestellten Karte. Die Fahrzeugstellung umfasst eine Fahrzeugposition und eine Fahrzeugpose. Die voreingestellte Karte kann eine im Voraus erstellte hochpräzise Karte sein. IMU und GNSS können in bestimmten Frequenzintervallen Daten erfassen.
  • Das Bestimmen der Fahrzeugstellung des Fahrzeugs abhängig von den IMU-Daten und Satellitendaten kann insbesondere umfassen: eine grobe Stellung des Fahrzeugs kann direkt abhängig von den Satellitendaten bestimmt werden, wobei basierend auf den IMU-Daten und der letzten Fahrzeugstellung eine Trajektorie vorhergesagt wird, wobei die IMU-Stellung zum aktuellen Zeitpunkt bestimmt wird, wobei abhängig von der IMU-Stellung die grobe Stellung korrigiert wird, so dass die Fahrzeugstellung des Fahrzeugs bestimmt werden kann, wenn sich das Fahrzeug im Freien befindet.
  • Im vorliegenden Ausführungsbeispiel kann abhängig von der Fahrzeugstellung beurteilt werden, ob sich das Fahrzeug in einem Kartenbereich im Freien oder einem Kartenbereich auf einem Parkplatz befindet. 2 zeigt eine schematische Ansicht eines Kartenbereichs im Freien und eines Kartenbereichs des Parkplatzes in einer voreingestellten Karte. Der kreisförmige Bereich ist Teil der voreingestellten Karte. Der Kartenbereich des Parkplatzes wird durch einen rechteckigen Rahmen dargestellt. Der Bereich außerhalb des rechteckigen Rahmens ist der Kartenbereich im Freien.
  • Die im vorliegenden Ausführungsbeispiel erwähnten Szenen können eine Szene im Freien und eine Szene auf einem Parkplatz usw. umfassen. Zu den Parkplätzen zählen ein Tiefgaragenparkplatz und ein Indoor-Parkplatz. Im Freien ist das GNSS-Signal relativ stark, wobei die Fahrzeugstellung abhängig von IMU-Signalen und GNSS-Signalen positioniert werden kann.
  • S120: Erhalten, wenn abhängig von der Fahrzeugstellung bestimmt wird, dass das Fahrzeug vom Freien in einen an einem Eingang eines Parkplatzes voreingestellten ersten Initialisierungsbereich einfährt, eines ersten Parkplatzbildes, das durch eine Kameravorrichtung in dem ersten Initialisierungsbereich erfasst ist, und Bestimmen, abhängig von einem Straßenmerkmal im ersten Parkplatzbild, einer ersten Startstellung zum Starten einer visuellen Positionierung;
  • Im vorliegenden Ausführungsbeispiel kann abhängig von der Fahrzeugstellung die Position des Fahrzeugs auf der voreingestellten Karte in Echtzeit bestimmt werden. Wenn detektiert wird, dass die Fahrzeugstellung angibt, dass das das Fahrzeug von Freien in den Eingang des Parkplatzes einfährt, wird beurteilt, ob sich die durch die Fahrzeugstellung angegebene Position im ersten Initialisierungsbereich befindet. Wenn ja, wird das durch die Kameravorrichtung erfasste erste Parkplatzbild im ersten Initialisierungsbereich erhalten. Wenn das Fahrzeug vom Eingang des Parkplatzes in den Parkplatz einfährt, kann das durch die Kameravorrichtung erfasste erste Parkplatzbild ein Bild sein, das die interne Umgebung des Parkplatzes enthält.
  • Der oben erwähnte erste Initialisierungsbereich stellt einen voreingestellten Koordinatenbereich in der voreingestellten Karte dar. Im ersten Initialisierungsbereich unterscheiden sich Beobachtungen an zwei beliebigen Positionen oder Beobachtungen aus unterschiedlichen Winkeln an derselben Position voneinander erheblich. Im ersten Initialisierungsbereich kann die Fahrzeugstellung abhängig von einem Wahrzeichen dieses Bereichs genau bestimmt werden. Dann wird die visuelle Positionierung gestartet. Der erste Initialisierungsbereich kann ein kreisförmiger Bereich mit einem voreingestellten Positionspunkt am Eingang des Parkplatzes als Mittelpunkt und einer voreingestellten Entfernung als Radius sein. Die voreingestellte Entfernung kann beispielsweise 15 m oder andere Werte betragen.
  • Unter Bezugnahme auf 3 ist eine schematische Ansicht einer Markierungslinie am Boden des Parkplatz und eines ersten Initialisierungsbereichs am Eingang des Parkplatzes gezeigt. Dabei sind Markierungslinien am Boden des Parkplatzes und Wände (durch dicke Linien gezeigt) eines Eingangskanals des Parkplatzes dargestellt, wobei der erste Initialisierungsbereich am Eingang des Parkplatzes durch einen größeren kreisförmigen Bereich dargestellt ist. Wenn sich das Fahrzeug am Punkt A befindet, kann die Fahrzeugstellung abhängig von den IMU-Daten und den Satellitendaten in dem größeren kreisförmigen Bereich positioniert werden. Der kleinere kreisförmige Bereich in 3 stellt einen Bereich für Startstellungen zum normalen Starten eines visuellen Positionierungssystems dar.
  • In vorliegenden Schritt dienen Signale wie ein IMU-Signal und ein GNSS-Signal zum Bestimmen, dass das Fahrzeug in den ersten Initialisierungsbereich eingefahren ist. Auf dieser Weise können Fehlerkennungen in Bereichen mit ähnlichem Gelände vermieden werden.
  • Das oben erwähnte Straßenbild umfasst umgebende Straßenmerkmale und Hintergrundteile während der Fahrt des Fahrzeugs. Straßenmerkmale umfassen, sind aber nicht beschränkt auf, Fahrbahnlinien, Straßenlaternen, Verkehrsschilder, Randlinien, Haltelinien, Ampeln und andere Schilder auf der Straße. Die Randlinie umfasst die Randlinie der Fahrbahn und die Randlinie der Parklücke, ist aber nicht darauf beschränkt.
  • Die erste Startstellung ist eine Stellung des Fahrzeugs. Wenn die Genauigkeit der ersten Startstellung die Anforderungen erfüllt, kann sie zum Starten der visuellen Positionierung verwendet werden. Wenn beispielsweise die erste Startstellung innerhalb des kleinen Kreises in 3 liegt, kann sie zum Starten der visuellen Positionierung verwendet werden.
  • S130: Bestimmen einer Fahrzeugstellung des Fahrzeugs basierend auf den IMU-Daten, der ersten Startstellung und einem Abgleichergebnis zwischen dem Straßenmerkmal in dem ersten Parkplatzbild und einem Straßenmerkmal in einer voreingestellten Karte;
  • Im vorliegenden Ausführungsbeispiel kann die voreingestellte Karte die Straßenmerkmale jedes Positionspunkts umfassen. Ein Positionspunkt in der voreingestellten Karte kann durch zweidimensionale Koordinatenpunkte oder dreidimensionale Koordinatenpunkte dargestellt werden.
  • Unter das „Positionieren der Fahrzeugstellung“ im vorliegenden Schritt ist das erstmalige Positionieren der Fahrzeugstellung, das nach dem Bestimmen der ersten Startstellung und beim Starten der visuellen Positionierung erfolgt.
  • Der vorliegende Schritt „Bestimmen einer Fahrzeugstellung des Fahrzeugs basierend auf den IMU-Daten, der ersten Startstellung und einem Abgleichergebnis zwischen dem Straßenmerkmal in dem ersten Parkplatzbild und einem Straßenmerkmal in einer voreingestellten Karte“ kann insbesondere die folgenden Schritte 1a bis 4a umfassen.
  • Schritt 1a: Bestimmen einer geschätzten Stellung des Fahrzeugs abhängig von der ersten Startstellung. Im vorliegenden Schritt kann die erste Startstellung direkt als geschätzte Stellung des Fahrzeugs verwendet werden. Alternativ kann die geschätzte Stellung des Fahrzeugs dadurch erhalten werden, dass die erste Startstellung in gewissen Maßen geändert wird.
  • Schritt 2a: Bestimmen, abhängig von der geschätzten Stellung des Fahrzeugs, eines Referenzabbildungsfehlers zwischen einem ersten Straßenmerkmal und einem zweiten Straßenmerkmal.
  • Im vorliegenden Ausführungsbeispiel ist das erste Straßenmerkmal ein Straßenmerkmal im ersten Parkplatzbild und wird durch eine Position im Straßenbild dargestellt. Das zweite Straßenmerkmal ist ein Straßenmerkmal, das erfolgreich mit dem ersten Straßenmerkmal in der voreingestellten Karte abgeglichen wird, und ist auch ein Straßenmerkmal in der voreingestellten Karte, das durch Koordinaten in einem Koordinatensystem dargestellt wird, in dem sich die voreingestellte Karte befindet.
  • Beim Bestimmen des Abbildungsfehlers können das erste Straßenmerkmal und das zweite Straßenmerkmal auf dasselbe Koordinatensystem abgebildet werden, um den Abbildungsfehler zu bestimmen. Der vorliegende Schritt kann insbesondere die folgenden Ausführungsformen umfassen:
    • In einer ersten Ausführungsform wird abhängig von der geschätzten Stellung des Fahrzeugs und von der Position des ersten Straßenmerkmals in dem ersten Parkplatzbild eine erste Abbildungsposition, an der das erste Straßenmerkmal auf die voreingestellte Karte abgebildet ist, berechnet; wobei ein Fehler zwischen der ersten Abbildungsposition und der Position des zweiten Straßenmerkmals in der voreingestellten Karte berechnet wird, um einen Referenzabbildungsfehler zu erhalten.
    • In der vorliegenden Ausführungsform werden dadurch, dass das erste Straßenmerkmal auf das Koordinatensystem, in dem sich die voreingestellte Karte befindet, die Positionen des ersten Straßenmerkmals und des zweiten Straßenmerkmals verglichen, um den Referenzabbildungsfehler zu erhalten.
  • Beim Berechnen der ersten Abbildungsposition, an der das erste Straßenmerkmal auf die voreingestellte Karte abgebildet ist, abhängig von der geschätzten Stellung und von der Position des ersten Straßenmerkmals in dem ersten Parkplatzbild kann spezifisch abhängig von der Umwandlungsbeziehung zwischen einem Bildkoordinatensystem und einem Weltkoordinatensystem und von der geschätzten Stellung die Position des ersten Straßenmerkmals im ersten Parkplatzbild in eine Position in dem Weltkoordinatensystem umgewandelt werden, um eine zweite Abbildungsposition zu erhalten. Dabei ist das Bildkoordinatensystem ein Koordinatensystem, in dem sich das erste Parkplatzbild befindet, wobei das Weltkoordinatensystem ein Koordinatensystem ist, in dem sich die voreingestellte Karte befindet. Die Umwandlungsbeziehung zwischen dem Bildkoordinatensystem und dem Weltkoordinatensystem kann durch eine interne Parametermatrix zwischen dem Bildkoordinatensystem und dem Kamerakoordinatensystem, eine Rotationsmatrix und eine Translationsmatrix zwischen einem Kamerakoordinatensystem und dem Weltkoordinatensystem erhalten werden.
  • In einer zweiten Ausführungsform wird abhängig von der geschätzten Stellung des Fahrzeugs und von der Position des zweiten Straßenmerkmals in der voreingestellten Karte eine zweite Abbildungsposition, an der das zweite Straßenmerkmal auf ein Koordinatensystem, in dem sich das erste Parkplatzbild befindet, abgebildet ist, berechnet; wobei ein Fehler zwischen der Position des ersten Straßenmerkmals im ersten Parkplatzbild und der zweiten Abbildungsposition berechnet wird, um einen Referenzabbildungsfehler zu erhalten.
  • In der vorliegenden Ausführungsform werden dadurch, dass das zweite Straßenmerkmal auf das Koordinatensystem, in dem sich das erste Parkplatzbild befindet, die Positionen des ersten Straßenmerkmals und des zweiten Straßenmerkmals verglichen, um den Referenzabbildungsfehler zu erhalten.
  • Beim Berechnen der zweiten Abbildungsposition, an der das zweite Straßenmerkmal auf ein Koordinatensystem, in dem sich das erste Parkplatzbild befindet, abgebildet ist, abhängig von der geschätzten Stellung des Fahrzeugs und von der Position des zweiten Straßenmerkmals in der voreingestellten Karte kann abhängig von der Umwandlungsbeziehung zwischen dem Bildkoordinatensystem und dem Weltkoordinatensystem und von der geschätzten Stellung des Fahrzeugs die Position des zweiten Straßenmerkmals in der voreingestellten Karte in eine Position in dem Weltkoordinatensystem umgewandelt werden, um eine zweite Abbildungsposition zu erhalten.
  • Die vorstehenden beiden Ausführungsformen entsprechen zwei unterschiedlichen Abbildungsmodi, die bei praktischen Anwendungen alternativ verwendet werden können.
  • Schritt 3a: Einstellen der geschätzten Stellung des Fahrzeugs und Durchführen des Schritts 2a „Bestimmen, abhängig von der geschätzten Stellung des Fahrzeugs, eines Referenzabbildungsfehlers zwischen einem ersten Straßenmerkmal und einem zweiten Straßenmerkmal“, wenn der Referenzabbildungsfehler größer als ein voreingestellter Fehlerschwellenwert ist.
  • Wenn der Referenzabbildungsfehler größer als der voreingestellte Fehlerschwellenwert ist, wird davon ausgegangen, dass es immer noch eine große Lücke zwischen der geschätzten Stellung und der tatsächlichen Positionierungsstellung des Fahrzeugs besteht, wobei die Iteration fortgesetzt werden kann.
  • Schritt 4a: Bestimmen, abhängig von der aktuellen geschätzten Stellung des Fahrzeugs, einer ersten visuellen Stellung des Fahrzeugs zum ersten Zeitpunkt, wenn der der Referenzabbildungsfehler nicht größer als der voreingestellte Fehlerschwellenwert ist.
  • Wenn der Referenzabbildungsfehler nicht größer als der voreingestellte Fehlerschwellenwert ist, wird davon ausgegangen, dass die geschätzte Stellung der tatsächlichen Positionierungsstellung des Fahrzeugs sehr nahe ist, wobei die Positionierungsgenauigkeit die Anforderungen erfüllt hat.
  • In der vorstehenden Ausführungsform kann basierend auf dem Abgleichergebnis zwischen dem Straßenmerkmal in dem ersten Parkplatzbild und dem Straßenmerkmal in einer voreingestellten Karte die Fahrzeugstellung auf iterative Weise genauer bestimmt werden.
  • S140: Erhalten, wenn bestimmt wird, dass sich die visuelle Positionierung in einem Startzustand befindet, und wenn abhängig von der Fahrzeugstellung bestimmt wird, dass das Fahrzeug auf dem Parkplatz fährt, eines durch die Kameravorrichtung erfassten Parkplatzbilds, Erhalten der letzten Fahrzeugstellung, und Bestimmen einer Fahrzeugstellung des Fahrzeugs basierend auf den IMU-Daten, der letzten Fahrzeugstellung und einem Abgleichergebnis zwischen einem Straßenmerkmal in dem Parkplatzbild und einem Straßenmerkmal in der voreingestellten Karte.
  • Bezüglich der konkreten Ausführungsformen für den vorliegenden Schritt „Bestimmen einer Fahrzeugstellung des Fahrzeugs basierend auf den IMU-Daten, der letzten Startstellung und einem Abgleichergebnis zwischen dem Straßenmerkmal im Parkplatzbild und dem Straßenmerkmal in der voreingestellten Karte“ kann auf die Beschreibung in Schritt S130 verwiesen werden, die hier nicht wiederholt wird.
  • Eine Anwendungsszene des vorliegenden Ausführungsbeispiels besteht darin, dass ein Fahrzeug vom Freien in den Eingang eines Parkplatzes einfährt. Da auf dem Parkplatz das GNSS-Signal schwach ist oder kein GNSS-Signal vorhanden ist, kann ein IMU- und Vision-basierter Positionierungsmodus, der anders als der Positionierungsmodus im Freien ist, verwendet werden, um die Fahrzeugstellung zu bestimmen. Wenn der IMU- und Vision-basierte Positionierungsmodus verwendet wird, kann der IMU- und Vision-basierte Positionierungsmodus (genauer gesagt, die visuelle Positionierung) gestartet werden, indem eine Fahrzeugstellung mit der erforderlichen Genauigkeit bestimmt wird, insbesondere wird die Sichtpositionierung aktiviert. Wenn sich die visuelle Positionierung im Startzustand befindet und das Fahrzeug auf dem Parkplatz fährt, kann die Fahrzeugstellung basierend auf den IMU-Daten, der letzten Fahrzeugstellung und einem Abgleichergebnis zwischen dem Straßenmerkmal in dem Parkplatzbild und dem Straßenmerkmal in einer voreingestellten Karte bestimmt werden.
  • Das erfasste Parkplatzbild kann ein Bild sein, das an einer beliebigen Position auf dem Parkplatz nach Starten der visuellen Positionierung erfasst wird. Die letzte Fahrzeugstellung kann als eine Fahrzeugstellung, die zum letzten Zeitpunkt des ersten Zeitpunkts bestimmt wird, verstanden werden. Der erste Zeitpunkt ist ein Zeitpunkt zum Erfassen des Parkplatzbilds.
  • S150: Zurückkehren zum Schritt S110 „Erhalten von IMU-Daten, die durch IMU erfasst sind, und von Satellitendaten, die durch GNSS erfasst sind“, wenn abhängig von der Fahrzeugstellung bestimmt wird, dass das Fahrzeug vom Parkplatz ins Freie fährt.
  • Wenn abhängig von der Fahrzeugstellung bestimmt wird, dass das Fahrzeug vom Parkplatz ins Freie fährt, wird die Fahrzeugstellung abhängig von den IMU-Daten und den Satellitendaten bestimmt.
  • Aus dem obigen Inhalt ist ersichtlich, dass im vorliegenden Ausführungsbeispiel die Fahrzeugstellung des Fahrzeugs abhängig von MU-Daten und Satellitendaten bestimmt werden kann, wenn das Fahrzeug im Freien fährt oder vom Parkplatz ins Freie fährt. Wenn das Fahrzeug vom Freien in den Eingang des Parkplatzes einfährt, wird die visuelle Positionierung im ersten Initialisierungsbereich gestartet. Wenn das Fahrzeug auf einem Parkplatz fährt, wird die Fahrzeugstellung des Fahrzeugs basierend auf den IMU-Daten, der letzten Fahrzeugstellung und dem Abgleichergebnis zwischen dem Straßenmerkmal in dem ersten Parkplatzbild und dem Straßenmerkmal in einer voreingestellten Karte bestimmt wird. Im vorliegenden Ausführungsbeispiel wird beim Umschalten zwischen das Fahren im Freien und das Fahren auf dem Parkplatz die Fahrzeugstellung gemäß einem entsprechenden Fahrzeugpositionierungsmodus bestimmt wird, wobei auf Parkplätzen ohne Satellitensignale die Fahrzeugpositionierung basierend auf IMU und visueller Positionsbestimmung erfolgen kann, um die Positionsgenauigkeit zu verbessern. Daher kann das vorliegende Ausführungsbeispiel eine genaue Positionierung von Fahrzeugen in verschiedenen Szenen und beim Umschalten zwischen verschiedenen Szenen realisieren.
  • In einem weiteren Ausführungsbeispiel der vorliegenden Erfindung ist vorgesehen, dass basierend auf der in 1 gezeigten Ausführungsbeispiel der Schritt S120 „Bestimmen, abhängig von einem Straßenmerkmal im ersten Parkplatzbild, einer ersten Startstellung zum Starten einer visuellen Positionierung“ insbesondere folgende Schritte 1b und 2b umfassen kann.
  • Schritt 1b: Bestimmen, basierend auf dem Straßenmerkmal im ersten Parkplatzbild und der Fahrzeugstellung, einer ersten Fahrzeugstellung des Fahrzeugs durch ein erstes Stellung-Regressionsmodell.
  • Dabei wird das erste Stellung-Regressionsmodell durch ein Vortrainieren basierend auf mehreren im ersten Initialisierungsbereich erfassten Muster-Parkplatzbildern und entsprechenden Muster-Fahrzeugstellungen sowie markierten Fahrzeugstellungen erhalten. Das erste Stellung-Regressionsmodell kann das Straßenmerkmal und die Fahrzeugstellung im ersten Parkplatzbild mit der ersten Fahrzeugstellung abhängig von den trainierten Modellparametern korrelieren.
  • Der vorliegende Schritt kann insbesondere umfassen: Eingeben des Straßenmerkmals und der Fahrzeugstellung im ersten Parkplatzbild als Eingabeinformationen in das erste Stellung-Regressionsmodell, und Erhalten der ersten Fahrzeugstellung des Fahrzeugs, die durch das erste Stellung-Regressionsmodell ausgegeben wird. Dabei ist die erste Fahrzeugstellung eine Fahrzeugstellung, die eine höhere Genauigkeit als die eingegebene Fahrzeugstellung aufweist. Abhängig von den trainierten Modellparametern kann das erste Stellung-Regressionsmodell basierend auf der eingegebenen Fahrzeugstellung und einem Merkmalsvektor, der aus den Straßenmerkmalen im ersten Parkplatzbild extrahiert wurde, eine Regression durchführen, um die erste Fahrzeugstellung zu erhalten.
  • Das Stellung-Regressionsmodell kann eine mehrstufige Stellungregression (Cascaded Pose Regression, CPR) sein. Die mehrstufige Stellungregression verwendet die folgende Prinzipformel, um die erste Fahrzeugstellung zu bestimmen: P reg = CPR ( P GPS , I seg )
    Figure DE112019007451T5_0001
    wobei PGPS für eine eingegebene Fahrzeugstellung steht und Iseg für ein semantisches Beobachtungsbild, und zwar das Straßenmerkmal im ersten Parkplatzbild, steht. PGPS und Iseg sind die Eingabeinformationen von CPR, und Preg ist die von CPR ausgegebene erste Fahrzeugstellung.
  • Im vorliegenden Schritt kann durch die mehrstufige Stellungregression basierend auf dem Straßenmerkmal und der Fahrzeugstellung eine genauere Stellung des Fahrzeugs bestimmt werden. Auf der Grundlage der Bestimmung, dass das Fahrzeug in den ersten Initialisierungsbereich einfährt, wird die positionierte Stellung genauer. Der vorliegende Schritt kann als ein Identifizieren der Position des Straßenmerkmals des ersten Parkplatzbilds im ersten Initialisierungsbereich verstanden werden.
  • Das vorstehende erste Stellung-Regressionsmodell kann auf folgende Weise trainiert werden:
    • Mehrere Muster-Parkplatzbilder, die im ersten Initialisierungsbereich erfasst sind, sowie eine Muster-Fahrzeugstellung und eine markierte Fahrzeugstellung, die jedem Muster-Parkplatzbild entsprechen, werden erfassen. Die Straßenmerkmale jedes Muster-Parkplatzbildes werden detektiert. Basierend auf den Straßenmerkmalen jedes Muster-Parkplatzbildes und der entsprechenden Muster-Fahrzeugstellung wird eine Referenzfahrzeugstellung durch die Modellparameter im ersten Stellung-Regressionsmodell bestimmt. Eine Differenz zwischen der Referenzfahrzeugstellung und der markierten Fahrzeugstellung wird bestimmt. Wenn die Differenz größer als der voreingestellte Differenzschwellenwert ist, werden die Modellparameter korrigiert, wobei es zum Schritt des „Bestimmen, basierend auf den Straßenmerkmalen jedes Muster-Parkplatzbildes und der entsprechenden Muster-Fahrzeugstellung, einer Referenzfahrzeugstellung durch die Modellparameter im Stellung-Regressionsmodell“ zurückgekehrt wird. Wenn die Differenz nicht größer als der voreingestellte Differenzschwellenwert ist, wird bestimmt, dass das Training des Stellung-Regressionsmodells abgeschlossen ist.
  • Dabei kann die markierte Fahrzeugstellung als ein wahrer Wert bzw. Standardwert der Fahrzeugstellung, die dem Muster-Parkplatzbild entspricht, verstanden werden. Die Muster-Fahrzeugstellung kann eine Fahrzeugstellung sein, die abhängig von IMU-Daten und Satellitendaten beim Erfassen jedes Muster-Parkplatzbildes bestimmt wird. Alternativ kann es eine Fahrzeugstellung sein, die durch Hinzufügen einer voreingestellten Störung zu einer markierten Fahrzeugstellung erhalten wird. Die voreingestellte Störung kann als voreingestellte Modifikation verstanden werden. Die Muster-Fahrzeugstellung kann als ein Anfangswert der Fahrzeugstellung verstanden werden, der in das erste Stellung-Regressionsmodell eingegeben wird. Und das Stellung-Regressionsmodell regressiert das Muster-Parkplatzbild auf der Grundlage des Anfangswerts der Fahrzeugstellung.
  • In einem Ausführungsform kann eine große Anzahl von Muster-Parkplatzbildern im Voraus durch die Kameravorrichtung im ersten Initialisierungsbereich erfasst werden, wobei die Muster-Fahrzeugstellung basierend auf IMU-Daten und Satellitendaten bestimmt werden kann. Beim Erfassen jedes Muster-Parkplatzbildes kann die markierte Fahrzeugstellung, die dem Muster-Parkplatzbild entspricht, durch eine Offline-Positionierung bestimmt werden.
  • Wenn das Stellung-Regressionsmodell eine mehrstufige Stellungregression ist, können die Modellparameter, die in anderen Aspekten der mehrstufigen Stellungregression trainiert wurden, im vorliegenden Schritt direkt als Anfangswerte der Modellparameter verwendet werden. Durch eine Vielzahl von Trainingsprozessen werden die Modellparameter ständig überarbeitet, damit sie sich sukzessive dem wahren Wert annähern.
  • Beim Bestimmen der Differenz kann eine Restfunktion verwendet werden, um die Differenz zwischen der Referenzfahrzeugstellung und der markierten Fahrzeugstellung zu bestimmen.
  • Schritt 2b: Abgleichen des Straßenmerkmals im ersten Parkplatzbild mit dem Straßenmerkmal in der voreingestellten Karte abhängig von der ersten Fahrzeugstellung, und Bestimmen, abhängig von dem Abgleichergebnis, einer zweiten Fahrzeugstellung des Fahrzeugs als die erste Startstellung zum Starten der visuellen Positionierung.
  • Die Straßenmerkmale im ersten Parkplatzbild könnten durch externe Faktoren beeinflusst werden, beispielsweise abgedeckt werden, was eine Abweichung zwischen der ersten Fahrzeugstellung und der realen Fahrzeugstellung oder eine Fehlerkennung verursachen kann. Daher kann durch den vorliegenden Schritt die Genauigkeit der Fahrzeugstellung weiter verbessert werden.
  • Im vorliegenden Schritt wird abhängig von der ersten Fahrzeugstellung das Straßenmerkmal im ersten Parkplatzbild mit dem Straßenmerkmal in der voreingestellten Karte abgeglichen. Bezüglich der konkreten Ausführungsformen für das Bestimmen, abhängig von dem Abgleichergebnis, einer zweiten Fahrzeugstellung des Fahrzeugs kann auf die Beschreibung in Schritt S130 verwiesen werden, die hier nicht wiederholt wird.
  • Die oben erwähnte erste Fahrzeugstellung und die zweite Fahrzeugstellung stellen die Fahrzeugstellungen zum gleichen Zeitpunkt dar.
  • Zusammenfassend wird beim vorliegenden Ausführungsbeispiel durch das erste Stellung-Regressionsmodell die erste Fahrzeugstellung bestimmt wird, die eine höhere Genauigkeit als die eingegebene Fahrzeugstellung aufweist, wobei durch Abgleichen mit den Straßenmerkmalen in der voreingestellten Karte der positionierten Bereich auf Grundlage der ersten Fahrzeugstellung weitere verkleinert werden kann, so dass die Genauigkeit der ersten Startstellung verbessert werden kann.
  • In einem weiteren Ausführungsbeispiel der vorliegenden Erfindung ist vorgesehen, dass basierend auf dem in 1 gezeigten Ausführungsbeispiel der Schritt S140 „Bestimmen einer Fahrzeugstellung des Fahrzeugs basierend auf den IMU-Daten, der letzten Fahrzeugstellung und einem Abgleichergebnis zwischen dem Straßenmerkmal im Parkplatzbild und dem Straßenmerkmal in der voreingestellten Karte“ anhand vom Ablaufdiagramm gemäß 4 durchgeführt werden kann, das folgende Schritte umfasst.
  • Schritt S141: Bestimmen, basierend auf der letzten Fahrzeugstellung und dem Abgleichergebnis zwischen dem Straßenmerkmal im Parkplatzbild und dem Straßenmerkmal in der voreingestellten Karte, einer ersten visuellen Stellung des Fahrzeugs zu einem ersten Zeitpunkt.
  • Dabei ist der erste Zeitpunkt ein Erfassungszeitpunkt des Parkplatzbildes und der IMU-Daten.
  • Bezüglich der spezifischen Ausführungsformen für den vorliegenden Schritt kann auf die Beschreibung in Schritt S130 verwiesen werden, die hier nicht wiederholt wird.
  • Schritt S142: Berechnen, basierend auf der letzten Fahrzeugstellung und den IMU-Daten, einer ersten IMU-Stellung des Fahrzeugs zum ersten Zeitpunkt.
  • Dabei die IMU-Daten Daten wie Winkelgeschwindigkeit und Beschleunigung umfassen.
  • In der Regel ist die Frequenz, mit der die IMU Daten erfasst, häufiger als die Frequenz, mit der die Kameravorrichtung Bilder erfasst. Wenn der erste Zeitpunkt bestimmt wird und die von der IMU zum ersten Zeitpunkt erfassten IMU-Daten erhalten werden, können aus der großen Menge der von der IMU erfassten IMU-Daten die IMU-Daten, deren Zeitstempel der erste Zeitpunkt ist, bestimmt werden.
  • Bei praktischen Anwendungen kann die erste IMU-Stellung des Fahrzeugs entsprechend einer voreingestellten Frequenz berechnet werden. Spezifisch kann die erste IMU-Stellung des Fahrzeugs mit der Häufigkeit berechnet werden, die gleich wie die Häufigkeit zum Bestimmen der visuellen Stellung ist.
  • Schritt S143: Erhalten von mehreren zweiten visuellen Stellungen und mehreren zweiten IMU-Stellungen, die zu mehreren zweiten Zeitpunkten bestimmt sind.
  • Dabei liegen die mehreren zweiten Zeitpunkte vor dem ersten Zeitpunkt. Jeder zweiter Zeitpunkt ist früher als der erste Zeitpunkt. Wenn mehrere zweite visuelle Stellungen und mehrere zweite IMU-Stellungen erhalten werden, kann dies aus gespeicherten visuellen Stellungen zu mehreren Zeitpunkten und IMU-Stellungen zu mehreren Zeitpunkten bestimmt werden.
  • Schritt S144: Erstellen einer ähnlichkeitsbeschränkten Optimierungsfunktion abhängig von einem Fusionstransformationskoeffizienten zwischen jedem Positionspunkt in einer ersten Trajektorie und jedem Positionspunkt in einer zweiten Trajektorie und von einer Ähnlichkeitsbeziehung zwischen jedem Positionspunkt in der ersten und zweiten Trajektorie und einer geschätzten Fusionsstellung, iteratives Lösen der ähnlichkeitsbeschränkten Optimierungsfunktion durch das Ändern eines Wertes der geschätzten Fusionsstellung, Bestimmen einer geschätzten Fusionsstellung, die bei einer optimalen Lösung der ähnlichkeitsbeschränkten Optimierungsfunktion ermittelt wird, als die Fahrzeugstellung nach einer Fusion des Fahrzeugs zum ersten Zeitpunkt.
  • Dabei ist die erste Trajektorie eine Trajektorie, die der ersten visuellen Stellung und den mehreren zweiten visuellen Stellungen entspricht, wobei die zweite Trajektorie eine Trajektorie ist, die der ersten IMU-Stellung und den mehreren zweiten IMU-Stellungen entspricht. Es gibt mehrere geschätzte Fusionsstellungen, einschließlich der geschätzten Fusionsstellung zum ersten Zeitpunkt und zu den einzelnen zweiten Zeitpunkten.
  • Die einzelnen Positionspunkte in der ersten Trajektorie sind Positionspunkte, die der ersten visuellen Stellung und den einzelnen zweiten visuellen Stellungen entsprechen, wobei die einzelnen Positionspunkte in der zweiten Trajektorie Positionspunkte sind, die der ersten IMU-Stellung und den einzelnen zweiten IMU-Stellungen entsprechen. Unter Bezugnahme auf 5 überlappen sich die erste Trajektorie und die zweite Trajektorie innerhalb einer Zeitspanne, die aus dem ersten Zeitpunkt t1 und den einzelnen zweiten Zeitpunkt tn besteht, nicht. Dabei werden die einzelnen Positionspunkte in der ersten Trajektorie jeweils durch einen hohlen Kreis dargestellt, wobei die einzelnen Positionspunkte in der weiten Trajektorie jeweils durch einen ausgefüllten Kreis dargestellt, wobei die annähernde Fahrtrichtung des Fahrzeugs von links nach rechts ist.
  • Da bei verschiedenen Positionierungsmodi bestimmte Positionierungsfehler vorhanden sind, fallen die erste Trajektorie und die zweite Trajektorie nicht zusammen, wobei es einen kleinen Unterschied zwischen jedem Positionspunkt gibt. Jeder Positionspunkt in der ersten Trajektorie liegt relativ nahe an der entsprechenden geschätzten Fusionsstellung. Die Merkmale zwischen benachbarten Positionspunkten in der zweiten Trajektorie ähneln den Merkmalen zwischen den entsprechenden benachbarten geschätzten Fusionsstellungen.
  • Im vorliegenden Ausführungsbeispiel erfüllen die entsprechenden Positionspunkte in der ersten Trajektorie und der zweiten Trajektorie die ähnliche Transformation, wobei ein entsprechender Fusionstransformationskoeffizient zwischen entsprechenden Positionspunkten existiert. Beispielsweise gibt es einen entsprechenden Fusionstransformationskoeffizienten zwischen der ersten visuellen Stellung und der ersten IMU-Stellung zum ersten Zeitpunkt. In ähnlicher Weise gibt es zu anderen Zeitpunkten auch einen entsprechenden Fusionstransformationskoeffizienten zwischen der zweiten visuellen Stellung und der zweiten IMU-Stellung.
  • Zusammenfassend wird auf einem Parkplatz ohne Satellitensignal die Fahrzeugstellung basierend auf einer Fusion von IMU-Trajektorienberechnung und visueller Positionierung bestimmt. Die Kombination der beiden Positionierungsmodi kann die Fehler in einem einzelnen Positionierungsmodus korrigieren und das Positionierungsergebnis genauer machen. Gleichzeitig werden im vorliegenden Ausführungsbeispiel beim Bestimmen der fusionierten Positionierungsstellung des Fahrzeugs die fahrzeugeigene Kameravorrichtung und IMU-Vorrichtung verwendet, ohne weitere Hardwareausrüstung zusätzlich vorzusehen, wobei die Positionierung der Fahrzeugstellung in einer Szene ohne GNSS-Signal realisiert werden kann. Darüber hinaus wird beim vorliegenden Ausführungsbeispiel eine ähnlichkeitsbeschränkten Optimierungsfunktion abhängig von der Ähnlichkeitsbeziehung zwischen der ersten Trajektorie bzw. der zweiten Trajektorie und der geschätzten Fusionsstellung und von den Fusionstransformationskoeffizienten zwischen den einzelnen Positionspunkten in der ersten Trajektorie und der zweiten Trajektorie erstellt, wobei während eines Fusionsprozesses verschiedene Beschränkungsbeziehungen berücksichtigt werden, so dass die bestimmten fusionierten Fahrzeugstellung genauer werden und näher am wahren Wert liegen kann.
  • In einem weiteren Ausführungsbeispiel der vorliegenden Erfindung ist vorgesehen, dass basierend auf dem in 4 gezeigten Ausführungsbeispiel der Schritt S144 „Erstellen einer ähnlichkeitsbeschränkten Optimierungsfunktion abhängig von einem Fusionstransformationskoeffizienten zwischen jedem Positionspunkt in einer ersten Trajektorie und jedem Positionspunkt in einer zweiten Trajektorie und von einer Ähnlichkeitsbeziehung zwischen jedem Positionspunkt in der ersten und zweiten Trajektorie und einer geschätzten Fusionsstellung, iteratives Lösen der ähnlichkeitsbeschränkten Optimierungsfunktion durch das Ändern eines Wertes der geschätzten Fusionsstellung, Bestimmen einer geschätzten Fusionsstellung, die bei einer optimalen Lösung der ähnlichkeitsbeschränkten Optimierungsfunktion ermittelt wird, als die Fahrzeugstellung nach einer Fusion des Fahrzeugs zum ersten Zeitpunkt“ folgende Schritte 1c bis 6c umfasst.
  • Schritt 1c: Erstellen der folgenden ähnlichkeitsbeschränkten Optimierungsfunktion E abhängig von dem Fusionstransformationskoeffizienten zwischen jedem Positionspunkt in der ersten Trajektorie und jedem Positionspunkt in der zweiten Trajektorie und von einer Ähnlichkeitsbeziehung zwischen jedem Positionspunkt in der ersten und zweiten Trajektorie und einer geschätzten Fusionsstellung: min R f , P f , S , R s E = i = 1 n P f ( t i ) P v ( t i ) 2 + i = 1 n R f ( t i ) R v ( t i ) 2 + i = 1 n 1 { [ P f ( t i + 1 ) P f ( t i ) ] S ( t i ) R s ( t i ) [ P o ( t i + 1 ) P o ( t i ) ] } 2 + i = 1 n 1 { [ R f ( t i + 1 ) / R f ( t i ) ] R s ( t i ) [ R o ( t i + 1 ) / R o ( t i ) ] } 2 + i = 1 n 1 [ S ( t i + 1 ) S ( t i ) ] 2 + i = 1 n 1 [ R s ( t i + 1 ) R s ( t i ) ] 2
    Figure DE112019007451T5_0002
    wobei S(ti) und Rs(ti) jeweils für ein Skalierungsverhältnis und eine Rotationsmatrix in den Fusionstransformationskoeffizienten zwischen Positionspunkten zu einem Zeitpunkt ti in der ersten Trajektorie und der zweiten Trajektorie stehen, wobei Pf(ti) und Rf(ti) jeweils für eine Position und eine Pose in der geschätzten Fusionsstellung zu einem Zeitpunkt ti stehen, wobei Pv(ti) und Rv(ti) jeweils für eine Position und eine Pose des Positionspunktes zu einem Zeitpunkt ti in der ersten Trajektorie stehen, wobei Po(ti) und Ro(ti) jeweils für eine Position und eine Pose des Positionspunktes zu einem Zeitpunkt ti in der zweiten Trajektorie stehen, wobei t1 der erste Zeitpunkt ist, und tn der früheste Zeitpunkt unter den mehreren zweiten Zeitpunkt ist, und wobei n die Gesamtzahl des ersten Zeitpunkts und der mehreren zweiten Zeitpunkt darstellt;
  • Vorstehend steht P für Position und R für Stellung, wobei die Größe mit einem tiefgestellten v eine Größe in der visuellen Stellung ist, die Größe mit einem tiefgestellten o eine Größe in der IMU-Stellung ist, und die Größe mit einem tiefgestellten s eine Größe im Fusionstransformationskoeffizienten ist. S steht für das Skalierungsverhältnis zwischen dem Positionspunkt in der ersten Trajektorie und dem entsprechenden Positionspunkt in der zweiten Trajektorie. Rs steht für die Rotationsmatrix zwischen dem Positionspunkt in der ersten Trajektorie und dem entsprechenden Positionspunkt in der zweiten Trajektorie.
  • Da die Vision-basierte visuelle Stellung für jeden Zeitpunkt erhalten wird und die IMUbasierte Berechnung der Stellung basierend auf einem relativen Betrag zwischen benachbarten Zeitpunkten erhalten wird, werden die visuelle Stellung und die geschätzte Fusionsstellung durch einen einzigen Zeitpunkt beschränkt, während die IMU-Stellung und die geschätzte Fusionsstellung den Einschränkungen vom letzten Zeitpunkt zum aktuellen Moment unterliegen.
  • Bei der ähnlichkeitsbeschränkten Optimierungsfunktion E gibt der erste Term an, dass die Position in jeder visuellen Stellung relativ nahe an der entsprechenden Position in der geschätzten Fusionsstellung liegen soll, wobei der zweite Term angibt, dass die Pose in jeder visuellen Stellung relativ nahe an der entsprechenden Pose in der geschätzten Fusionsstellung liegen soll, wobei der dritte Term angibt, dass die Verschiebung zwischen benachbarten IMU-Stellungen relativ nahe an der entsprechenden Verschiebung zwischen benachbarten geschätzten Fusionsstellungen liegen soll, wobei der vierte Term angibt, dass der Transformationswinkel zwischen benachbarten IMU-Stellungen relativ nahe am entsprechenden Transformationswinkel zwischen den benachbarten geschätzten Fusionsstellungen liegen soll, wobei der fünfte Term angibt, dass die Skalierungsverhältnisse zwischen benachbarten Positionspunkten relativ nahe beieinander liegen sollen, und wobei der sechste Term angibt, dass die Rotationsmatrixen zwischen benachbarten Punkten relativ nahe beieinander liegen sollen. Abhängig von den obigen Beschränkungsbeziehungen kann eine ähnlichkeitsbeschränkte Optimierungsfunktion erstellt werden. Wenn E den Mindestwert erreichen kann, sind die geschätzte Fusionsstellung und Rf, Pf, S, Rs die optimalen Lösungen.
  • Schritt 2c: Bestimmen eines Anfangswerts der geschätzten Fusionsstellung, und Bestimmen eines Anfangswerts von Rf, Pf, S, Rs.
  • Der Anfangswert der geschätzten Fusionsstellung kann erhalten werden, indem der entsprechenden visuellen Stellung oder IMU-Stellung ein gewisses Maß an Störung überlagert wird. Der Anfangswert von Rf, Pf, S, Rs kann abhängig von Erfahrungswerten bestimmt werden.
  • Alternativ können die Anfangswerte von Rf, Pf, S, Rs wie folgt angegeben werden:
  • Der Anfangswert von Rf(t) ist gleich Rv(t), der Anfangswert von Pf(t) ist gleich Pv(t), der Anfangswert von S(t) ist 1, und der Anfangswert von Rs(t) ist gleich R v ( t + 1 ) / R v ( t ) R o ( t + 1 ) / R o ( t )
    Figure DE112019007451T5_0003
  • Schritt 3c: Bestimmen, abhängig von einem aktuellen Wert der geschätzten Fusionsstellung und einem aktuellen Wert von Rf, Pf, S, Rs, eines aktuellen Funktionswerts der ähnlichkeitsbeschränkten Optimierungsfunktion.
  • Spezifisch werden der aktuelle Wert der geschätzten Fusionsstellung und der aktuelle Wert von Rf, Pf, S, Rs in den Ausdruck der ähnlichkeitsbeschränkten Optimierungsfunktion eingesetzt, um den aktuellen Funktionswert zu erhalten.
  • Schritt 4c: Erhalten des letzten Funktionswertes der ähnlichkeitsbeschränkten Optimierungsfunktion, Beurteilen, ob ein Absolutwert der Differenz zwischen dem letzten Funktionswert und dem aktuellen Funktionswert größer als ein voreingestellter Differenzschwellenwert ist; wenn ja, wird mit dem Schritt 5c fortgefahren; wenn nein, wird mit dem Schritt 6c fortgefahren.
  • Dabei kann der voreingestellte Differenzschwellenwert ein Wert sein, der basierend auf einem empirischen Wert vorbestimmt wird. Durch das Einstellen des voreingestellten Differenzschwellenwerts kann die Genauigkeit der Fusionsstellung eingestellt werden. Wenn ein Absolutwert der Differenz zwischen dem letzten Funktionswert und dem aktuellen Funktionswert größer als der voreingestellte Differenzschwellenwert ist, wird davon ausgegangen, dass der Funktionswert der ähnlichkeitsbeschränkten Optimierungsfunktion kleiner sein kann. Wenn der Absolutwert der Differenz zwischen dem letzten Funktionswert und dem aktuellen Funktionswert nicht größer als der voreingestellte Differenzschwellenwert ist, wird davon ausgegangen, dass der Funktionswert der ähnlichkeitsbeschränkten Optimierungsfunktion sehr nahe am Minimalwert liegt.
  • Schritt 5c: Einstellen des Wertes der geschätzten Fusionsstellung und des Wertes von Rf, Pf, S, Rs, Zurückkehren zum Schritt 3c „Bestimmen, abhängig von abhängig von einem aktuellen Wert der geschätzten Fusionsstellung und einem aktuellen Wert von Rf, Pf, S, Rs, eines aktuellen Funktionswerts der ähnlichkeitsbeschränkten Optimierungsfunktion“.
  • Das Einstellen des Wertes der geschätzten Fusionsstellung und des Wertes von Rf, Pf, S, Rs kann abhängig von dem letzten Wert der geschätzten Fusionsstellung und den letzten Wert von Rf, Pf, S, Rs sowie dem Trend des aktuellen Funktionswerts erfolgen.
  • Schritt 6c: Bestimmen des aktuellen Werts der geschätzten Fusionsstellung als die Fahrzeugstellung nach der Fusion des Fahrzeugs zum ersten Zeitpunkt.
  • Zusammenfassend stellt das vorliegende Ausführungsbeispiel eine spezifische Form der erstellten ähnlichkeitsbeschränkten Optimierungsfunktion und eine spezifische Ausführungsform zum iterativen Lösen der ähnlichkeitsbeschränkten Optimierungsfunktion bereit und kann die Fahrzeugstellung, die durch Fusion von zwei Stellungen erhalten ist, genauer bestimmen.
  • In einem weiteren Ausführungsbeispiel ist vorgesehen, dass basierend auf dem in 4 gezeigten Ausführungsbeispiel nach dem Schritt S 141 „Bestimmen, basierend auf der letzten Fahrzeugstellung und dem Abgleichergebnis zwischen dem Straßenmerkmal im Parkplatzbild und dem Straßenmerkmal in der voreingestellten Karte, einer ersten visuellen Stellung des Fahrzeugs zu einem ersten Zeitpunkt“ folgende Schritte 1d bis 3d vorgesehen sind, die einen Prozess zur Genauigkeitsbestimmung darstellen.
  • Schritt 1d: Bestimmen, abhängig von der ersten visuellen Stellung, eines Abbildungsfehlers zwischen einem ersten Straßenmerkmal und einem zweiten Straßenmerkmal.
  • Im vorliegenden Ausführungsbeispiel ist vorgesehen, dass das erste Straßenmerkmal ein Straßenmerkmal im Parkplatzbild ist und das zweite Straßenmerkmal ein Straßenmerkmal in der voreingestellten Karte ist, das erfolgreich mit dem ersten Straßenmerkmal abgeglichen ist.
  • Bezüglich der spezifischen Ausführungsform des vorliegenden Schritts kann auf die Beschreibung im Schritt 2a verwiesen. Eins von den zwei Abbildungsmodi wird verwendet, um den Abbildungsfehler zu bestimmen.
  • Schritt 2d: Bestimmen eines Zielkartenbereichs, in dem sich die erste visuelle Stellung befindet, aus mehreren verschiedenen Kartenbereichen in der voreingestellten Karte.
  • Im vorliegenden Ausführungsbeispiel kann die voreingestellte Karte abhängig den Straßenmerkmalen in der voreingestellten Karte im Voraus in mehrere verschiedene Kartenbereiche unterteilt werden, wobei die Straßenmerkmale in jedem Kartenbereich Relevanz oder Ortsähnlichkeit aufweisen. Der Kartenbereich kann ein kreisförmiger Bereich, ein rechteckiger Bereich sein oder andere Formen aufweisen.
  • Beim Bestimmen des Zielkartenbereichs kann der Kartenbereich, in dem sich die Positionskoordinaten in der ersten visuellen Stellung befinden, spezifisch als der Zielkartenbereich bestimmt werden.
  • Schritt 3d: Bestimmen, abhängig von einer vorab hergestellten Entsprechung zwischen dem Abbildungsfehler und dem Positionierungsfehler im Zielkartenbereich, eines dem vorstehenden Abbildungsfehler entsprechenden Positionierungsfehlers, und Bestimmen, abhängig von dem Positionierungsfehler, einer Positionierungsgenauigkeit der ersten visuellen Stellung.
  • Im vorliegenden Ausführungsbeispiel können Entsprechungen zwischen dem Abbildungsfehler und dem Positionierungsfehler in verschiedenen Kartenbereichen vorab hergestellt werden, wobei aus den Entsprechungen zwischen dem Abbildungsfehler und dem Positionierungsfehler in verschiedenen Kartenbereichen eine Entsprechung zwischen dem Abbildungsfehler und dem Positionierungsfehler im dem Zielkartenbereich bestimmt wird.
  • Dabei kann die Entsprechung zwischen dem Abbildungsfehler und dem Positionierungsfehler durch eine Abbildungsfehlerfunktion mit dem Positionierungsfehler als Variable ausgedrückt werden. Beim Bestimmen des dem Abbildungsfehler entsprechenden Positionierungsfehlers kann der Abbildungsfehler in die Abbildungsfehlerfunktion eingesetzt werden, um den entsprechenden Positionierungsfehler zu erhalten.
  • Der Positionierungsfehler kann als eine Differenz zwischen der aktuellen Positionierungsstellung und der realen Positionierungsstellung verstanden werden. Der Positionierungsfehler kann beispielsweise 5 cm, 10 cm usw. betragen. Wenn die Positionierungsgenauigkeit der ersten visuellen Stellung abhängig von dem Positionierungsfehler bestimmt wird, kann der Kehrwert des Positionierungsfehlers als die Positionierungsgenauigkeit der ersten visuellen Stellung bestimmt werden, wobei es auch möglich ist, eine andere voreingestellte Verarbeitung des Kehrwerts durchzuführen, um die Positionierungsgenauigkeit der ersten visuellen Stellung zu erhalten.
  • Der Zusammenhang zwischen Positionierungsgenauigkeit und Positionierungsfehler ist, dass je größer der Positionierungsfehler, desto kleiner die Positionierungsgenauigkeit, und je kleiner der Positionierungsfehler, desto größer die Positionierungsgenauigkeit.
  • Der beim Bestimmen des Abbildungsfehlers in Schritt 1d verwendete Abbildungsmodus soll gleich wie der Abbildungsmodus sein, der beim Herstellen der Entsprechung zwischen dem Abbildungsfehler und dem Positionierungsfehler verwendet wird.
  • Zusammenfassend ist beim vorliegenden Ausführungsbeispiel vorgesehen, dass nach dem Bestimmen der ersten visuellen Stellung die Genauigkeit der ersten visuellen Stellung abhängig von dem Abbildungsfehler zwischen Straßenmerkmalen und von der vorab hergestellten Entsprechung zwischen dem Abbildungsfehler und dem Positionierungsfehler bestimmt wird, so dass eine Bewertung des Positionierungseffekts der visuellen Stellung ermöglicht werden kann.
  • In einem weiteren Ausführungsbeispiel kann nach dem Bestimmen der Positionierungsgenauigkeit der ersten visuellen Stellung ein Gewicht der ersten visuellen Stellung abhängig von der Entsprechung zwischen der voreingestellten Positionierungsgenauigkeit und dem Gewicht bestimmt werden, wobei das Gewicht der einzelnen zweiten visuellen Stellungen erhalten wird. Beim Erstellen der ähnlichkeitsbeschränkten Optimierungsfunktion E in Schritt 1c kann die Gewichte der ersten visuellen Stellung und der einzelnen zweiten visuellen Stellungen überlagert werden, d.h., dass der erste und der zweite Term auf der rechten Seite der Funktion E mit Gewichten multipliziert werden, was die Genauigkeit der fusionierten Fahrzeugstellung verbessern kann.
  • In einem weiteren Ausführungsbeispiel ist vorgesehen, dass basierend auf dem vorhergehenden Ausführungsbeispiel die folgende Schritte 1e bis 4e verwendet werden können, um die Entsprechung zwischen dem Abbildungsfehler und dem Positionierungsfehler im Zielkartenbereich herzustellen.
  • Schritt 1e: Erhalten eines im Zielkartenbereich erfassten Muster-Straßenbilds und eines entsprechenden Muster-Straßenmerkmals sowie einer Standardpositionierungsstellung des Fahrzeugs, die dem Muster-Straßenbild entspricht, und Erhalten eines dritten Straßenmerkmals in der voreingestellten Karte, das erfolgreich mit dem Muster-Straßenmerkmal abgeglichen ist;
  • Dabei ist die oben erwähnte Standardpositionierungsstellung eine Positionierungsstellung des Fahrzeugs, die beim Erfassen der Muster-Straßenbilder durch ein Kameramodul bestimmt wird. Die Standardpositionierungsstellung kann als Positionierungsstellung ohne Positionierungsfehler verstanden werden.
  • Schritt 2e: Erhalten, durch Hinzufügen mehrerer verschiedener Störgrößen zur Standardpositionierungsstellung, von mehreren gestörten Positionierungsstellungen. Die gestörte Positionierungsstellung kann als eine virtuelle Positionierungsstellung des Fahrzeugs verstanden werden, die unter Verwendung der Standardpositionierungsstellung als Referenz erhalten ist.
  • Schritt 3e: Bestimmen, abhängig von dem Muster-Straßenmerkmal und dem dritten Straßenmerkmal, eines gestörten Abbildungsfehlers, das den mehreren gestörten Positionierungsstellungen entspricht.
  • Für verschiedene gestörte Positionierungsstellungen kann der gestörte Abbildungsfehler bestimmt werden, nachdem das Muster-Straßenmerkmal und das dritte Straßenmerkmal gemäß dem in Schritt 2a erwähnten Abbildungsmodus auf dasselbe Koordinatensystem abgebildet wurden.
  • Wenn das Straßenmerkmal im Muster-Straßenbild und das erfolgreich abgeglichene Straßenmerkmal in der voreingestellten Karte sowie die entsprechende Positionierungsstellung bekannt sind, kann der Abbildungsfehler match_err durch die folgende Funktion ausgedrückt werden: match _ err = MapMatching ( p p o s e , I s e g , I m a p )
    Figure DE112019007451T5_0004
  • Dabei steht ppose für die Positionierungsstellung, Iseg, für das Straßenmerkmal im Muster-Straßenbild, und Imap für das erfolgreich abgeglichene Straßenmerkmal in der voreingestellten Karte.
  • Schritt 4e: Lösen, basierend auf einer voreingestellten Abbildungsfehlerfunktion in Bezug auf den Positionierungsfehler im Zielkartenbereich, der Abbildungsfehlerfunktion, wenn der Restfehler zwischen der Abbildungsfehlerfunktion und dem den mehreren gestörten Positionierungsstellungen entsprechenden gestörten Abbildungsfehler den minimalen Wert annimmt, so dass eine funktionale Beziehung zwischen dem Abbildungsfehler und dem Positionierungsfehler im Zielkartenbereich erhalten wird.
  • Dabei kann unter der „voreingestellten Abbildungsfehlerfunktion in Bezug auf den Positionierungsfehler im Zielkartenbereich“ eine voreingestellte Abbildungsfehlerfunktion verstanden werden, die unbekannte Größen enthält. Die Abbildungsfehlerfunktion kann beispielsweise auf die folgende quadratische Form vorgesehen werden: g ( Δ x , Δ y ) = a Δ x 2 + b Δ x Δ y + c Δ y 2 + d Δ x + e Δ y + f
    Figure DE112019007451T5_0005
  • Der gestörte Abbildungsfehler, der mehreren gestörten Positionierungsstellungen entspricht, kann durch die folgende Funktion ausgedrückt werden: match_err = MapMatching ( p g t + Δ p , I s e g , I m a p )
    Figure DE112019007451T5_0006
  • Der vorliegende Schritt kann beim spezifischen Ausführen Folgendes umfassen:
  • Lösen der folgenden Minimalwertfunktion: min a , b , c , d , e , ƒ Δ x , Δ y Ω g ( Δ x , Δ y ) MapMatching ( p g t + Δ p , I s e g , I m a p )
    Figure DE112019007451T5_0007
    um a0, b0, c0, d0, e0 und f0 zu erhalten, wobei a0, b0, c0, d0, e0 und f0, die nach dem Lösen erhalten sind, in g eingesetzt werden, um eine Funktion als Abbildungsfehlerfunktion zu erhalten; wobei im Fall, dass die Standardpositionierungsstellung ausreichend genau ist, die Lösung von g0 ein Paraboloid sein soll.
    wobei die Abbildungsfehlerfunktion g (Δx, Δy),
    g(Δx,Δy) = aΔx2 + bΔxΔy + cΔy2 + dΔx + eΔy + f ist, wobei pqt für die Standardpositionierungsstellung steht, wobei die Störgröße Δp={Δx,Δy,0}, Δx,Δy ∈ Ω ist, wobei Ω,
    fg(Δx,Δy) - MapMatching(pgt + Δp,IsegImap ür den Zielkartenbereich steht, wobei Iseg für das Muster-Straßenmerkmal steht, wobei Imap für das dritte Straßenmerkmal steht, wobei MapMatching (pgt + Δp, Iseg, Imap) für den gestörten Abbildungsfehler steht, der den mehreren gestörten Positionierungsstellungen pgt + Δp entspricht. g(Δx,Δy) - MapMatching(pgt + Δp,Iseg,Imap) steht für den Restfehler zwischen der Abbildungsfehlerfunktion und dem den mehreren gestörten Positionierungsstellungen entsprechenden gestörten Abbildungsfehler.
    min a , b , c , d , e , ƒ
    Figure DE112019007451T5_0008
    stellt eine Minimalwertfunktion mit zu lösenden Größen a, b, c, d, e,f. ||·|| ist ein Normsymbol.
  • Für jeden Kartenbereich in der voreingestellten Karte kann eine entsprechende Abbildungsfehlerfunktion g auf die oben erwähnte Weise erhalten werden.
  • Zusammenfassend ist beim vorliegenden Ausführungsbeispiel vorgesehen, dass beim Herstellen der Entsprechung zwischen dem Abbildungsfehler und dem Positionierungsfehler zunächst ein Muster-Straßenmerkmal, das einem Bildrahmen entspricht, und ein erfolgreich abgeglichenes Straßenmerkmal in der voreingestellten Karte sowie eine Standardpositionierungsstellung, die dem Bildrahmen entspricht, erhalten werden, wobei auf der Grundlage der Standardpositionierungsstellung mehrere Störgrößen addiert werden, wobei basierend auf der erstellten Restfunktion die Entsprechung im Kartenbereich gelöst wird. Auf diese Weise kann die Entsprechung zwischen verschiedenen Kartenbereichen schneller hergestellt werden. Es wird auch eine umsetzbare Möglichkeit zur Bestimmung des Positionierungsfehlers des Fahrzeugs bereitgestellt.
  • In einem weiteren Ausführungsbeispiel ist vorgesehen, dass basierend auf dem vorhergehenden Ausführungsbeispiel der Schritt 3d „Bestimmen, abhängig von einer vorab hergestellten Entsprechung zwischen dem Abbildungsfehler und dem Positionierungsfehler im Zielkartenbereich, eines dem vorstehenden Abbildungsfehler entsprechenden Positionierungsfehlers“ Folgendes umfassen:
  • Der Abbildungsfehler cost wird in die folgende vorab hergestellte Abbildungsfehlerfunktion g0 im Zielkartenbereich eingesetzt, um mehrere Positionierungsfehler (Δx, Δy) zu lösen: g ( Δ x , Δ y ) = a 0 Δ x 2 + b 0 Δ x Δ y + c 0 Δ y 2 + d 0 Δ x + e 0 Δ y + f 0
    Figure DE112019007451T5_0009
  • Dabei sind a0, b0, c0, d0, e0, f0 vorbestimmte Funktionskoeffizienten; wobei der maximale Wert von durch die Lösung erhaltenen mehreren Positionierungsfehlern als der dem Abbildungsfehler entsprechende Positionierungsfehler r bestimmt: r = x e r r 2 + y e r r 2
    Figure DE112019007451T5_0010
    wobei x e r r = C / A , y e r r = C / B ,
    Figure DE112019007451T5_0011
    und A = ( b 0 2 a 0 c 0 ) ( ( a 0 c 0 ) 2 + 4 b 0 2 ( a 0 + c 0 ) )
    Figure DE112019007451T5_0012
    B = ( b 0 2 a 0 c 0 ) ( ( a 0 c 0 ) 2 + 4 b 0 2 ( a 0 + c 0 ) )
    Figure DE112019007451T5_0013
    C = 2 ( a 0 e 0 2 + c 0 d 0 2 + ( f 0 cost ) b 0 2 2 b 0 d 0 e 0 a 0 c 0 ( f 0 cost ) ) .
    Figure DE112019007451T5_0014
  • Im vorliegenden Ausführungsbeispiel sind die Ausdrucksformen der Abbildungsfehlerfunktion entsprechend unterschiedlichen Abbildungsbereichen unterschiedlich, wobei insbesondere die Funktionskoeffizienten unterschiedlich sein können. Die oben erwähnte Abbildungsfehlerfunktion g0(Δx,Δy) = a0Δx2 + b0ΔxΔy + c0Δy2 + d0Δx + e0Δy + f0 ist ein Paraboloid, wobei unter dem Abbildungsfehler cost eine Ebene verstanden werden kann. Durch das Einsetzen des Abbildungsfehlers cost in die Abbildungsfehlerfunktion g0 wird der Schnittpunkt des Paraboloids und der Ebene ermittelt. Nach mathematischen Erkenntnissen ist der Schnittpunkt ein Punkt auf einer Ellipse. D.h., alle Punkte auf der Ellipse sind die durch die Lösung erhaltenen Positionierungsfehler (Δx, Δy). Der maximale Wert von den durch die Lösung erhaltenen mehreren Positionierungsfehlern ist die Haupt- und Nebenachse der Ellipse (xerr und yerr).
  • Zusammenfassend stellt das vorliegende Ausführungsbeispiel eine spezifische Ausführungsform zum Bestimmen, abhängig von einer Abbildungsfehlerfunktion, eines einem Abbildungsfehler entsprechenden Positionierungsfehlers bereit, wobei diese Ausführungsform bei praktischen Anwendungen einfacher zu implementieren ist.
  • In einem weiteren Ausführungsbeispiel der vorliegenden Erfindung ist vorgesehen, dass basierend auf dem vorhergehenden Ausführungsbeispiel das Verfahren nach dem Schritt 3d, d.h. nach dem Bestimmen, abhängig von dem Positionierungsfehler, einer Positionierungsgenauigkeit der ersten visuellen Stellung, ferner Schritte 1f bis 4f umfasst.
  • Schritt 1f: Berechnen, wenn abhängig von der Positionierungsgenauigkeit bestimmt wird, dass die visuelle Positionierung des Fahrzeugs auf dem Parkplatz versagt, einer dritten IMU-Stellung des Fahrzeugs, basierend auf einer Fahrzeugstellung vor dem Versagen der visuellen Positionierung und den IMU-Daten.
  • Dabei kann die Fahrzeugstellung vor dem Versagen der visuellen Positionierung die letzte Fahrzeugstellung vor dem Versagen der visuellen Positionierung sein. Die dritte IMU-Stellung, die basierend auf der letzten Fahrzeugstellung berechnet wird, ist genauer.
  • Beim Bestimmen der Fahrzeugstellung können die Straßenmerkmale im von einer Bilderfassungsvorrichtung erfassten Straßenbild mit den Straßenmerkmalen in der voreingestellten Karte abgeglichen werden, um die Fahrzeugstellung zu bestimmen. Dies kann als visuelle Positionierung bezeichnet werden. Wenn das von der Bilderfassungsvorrichtung erfasste Bild wenige Straßenmerkmale enthält oder die visuelle Positionierung aufgrund eines Gerätefehlers oder aus anderen Gründen nicht durchgeführt werden kann, wird bestimmt, dass die visuelle Positionierung versagt.
  • Wenn die Positionierungsgenauigkeit der ersten visuellen Stellung kleiner als der voreingestellte Genauigkeitsschwellenwert ist, kann bestimmt werden, dass die visuelle Positionierung des Fahrzeugs auf dem Parkplatz versagt.
  • In einem weiteren Ausführungsbeispiel der vorliegenden Erfindung ist vorgesehen, dass zur genaueren Bestimmung, ob der visuelle Positionierungsprozess versagt, eine voreingestellten Anzahl von Positionierungsgenauigkeiten, die den kontinuierlichen Parkplatzbildern entsprechen, erhalten werden kann, wobei im Fall, dass die voreingestellte Anzahl von Positionierungsgenauigkeiten größer als der voreingestellte Genauigkeitsschwellenwert ist, bestimmt werden kann, dass die visuelle Positionierung versagt.
  • Schritt 2f: Erhalten, wenn bestimmt wird, dass sich eine durch die dritte IMU-Stellung angegeben Position in einem auf dem Parkplatz voreingestellten zweiten Initialisierungsbereich befindet, eines zweiten Parkplatzbildes, das durch die Kameravorrichtung 620 im zweiten Initialisierungsbereich erfasst wird, und Bestimmen, basierend auf dem Straßenmerkmal im zweiten Parkplatzbild und der dritten IMU-Stellung, einer dritten Fahrzeugstellung des Fahrzeugs durch ein zweites Stellung-Regressionsmodell.
  • Dabei wird das zweite Stellung-Regressionsmodell durch ein Vortrainieren basierend auf mehreren im zweiten Initialisierungsbereich erfassten Muster-Parkplatzbildern und entsprechenden Muster-Fahrzeugstellungen sowie markierten Fahrzeugstellungen erhalten. Das zweite Stellung-Regressionsmodell kann das Straßenmerkmal im zweiten Parkplatzbild und die dritte IMU-Stellung mit der dritten Fahrzeugstellung abhängig von den trainierten Modellparametern korrelieren.
  • Das zweite Stellung-Regressionsmodell kann auf die gleiche Weise wie das erste Stellung-Regressionsmodell trainiert werden. Das zweite Stellung-Regressionsmodell und das erste Stellung-Regressionsmodell können auch unter Verwendung desselben Stellung-Regressionsmodells implementiert werden.
  • Schritt 3f: Abgleichen des Straßenmerkmals im zweiten Parkplatzbild mit dem Straßenmerkmal in der voreingestellten Karte abhängig von der dritten Fahrzeugstellung, und Bestimmen, abhängig von dem Abgleichergebnis, einer vierten Fahrzeugstellung des Fahrzeugs als eine zweite Startstellung zum erneuten Starten der visuellen Positionierung.
  • Bezüglich des vorliegenden Schritts kann auf die Beschreibung in Schritt S130 verwiesen werden, die hier nicht wiederholt wird.
  • Schritt 4f: Bestimmen einer Fahrzeugstellung des Fahrzeugs basierend auf den IMU-Daten, der zweiten Startstellung und einem Abgleichergebnis zwischen dem Straßenmerkmal in dem zweiten Parkplatzbild und einem Straßenmerkmal in der voreingestellten Karte.
  • Zusammenfassend kann im vorliegenden Ausführungsbeispiel abhängig von der durch die IMU berechneten IMU-Stellung bestimmt werden, dass sich das Fahrzeug im zweiten Initialisierungsbereich befindet, wobei im zweiten Initialisierungsbereich eine zweite Startstellung zum erneuten Starten der visuellen Positionierung bestimmt wird, wodurch die Startstellung genauer bestimmt werden kann und ein Neustart der visuellen Positionierung realisiert werden kann.
  • 6 zeigt eine schematische Strukturansicht eines fahrzeugmontierten Terminals gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Dieses Ausführungsbeispiel entspricht dem in 1 gezeigten Verfahrensausführungsbeispiel. Das fahrzeugmontierte Terminal umfasst einen Prozessor 610, eine Kameravorrichtung 620, eine IMU 630 und eine GNSS 640. Der Prozessor 610 umfasst ein Outdoor-Positionierungsmodul, ein Bestimmungsmodul zum Starten, ein erstes visuelles Positionierungsmodul, ein zweites visuelles Positionierungsmodul und ein Szenenumschaltmodul (in der Figur nicht gezeigt).
  • Das Outdoor-Positionierungsmodul dient zum Erhalten, wenn ein Fahrzeug im Freien fährt, von IMU-Daten, die durch die IMU 630 erfasst sind, und von Satellitendaten, die durch die GNSS 640 erfasst sind, und zum Bestimmen einer Fahrzeugstellung abhängig von den IMU-Daten und den Satellitendaten dient;
    das Aktivierbestimmungsmodul dient zum Erhalten, wenn abhängig von der Fahrzeugstellung bestimmt wird, dass das Fahrzeug vom Freien in einen an einem Eingang eines Parkplatzes voreingestellten ersten Initialisierungsbereich einfährt, eines ersten Parkplatzbildes, das durch die Kameravorrichtung 620 in dem ersten Initialisierungsbereich erfasst ist, und zum Bestimmen, abhängig von einem Straßenmerkmal im ersten Parkplatzbild, einer ersten Startstellung zum Starten einer visuellen Positionierung;
    das erste visuelle Positionierungsmodul dient zum Bestimmen einer Fahrzeugstellung des Fahrzeugs basierend auf den IMU-Daten, der ersten Startstellung und einem Abgleichergebnis zwischen dem Straßenmerkmal in dem ersten Parkplatzbild und einem Straßenmerkmal in einer voreingestellten Karte;
    das zweite visuelle Positionierungsmodul dient zum Erhalten, wenn bestimmt wird, dass sich die visuelle Positionierung in einem Startzustand befindet, und wenn abhängig von der Fahrzeugstellung bestimmt wird, dass das Fahrzeug auf dem Parkplatz fährt, eines durch die Kameravorrichtung 620 erfassten Parkplatzbilds, zum Erhalten der letzten Fahrzeugstellung, und zum Bestimmen einer Fahrzeugstellung des Fahrzeugs basierend auf den IMU-Daten, der letzten Fahrzeugstellung und einem Abgleichergebnis zwischen einem Straßenmerkmal in dem Parkplatzbild und einem Straßenmerkmal in der voreingestellten Karte;
    das Szenenumschaltmodul dient zum Zurückkehren zum Vorgang des „Erhaltens von IMU-Daten, die durch eine Trägheitsmesseinheit IMU erfasst sind, und von Satellitendaten, die durch eine Satellitenpositionierungseinheit GNSS erfasst sind“, wenn abhängig von der Fahrzeugstellung bestimmt wird, dass das Fahrzeug vom Parkplatz ins Freie fährt.
  • In einem weiteren Ausführungsbeispiel der vorliegenden Erfindung ist vorgesehen, dass basierend auf der in 6 gezeigten Ausführungsbeispiel das Bestimmungsmodul zum Starten beim Durchführen von dem „Bestimmen der ersten Startstellung zum Starten der visuellen Positionierung abhängig von dem Straßenmerkmal im ersten Parkplatzbild“ folgende Vorgänge durchführt:
  • Bestimmen, basierend auf dem Straßenmerkmal im ersten Parkplatzbild und der Fahrzeugstellung, einer ersten Fahrzeugstellung des Fahrzeugs durch ein erstes Stellung-Regressionsmodell; wobei das erste Stellung-Regressionsmodell durch ein Vortrainieren basierend auf mehreren im ersten Initialisierungsbereich erfassten Muster-Parkplatzbildern und entsprechenden Muster-Fahrzeugstellungen sowie markierten Fahrzeugstellungen erhalten wird;
  • Abgleichen des Straßenmerkmals im ersten Parkplatzbild mit dem Straßenmerkmal in der voreingestellten Karte abhängig von der ersten Fahrzeugstellung, und Bestimmen, abhängig von dem Abgleichergebnis, einer zweiten Fahrzeugstellung des Fahrzeugs als die erste Startstellung zum Starten der visuellen Positionierung.
  • In einem weiteren Ausführungsbeispiel der vorliegenden Erfindung ist vorgesehen, dass basierend auf dem in 6 gezeigten Ausführungsbeispiel das zweite visuelle Positionierungsmodul beim Durchführen von dem „Bestimmen einer Fahrzeugstellung des Fahrzeugs basierend auf den IMU-Daten, der letzten Fahrzeugstellung und einem Abgleichergebnis zwischen dem Straßenmerkmal im Parkplatzbild und dem Straßenmerkmal in der voreingestellten Karte“ folgende Vorgänge durchführt:
  • Bestimmen, basierend auf der letzten Fahrzeugstellung und dem Abgleichergebnis zwischen dem Straßenmerkmal im Parkplatzbild und dem Straßenmerkmal in der voreingestellten Karte, einer ersten visuellen Stellung des Fahrzeugs zu einem ersten Zeitpunkt; wobei der erste Zeitpunkt ein Erfassungszeitpunkt des Parkplatzbildes und der IMU-Daten ist;
  • Berechnen, basierend auf der letzten Fahrzeugstellung und den IMU-Daten, einer ersten IMU-Stellung des Fahrzeugs zum ersten Zeitpunkt;
  • Erhalten von mehreren zweiten visuellen Stellungen und mehreren zweiten IMU-Stellungen, die zu mehreren zweiten Zeitpunkten bestimmt sind, wobei die mehreren zweiten Zeitpunkte vor dem ersten Zeitpunkt liegen;
  • Erstellen einer ähnlichkeitsbeschränkten Optimierungsfunktion abhängig von einem Fusionstransformationskoeffizienten zwischen jedem Positionspunkt in einer ersten Trajektorie und jedem Positionspunkt in einer zweiten Trajektorie und von einer Ähnlichkeitsbeziehung zwischen jedem Positionspunkt in der ersten und zweiten Trajektorie und einer geschätzten Fusionsstellung, iteratives Lösen der ähnlichkeitsbeschränkten Optimierungsfunktion durch das Ändern eines Wertes der geschätzten Fusionsstellung, Bestimmen einer geschätzten Fusionsstellung, die bei einer optimalen Lösung der ähnlichkeitsbeschränkten Optimierungsfunktion ermittelt wird, als die Fahrzeugstellung nach einer Fusion des Fahrzeugs zum ersten Zeitpunkt;
    wobei die erste Trajektorie eine Trajektorie ist, die der ersten visuellen Stellung und den mehreren zweiten visuellen Stellungen entspricht, und wobei die zweite Trajektorie eine Trajektorie ist, die der ersten IMU-Stellung und den mehreren zweiten IMU-Stellungen entspricht.
  • In einem weiteren Ausführungsbeispiel der vorliegenden Erfindung ist vorgesehen, dass basierend auf dem in 6 gezeigten Ausführungsbeispiel das zweite visuelle Positionierungsmodul beim Durchführen von dem „Erstellen einer ähnlichkeitsbeschränkten Optimierungsfunktion abhängig von einem Fusionstransformationskoeffizienten zwischen jedem Positionspunkt in einer ersten Trajektorie und jedem Positionspunkt in einer zweiten Trajektorie und von einer Ähnlichkeitsbeziehung zwischen jedem Positionspunkt in der ersten und zweiten Trajektorie und einer geschätzten Fusionsstellung, iteratives Lösen der ähnlichkeitsbeschränkten Optimierungsfunktion durch das Ändern eines Wertes der geschätzten Fusionsstellung, Bestimmen einer geschätzten Fusionsstellung, die bei einer optimalen Lösung der ähnlichkeitsbeschränkten Optimierungsfunktion ermittelt wird, als die Fahrzeugstellung nach einer Fusion des Fahrzeugs zum ersten Zeitpunkt“ folgende Vorgänge durchführt:
  • Erstellen der folgenden ähnlichkeitsbeschränkten Optimierungsfunktion E abhängig von dem Fusionstransformationskoeffizienten zwischen jedem Positionspunkt in der ersten Trajektorie und jedem Positionspunkt in der zweiten Trajektorie und von einer Ähnlichkeitsbeziehung zwischen jedem Positionspunkt in der ersten und zweiten Trajektorie und einer geschätzten Fusionsstellung: min R f , P f , S , R s E = i = 1 n P f ( t i ) P v ( t i ) 2 + i = 1 n R f ( t i ) R v ( t i ) 2 + i = 1 n 1 { [ P f ( t i + 1 ) P f ( t i ) ] S ( t i ) R s ( t i ) [ P o ( t i + 1 ) P o ( t i ) ] } 2 + i = 1 n 1 { [ R f ( t i + 1 ) / R f ( t i ) ] R s ( t i ) [ R o ( t i + 1 ) / R o ( t i ) ] } 2 + i = 1 n 1 [ S ( t i + 1 ) S ( t i ) ] 2 + i = 1 n 1 [ R s ( t i + 1 ) R s ( t i ) ] 2
    Figure DE112019007451T5_0015
    wobei S(ti) und Rs (ti) jeweils für ein Skalierungsverhältnis und eine Rotationsmatrix in den Fusionstransformationskoeffizienten zwischen Positionspunkten zu einem Zeitpunkt ti in der ersten Trajektorie und der zweiten Trajektorie stehen, wobei Pf(ti) und Rf(tj) jeweils für eine Position und eine Pose in der geschätzten Fusionsstellung zu einem Zeitpunkt ti stehen, wobei Pv(ti) und Rv(ti) jeweils für eine Position und eine Pose des Positionspunktes zu einem Zeitpunkt ti in der ersten Trajektorie stehen, wobei Po(ti) und Ro(ti) jeweils für eine Position und eine Pose des Positionspunktes zu einem Zeitpunkt ti in der zweiten Trajektorie stehen, wobei t1 der erste Zeitpunkt ist, und tn der früheste Zeitpunkt unter den mehreren zweiten Zeitpunkt ist, und wobei n die Gesamtzahl des ersten Zeitpunkts und der mehreren zweiten Zeitpunkt darstellt;
  • Bestimmen eines Anfangswerts der geschätzten Fusionsstellung, und Bestimmen eines Anfangswerts von Rf, Pf, S, Rs;
  • Bestimmen, abhängig von einem aktuellen Wert der geschätzten Fusionsstellung und einem aktuellen Wert von Rf, Pf, S, Rs, eines aktuellen Funktionswerts der ähnlichkeitsbeschränkten Optimierungsfunktion;
  • Erhalten des letzten Funktionswertes der ähnlichkeitsbeschränkten Optimierungsfunktion, Beurteilen, ob ein Absolutwert der Differenz zwischen dem letzten Funktionswert und dem aktuellen Funktionswert größer als ein voreingestellter Differenzschwellenwert ist;
    wenn ja, Einstellen des Wertes der geschätzten Fusionsstellung und des Wertes von Rf, Pf, S, Rs, Zurückkehren zum Schritt des „Bestimmens, abhängig von abhängig von einem aktuellen Wert der geschätzten Fusionsstellung und einem aktuellen Wert von Rf, Pf, S, Rs, eines aktuellen Funktionswerts der ähnlichkeitsbeschränkten Optimierungsfunktion“;
    wenn nein, Bestimmen des aktuellen Werts der geschätzten Fusionsstellung als die Fahrzeugstellung nach der Fusion des Fahrzeugs zum ersten Zeitpunkt.
  • In einem weiteren Ausführungsbeispiel der vorliegenden Erfindung ist vorgesehen, dass basierend auf dem in 6 gezeigten Ausführungsbeispiel der Prozessor 610 ferner ein Genauigkeitsbestimmungsmodul umfasst, der durch folgende Vorgänge die Positionierungsgenauigkeit der ersten visuellen Stellung bestimmt:
  • Bestimmen, abhängig von der ersten visuellen Stellung, eines Abbildungsfehlers zwischen einem ersten Straßenmerkmal und einem zweiten Straßenmerkmal, nachdem basierend auf der letzten Fahrzeugstellung und dem Abgleichergebnis zwischen dem Straßenmerkmal im Parkplatzbild und dem Straßenmerkmal in der voreingestellten Karte die erste visuelle Stellung des Fahrzeugs zu einem ersten Zeitpunkt bestimmt wurde; wobei der erste Zeitpunkt ein Erfassungszeitpunkt des Parkplatzbildes und der IMU-Daten ist;
  • Bestimmen eines Zielkartenbereichs, in dem sich die erste visuelle Stellung befindet, aus mehreren verschiedenen Kartenbereichen in der voreingestellten Karte;
  • Bestimmen, abhängig von einer vorab hergestellten Entsprechung zwischen dem Abbildungsfehler und dem Positionierungsfehler im Zielkartenbereich, eines dem Abbildungsfehler entsprechenden Positionierungsfehlers, und Bestimmen, abhängig von dem Positionierungsfehler, einer Positionierungsgenauigkeit der ersten visuellen Stellung.
  • In einem weiteren Ausführungsbeispiel der vorliegenden Erfindung ist vorgesehen, dass basierend auf dem in 6 gezeigten Ausführungsbeispiel der Prozessor 610 ferner umfasst:
    • ein Beziehungsherstellungsmodul (in der Figur nicht gezeigt), das verwendet wird, um eine Entsprechung zwischen dem Abbildungsfehler und dem Positionierungsfehler im Zielkartenbereich unter Verwendung der folgenden Vorgänge herzustellen:
  • Erhalten eines im Zielkartenbereich erfassten Muster-Straßenbilds und eines entsprechenden Muster-Straßenmerkmals sowie einer Standardpositionierungsstellung des Fahrzeugs, die dem Muster-Straßenbild entspricht, und Erhalten eines dritten Straßenmerkmals in der voreingestellten Karte, das erfolgreich mit dem Muster-Straßenmerkmal abgeglichen ist;
  • Erhalten, durch Hinzufügen mehrerer verschiedener Störgrößen zur Standardpositionierungsstellung, von mehreren gestörten Positionierungsstellungen;
  • Bestimmen, abhängig von dem Muster-Straßenmerkmal und dem dritten Straßenmerkmal, eines gestörten Abbildungsfehlers, das den mehreren gestörten Positionierungsstellungen entspricht,
    Lösen, basierend auf einer voreingestellten Abbildungsfehlerfunktion in Bezug auf den Positionierungsfehler im Zielkartenbereich, der Abbildungsfehlerfunktion, wenn der Restfehler zwischen der Abbildungsfehlerfunktion und dem den mehreren gestörten Positionierungsstellungen entsprechenden gestörten Abbildungsfehler den minimalen Wert annimmt, so dass eine funktionale Beziehung zwischen dem Abbildungsfehler und dem Positionierungsfehler im Zielkartenbereich erhalten wird.
  • In einem weiteren Ausführungsbeispiel der vorliegenden Erfindung ist vorgesehen, dass basierend auf dem in 6 gezeigten Ausführungsbeispiel das Beziehungsherstellungsmodul beim Durchführen von dem „Lösen der Abbildungsfehlerfunktion im Fall, dass der Restfehler zwischen der Abbildungsfehlerfunktion und dem den mehreren gestörten Positionierungsstellungen entsprechenden gestörten Abbildungsfehler den minimalen Wert annimmt“ folgende Vorgänge durchführt:
  • Lösen der folgenden Minimalwertfunktion: min a , b , c , d , e , ƒ Δ x , Δ y Ω g ( Δ x , Δ y ) MapMatching ( p g t + Δ p , I s e g , I m a p )
    Figure DE112019007451T5_0016
    um a0, b0, c0, d0, e0 und f0 zu erhalten, wobei a0, b0, c0, d0, e0 und f0, die nach dem Lösen erhalten sind, in g eingesetzt werden, um eine Funktion als Abbildungsfehlerfunktion zu erhalten;
    wobei die Abbildungsfehlerfunktion g(Δx, Δy), g(Δx,Δy) = aΔx2 + bΔxΔy + cΔy2 + dΔx + eΔy + f ist, wobei pgt für die Standardpositionierungsstellung steht, wobei die Störgröße Δp = {Δx,Δy,0}, Δx, Δy ∈ Ω ist, wobei Ω für den Zielkartenbereich steht, wobei Iseg für das Muster-Straßenmerkmal steht, wobei Imap für das dritte Straßenmerkmal steht, wobei MapMatching(pgt + Δp, Iseg, Imap) für den gestörten Abbildungsfehler steht, der den mehreren gestörten Positionierungsstellungen pgt + Δp entspricht.
  • In einem weiteren Ausführungsbeispiel der vorliegenden Erfindung umfasst basierend auf dem in 6 gezeigten Ausführungsbeispiel der Prozessor 610 ferner:
    • ein Neustartmodul (in der Figur nicht gezeigt), das verwendet ist, um nach dem Bestimmen der Positionierungsgenauigkeit der ersten visuellen Stellung abhängig von dem Positionierungsfehler die visuelle Positionierung durch die folgende Vorgänge erneut zu starten:
  • Berechnen, wenn abhängig von der Positionierungsgenauigkeit bestimmt wird, dass die visuelle Positionierung des Fahrzeugs auf dem Parkplatz versagt, einer dritten IMU-Stellung des Fahrzeugs, basierend auf einer Fahrzeugstellung vor dem Versagen der visuellen Positionierung und den IMU-Daten;
  • Erhalten, wenn bestimmt wird, dass sich eine durch die dritte IMU-Stellung angegeben Position in einem auf dem Parkplatz voreingestellten zweiten Initialisierungsbereich befindet, eines zweiten Parkplatzbildes, das durch die Kameravorrichtung 620 im zweiten Initialisierungsbereich erfasst wird, und Bestimmen, basierend auf dem Straßenmerkmal im zweiten Parkplatzbild und der dritten IMU-Stellung, einer dritten Fahrzeugstellung des Fahrzeugs durch ein zweites Stellung-Regressionsmodell; wobei das zweite Stellung-Regressionsmodell durch ein Vortrainieren basierend auf mehreren im zweiten Initialisierungsbereich erfassten Muster-Parkplatzbildern und entsprechenden Muster-Fahrzeugstellungen sowie markierten Fahrzeugstellungen erhalten wird;
  • Abgleichen des Straßenmerkmals im zweiten Parkplatzbild mit dem Straßenmerkmal in der voreingestellten Karte abhängig von der dritten Fahrzeugstellung, und Bestimmen, abhängig von dem Abgleichergebnis, einer vierten Fahrzeugstellung des Fahrzeugs als eine zweite Startstellung zum erneuten Starten der visuellen Positionierung.
  • Bestimmen einer Fahrzeugstellung des Fahrzeugs basierend auf den IMU-Daten, der zweiten Startstellung und einem Abgleichergebnis zwischen dem Straßenmerkmal in dem zweiten Parkplatzbild und einem Straßenmerkmal in der voreingestellten Karte.
  • Die Ausführungsbeispiele des Terminals und die Ausführungsbeispiele des in 1 gezeigten Verfahrens basieren auf demselben erfinderischen Konzept. Dabei können verwandte Teile aufeinander bezogen werden. Die vorstehenden Ausführungsbeispiele des Terminals entsprechen Ausführungsbeispielen des Verfahrens und weisen die gleiche technische Wirkung wie die Ausführungsbeispiele des Verfahrens auf. Bezüglich spezifischer Beschreibungen ist es auf die Ausführungsbeispiele des Verfahrens zu verweisen.
  • Der Durchschnittsfachmann kann verstehen, dass die Figur nur eine schematische Ansicht eines Ausführungsbeispiels darstellt, wobei die Module oder Prozesse in der Figur nicht unbedingt notwendig sind, um die vorliegende Erfindung zu implementieren.
  • Der Durchschnittsfachmann kann verstehen, dass die Module in der Vorrichtung gemäß dem Ausführungsbeispiel in einer Vorrichtung gemäß der Beschreibung des Ausführungsbeispiels verteilt sein können, oder entsprechend geändert und somit in einer oder mehreren Vorrichtungen angeordnet werden können, die sich von der Vorrichtung im vorliegenden Ausführungsbeispiel unterscheiden. Die Module des vorstehenden Ausführungsbeispiels können zu einem Modul zusammengefasst oder weiter in mehrere Untermodule unterteilt werden.
  • Schließlich ist anzugeben, dass die vorstehenden Ausführungsbeispiele nur zur Erläuterung anstelle Einschränkung der technischen Ausgestaltungen der vorliegenden Erfindung dienen. Obwohl die vorliegende Erfindung unter Bezugnahme auf die vorstehenden Ausführungsbeispiele ausführlich beschrieben wurde, sollte der Durchschnittsfachmann versehen, dass er die technischen Ausgestaltungen der vorstehenden Ausführungsbeispiele immer noch modifizieren oder gleichwertige Ersetzungen für deren einige oder alle technischen Merkmale vornehmen kann. Diese Modifikationen oder Ersetzungen führen jedoch nicht dazu, dass das Wesen der entsprechenden technischen Ausgestaltungen vom Geist Umfang der technischen Ausgestaltungen der Ausführungsformen der vorliegenden Erfindung abweicht.

Claims (10)

  1. Hochpräzises Verfahren zur Fahrzeugpositionierung in mehreren Szenen, dadurch gekennzeichnet, dass es umfasst: Erhalten, wenn ein Fahrzeug im Freien fährt, von IMU-Daten, die durch eine Trägheitsmesseinheit IMU erfasst sind, und von Satellitendaten, die durch eine Satellitenpositionierungseinheit GNSS erfasst sind, und Bestimmen einer Fahrzeugstellung abhängig von den IMU-Daten und den Satellitendaten; Erhalten, wenn abhängig von der Fahrzeugstellung bestimmt wird, dass das Fahrzeug vom Freien in einen an einem Eingang eines Parkplatzes voreingestellten ersten Initialisierungsbereich einfährt, eines ersten Parkplatzbildes, das durch eine Kameravorrichtung in dem ersten Initialisierungsbereich erfasst ist, und Bestimmen, abhängig von einem Straßenmerkmal im ersten Parkplatzbild, einer ersten Startstellung zum Starten einer visuellen Positionierung; Bestimmen einer Fahrzeugstellung des Fahrzeugs basierend auf den IMU-Daten, der ersten Startstellung und einem Abgleichergebnis zwischen dem Straßenmerkmal in dem ersten Parkplatzbild und einem Straßenmerkmal in einer voreingestellten Karte; Erhalten, wenn bestimmt wird, dass sich die visuelle Positionierung in einem Startzustand befindet, und wenn abhängig von der Fahrzeugstellung bestimmt wird, dass das Fahrzeug auf dem Parkplatz fährt, eines durch die Kameravorrichtung erfassten Parkplatzbilds, Erhalten der letzten Fahrzeugstellung, und Bestimmen einer Fahrzeugstellung des Fahrzeugs basierend auf den IMU-Daten, der letzten Fahrzeugstellung und einem Abgleichergebnis zwischen einem Straßenmerkmal in dem Parkplatzbild und einem Straßenmerkmal in der voreingestellten Karte; Zurückkehren zum Schritt des „Erhaltens von IMU-Daten, die durch eine Trägheitsmesseinheit IMU erfasst sind, und von Satellitendaten, die durch eine Satellitenpositionierungseinheit GNSS erfasst sind“, wenn abhängig von der Fahrzeugstellung bestimmt wird, dass das Fahrzeug vom Parkplatz ins Freie fährt.
  2. Hochpräzises Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Schritt „Bestimmen, abhängig von einem Straßenmerkmal im ersten Parkplatzbild, einer ersten Startstellung zum Starten einer visuellen Positionierung“ umfasst: Bestimmen, basierend auf dem Straßenmerkmal im ersten Parkplatzbild und der Fahrzeugstellung, einer ersten Fahrzeugstellung des Fahrzeugs durch ein erstes Stellung-Regressionsmodell; wobei das erste Stellung-Regressionsmodell durch ein Vortrainieren basierend auf mehreren im ersten Initialisierungsbereich erfassten Muster-Parkplatzbildern und entsprechenden Muster-Fahrzeugstellungen sowie markierten Fahrzeugstellungen erhalten wird; Abgleichen des Straßenmerkmals im ersten Parkplatzbild mit dem Straßenmerkmal in der voreingestellten Karte abhängig von der ersten Fahrzeugstellung, und Bestimmen, abhängig von dem Abgleichergebnis, einer zweiten Fahrzeugstellung des Fahrzeugs als die erste Startstellung zum Starten der visuellen Positionierung.
  3. Hochpräzises Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der Schritt „Bestimmen einer Fahrzeugstellung des Fahrzeugs basierend auf den IMU-Daten, der letzten Fahrzeugstellung und einem Abgleichergebnis zwischen einem Straßenmerkmal in dem Parkplatzbild und einem Straßenmerkmal in der voreingestellten Karte“ umfasst: Bestimmen, basierend auf der letzten Fahrzeugstellung und dem Abgleichergebnis zwischen dem Straßenmerkmal im Parkplatzbild und dem Straßenmerkmal in der voreingestellten Karte, einer ersten visuellen Stellung des Fahrzeugs zu einem ersten Zeitpunkt; wobei der erste Zeitpunkt ein Erfassungszeitpunkt des Parkplatzbildes und der IMU-Daten ist; Berechnen, basierend auf der letzten Fahrzeugstellung und den IMU-Daten, einer ersten IMU-Stellung des Fahrzeugs zum ersten Zeitpunkt; Erhalten von mehreren zweiten visuellen Stellungen und mehreren zweiten IMU-Stellungen, die zu mehreren zweiten Zeitpunkten bestimmt sind, wobei die mehreren zweiten Zeitpunkte vor dem ersten Zeitpunkt liegen; Erstellen einer ähnlichkeitsbeschränkten Optimierungsfunktion abhängig von einem Fusionstransformationskoeffizienten zwischen jedem Positionspunkt in einer ersten Trajektorie und jedem Positionspunkt in einer zweiten Trajektorie und von einer Ähnlichkeitsbeziehung zwischen jedem Positionspunkt in der ersten und zweiten Trajektorie und einer geschätzten Fusionsstellung, iteratives Lösen der ähnlichkeitsbeschränkten Optimierungsfunktion durch das Ändern eines Wertes der geschätzten Fusionsstellung, Bestimmen einer geschätzten Fusionsstellung, die bei einer optimalen Lösung der ähnlichkeitsbeschränkten Optimierungsfunktion ermittelt wird, als die Fahrzeugstellung nach einer Fusion des Fahrzeugs zum ersten Zeitpunkt; wobei die erste Trajektorie eine Trajektorie ist, die der ersten visuellen Stellung und den mehreren zweiten visuellen Stellungen entspricht, und wobei die zweite Trajektorie eine Trajektorie ist, die der ersten IMU-Stellung und den mehreren zweiten IMU-Stellungen entspricht.
  4. Hochpräzises Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass der Schritt „Erstellen einer ähnlichkeitsbeschränkten Optimierungsfunktion abhängig von einem Fusionstransformationskoeffizienten zwischen jedem Positionspunkt in einer ersten Trajektorie und jedem Positionspunkt in einer zweiten Trajektorie und von einer Ähnlichkeitsbeziehung zwischen jedem Positionspunkt in der ersten und zweiten Trajektorie und einer geschätzten Fusionsstellung, iteratives Lösen der ähnlichkeitsbeschränkten Optimierungsfunktion durch das Ändern eines Wertes der geschätzten Fusionsstellung, Bestimmen einer geschätzten Fusionsstellung, die bei einer optimalen Lösung der ähnlichkeitsbeschränkten Optimierungsfunktion ermittelt wird, als die Fahrzeugstellung nach einer Fusion des Fahrzeugs zum ersten Zeitpunkt“ umfasst: Erstellen der folgenden ähnlichkeitsbeschränkten Optimierungsfunktion E abhängig von dem Fusionstransformationskoeffizienten zwischen jedem Positionspunkt in der ersten Trajektorie und jedem Positionspunkt in der zweiten Trajektorie und von einer Ähnlichkeitsbeziehung zwischen jedem Positionspunkt in der ersten und zweiten Trajektorie und einer geschätzten Fusionsstellung: min R f , P f , S , R s E = i = 1 n P f ( t i ) P v ( t i ) 2 + i = 1 n R f ( t i ) R v ( t i ) 2 + i = 1 n 1 { [ P f ( t i + 1 ) P f ( t i ) ] S ( t i ) R s ( t i ) [ P o ( t i + 1 ) P o ( t i ) ] } 2 + i = 1 n 1 { [ R f ( t i + 1 ) / R f ( t i ) ] R s ( t i ) [ R o ( t i + 1 ) / R o ( t i ) ] } 2 + i = 1 n 1 [ S ( t i + 1 ) S ( t i ) ] 2 + i = 1 n 1 [ R s ( t i + 1 ) R s ( t i ) ] 2
    Figure DE112019007451T5_0017
    wobei S(ti) und Rs(ti) jeweils für ein Skalierungsverhältnis und eine Rotationsmatrix in den Fusionstransformationskoeffizienten zwischen Positionspunkten zu einem Zeitpunkt ti in der ersten Trajektorie und der zweiten Trajektorie stehen, wobei Pf(ti) und Rf(ti) jeweils für eine Position und eine Pose in der geschätzten Fusionsstellung zu einem Zeitpunkt ti stehen, wobei Pv(ti) und Rv(ti) jeweils für eine Position und eine Pose des Positionspunktes zu einem Zeitpunkt ti in der ersten Trajektorie stehen, wobei Po(ti) und Ro(ti) jeweils für eine Position und eine Pose des Positionspunktes zu einem Zeitpunkt ti in der zweiten Trajektorie stehen, wobei t1 der erste Zeitpunkt ist, und tn der früheste Zeitpunkt unter den mehreren zweiten Zeitpunkt ist, und wobei n die Gesamtzahl des ersten Zeitpunkts und der mehreren zweiten Zeitpunkt darstellt; Bestimmen eines Anfangswerts der geschätzten Fusionsstellung, und Bestimmen eines Anfangswerts von Rf, Pf, S, Rs; Bestimmen, abhängig von einem aktuellen Wert der geschätzten Fusionsstellung und einem aktuellen Wert von Rf, Pf, S, Rs, eines aktuellen Funktionswerts der ähnlichkeitsbeschränkten Optimierungsfunktion; Erhalten des letzten Funktionswertes der ähnlichkeitsbeschränkten Optimierungsfunktion, Beurteilen, ob ein Absolutwert der Differenz zwischen dem letzten Funktionswert und dem aktuellen Funktionswert größer als ein voreingestellter Differenzschwellenwert ist; wenn ja, Einstellen des Wertes der geschätzten Fusionsstellung und des Wertes von Rf, Pf, S, Rs, Zurückkehren zum Schritt des „Bestimmens, abhängig von abhängig von einem aktuellen Wert der geschätzten Fusionsstellung und einem aktuellen Wert von Rf, Pf, S, Rs, eines aktuellen Funktionswerts der ähnlichkeitsbeschränkten Optimierungsfunktion“; wenn nein, Bestimmen des aktuellen Werts der geschätzten Fusionsstellung als die Fahrzeugstellung nach der Fusion des Fahrzeugs zum ersten Zeitpunkt.
  5. Hochpräzises Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass es nach dem Schritt „Bestimmen, basierend auf der letzten Fahrzeugstellung und dem Abgleichergebnis zwischen dem Straßenmerkmal im Parkplatzbild und dem Straßenmerkmal in der voreingestellten Karte, einer ersten visuellen Stellung des Fahrzeugs zu einem ersten Zeitpunkt“ ferner umfasst: Bestimmen, abhängig von der ersten visuellen Stellung, eines Abbildungsfehlers zwischen einem ersten Straßenmerkmal und einem zweiten Straßenmerkmal; wobei das erste Straßenmerkmal ein Straßenmerkmal im Parkplatzbild ist und das zweite Straßenmerkmal ein Straßenmerkmal in der voreingestellten Karte ist, das erfolgreich mit dem ersten Straßenmerkmal abgeglichen ist; Bestimmen eines Zielkartenbereichs, in dem sich die erste visuelle Stellung befindet, aus mehreren verschiedenen Kartenbereichen in der voreingestellten Karte; Bestimmen, abhängig von einer vorab hergestellten Entsprechung zwischen dem Abbildungsfehler und dem Positionierungsfehler im Zielkartenbereich, eines dem Abbildungsfehler entsprechenden Positionierungsfehlers, und Bestimmen, abhängig von dem Positionierungsfehler, einer Positionierungsgenauigkeit der ersten visuellen Stellung.
  6. Hochpräzises Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass das Herstellen der Entsprechung zwischen dem Abbildungsfehler und dem Positionierungsfehler im Zielkartenbereich dadurch erfolgt: Erhalten eines im Zielkartenbereich erfassten Muster-Straßenbilds und eines entsprechenden Muster-Straßenmerkmals sowie einer Standardpositionierungsstellung des Fahrzeugs, die dem Muster-Straßenbild entspricht, und Erhalten eines dritten Straßenmerkmals in der voreingestellten Karte, das erfolgreich mit dem Muster-Straßenmerkmal abgeglichen ist; Erhalten, durch Hinzufügen mehrerer verschiedener Störgrößen zur Standardpositionierungsstellung, von mehreren gestörten Positionierungsstellungen; Bestimmen, abhängig von dem Muster-Straßenmerkmal und dem dritten Straßenmerkmal, eines gestörten Abbildungsfehlers, das den mehreren gestörten Positionierungsstellungen entspricht, Lösen, basierend auf einer voreingestellten Abbildungsfehlerfunktion in Bezug auf den Positionierungsfehler im Zielkartenbereich, der Abbildungsfehlerfunktion, wenn der Restfehler zwischen der Abbildungsfehlerfunktion und dem den mehreren gestörten Positionierungsstellungen entsprechenden gestörten Abbildungsfehler den minimalen Wert annimmt, so dass eine funktionale Beziehung zwischen dem Abbildungsfehler und dem Positionierungsfehler im Zielkartenbereich erhalten wird.
  7. Hochpräzises Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass der Schritt „Lösen der Abbildungsfehlerfunktion, wenn der Restfehler zwischen der Abbildungsfehlerfunktion und dem den mehreren gestörten Positionierungsstellungen entsprechenden gestörten Abbildungsfehler den minimalen Wert annimmt“ umfasst: Lösen der folgenden Minimalwertfunktion: min a , b , c , d , e , ƒ Δ x , Δ y Ω g ( Δ x , Δ y ) MapMatching ( p g t + Δ p , I s e g , I m a p )
    Figure DE112019007451T5_0018
    um a0, b0, c0, d0, e0 und f0 zu erhalten, wobei a0, b0, c0, d0, e0 und f0, die nach dem Lösen erhalten sind, in g eingesetzt werden, um eine Funktion als Abbildungsfehlerfunktion zu erhalten; wobei die Abbildungsfehlerfunktion g(Δx, Δy), g(Δx,Δy) = aΔx2 + bΔxΔy + cΔy2 + cΔx + eΔy + f ist, wobei pgt für die Standardpositionierungsstellung steht, wobei die Störgröße Δp = {Δx, Δy,0}, Δx,Δy ∈ Ω ist, wobei Ω für den Zielkartenbereich steht, wobei Iseg für das Muster-Straßenmerkmal steht, wobei Imap für das dritte Straßenmerkmal steht, wobei MapMatching(pgt + Δp, Iseg, Imap) für den gestörten Abbildungsfehler steht, der den mehreren gestörten Positionierungsstellungen pgt + Δp entspricht.
  8. Hochpräzises Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass es nach dem Schritt „Bestimmen, abhängig von dem Positionierungsfehler, einer Positionierungsgenauigkeit der ersten visuellen Stellung“ ferner umfasst: Berechnen, wenn abhängig von der Positionierungsgenauigkeit bestimmt wird, dass die visuelle Positionierung des Fahrzeugs auf dem Parkplatz versagt, einer dritten IMU-Stellung des Fahrzeugs, basierend auf einer Fahrzeugstellung vor dem Versagen der visuellen Positionierung und den IMU-Daten; Erhalten, wenn bestimmt wird, dass sich eine durch die dritte IMU-Stellung angegeben Position in einem auf dem Parkplatz voreingestellten zweiten Initialisierungsbereich befindet, eines zweiten Parkplatzbildes, das durch die Kameravorrichtung im zweiten Initialisierungsbereich erfasst wird, und Bestimmen, basierend auf dem Straßenmerkmal im zweiten Parkplatzbild und der dritten IMU-Stellung, einer dritten Fahrzeugstellung des Fahrzeugs durch ein zweites Stellung-Regressionsmodell; wobei das zweite Stellung-Regressionsmodell durch ein Vortrainieren basierend auf mehreren im zweiten Initialisierungsbereich erfassten Muster-Parkplatzbildern und entsprechenden Muster-Fahrzeugstellungen sowie markierten Fahrzeugstellungen erhalten wird; Abgleichen des Straßenmerkmals im zweiten Parkplatzbild mit dem Straßenmerkmal in der voreingestellten Karte abhängig von der dritten Fahrzeugstellung, und Bestimmen, abhängig von dem Abgleichergebnis, einer vierten Fahrzeugstellung des Fahrzeugs als eine zweite Startstellung zum erneuten Starten der visuellen Positionierung. Bestimmen einer Fahrzeugstellung des Fahrzeugs basierend auf den IMU-Daten, der zweiten Startstellung und einem Abgleichergebnis zwischen dem Straßenmerkmal in dem zweiten Parkplatzbild und einem Straßenmerkmal in der voreingestellten Karte.
  9. Fahrzeugmontiertes Terminal, dadurch gekennzeichnet, dass es einen Prozessor, eine Kameravorrichtung, eine Trägheitsmesseinheit IMU und eine Satellitenpositionierungseinheit GNSS umfasst, wobei der Prozessor ein Outdoor-Positionierungsmodul, ein Bestimmungsmodul zum Starten, ein erstes visuelles Positionierungsmodul, ein zweites visuelles Positionierungsmodul und ein Szenenumschaltmodul umfasst; wobei das Outdoor-Positionierungsmodul zum Erhalten, wenn ein Fahrzeug im Freien fährt, von IMU-Daten, die durch eine Trägheitsmesseinheit IMU erfasst sind, und von Satellitendaten, die durch eine Satellitenpositionierungseinheit GNSS erfasst sind, und zum Bestimmen einer Fahrzeugstellung abhängig von den IMU-Daten und den Satellitendaten dient; wobei das Aktivierbestimmungsmodul zum Erhalten, wenn abhängig von der Fahrzeugstellung bestimmt wird, dass das Fahrzeug vom Freien in einen an einem Eingang eines Parkplatzes voreingestellten ersten Initialisierungsbereich einfährt, eines ersten Parkplatzbildes, das durch die Kameravorrichtung in dem ersten Initialisierungsbereich erfasst ist, und zum Bestimmen, abhängig von einem Straßenmerkmal im ersten Parkplatzbild, einer ersten Startstellung zum Starten einer visuellen Positionierung dient; wobei das erste visuelle Positionierungsmodul zum Bestimmen einer Fahrzeugstellung des Fahrzeugs basierend auf den IMU-Daten, der ersten Startstellung und einem Abgleichergebnis zwischen dem Straßenmerkmal in dem ersten Parkplatzbild und einem Straßenmerkmal in einer voreingestellten Karte dient; wobei das zweite visuelle Positionierungsmodul zum Erhalten, wenn bestimmt wird, dass sich die visuelle Positionierung in einem Startzustand befindet, und wenn abhängig von der Fahrzeugstellung bestimmt wird, dass das Fahrzeug auf dem Parkplatz fährt, eines durch die Kameravorrichtung erfassten Parkplatzbilds, zum Erhalten der letzten Fahrzeugstellung, und zum Bestimmen einer Fahrzeugstellung des Fahrzeugs basierend auf den IMU-Daten, der letzten Fahrzeugstellung und einem Abgleichergebnis zwischen einem Straßenmerkmal in dem Parkplatzbild und einem Straßenmerkmal in der voreingestellten Karte dient; wobei das Szenenumschaltmodul zum Zurückkehren zum Vorgang des „Erhaltens von IMU-Daten, die durch eine Trägheitsmesseinheit IMU erfasst sind, und von Satellitendaten, die durch eine Satellitenpositionierungseinheit GNSS erfasst sind“ dient, wenn abhängig von der Fahrzeugstellung bestimmt wird, dass das Fahrzeug vom Parkplatz ins Freie fährt.
  10. Terminal nach Anspruch 9, dadurch gekennzeichnet, dass das Bestimmen der ersten Startstellung zum Starten der visuellen Positionierung durch das Bestimmungsmodul zum Starten abhängig von dem Straßenmerkmal im ersten Parkplatzbild umfasst: Bestimmen, basierend auf dem Straßenmerkmal im ersten Parkplatzbild und der Fahrzeugstellung, einer ersten Fahrzeugstellung des Fahrzeugs durch ein erstes Stellung-Regressionsmodell; wobei das erste Stellung-Regressionsmodell durch ein Vortrainieren basierend auf mehreren im ersten Initialisierungsbereich erfassten Muster-Parkplatzbildern und entsprechenden Muster-Fahrzeugstellungen sowie markierten Fahrzeugstellungen erhalten wird; Abgleichen des Straßenmerkmals im ersten Parkplatzbild mit dem Straßenmerkmal in der voreingestellten Karte abhängig von der ersten Fahrzeugstellung, und Bestimmen, abhängig von dem Abgleichergebnis, einer zweiten Fahrzeugstellung des Fahrzeugs als die erste Startstellung zum Starten der visuellen Positionierung.
DE112019007451.2T 2019-07-26 2019-10-26 Hochpräzises Verfahren sowie Gerät zur Fahrzeugpositionierung in mehreren Szenen, und fahrzeugmontiertes Terminal Pending DE112019007451T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910681752.1A CN112304302B (zh) 2019-07-26 2019-07-26 一种多场景高精度车辆定位方法、装置及车载终端
CN201910681752.1 2019-07-26
PCT/CN2019/113490 WO2021017212A1 (zh) 2019-07-26 2019-10-26 一种多场景高精度车辆定位方法、装置及车载终端

Publications (1)

Publication Number Publication Date
DE112019007451T5 true DE112019007451T5 (de) 2022-03-10

Family

ID=74230147

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112019007451.2T Pending DE112019007451T5 (de) 2019-07-26 2019-10-26 Hochpräzises Verfahren sowie Gerät zur Fahrzeugpositionierung in mehreren Szenen, und fahrzeugmontiertes Terminal

Country Status (3)

Country Link
CN (1) CN112304302B (de)
DE (1) DE112019007451T5 (de)
WO (1) WO2021017212A1 (de)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112836003A (zh) * 2021-02-04 2021-05-25 广州小鹏自动驾驶科技有限公司 一种地图处理方法和装置
CN114964216A (zh) * 2021-02-23 2022-08-30 广州汽车集团股份有限公司 一种车辆定位方法及***
CN113313967A (zh) * 2021-04-25 2021-08-27 湖南海龙国际智能科技股份有限公司 一种基于室内低精度定位的车位级导航***
CN113223050B (zh) * 2021-05-12 2022-07-26 之江实验室 一种基于ArUco码的机器人运动轨迹实时采集方法
CN113343830B (zh) * 2021-06-01 2024-05-24 上海追势科技有限公司 一种地下停车场车辆快速重定位的方法
CN113535875A (zh) * 2021-07-14 2021-10-22 北京百度网讯科技有限公司 地图数据扩充方法、装置、电子设备、介质和程序产品
CN113781645B (zh) * 2021-08-31 2024-03-26 同济大学 一种面向室内泊车环境的定位和建图方法
CN113963285B (zh) * 2021-09-09 2022-06-10 山东金宇信息科技集团有限公司 一种基于5g的道路养护方法及设备
CN113763738B (zh) * 2021-09-14 2022-11-11 上海智能网联汽车技术中心有限公司 车路协同***路侧感知与车端感知实时匹配的方法及***
CN113835435B (zh) * 2021-09-30 2023-10-31 中国联合网络通信集团有限公司 车辆控制方法、服务器和存储介质
CN114001742B (zh) * 2021-10-21 2024-06-04 广州小鹏自动驾驶科技有限公司 车辆定位方法、装置、车辆和可读存储介质
CN114111774B (zh) * 2021-12-06 2024-04-16 纵目科技(上海)股份有限公司 车辆的定位方法、***、设备及计算机可读存储介质
CN114323033B (zh) * 2021-12-29 2023-08-29 北京百度网讯科技有限公司 基于车道线和特征点的定位方法、设备及自动驾驶车辆
CN114370872B (zh) * 2022-01-14 2024-04-09 苏州挚途科技有限公司 车辆姿态确定方法和车辆
CN114383626B (zh) * 2022-01-19 2023-05-16 广州小鹏自动驾驶科技有限公司 全场景智能辅助驾驶的导航方法及装置
CN114427863A (zh) * 2022-04-01 2022-05-03 天津天瞳威势电子科技有限公司 车辆定位方法及***、自动泊车方法及***、存储介质
CN117789444A (zh) * 2022-09-19 2024-03-29 北京初速度科技有限公司 一种停车场数据的匹配方法、装置、设备、介质及车辆
CN115930953B (zh) * 2023-03-02 2023-05-09 成都宜泊信息科技有限公司 一种室内外地图切换方法及***
CN116466382B (zh) * 2023-04-24 2024-07-02 北京中软政通信息技术有限公司 一种基于gps的高精度实时定位***
CN117119588B (zh) * 2023-10-18 2024-01-12 湖南承希科技有限公司 一种基于Wi-Fi6技术实现车辆在轨道停车场内的定位方法
CN117706583A (zh) * 2023-12-29 2024-03-15 无锡物联网创新中心有限公司 一种高精度定位方法及***

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106412826B (zh) * 2016-09-07 2019-09-17 清华大学 基于多源信息融合的室内定位方法及定位装置
CN109387192B (zh) * 2017-08-02 2022-08-26 湖南云箭格纳微信息科技有限公司 一种室内外连续定位方法及装置
CN108802785B (zh) * 2018-08-24 2021-02-02 清华大学 基于高精度矢量地图和单目视觉传感器的车辆自定位方法
CN108873038B (zh) * 2018-09-10 2020-11-06 芜湖盟博科技有限公司 自主泊车定位方法及定位***
CN109582038B (zh) * 2018-12-28 2021-08-27 中国兵器工业计算机应用技术研究所 一种无人机路径规划方法
CN109827574B (zh) * 2018-12-28 2021-03-09 中国兵器工业计算机应用技术研究所 一种无人机室内外切换导航***
CN109682373B (zh) * 2018-12-28 2021-03-09 中国兵器工业计算机应用技术研究所 一种无人平台的感知***
CN109631887B (zh) * 2018-12-29 2022-10-18 重庆邮电大学 基于双目、加速度与陀螺仪的惯性导航高精度定位方法
CN109900265A (zh) * 2019-03-15 2019-06-18 武汉大学 一种camera/mems辅助北斗的机器人定位算法

Also Published As

Publication number Publication date
CN112304302B (zh) 2023-05-12
CN112304302A (zh) 2021-02-02
WO2021017212A1 (zh) 2021-02-04

Similar Documents

Publication Publication Date Title
DE112019007451T5 (de) Hochpräzises Verfahren sowie Gerät zur Fahrzeugpositionierung in mehreren Szenen, und fahrzeugmontiertes Terminal
DE102018111778B4 (de) Verfahren, Vorrichtung und System zur Steuerung eines Fahrzeugs, das eine Kreuzung passiert.
DE102015122825B4 (de) Techniken zum Gruppieren von Zielelementen für eine Objektfusion
DE102015203016B4 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
EP3213260B1 (de) Verfahren und vorrichtung zur lokalisierung eines fahrzeugs in seinem umfeld
EP3380811B1 (de) Verfahren und system zum erstellen einer digitalen karte
DE102015214338A1 (de) Bestimmung einer Anordnungsinformation für ein Fahrzeug
DE102017129075A1 (de) Parkplatznavigationssystem und -verfahren
DE102014211450A1 (de) Spurüberwachung mit elektronischem Horizont
EP3529561B1 (de) System und verfahren zur erzeugung von digitalen strassenmodellen aus luft- oder satellitenbildern und von fahrzeugen erfassten daten
EP3380810B1 (de) Verfahren, vorrichtung, kartenverwaltungseinrichtung und system zum punktgenauen lokalisieren eines kraftfahrzeugs in einem umfeld
DE112015006622T5 (de) Fahrspurbestimmungsvorrichtung und Fahrspurbestimmungsverfahren
DE102012216593A1 (de) Draufsichtbasiertes avm-einparkhilfesystem
DE102016213817B4 (de) Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Bestimmung der lateralen Position eines Fahrzeuges relativ zu den Fahrstreifen einer Fahrbahn
DE112019007454T5 (de) Verfahren zur Selbstinspektion eines visuellen Positionierungseffekts und fahrzeugmontiertes Terminal
DE102017125356A1 (de) Positionsberechnungsvorrichtung
DE102015206546A1 (de) Fahrbahnmarkierungserkennungsvorrichtung
WO2020078727A1 (de) Verfahren und system zum bestimmen eines umfeldmodells für ein fahrzeug
EP3391086A1 (de) Verbessertes verfahren zum ermitteln der randbebauung einer fahrbahn für die lokalisierung von kraftfahrzeugen
DE102020211636A1 (de) Verfahren und Vorrichtung zum Bereitstellen von Daten zum Erstellen einer digitalen Karte
WO2020104551A1 (de) Objekterkennung mittels sensorsystem von fahrzeugen
DE102019112279A1 (de) Verfahren und vorrichtung zur diagonalen spurerkennung
WO2019110179A1 (de) Verfahren zur positionsbestimmung für ein fahrzeug, steuergerät und fahrzeug
DE102008042631B4 (de) Verfahren und Vorrichtung zur Abstandsermittlung bei einem monokularen Videoassistenzsystem
DE102020133092A1 (de) Positionsschätzungseinrichtung und positionsschätzungsverfahren

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: MOMENTA (SUZHOU) TECHNOLOGY CO., LTD., SUZHOU, CN

Free format text: FORMER OWNER: MOMEMTA (SUZHOU) TECHNOLOGY CO., LTD., SUZHOU, JIANGSU, CN

R082 Change of representative

Representative=s name: KARAKATSANIS, GEORGIOS, DR., DE