DE102016011849A1 - Method for self-localization of a vehicle - Google Patents

Method for self-localization of a vehicle Download PDF

Info

Publication number
DE102016011849A1
DE102016011849A1 DE102016011849.0A DE102016011849A DE102016011849A1 DE 102016011849 A1 DE102016011849 A1 DE 102016011849A1 DE 102016011849 A DE102016011849 A DE 102016011849A DE 102016011849 A1 DE102016011849 A1 DE 102016011849A1
Authority
DE
Germany
Prior art keywords
vehicle
environmental
determined
roadway
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102016011849.0A
Other languages
German (de)
Inventor
Carsten Knoeppel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102016011849.0A priority Critical patent/DE102016011849A1/en
Publication of DE102016011849A1 publication Critical patent/DE102016011849A1/en
Priority to PCT/EP2017/001149 priority patent/WO2018059735A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Selbstlokalisierung eines Fahrzeugs, bei dem – Umgebungsbilder (B, B1) des Fahrzeugs mittels zumindest einer Bilderfassungseinheit erfasst werden und – Bildmerkmale (M, M1) aus den Umgebungsbildern (B, B1) extrahiert und in einer digitalen Umgebungskarte hinterlegten Umgebungsmerkmalen (U) überlagert werden. Erfindungsgemäß ist vorgesehen, dass – zusätzlich fahrbahnprofilabhängige Parameter, umfassend ein Oberflächenprofil einer Fahrbahn (1), ein Nickwinkel und ein Wankwinkel des Fahrzeugs sowie eine Höhe der mindestens einen Bilderfassungseinheit relativ zu einer Fahrbahnoberfläche, ermittelt werden, – eine Position und eine Orientierung des Fahrzeugs in der Umgebungskarte anhand des Vergleichs der Bildmerkmale (B, B1) mit den Umgebungsmerkmalen (U) und anhand der ermittelten fahrbahnprofilabhängigen Parameter ermittelt wird und – die fahrbahnprofilabhängigen Parameter anhand einer Auswertung mindestens eines der erfassten Umgebungsbilder (B, B1) unter Verwendung eines numerischen Optimierungsalgorithmus ermittelt werden.The invention relates to a method for self-localization of a vehicle in which - environmental images (B, B1) of the vehicle are detected by means of at least one image capture unit and - extracted image features (M, M1) from the environmental images (B, B1) and stored in a digital environment map Environmental features (U) are superimposed. According to the invention, it is provided that additionally a road profile-dependent parameter comprising a surface profile of a roadway, a pitch angle and a roll angle of the vehicle and a height of the at least one image acquisition unit relative to a road surface are determined, a position and an orientation of the vehicle in FIG the environmental map is determined on the basis of the comparison of the image features (B, B1) with the environmental characteristics (U) and on the basis of the determined roadway-dependent parameters and - the roadway profile-dependent parameters are determined by evaluating at least one of the detected environmental images (B, B1) using a numerical optimization algorithm become.

Description

Die Erfindung betrifft ein Verfahren zur Selbstlokalisierung eines Fahrzeugs gemäß dem Oberbegriff des Anspruchs 1.The invention relates to a method for self-localization of a vehicle according to the preamble of claim 1.

Verfahren zur Selbstlokalisierung eines Fahrzeugs sind aus dem Stand der Technik bekannt und werden insbesondere für einen autonomen Fahrbetrieb durchgeführt. Des Weiteren sind in der DE 10 2012 004 198 A1 ein Verfahren und eine Vorrichtung zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs im Gelände beschrieben. Hierbei wird mittels zumindest einer Erfassungseinheit eine Umgebung des Fahrzeugs erfasst und aus mittels der Erfassungseinheit erfassten Daten ein Geländeprofil ermittelt. Dabei ist vorgesehen, dass anhand des erfassten Geländeprofils kritische Fahrsituationen, insbesondere ein Aufsetzen des Fahrzeugs auf den Boden, ein Umkippen des Fahrzeugs, ein Rutschen des Fahrzeugs in Längsrichtung und/oder ein seitliches Rutschen des Fahrzeugs, vor einem Überfahren eines vorausliegenden Abschnitts des Geländeprofils für den vorausliegenden Abschnitt prädiziert und im Innenraum des Fahrzeugs mittels zumindest einer Anzeigeeinheit grafisch ausgegeben wird.Methods for self-localization of a vehicle are known from the prior art and are carried out in particular for an autonomous driving operation. Furthermore, in the DE 10 2012 004 198 A1 a method and apparatus for assisting a driver in driving a vehicle in the field described. In this case, an environment of the vehicle is detected by means of at least one detection unit and a terrain profile is determined from data acquired by means of the detection unit. It is provided that based on the detected terrain profile critical driving situations, in particular a placement of the vehicle on the ground, a tipping over of the vehicle, slipping of the vehicle in the longitudinal direction and / or lateral sliding of the vehicle, before driving over a leading portion of the terrain profile for predicted the leading portion and is displayed graphically in the interior of the vehicle by means of at least one display unit.

Der Erfindung liegt die Aufgabe zu Grunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zur Selbstlokalisierung eines Fahrzeugs anzugeben.The invention is based on the object to provide a comparison with the prior art improved method for self-localization of a vehicle.

Die Aufgabe wird erfindungsgemäß mit den in Anspruch 1 angegebenen Merkmalen gelöst.The object is achieved with the features specified in claim 1.

Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.Advantageous embodiments of the invention are the subject of the dependent claims.

Bei einem Verfahren zur Selbstlokalisierung eines Fahrzeugs werden Umgebungsbilder des Fahrzeugs mittels zumindest einer Bilderfassungseinheit erfasst. Anschließend werden Bildmerkmale aus den Umgebungsbildern extrahiert und mit in einer digitalen Umgebungskarte hinterlegten Umgebungsmerkmalen verglichen. Erfindungsgemäß werden zusätzlich fahrbahnprofilabhängige Parameter, umfassend ein Fahrbahnprofil, ein Nickwinkel und ein Wankwinkel des Fahrzeugs sowie eine Höhe der mindestens einen Bilderfassungseinheit relativ zu einer Fahrbahnoberfläche, ermittelt und eine Position des Fahrzeugs in der Umgebungskarte anhand des Vergleichs der Bildmerkmale mit den Umgebungsmerkmalen und anhand der ermittelten fahrbahnprofilabhängigen Parameter ermittelt. Die fahrbahnprofilabhängigen Parameter werden anhand einer Bildauswertung mindestens eines der erfassten Umgebungsbilder unter Verwendung eines numerischen Optimierungsalgorithmus ermittelt.In a method for self-localization of a vehicle, environmental images of the vehicle are detected by means of at least one image acquisition unit. Subsequently, image features are extracted from the environment images and compared with environmental features stored in a digital environment map. According to the invention additionally roadway-dependent parameters, comprising a roadway profile, a pitch angle and a roll angle of the vehicle and a height of the at least one image acquisition unit relative to a road surface, determined and a position of the vehicle in the map environment based on the comparison of image characteristics with the environmental features and based on the determined track profile dependent parameter determined. The roadway profile-dependent parameters are determined on the basis of an image evaluation of at least one of the acquired environmental images using a numerical optimization algorithm.

Das Verfahren ermöglicht eine gegenüber dem Stand der Technik verbesserte Selbstlokalisierung des Fahrzeugs, da die Ermittlung der fahrbahnprofilabhängigen Parameter auf Basis eines aktuellen Umgebungsbilds und/oder eines aktuellen Stereo-Disparitätsbilds erfolgt. Das Stereo-Disparitätsbild umfasst dabei das aktuelle Umgebungsbild und die digitale Umgebungskarte, wobei das Umgebungsbild in die Umgebungskarte projiziert und dieser somit überlagert wird. D. h., die Ermittlung der fahrbahnprofilabhängigen Parameter kann ohne Einbeziehung einer aktuellen Geschwindigkeit und Gierrate des Fahrzeugs erfolgen, so dass eine Fehleranfälligkeit reduziert und eine Genauigkeit bei der Ermittlung erhöht wird. Somit ist das Verfahren gegenüber konventionellen Verfahren zur Selbstlokalisierung robuster.The method makes possible a self-localization of the vehicle which is improved compared with the prior art, since the determination of the road-profile-dependent parameters takes place on the basis of a current environmental image and / or a current stereo disparity image. The stereo disparity image encompasses the current environment image and the digital environment map, wherein the environmental image is projected into the environment map and this is thus superimposed. That is, the determination of the road profile-dependent parameters can take place without involving a current speed and yaw rate of the vehicle, so that a susceptibility to errors is reduced and an accuracy in the determination is increased. Thus, the method is more robust than conventional methods for self-localization.

Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.Embodiments of the invention are explained in more detail below with reference to drawings.

Dabei zeigen:Showing:

1 bis 3 schematisch mittels einer Bilderfassungseinheit eines Fahrzeugs erfasste Umgebungsbilder mit extrahierten Bildmerkmalen. 1 to 3 schematically captured by means of an image capture unit of a vehicle environment images with extracted image features.

Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.Corresponding parts are provided in all figures with the same reference numerals.

Die 1 bis 3 zeigen jeweils schematisch ein Umgebungsbild B, welches mittels einer nicht dargestellten Bilderfassungseinheit, insbesondere einer Kamera, eines ebenfalls nicht gezeigten, insbesondere autonom geführten, Fahrzeugs erfasst wurde.The 1 to 3 each show schematically an environmental image B, which was detected by means of an unillustrated image acquisition unit, in particular a camera, a likewise not shown, in particular autonomously guided, vehicle.

Das in 1 gezeigte Umgebungsbild B zeigt eine dem Fahrzeug vorausliegende Fahrbahn 1, deren Verlauf und Abmessungen anhand von Fahrspurmarkierungen und Fahrbahnbegrenzungen ermittelbar ist. Ziel ist es hierbei, das Fahrzeug für einen autonomen Fahrbetrieb innerhalb einer digitalen Umgebungskarte zu lokalisieren. Dazu wird das Umgebungsbild B mit einer Bilderfassungseinheit, z. B. einer Monokamera, des Fahrzeugs erfasst.This in 1 shown environment image B shows a road ahead of the vehicle 1 whose course and dimensions can be determined on the basis of lane markings and lane boundaries. The goal here is to locate the vehicle for autonomous driving within a digital environment map. For this purpose, the environment image B with an image capture unit, z. As a monocamera, the vehicle detected.

In dem erfassten Umgebungsbild B werden Bildmerkmale M, hierbei die Fahrspurmarkierungen und Fahrbahnbegrenzungen, anhand von Markierungsmessungen extrahiert. Mittels eines iterativen Lösungsverfahrens, wie z. B. dem sogenannten Levenberg-Marquard-Algorithmus, werden die extrahierten Bildmerkmale M mit Umgebungsmerkmalen U überlagert, die in der digitalen Umgebungskarte hinterlegt sind. Beispielsweise wird hierbei ein Winkel zwischen den Bildmerkmalen M und den Umgebungsmerkmalen U ermittelt. Die Ergebnisse werden anschließend in einer nichtlinearen Ausgleichsrechnung kombiniert, um eine Eigenposition und eine Orientierung des Fahrzeugs zu ermitteln.In the detected environment image B, image features M, in this case the lane markings and roadway boundaries, are extracted on the basis of marking measurements. By means of an iterative solution method, such as. As the so-called Levenberg-Marquard algorithm, the extracted image features M are superimposed with environmental features U, which are stored in the digital map of the area. For example, an angle between the image features M and the environmental features U is determined here. The results are then in a nonlinear Compensation calculation combined to determine an own position and an orientation of the vehicle.

Damit kann eine Position des Fahrzeugs in einer möglicherweise fehlerbehafteten Umgebungskarte und somit in einer Umgebung lokalisiert werden. Die ermittelte Position des Fahrzeugs kann anschließend einer Bahnplanungseinheit für einen autonomen Fahrbetrieb des Fahrzeugs zugeführt werden.In this way, a position of the vehicle can be located in a possibly faulty environment map and thus in an environment. The determined position of the vehicle can then be supplied to a train planning unit for an autonomous driving operation of the vehicle.

2 zeigt das Umgebungsbild B gemäß 1. 2 shows the environment image B according to 1 ,

Hierbei ist die Fahrbahn 1 in mehrere Segmente S unterteilt, die ein Oberflächenprofil der Fahrbahn 1 repräsentieren. Insbesondere stellen die Segmente S einen Höhenverlauf der Fahrbahn 1 ausgehend von einer festgelegten und/oder ermittelten Mittellinie dar. Das Oberflächenprofil der Fahrbahn 1 wird hierbei ohne Einbeziehung einer momentanen Geschwindigkeit und einer momentanen Gierrate des Fahrzeugs auf Basis des aktuellen Umgebungsbilds B ermittelt. Dies kann beispielsweise mittels nichtlinearer Ausgleichsrechnungen, insbesondere mittels eines numerischen Optimierungsalgorithmus, wie z. B. der Levenberg-Marquard-Algorithmus oder der sogenannte Gauß-Newton-Algorithmus, erfolgen.Here is the roadway 1 divided into several segments S, which has a surface profile of the roadway 1 represent. In particular, the segments S represent a height gradient of the roadway 1 starting from a defined and / or determined center line. The surface profile of the roadway 1 is determined on the basis of the current environment image B without including a current speed and a current yaw rate of the vehicle. This can be done for example by means of non-linear compensation calculations, in particular by means of a numerical optimization algorithm, such. As the Levenberg-Marquard algorithm or the so-called Gauss-Newton algorithm, take place.

Da in der digitalen Umgebungskarte üblicherweise keine Informationen bezüglich des Oberflächenprofils der Fahrbahn 1 hinterlegt werden, verbessert die Einbeziehung des Oberflächenprofils der Fahrbahn 1 die Lokalisierung der Position des Fahrzeugs relativ zur Umgebungskarte erheblich. Konventionelle Verfahren verwenden dazu bekannte Ansätze, wie z. B. den sogenannten Kalman-Filter oder ähnliche Trackingverfahren. Hierbei werden jedoch die momentane Gierrate und die momentane Geschwindigkeit des Fahrzeugs benötigt, die störungsbehaftet sind, so dass daraus resultierend die Lokalisierung der Position des Fahrzeugs ebenfalls fehlerbehaftet sein kann.As in the digital environment map usually no information regarding the surface profile of the roadway 1 deposited, improves the inclusion of the surface profile of the roadway 1 the location of the position of the vehicle relative to the environment map considerably. Conventional methods use known approaches such. As the so-called Kalman filter or similar tracking methods. In this case, however, the instantaneous yaw rate and the instantaneous speed of the vehicle are required, which are faulty, as a result of which the localization of the position of the vehicle can also be faulty.

Daher wird hierbei das Oberflächenprofil der Fahrbahn 1 unter Einbeziehung weiterer fahrbahnprofilabhängiger Parameter, insbesondere eines Nickwinkels, eines Wankwinkels und einer Höhe der Bilderfassungseinheit relativ zur Fahrbahnoberfläche, auf Basis des aktuellen Umgebungsbilds B wie zuvor beschrieben ermittelt. Dies ermöglicht eine verbesserte Genauigkeit bei der oben beschriebenen Ermittlung der Position des Fahrzeugs relativ zur Umgebungskarte und somit eine erhöhte Robustheit des Verfahrens gegenüber konventionellen Verfahren.Therefore, here is the surface profile of the road 1 taking into account further roadway profile-dependent parameters, in particular a pitch angle, a roll angle and a height of the image acquisition unit relative to the road surface, based on the current environmental image B determined as described above. This allows for improved accuracy in the above-described determination of the position of the vehicle relative to the environment map and thus an increased robustness of the method over conventional methods.

3 zeigt zwei weitere Umgebungsbilder B1, die eine vor dem Fahrzeug befindliche Straßenkreuzung mit bestimmten weiteren Bildmerkmalen M1, hierbei Haltelinien und ein Richtungspfeil, zeigt. Dabei wird die Extraktion der weiteren Bildmerkmale M1 im linken weiteren Umgebungsbild B1 ohne Einbeziehung des Oberflächenprofils der Fahrbahn 1 gezeigt. Hierbei ist eine deutliche Abweichung zwischen den extrahierten Bildmerkmalen M und dem tatsächlichen Verlauf der Merkmale in der Umgebung, also der Haltelinie und des Richtungspfeils, erkennbar. Dies ist insbesondere dadurch begründet, dass das Oberflächenprofil der Fahrbahn 1 nach rechts abfällt, dieses jedoch bei der Extraktion der weiteren Bildmerkmale M1 nicht berücksichtigt wird. D. h. die Fahrbahn 1 wird nur zweidimensional betrachtet. 3 shows two more surrounding images B1, which shows a road intersection in front of the vehicle with certain other image features M1, here stop lines and a directional arrow shows. In this case, the extraction of the further image features M1 in the left further surrounding image B1 without inclusion of the surface profile of the roadway 1 shown. Here, a clear deviation between the extracted image features M and the actual course of the features in the environment, ie the stop line and the directional arrow, recognizable. This is due in particular to the fact that the surface profile of the roadway 1 falls to the right, this is not taken into account in the extraction of the further image features M1. Ie. the roadway 1 is considered only two-dimensional.

Im rechten weiteren Umgebungsbild B1 ist die Extraktion der weiteren Bildmerkmale M1 mit Einbeziehung des Oberflächenprofils der Fahrbahn 1 gezeigt. Der Verlauf der extrahierten weiteren Bildmerkmale M1 entspricht hier weitestgehend dem tatsächlichen Verlauf der Merkmale.In the further right surrounding image B1 is the extraction of the further image features M1 including the surface profile of the roadway 1 shown. The course of the extracted further image features M1 largely corresponds here to the actual course of the features.

Zudem ist es möglich, sowohl die extrahierten Bildmerkmale M, M1 als auch die Merkmale für das Oberflächenprofil der Fahrbahn 1 in der Umgebungskarte abzulegen und mitzuführen. Unter Verwendung dieser zusätzlichen Informationen kann auch die nichtlineare Ausgleichsrechnung bei kurzzeitig ungünstigen Messbedingungen durchgeführt werden, wie z. B. bei Sonnenblendungen, Verdeckung durch andere Fahrzeuge, Schattenwürfe usw. Dieses Vorgehen erhöht die Robustheit und die Lokalisierungsgenauigkeit des Verfahrens weiter.In addition, it is possible to have both the extracted image features M, M1 and the characteristics for the surface profile of the roadway 1 in the map and take away. Using this additional information, the non-linear compensation calculation can also be carried out under short-term unfavorable measurement conditions, such as: As in sun visors, obscured by other vehicles, shadow throws, etc. This approach further increases the robustness and the localization accuracy of the process on.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

11
Fahrbahnroadway
B, B1B, B1
UmgebungsbildUmgebungsbild
M, M1M, M1
Bildmerkmalimage feature
SS
Segmentsegment
UU
Umgebungsmerkmalenvironment feature

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 102012004198 A1 [0002] DE 102012004198 A1 [0002]

Claims (4)

Verfahren zur Selbstlokalisierung eines Fahrzeugs, bei dem – Umgebungsbilder (B, B1) des Fahrzeugs mittels zumindest einer Bilderfassungseinheit erfasst werden, – Bildmerkmale (M, M1) aus den Umgebungsbildern (B, B1) extrahiert und in einer digitalen Umgebungskarte hinterlegten Umgebungsmerkmalen (U) überlagert werden, dadurch gekennzeichnet, dass – zusätzlich fahrbahnprofilabhängige Parameter, umfassend ein Oberflächenprofil einer Fahrbahn (1), ein Nickwinkel und ein Wankwinkel des Fahrzeugs sowie eine Höhe der mindestens einen Bilderfassungseinheit relativ zu einer Fahrbahnoberfläche, ermittelt werden, – eine Position und eine Orientierung des Fahrzeugs in der Umgebungskarte anhand des Vergleichs der Bildmerkmale (B, B1) mit den Umgebungsmerkmalen (U) und anhand der ermittelten fahrbahnprofilabhängigen Parameter ermittelt wird, und – die fahrbahnprofilabhängigen Parameter anhand einer Auswertung mindestens eines der erfassten Umgebungsbilder (B, B1) unter Verwendung eines numerischen Optimierungsalgorithmus ermittelt werden.Method for self-localization of a vehicle, in which - environmental images (B, B1) of the vehicle are detected by means of at least one image acquisition unit, - image features (M, M1) extracted from the environmental images (B, B1) and environmental features (U) stored in a digital environmental map be superimposed, characterized in that - additionally roadway-dependent parameters, comprising a surface profile of a roadway ( 1 ), a pitch angle and a roll angle of the vehicle and a height of the at least one image acquisition unit relative to a road surface, are determined, a position and an orientation of the vehicle in the environment map based on the comparison of the image features (B, B1) with the environmental features (U ) and is determined on the basis of the ascertained road-profile-dependent parameters, and - the road-profile-dependent parameters are determined on the basis of an evaluation of at least one of the acquired environmental images (B, B1) using a numerical optimization algorithm. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass als numerischer Optimierungsalgorithmus ein Gauß-Newton-Algorithmus angewandt wird.A method according to claim 1, characterized in that a Gauss-Newton algorithm is used as the numerical optimization algorithm. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass als numerischer Optimierungsalgorithmus ein Levenberg-Marquard-Algorithmus angewandt wird.A method according to claim 1 or 2, characterized in that a Levenberg-Marquard algorithm is used as the numerical optimization algorithm. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die extrahierten Bildmerkmale (M, M1) und das ermittelte Oberflächenprofil der Fahrbahn (1) in der Umgebungskarte abgelegt und bei der Ermittlung der Position und Orientierung des Fahrzeugs berücksichtigt werden.Method according to one of the preceding claims, characterized in that the extracted image features (M, M1) and the determined surface profile of the roadway ( 1 ) are stored in the map and taken into account in the determination of the position and orientation of the vehicle.
DE102016011849.0A 2016-10-01 2016-10-01 Method for self-localization of a vehicle Withdrawn DE102016011849A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102016011849.0A DE102016011849A1 (en) 2016-10-01 2016-10-01 Method for self-localization of a vehicle
PCT/EP2017/001149 WO2018059735A1 (en) 2016-10-01 2017-09-27 Method for the self-location of a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016011849.0A DE102016011849A1 (en) 2016-10-01 2016-10-01 Method for self-localization of a vehicle

Publications (1)

Publication Number Publication Date
DE102016011849A1 true DE102016011849A1 (en) 2017-06-01

Family

ID=58693274

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016011849.0A Withdrawn DE102016011849A1 (en) 2016-10-01 2016-10-01 Method for self-localization of a vehicle

Country Status (2)

Country Link
DE (1) DE102016011849A1 (en)
WO (1) WO2018059735A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220221291A1 (en) * 2019-05-08 2022-07-14 Daimler Ag Method and device for locating a vehicle
JP2022105516A (en) * 2017-09-29 2022-07-14 ジオテクノロジーズ株式会社 Information processing device
DE102022126770A1 (en) 2022-10-13 2024-04-18 Bayerische Motoren Werke Aktiengesellschaft Method and device for determining a deviation of a position of a vehicle from a normal position and vehicle

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012004198A1 (en) 2012-03-01 2012-10-04 Daimler Ag Method for assisting driver in driving vehicle, involves graphically outputting critical driving condition such as sliding of vehicle predicted based on terrain profile on display unit mounted on inner space of vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012004198A1 (en) 2012-03-01 2012-10-04 Daimler Ag Method for assisting driver in driving vehicle, involves graphically outputting critical driving condition such as sliding of vehicle predicted based on terrain profile on display unit mounted on inner space of vehicle

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022105516A (en) * 2017-09-29 2022-07-14 ジオテクノロジーズ株式会社 Information processing device
JP7284851B2 (en) 2017-09-29 2023-05-31 ジオテクノロジーズ株式会社 Information processing equipment
US20220221291A1 (en) * 2019-05-08 2022-07-14 Daimler Ag Method and device for locating a vehicle
US11851069B2 (en) * 2019-05-08 2023-12-26 Mercedes-Benz Group AG Method and device for locating a vehicle
DE102022126770A1 (en) 2022-10-13 2024-04-18 Bayerische Motoren Werke Aktiengesellschaft Method and device for determining a deviation of a position of a vehicle from a normal position and vehicle

Also Published As

Publication number Publication date
WO2018059735A1 (en) 2018-04-05

Similar Documents

Publication Publication Date Title
EP3455785B1 (en) Method for traffic sign detection
DE102016223422A1 (en) Method for automatically determining extrinsic parameters of a camera of a vehicle
DE102010020984A1 (en) Method for determining the road course for a motor vehicle
DE102015206689A1 (en) Method for steering an agricultural trailer and agricultural train association
DE102014008353A1 (en) Method for operating a driver assistance system for the automated guidance of a motor vehicle and associated motor vehicle
DE102015203016A1 (en) Method and device for optical self-localization of a motor vehicle in an environment
DE102014014219A1 (en) Method for carrying out a parking operation of a vehicle
DE102018117290A1 (en) Method for calibration and / or adjustment of at least one sensor unit of a vehicle
DE102019008093A1 (en) Method for merging sensor data from a large number of detection devices using a sparse occupancy grid, as well as a driver assistance system
DE102013201796A1 (en) Method for providing a driving corridor for a vehicle and driver assistance system
DE102014212866A1 (en) Method for determining a parking space from a number of measuring points
DE102016207463A1 (en) Method and device for operating at least one vehicle with respect to at least one passable object in the vicinity of the at least one vehicle
DE102016011849A1 (en) Method for self-localization of a vehicle
DE102018122054A1 (en) Control system and control device for moving a vehicle into a target position, and vehicle therefor
DE102018113344A1 (en) A method for locating a motor vehicle in an environment after a learning trip; Control device and driver assistance system
DE102018006503A1 (en) Digital map
DE102014218995A1 (en) Method and device for bird-view display of a vehicle combination and retrofittable camera
DE102015214425A1 (en) Method for detecting a course of rails
DE112019004285T5 (en) ON-BOARD DEVICE
DE102018003784A1 (en) Method for determining a range of an environmental sensor for a vehicle
EP3048557B1 (en) Method for determining a position of a vehicle characteristic
DE102012018471A1 (en) Method for detecting e.g. lane markings of lane edge for motor car, involves performing classification in image region of individual images, which are detected by cameras, and in another image region of disparity images
DE102016007571A1 (en) Method for operating a vehicle
EP3673234A1 (en) Method and device for determining a highly precise position and for operating an automated vehicle
DE102018202753A1 (en) Method for determining a distance between a motor vehicle and an object

Legal Events

Date Code Title Description
R230 Request for early publication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee