DE102018220803A1 - Spurgenaue Lokalisierung von Fahrzeugen - Google Patents

Spurgenaue Lokalisierung von Fahrzeugen Download PDF

Info

Publication number
DE102018220803A1
DE102018220803A1 DE102018220803.4A DE102018220803A DE102018220803A1 DE 102018220803 A1 DE102018220803 A1 DE 102018220803A1 DE 102018220803 A DE102018220803 A DE 102018220803A DE 102018220803 A1 DE102018220803 A1 DE 102018220803A1
Authority
DE
Germany
Prior art keywords
vehicle
server unit
lane
measurement data
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018220803.4A
Other languages
English (en)
Inventor
Philip Wette
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102018220803.4A priority Critical patent/DE102018220803A1/de
Priority to CN201911219299.9A priority patent/CN111260918A/zh
Publication of DE102018220803A1 publication Critical patent/DE102018220803A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0145Measuring and analyzing of parameters relative to traffic conditions for specific applications for active traffic flow control

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

Offenbart ist ein Verfahren zum spurgenauen Lokalisieren von mindestens einem Fahrzeug durch mindestens eine Servereinheit, wobei Messdaten eines Fahrzeugumfelds von der Servereinheit empfangen werden, eine Spurbreite einer vom Fahrzeug befahrenen Fahrspur aus den empfangenen Messdaten durch die Servereinheit ermittelt oder von der Servereinheit definiert wird, aufgrund der empfangenen Messdaten von der Servereinheit eine Fahrbahn ermittelt wird, basierend auf der ermittelten Spurbreite der Fahrbahn eine spurgenaue Position des Fahrzeugs ermittelt wird, und die spurgenaue Position des Fahrzeugs an ein Steuergerät des Fahrzeugs ausgegeben wird. Des Weiteren ist eine Servereinheit offenbart.

Description

  • Die Erfindung betrifft ein Verfahren zum spurgenauen Lokalisieren von mindestens einem Fahrzeug durch mindestens eine Servereinheit sowie eine Servereinheit zum Herstellen einer Kommunikationsverbindung zu mindestens einem Fahrzeug.
  • Stand der Technik
  • Es sind bereits Verfahren zum spurgenauen Orten von Fahrzeugen bekannt, welche fahrzeugintern Messdaten auswerten und somit eine Lokalisierung vornehmen. Neben der Nutzung von GPS-Sensoren sind auch Verfahren bekannt, die Bilddaten von Kameras analysieren und daraus Rückschlüsse auf die eigene Fahrspur ziehen.
  • Derartige Verfahren benötigen jedoch einen Rechenaufwand, der einen Rechenaufwand üblicher Steuergeräte übersteigt. Hierdurch kann die Zuverlässigkeit einer fahrzeuginternen spurgenauen Ortung auf Straßen mit einer Vielzahl an Fahrspuren und der Präsenz von Fahrzeugen im Messbereich der Sensoren nicht gewährleistet werden.
  • Offenbarung der Erfindung
  • Die der Erfindung zugrunde liegende Aufgabe kann darin gesehen werden, ein Verfahren und eine Servereinheit vorzuschlagen, welche eine kosteneffiziente und robuste Lokalisierung von Fahrzeugen ermöglichen
  • Diese Aufgabe wird mittels des jeweiligen Gegenstands der unabhängigen Ansprüche gelöst. Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand von jeweils abhängigen Unteransprüchen.
  • Nach einem Aspekt der Erfindung wird ein Verfahren zum spurgenauen Lokalisieren von mindestens einem Fahrzeug durch mindestens eine Servereinheit bereitgestellt. In einem Schritt werden Messdaten eines Fahrzeugumfelds von der Servereinheit empfangen. Eine Spurbreite einer vom Fahrzeug befahrenen Fahrspur wird aus den empfangenen Messdaten durch die Servereinheit ermittelt oder von der Servereinheit definiert.
  • Anschließend wird aufgrund der empfangenen Messdaten von der Servereinheit eine Fahrbahn ermittelt. Hierbei können ein oder mehrere Segmente bzw. Bereiche in den Messdaten als Fahrbahn durch die Servereinheit identifiziert werden.
  • Basierend auf der ermittelten Spurbreite der Fahrbahn wird eine spurgenaue Position des Fahrzeugs ermittelt.
  • Dabei kann gemäß einer Ausführungsform basierend auf der ermittelten Spurbreite eine Anzahl von Fahrspuren der Fahrbahn und die spurgenau Position des Fahrzeuges ermittelt werden. Insbesondere kann somit ermittelt werden auf welcher Fahrspur von den vorhandenen Fahrspuren sich das Fahrzeug gegenwärtig befindet oder welche Fahrspuren das Fahrzeug befahren hat.
  • Die spurgenaue Position des Fahrzeugs wird an ein Steuergerät ausgegeben. Somit kann das mindestens eine Fahrzeug seine eigene Position erfahren und sich beispielsweise innerhalb einer Karte identifizieren. Die spurgenaue Position des Fahrzeugs kann auch über eine Kommunikationsverbindung an das Fahrzeug bzw. das Steuergerät des Fahrzeugs übertragen werden.
  • Nach einer weiteren Ausführungsform werden die Messdaten als segmentierte Messdaten von der Servereinheit empfangen. Dabei können von mindestens einem Sensor des Fahrzeugs ermittelte und fahrzeugintern von einem Steuergerät segmentierte Messdaten eines Fahrzeugumfelds über eine Kommunikationsverbindung von der Servereinheit empfangen werden. Eine Spurbreite der vom Fahrzeug befahrenen Fahrspur kann somit aus den empfangenen Messdaten durch die Servereinheit ermittelt oder von der Servereinheit definiert werden. Basierend auf der ermittelten Spurbreite wird eine Anzahl an Fahrspuren der Fahrbahn durch die Servereinheit berechnet und eine spurgenaue Position des Fahrzeugs ermittelt. Anschließend kann die spurgenaue Position des Fahrzeugs an ein Steuergerät des Fahrzeugs über die Kommunikationsverbindung übertragen werden.
  • Gemäß einem weiteren Aspekt der Erfindung wird eine Servereinheit zum Herstellen einer Kommunikationsverbindung zu mindestens einem Fahrzeug bereitgestellt, wobei die Servereinheit dazu eingerichtet ist, zumindest eines der Verfahren auszuführen.
  • Durch das Verfahren kann eine kosteneffiziente und robuste Lokalisierung von Fahrzeugen bereitgestellt werden. Die Lokalisierung kann hierbei spurgenau erfolgen, wodurch dem Fahrzeug mitgeteilt wird, auf welcher Fahrspur sich das Fahrzeug auf dem aktuell befahrenen Straßenabschnitt befindet.
  • Der mindestens eine fahrzeuginterne Sensor kann eine Frontkamera, Rückfahrkamera, Spiegelersatzkamera, LIDAR-Sensor, Radarsensor und dergleichen sein. Die durch den Sensor ermittelten Messdaten können in Form einer Tabelle, eines Bildes oder in Form von bewegten Bildern bzw. einer Bildsequenz vorliegen. Die jeweiligen Messdaten können von einem fahrzeuginternen Steuergerät empfangen und über eine Kommunikationseinheit an die Servereinheit übermittelt werden. Hierzu kann eine drahtlose Kommunikationsverbindung zwischen mindestens einem fahrzeugseitigen Steuergerät bzw. Kommunikationseinheit und der fahrzeugexternen Servereinheit hergestellt werden.
  • Die Kommunikationsverbindung kann vorzugsweise eine drahtlose Verbindung sein, welche auf einem WLAN, GSM, UMTS, LTE oder dergleichen Standard basiert.
  • Die Messdaten können komprimiert oder un-komprimiert an die Servereinheit übermittelt werden. Hierdurch kann der Rechenaufwand in ein Backendsystem bzw. die Servereinheit verlagert werden. Die Servereinheit kann stationär oder mobil, beispielsweise in einem Lastkraftwagen, angeordnet sein. Dieses Backendsystem kann eine höhere Rechenleistung als ein fahrzeuginternes Steuergerät aufweisen und beispielsweise neuronale Netze einsetzen, um die von einem Fahrzeug aufgenommenen Messdaten zu analysieren. Die Analyseergebnisse der Servereinheit können über die Kommunikationsverbindung an das mindestens eine Fahrzeug zurückgesendet werden.
  • Durch das Verfahren und die Servereinheit kann eine hohe Güte der spurgenauen Ortung der Fahrzeuge bei gleichzeitig reduzierter Komplexität innerhalb des Fahrzeuges realisiert werden.
  • Das Auslagern der rechenintensiven Berechnung in die mindestens eine Servereinheit, können die Kosten und die Komplexität der Onboard-Elektronik der Fahrzeuge gesenkt werden.
  • Nach einer Ausführungsform werden die empfangenen Messdaten durch die Servereinheit und/oder durch ein Steuergerät des Fahrzeugs semantisch in Klassen segmentiert. Die von den Sensoren ermittelten Messdaten können beispielsweise in Form eines Bildes vorliegen. Das Bild kann beispielsweise von einer Rückfahrkamera, einer Frontkamera oder einer Dashcam oder von einer Spiegelersatzkamera aufgezeichnet werden. Das vom Fahrzeug an die Servereinheit übermittelte Bild kann unter Zuhilfenahme eines neuronalen Netzes semantisch segmentiert werden. Dabei werden jedem Bildpunkt eine oder mehrere semantische Klassen zugeordnet. Derartige Klassen können beispielsweise Fahrzeuge, Fahrbahn, Gehweg, Vegetation, Gebäude, Fußgänger und dergleichen sein. Insbesondere können zumindest die Klassen Fahrbahn und Fahrzeuge durch das Verfahren genutzt werden. Des Weiteren kann der Einsatz von mindestens einer weiteren Klasse vorteilhaft sein, welche alle restlichen Bildpunkte beinhaltet, die den anderen Klassen nicht zugeordnet werden können.
  • Gemäß einer weiteren Ausführungsform wird die semantische Segmentierung der Messdaten durch mindestens ein neuronales Netz der Servereinheit und/oder des Steuergeräts des Fahrzeugs durchgeführt. Dadurch, dass Techniken der semantischen Segmentierung mittels neuronaler Netze verwendet werden, kann gewährleistet werden, dass die Lokalisierung der Fahrzeuge auch unter wechselnden Licht- und Umweltbedingungen zuverlässig funktioniert.
  • Nach einem weiteren Ausführungsbeispiel wird die semantische Segmentierung der Messdaten anhand von einer Datenfusion von Messdaten von mindestens zwei Sensoren von der Servereinheit und/oder dem Steuergerät des Fahrzeugs ausgeführt. Die Segmentierung kann somit, alternativ zur Erstellung der semantischen Segmentierung beispielsweise eines Bildes einer Kamera durch ein neuronales Netz, auch durch ein anderes Verfahren erstellt werden. Beispielsweise kann die Segmentierung der Messdaten der mindestens einen Kamera durch eine Interpretation und/oder Fusion von Daten aus einer Stereokamera, einem Radarsensor oder einem LI DAR-Sensor erfolgen.
  • Gemäß einem weiteren Ausführungsbeispiel wird ein Fahrbahnsegment durch das Segmentieren der empfangenen Messdaten durch die Servereinheit und/oder das Steuergerät des Fahrzeugs berechnet. Das Fahrbahnsegment wird anschließend in Teilabschnitte unterteilt, wobei durch Objekte unverdeckte Teilabschnitte des Fahrbahnsegments zum Bestimmen einer Anzahl an Fahrspuren von der Servereinheit ausgewählt werden. Hierdurch ist es ausreichend, wenn lediglich Teilabschnitte einer Fahrbahn sichtbar sind. Eine derartige Situation kann beispielsweise bei einem erhöhten Verkehrsaufkommen auftreten, bei dem die Fahrbahn im Sichtbereich der Sensoren durch andere Fahrzeuge bedeckt ist. Der durch die Segmentierung als Fahrbahn klassifizierte Abschnitt des Bildes wird in Teilabschnitte aufgeteilt. Dies können beispielsweise rechteckige Teilabschnitte sein. Die Pixel der jeweiligen Teilabschnitte können anschließend analysiert werden. Gehören beispielsweise mehr als die Hälfte der Pixel in einem Teilabschnitt zur selben semantischen Klasse bzw. zu der Fahrbahn, so kann der gesamte Teilabschnitt der Fahrbahn zugeordnet werden. Hierdurch kann insbesondere eine Plausibilisierung der ermittelten Fahrspuren durchgeführt werden. Besitzt beispielsweise mindestens ein Teilabschnitt die semantische Klasse Fahrbahn, so gilt die Spur zu der der Teilabschnitt gehört als existent.
  • Nach einer weiteren Ausführungsform werden die Messdaten des Fahrzeugumfelds als mindestens ein Bild oder als bewegte Bilder von der Servereinheit empfangen. Bevorzugterweise können die Messdaten von einer heckgerichteten Kamera, einer frontgerichteten Kamera oder einer in Fahrtrichtung des Fahrzeugs seitlich gerichteten Kamera ermittelt werden.
  • Gemäß einer weiteren Ausführungsform wird die von dem Fahrzeug befahrene Fahrspur anhand von Messdaten von mindestens zwei Sensoren des Fahrzeugs durch die Servereinheit ermittelt. Hierdurch können Messdaten mehrerer Sensoren dazu eingesetzt werden eine Fahrspur des Fahrzeugs zu lokalisieren.
  • Beispielsweise können die Messdaten mehrerer Sensoren redundant eingesetzt werden, um die Fahrspur basierend auf Messdaten eines vor einem Fahrzeug liegenden Umfelds und/oder basierend auf Messdaten des hinter dem Fahrzeug liegenden Umfelds zu bestimmen.
  • Nach einem weiteren Ausführungsbeispiel wird die Spurbreite einer Fahrspur von der Servereinheit als eine konstante Fahrspur oder abhängig von einer Fahrbahnart definiert. Alternativ zu der Berechnung bzw. Schätzung der aktuellen Spurbreite basierend auf Messdaten, kann auch eine fest definierte Spurbreite durch die Servereinheit bestimmt werden. Beispielsweise kann eine universelle Spurbreite von 3,5 m definiert werden. Alternativ oder zusätzlich kann eine Straßenklasse anhand der Messdaten identifiziert und der jeweiligen Straßenklasse eine konstante Spurbreite zugewiesen werden. Hierbei können beispielsweise Autobahnen eine Spurbreite von 4,5 m, Straßen innerhalb von geschlossenen Ortschaften 3,5 m und Landstraßen 4,0 m aufweisen.
  • Im Folgenden werden anhand von stark vereinfachten schematischen Darstellungen bevorzugte Ausführungsbeispiele der Erfindung näher erläutert. Hierbei zeigen
    • 1 schematische Darstellung einer Anordnung mit einem Fahrzeug und einem externen Servereinheit,
    • 2 ein schematisches Ablaufdiagramm zum Veranschaulichen eines Verfahrens,
    • 3 ein von einer Rückfahrkamera ermittelte Messdaten in Form eines Bildes, und
    • 4 das in 3 gezeigte semantisch segmentierte Bild mit dargestellten Teilabschnitten in einem Fahrbahnsegment.
  • Die 1 zeigt eine schematische Darstellung einer Anordnung 1 mit einem Fahrzeug 2 und einem externen Servereinheit 4. Das Fahrzeug 2 befährt eine Fahrbahn 6 mit zwei Fahrspuren 8.
  • Das Fahrzeug 2 weist eine Frontkamera 10 und eine Rückfahrkamera 12 auf. Die Frontkamera 10 und die Rückfahrkamera 12 können somit das Umfeld hinter dem Fahrzeug 2 und vor dem Fahrzeug 2 aufzeichnen. Hierzu werden durch die Frontkamera 10 und die Rückfahrkamera 12 Messdaten ermittelt. Die Messdaten können durch die Frontkamera 10 und die Rückfahrkamera 12 auch während der Fahrt des Fahrzeugs 2 aufgezeichnet werden.
  • Des Weiteren weist das Fahrzeug 2 ein Steuergerät 14 auf. Das Steuergerät 14 ist datenleitend mit der Frontkamera 10 und der Rückfahrkamera 12 verbunden und kann somit die ermittelten Messdaten auslesen und zumindest temporär speichern.
  • Das Steuergerät 14 weist eine fahrzeugseitige Kommunikationseinheit 16 auf. Mit Hilfe der Kommunikationseinheit 16 kann das Steuergerät 14 die ermittelten Messdaten der Frontkamera 10 und der Rückfahrkamera 12 an die fahrzeugexterne Servereinheit 4 übertragen.
  • Gemäß dem Ausführungsbeispiel kann die Kommunikationseinheit 16 eine drahtlose Kommunikationsverbindung 18 zu der externen Servereinheit 4 herstellen. Die Kommunikationsverbindung 18 ist hier eine Mobilfunkverbindung, welche beispielsweise aus einem LTE- oder UMTS-Mobilfunkstandard basiert.
  • Über die Kommunikationsverbindung 18 können die fahrzeugseitig ermittelten Messdaten an die Servereinheit 4 übertragen werden. Die Servereinheit 4 weist mindestens ein neuronales Netz 20 auf, welches dazu eingesetzt werden kann die Messdaten auszuwerten.
  • In der 2 ist ein schematisches Ablaufdiagramm zum Veranschaulichen eines Verfahrens 22 zum spurgenauen Lokalisieren von mindestens einem Fahrzeug 2 dargestellt.
  • In einem Schritt 23 werden Messdaten durch mindestens einen fahrzeugseitigen Sensor 10, 12 ermittelt. Dies kann beispielsweise durch ein Aufnehmen eines Fotos durch die Rückfahrkamera 12 erfolgen. Das Bild bzw. die Messdaten werden anschließend über das Steuergerät 14 und über die Kommunikationseinheit 16 an die externe Servereinheit 4 übertragen 24. Die Kommunikationseinheit 16 dient hier als eine Funkschnittstelle.
  • In der 3 ist beispielhaft ein Foto der Rückfahrkamera 12 dargestellt. Hierbei sind die Messdaten in Form des Fotos ausgestaltet und zeigen eine Fahrbahn 6 mit drei Fahrspuren 8. Die Fahrspuren 8 sind teilweise durch Fahrzeuge verdeckt.
  • Das Bild bzw. die Messdaten werden in einem weiteren Schritt 25 des Verfahrens 22 von der Servereinheit 4 empfangen.
  • Die Servereinheit 4 ermittelt in einem weiteren Schritt 26 die Spurbreite D des in den Messdaten abgebildeten Straßenabschnitts. Dies geschieht, indem die zu der aktuellen Fahrspur 8 zugehörige linken und rechten Fahrbahnmarkierung M identifiziert und aus deren Lage die Spurbreite D der befahrenen Spur 8 geschätzt wird.
  • Parallel oder anschließend hierzu kann das vom Fahrzeug 2 übertragene Bild in der Servereinheit 4 unter Zuhilfenahme des neuronalen Netzes 20 semantisch segmentiert werden 27. Durch die semantische Segmentierung wird jeder Bildpunkt einer beispielsweise vordefinierten Klasse zugeordnet. Gemäß dem Ausführungsbeispiel werden für Fahrzeuge 32, die Fahrbahn 6, die Gehwege 34, die Vegetation 36 und für Gebäude 38 Klassen eingesetzt.
  • Die 4 zeigt das in 3 dargestellte Foto der Rückfahrkamera 12, welches perspektivisch entzerrt und durch das neuronale Netz 20 segmentiert wurde. Somit zeigt die 4 das Resultat der semantischen Segmentierung.
  • In einem weiteren Schritt 28 des Verfahrens 22 wird in dem semantisch segmentierten Bild ein Spurmodel angelegt. Dabei werden die Fahrspuren 8 beispielsweise basierend auf den identifizierten Fahrbahnmarkierungen M und der ermittelten Spurbreite D auf das Bild projiziert.
  • Anschließend wird für jede Fahrspur 8 geprüft 29, welchen Klassen die jeweilig auf der Fahrspur 8 positionierten Pixel zugeordnet sind. Hierdurch kann geprüft werden, ob die jeweilige Fahrspur 8 existiert. Basierend auf der Anzahl der existierenden Fahrspuren 8 kann abgeleitet werden, auf welcher Fahrspur 8 das Fahrzeug 2 sich befindet.
  • Das in der 4 dargestellte segmentierte Bild zeigt die relevanten rechteckigen Teilbereiche 40 an, die zum Ermitteln der Anzahl an Fahrspuren 8 herangezogen wurden. Dabei werden drei weitere reguläre Fahrspuren 8 rechts neben dem Fahrzeug 2 durch die Servereinheit 4 identifiziert. Somit befindet sich das Fahrzeug 2 auf der dritten Fahrspur 8.
  • Die ermittelte Fahrspur bzw. die spurgenaue Position des Fahrzeugs 2 wird in einem weiteren Schritt 30 von der Servereinheit 4 an das Steuergerät 14 des Fahrzeugs 2 gesendet. In einem weiteren Schritt 31 wird die spurgenaue Position des Fahrzeugs 2 vom Steuergerät 14 empfangen.
  • Die spurgenaue Position des Fahrzeugs 2 kann hier beispielsweise eine explizite Fahrspur sein, welche durch das Fahrzeug 2 zum Zeitpunkt der Messung befahren wird. Alternativ oder zusätzlich kann die spurgenaue Position auch eine relative Position des Fahrzeugs 2 quer zur Fahrtrichtung bzw. einem Fahrbahnverlauf sein.
  • Die 4 verdeutlicht, dass das Verfahren 22 robust gegenüber teilweisen Verdeckungen von Fahrspuren 8 ist. In der 4 sind die verschiedenen Segmente bzw. Bildbereiche dargestellt, die unterschiedlichen Klassen zugeordnet wurden. Für das Verfahren ist es ausreichend, wenn beispielsweise zumindest ein Teilabschnitt 40 einer Fahrbahn 6 sichtbar ist. Dazu wird jede Fahrbahn in mehrere Teilabschnitte 40 aufgeteilt und die Pixel in diesen Teilabschnitten 40 analysiert. Gemäß dem Ausführungsbeispiel sind die Teilabschnitte rechteckig.
  • Gehören mehr als die Hälfte der Pixel in einem Teilabschnitt 40 zur selben semantischen Klasse, so wird dieses Teilstück dieser Klasse zugeordnet. Die 4 veranschaulicht dieses Vorgehen. Dabei sind einige Teilabschnitte 40 der Klasse Fahrzeug 32, der Klasse Fahrbahn 6 und der Klasse Fußgängerweg 34 zugeordnet. Besitzt mindestens ein Teilabschnitt 40 die semantische Klasse Fahrbahn, so gilt die Fahrspur 8 zu der der Teilabschnitt 40 gehört als existent.
  • Um einen Konfidenzwert für die Schätzung der eigenen Fahrspur zu berechnen, wird die Information verwendet, wie viel potentieller Fahrspuren 8 durch andere Fahrzeuge 32 verdeckt werden. Dazu wird die folgende Formel eingesetzt: Konfidenz = ( 1 ( # Pixel Auto / # Pixel Total ) ) 2
    Figure DE102018220803A1_0001
  • Hierbei ist #PixelAuto die Summe aller Bildpunkte innerhalb aller Teilabschnitte 40, die der Klasse Fahrzeuge 32 zugeordnet sind. Die Variable #PixelTotal beschreibt die Summe aller Bildpunkte von allen Teilabschnitten 40.

Claims (11)

  1. Verfahren (22) zum spurgenauen Lokalisieren von mindestens einem Fahrzeug (2) durch mindestens eine Servereinheit (4), wobei - Messdaten eines Fahrzeugumfelds von der Servereinheit (4) empfangen werden, - eine Spurbreite (D) einer vom Fahrzeug (2) befahrenen Fahrspur (8) aus den empfangenen Messdaten durch die Servereinheit (4) ermittelt oder von der Servereinheit (4) definiert wird, - aufgrund der empfangenen Messdaten von der Servereinheit (4) eine Fahrbahn (6) ermittelt wird, - basierend auf der ermittelten Spurbreite (D) der Fahrbahn (6) eine spurgenaue Position des Fahrzeugs (2) ermittelt wird, und - die spurgenaue Position des Fahrzeugs (2) an ein Steuergerät (14) des Fahrzeugs (2) ausgegeben wird.
  2. Verfahren nach Anspruch 1, wobei basierend auf der ermittelten Spurbreite (D) eine Anzahl von Fahrspuren (8) der Fahrbahn (6) ermittelt wird und die spurgenaue Position des Fahrzeuges (2) ermittelt wird.
  3. Verfahren nach Anspruch 1 oder 2, wobei die empfangenen Messdaten durch die Servereinheit (2) und/oder durch ein Steuergerät (14) des Fahrzeugs (2) semantisch in Klassen segmentiert werden.
  4. Verfahren nach Anspruch 3, wobei die semantische Segmentierung der Messdaten durch mindestens ein neuronales Netz (20) der Servereinheit (4) und/oder des Steuergeräts (14) des Fahrzeugs (2) durchgeführt wird.
  5. Verfahren nach Anspruch 1, 2 oder 3, wobei die semantische Segmentierung der Messdaten anhand von einer Datenfusion von Messdaten von mindestens zwei Sensoren (10, 12) von der Servereinheit (4) und/oder dem Steuergerät (14) des Fahrzeugs (2) ausgeführt wird.
  6. Verfahren nach einem der Ansprüche 1 bis 5, wobei ein Fahrbahnsegment (6) durch das Segmentieren der empfangenen Messdaten durch die Servereinheit (4) und/oder das Steuergerät (14) des Fahrzeugs (2) berechnet wird, wobei das Fahrbahnsegment (6) in Teilabschnitte (40) unterteilt wird, wobei durch Objekte (32) unverdeckte Teilabschnitte (40) des Fahrbahnsegments (6) zum Bestimmen einer Anzahl an Fahrspuren (8) von der Servereinheit (4) ausgewählt werden.
  7. Verfahren nach einem der Ansprüche 1 bis 6, wobei die Messdaten des Fahrzeugumfelds als mindestens ein Bild oder als bewegte Bilder von der Servereinheit (4) empfangen werden.
  8. Verfahren nach einem der Ansprüche 1 bis 7, wobei die von dem Fahrzeug (2) befahrene Fahrspur (8) anhand von Messdaten von mindestens zwei Sensoren (10, 12) des Fahrzeugs (2) durch die Servereinheit (4) ermittelt wird.
  9. Verfahren nach einem der Ansprüche 1 bis 8, wobei die Spurbreite (D) einer Fahrspur (8) von der Servereinheit (4) als konstant oder abhängig von einer Fahrbahnart definiert wird.
  10. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Messdaten als segmentierte Messdaten eines Fahrzeugumfelds von der Servereinheit (4) empfangen werden.
  11. Servereinheit (4) zum Herstellen einer Kommunikationsverbindung (18) zu mindestens einem Fahrzeug (2), wobei die Servereinheit (4) dazu eingerichtet ist, das Verfahren (22) gemäß einem der vorhergehenden Ansprüche auszuführen.
DE102018220803.4A 2018-12-03 2018-12-03 Spurgenaue Lokalisierung von Fahrzeugen Pending DE102018220803A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102018220803.4A DE102018220803A1 (de) 2018-12-03 2018-12-03 Spurgenaue Lokalisierung von Fahrzeugen
CN201911219299.9A CN111260918A (zh) 2018-12-03 2019-12-03 精确至车道地定位车辆的方法和服务器单元

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018220803.4A DE102018220803A1 (de) 2018-12-03 2018-12-03 Spurgenaue Lokalisierung von Fahrzeugen

Publications (1)

Publication Number Publication Date
DE102018220803A1 true DE102018220803A1 (de) 2020-06-04

Family

ID=70681358

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018220803.4A Pending DE102018220803A1 (de) 2018-12-03 2018-12-03 Spurgenaue Lokalisierung von Fahrzeugen

Country Status (2)

Country Link
CN (1) CN111260918A (de)
DE (1) DE102018220803A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080161986A1 (en) * 1997-10-22 2008-07-03 Intelligent Technologies International, Inc. Autonomous Vehicle Travel Control Systems and Methods
DE102014210770A1 (de) * 2014-06-05 2015-12-17 Conti Temic Microelectronic Gmbh Verfahren und system zur bestimmung einer fahrzeugposition eines fahrzeuges
US20170371337A1 (en) * 2016-06-24 2017-12-28 Qualcomm Incorporated Dynamic lane definition

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007264712A (ja) * 2006-03-27 2007-10-11 Fuji Heavy Ind Ltd 車線検出装置
US9934690B2 (en) * 2014-06-19 2018-04-03 Hitachi Automotive Systems, Ltd. Object recognition apparatus and vehicle travel controller using same
US10124730B2 (en) * 2016-03-17 2018-11-13 Ford Global Technologies, Llc Vehicle lane boundary position
US10762358B2 (en) * 2016-07-20 2020-09-01 Ford Global Technologies, Llc Rear camera lane detection
WO2018117538A1 (ko) * 2016-12-23 2018-06-28 삼성전자 주식회사 차선 정보를 추정하는 방법 및 전자 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080161986A1 (en) * 1997-10-22 2008-07-03 Intelligent Technologies International, Inc. Autonomous Vehicle Travel Control Systems and Methods
DE102014210770A1 (de) * 2014-06-05 2015-12-17 Conti Temic Microelectronic Gmbh Verfahren und system zur bestimmung einer fahrzeugposition eines fahrzeuges
US20170371337A1 (en) * 2016-06-24 2017-12-28 Qualcomm Incorporated Dynamic lane definition

Also Published As

Publication number Publication date
CN111260918A (zh) 2020-06-09

Similar Documents

Publication Publication Date Title
EP3380811B1 (de) Verfahren und system zum erstellen einer digitalen karte
EP3455785B1 (de) Verfahren zur erfassung von verkehrszeichen
DE102015203016B4 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
DE102016123887A1 (de) Virtuelle sensordatenerzeugung zur radanschlagdetektion
EP3380810B1 (de) Verfahren, vorrichtung, kartenverwaltungseinrichtung und system zum punktgenauen lokalisieren eines kraftfahrzeugs in einem umfeld
DE102016223422A1 (de) Verfahren zur automatischen Ermittlung extrinsischer Parameter einer Kamera eines Fahrzeugs
DE102015210015A1 (de) Verfahren und Vorrichtung zur Positionsbestimmung eines Fahrzeugs
DE102013221497A1 (de) Gerät und Verfahren für das Erkennen einer Fahrbahn bzw. Fahrspur
DE102018214510A1 (de) Parkplatzkartenerzeugung auf der Straße
DE102013011969A1 (de) Verfahren zum Betreiben eines Kraftfahrzeugs und Kraftfahrzeug
DE102013211696A1 (de) Verfahren zum Vervollständigen und/oder Aktualisieren einer digitalen Straßenkarte, Vorrichtung für ein Kraftfahrzeug und Kraftfahrzeug
EP2033165B1 (de) Verfahren für die erfassung eines verkehrsraums
DE102016122338A1 (de) Informations-verarbeitungseinrichtung, informations-verarbeitungsverfahren, steuerungsvorrichtung für ein fahrzeug und steuerungsverfahren für ein fahrzeug
DE112012005261B4 (de) Freirauminformationen in einem Belegungsgitter als Grundlage für die Bestimmung eines Manöverraums für ein Fahrzeug
DE102021124913A1 (de) Metrik-backpropagation für die beurteilung der leistung von untersystemen
DE102016224212A1 (de) Automatisierte Freiraumerkennung mittels Differenzanalyse für Fahrzeuge
DE102018221054A1 (de) Verfahren zum Bereitstellen von Kartendaten in einem Kraftfahrzeug, Kraftfahrzeug und zentrale Datenverarbeitungseinrichtung
EP3391086A1 (de) Verbessertes verfahren zum ermitteln der randbebauung einer fahrbahn für die lokalisierung von kraftfahrzeugen
DE102006044615A1 (de) Verfahren zur Kalibrierung von Bilderfassungseinrichtungen in Fahrzeugen
DE202016001002U1 (de) System zur Erkennung einer Richtungsfahrbahn, Kraftfahrzeug sowie Computerprogrammprodukt
DE102018213378B4 (de) Fahrassistenzsystem für ein Fahrzeug, Fahrzeug mit demselben und Fahrassistenzverfahren für ein Fahrzeug
DE102013212010A1 (de) Verfahren und Vorrichtung zum Unterstützen einer Engstellendurchfahrung für ein Fahrzeug, Verfahren zum Unterstützen einer Engstellendurchfahrung für ein Nachfolgefahrzeug und Verfahren zum Verwalten von Vermessungsinformationen zum Unterstützen von Engstellendurchfahrungen von Fahrzeugen
DE102018218043A1 (de) Ermittlung einer Anzahl von Fahrspuren sowie von Spurmarkierungen auf Straßenabschnitten
DE102018210852A1 (de) Verfahren zum Ermitteln von rechtswidrigem Fahrverhalten durch ein Fahrzeug
DE102017200865A1 (de) Verfahren zum fahrspurspezifischen Verorten eines Fahrzeugs

Legal Events

Date Code Title Description
R163 Identified publications notified