DE102018220113A1 - Device and method for detecting a sensor blockage of an environmental sensor - Google Patents

Device and method for detecting a sensor blockage of an environmental sensor Download PDF

Info

Publication number
DE102018220113A1
DE102018220113A1 DE102018220113.7A DE102018220113A DE102018220113A1 DE 102018220113 A1 DE102018220113 A1 DE 102018220113A1 DE 102018220113 A DE102018220113 A DE 102018220113A DE 102018220113 A1 DE102018220113 A1 DE 102018220113A1
Authority
DE
Germany
Prior art keywords
vehicle
sensor
data
raster
surroundings
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018220113.7A
Other languages
German (de)
Inventor
Florian Maile
Daniel Fafula
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102018220113.7A priority Critical patent/DE102018220113A1/en
Publication of DE102018220113A1 publication Critical patent/DE102018220113A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/021Means for detecting failure or malfunction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die vorliegende Erfindung betrifft eine Vorrichtung (14) zum Erkennen einer Sensorblockade eines Umgebungssensors (16), mit: einer Schnittstelle (26) zum Empfangen von Umgebungssensordaten des Umgebungssensors mit Informationen zu Abständen zwischen Objekten (22) in einer Umgebung eines Fahrzeugs (10) und dem Fahrzeug, von Kartendaten einer Kartendatenbank (18) mit Informationen zu Positionen der Objekte in der Umgebung des Fahrzeugs sowie von Bewegungsdaten eines Bewegungssensors (20) mit Informationen zu einer Bewegung des Fahrzeugs in Bezug zu der Umgebung; einer ersten Rastereinheit (28) zum Erzeugen einer ersten Rasterdarstellung (40) der Umgebung des Fahrzeugs basierend auf den Umgebungssensordaten; einer Lokalisierungseinheit (30) zum Ermitteln einer Pose des Fahrzeugs mit Informationen zu einer Position und Orientierung des Fahrzeugs in Bezug zu der Umgebung basierend auf den Bewegungsdaten; einer zweiten Rastereinheit (32) zum Erzeugen einer entsprechend der ersten Rasterdarstellung ausgerichteten zweiten Rasterdarstellung (42) der Umgebung des Fahrzeugs basierend auf den Kartendaten und der Pose; und einer Auswerteeinheit (34) zum Ermitteln eines blockierten Bereichs (38) eines Sichtfelds des Umgebungssensors basierend auf der ersten Rasterdarstellung und der zweiten Rasterdarstellung. Die vorliegende Erfindung betrifft weiterhin ein Verfahren und ein System (12) zum Erkennen einer Sensorblockade eines Umgebungssensors.The invention relates to a device (14) for detecting a sensor blockage in an environment sensor (16), comprising: an interface (26) for receiving environment sensor data from the environment sensor with information on distances between objects (22) in an environment of a vehicle (10) and the vehicle, map data from a map database (18) with information on positions of the objects in the surroundings of the vehicle and movement data from a motion sensor (20) with information about movement of the vehicle in relation to the surroundings; a first raster unit (28) for generating a first raster representation (40) of the surroundings of the vehicle based on the surroundings sensor data; a localization unit (30) for determining a pose of the vehicle with information on a position and orientation of the vehicle in relation to the surroundings based on the movement data; a second raster unit (32) for generating a second raster representation (42) of the surroundings of the vehicle oriented according to the first raster representation based on the map data and the pose; and an evaluation unit (34) for determining a blocked area (38) of a field of view of the environmental sensor based on the first raster representation and the second raster representation. The present invention further relates to a method and a system (12) for detecting a sensor blockage in an environmental sensor.

Description

Die vorliegende Erfindung betrifft eine Vorrichtung zum Erkennen einer Sensorblockade eines Umgebungssensors sowie ein entsprechendes Verfahren. Die vorliegende Erfindung betrifft weiterhin ein System zum Erkennen einer Sensorblockade eines Umgebungssensors.The present invention relates to a device for detecting a sensor blockage of an environmental sensor and a corresponding method. The present invention further relates to a system for detecting a sensor blockage of an environmental sensor.

Moderne Fahrzeuge (Autos, Transporter, Lastwagen, Motorräder etc.). umfassen eine Vielzahl an Systemen, die dem Fahrer Informationen zur Verfügung stellen und einzelne Funktionen des Fahrzeugs teil- oder vollautomatisiert steuern. Über Sensoren werden die Umgebung des Fahrzeugs sowie andere Verkehrsteilnehmer erfasst. Basierend auf den erfassten Daten kann ein Modell der Fahrzeugumgebung erzeugt werden und auf Veränderungen in dieser Fahrzeugumgebung reagiert werden. Durch die fortschreitende Entwicklung im Bereich der autonom und teilautonom fahrenden Fahrzeuge werden der Einfluss und der Wirkungsbereich solcher Fahrerassistenzsysteme (Advanced Driver Assistance Systems, ADAS) immer größer. Durch die Entwicklung immer präziserer Sensoren ist es möglich, die Umgebung und den Verkehr zu erfassen und einzelne Funktionen des Fahrzeugs vollständig oder teilweise ohne Eingriff des Fahrers zu kontrollieren. Fahrerassistenzsysteme können dabei insbesondere zur Erhöhung der Sicherheit im Verkehr sowie zur Verbesserung des Fahrkomforts beitragen.Modern vehicles (cars, vans, trucks, motorcycles, etc.). comprise a variety of systems that provide the driver with information and control individual functions of the vehicle in a partially or fully automated manner. The surroundings of the vehicle and other road users are recorded via sensors. Based on the recorded data, a model of the vehicle environment can be generated and responses to changes in this vehicle environment. Due to the progressive development in the field of autonomous and semi-autonomous vehicles, the influence and scope of such driver assistance systems (Advanced Driver Assistance Systems, ADAS) are increasing. The development of ever more precise sensors makes it possible to record the surroundings and traffic and to control individual functions of the vehicle completely or partially without driver intervention. Driver assistance systems can help to increase safety in traffic and improve driving comfort.

Eine wichtige Voraussetzung ist hierbei die Erfassung und Erkennung der Umgebung des eigenen Fahrzeugs. Mittels Umgebungssensoren, wie beispielsweise Radar-, Lidar-, oder Ultraschallsensoren, werden Sensordaten mit Informationen zu der Umgebung erfasst. Insbesondere werden durch solche abstandsbasierten Sensoren Abstände und Positionen der Objekte in Bezug zum Umgebungssensor erfasst. Basierend auf diesen Daten können Objekte in der Umgebung des Fahrzeugs identifiziert und klassifiziert werden. Ausgehend hiervon kann beispielsweise ein Verhalten eines autonomen oder teilautonomen Fahrzeugs an eine aktuelle Situation angepasst werden.An important prerequisite here is the detection and recognition of the surroundings of your own vehicle. Using environmental sensors, such as radar, lidar, or ultrasonic sensors, sensor data with information about the environment are recorded. In particular, such distance-based sensors detect distances and positions of the objects in relation to the environmental sensor. Based on this data, objects in the surroundings of the vehicle can be identified and classified. Based on this, a behavior of an autonomous or partially autonomous vehicle can be adapted to a current situation, for example.

In diesem Zusammenhang besteht eine Herausforderung darin, fehlerhafte Sensordaten zu erkennen und deren Auswirkungen in der weiteren Verarbeitung zu berücksichtigen. Beispielsweise können Sensoren teilweise oder vollständig defekt oder verschmutzt sein. Ebenfalls ist es möglich, dass es aufgrund von Wetterbedingungen (Schnee, Eis, Regen etc.) dazu kommt, dass Sensordaten erfasst werden, die die aktuelle Umgebung falsch oder unvollständig widerspiegeln. Der Sensor kann teilweise oder vollständig blockiert sein. Die Herausforderung liegt hierbei darin zu erkennen, dass aktuell gemessene Werte nicht die Realität abbilden, obwohl die grundsätzliche Funktion des Sensors gegeben ist. Beispielsweise kann ein teilweise mit Dreck bedeckter (blockierter) Radarsensor zu einer Erkennung eines in der Realität nichtexistierenden Objekts führen. Ein derartiger Fehler kann wiederum zu einer ungewollten und möglicherweise gefährlichen Reaktion einer Steuereinrichtung eines autonomen Fahrzeugs führen, beispielsweise einer unnötigen Vollbremsung.In this context, a challenge is to identify faulty sensor data and to take their effects into account in further processing. For example, sensors can be partially or completely defective or dirty. It is also possible that weather conditions (snow, ice, rain, etc.) result in sensor data being recorded that incorrectly or incompletely reflect the current environment. The sensor can be partially or completely blocked. The challenge here is to recognize that the currently measured values do not represent reality, even though the basic function of the sensor is given. For example, a (blocked) radar sensor partially covered with dirt can lead to detection of an object that does not exist in reality. Such an error can in turn lead to an unwanted and possibly dangerous reaction of a control device of an autonomous vehicle, for example an unnecessary emergency braking.

Ausgehend hiervon stellt sich der vorliegenden Erfindung die Aufgabe, einen Ansatz zum Erkennen einer Sensorblockade eines Umgebungssensors bereitzustellen. Insbesondere soll eine möglichst zuverlässige Erkennung eines blockierten Bereichs eines Sichtfelds eines Umgebungssensors erreicht werden. Hierdurch können die Sicherheit im Straßenverkehr sowie der Fahrkomfort verbessert werden.Proceeding from this, the object of the present invention is to provide an approach for detecting a sensor blockage of an environmental sensor. In particular, the most reliable detection possible of a blocked area of a field of view of an environmental sensor is to be achieved. This can improve road safety and driving comfort.

Zum Lösen dieser Aufgabe betrifft die vorliegende Erfindung in einem ersten Aspekt eine Vorrichtung zum Erkennen einer Sensorblockade eines Umgebungssensors mit: einer Schnittstelle zum Empfangen von Umgebungssensordaten des Umgebungssensors mit Informationen zu Abständen zwischen Objekten in einer Umgebung eines Fahrzeugs und dem Fahrzeug, von Kartendaten einer Kartendatenbank mit Informationen zu Positionen der Objekte in der Umgebung des Fahrzeugs sowie von Bewegungsdaten eines Bewegungssensors mit Informationen zu einer Bewegung des Fahrzeugs in Bezug zu der Umgebung;

  • einer ersten Rastereinheit zum Erzeugen einer ersten Rasterdarstellung der Umgebung des Fahrzeugs basierend auf den Umgebungssensordaten;
  • einer Lokalisierungseinheit zum Ermitteln einer Pose des Fahrzeugs mit Informationen zu einer Position und Orientierung des Fahrzeugs in Bezug zu der Umgebung basierend auf den Bewegungsdaten;
  • einer zweiten Rastereinheit zum Erzeugen einer entsprechend der ersten Rasterdarstellung ausgerichteten zweiten Rasterdarstellung der Umgebung des Fahrzeugs basierend auf den Kartendaten und der Pose; und
  • einer Auswerteeinheit zum Ermitteln eines blockierten Bereichs eines Sichtfelds des Umgebungssensors basierend auf der ersten Rasterdarstellung und der zweiten Rasterdarstellung.
To achieve this object, the present invention relates in a first aspect to a device for detecting a sensor blockage of an environment sensor with: an interface for receiving environment sensor data from the environment sensor with information on distances between objects in an environment of a vehicle and the vehicle, and map data from a map database Information on positions of the objects in the surroundings of the vehicle and of movement data of a movement sensor with information on a movement of the vehicle in relation to the surroundings;
  • a first raster unit for generating a first raster representation of the surroundings of the vehicle based on the surroundings sensor data;
  • a localization unit for determining a pose of the vehicle with information on a position and orientation of the vehicle in relation to the surroundings based on the movement data;
  • a second raster unit for generating a second raster representation of the surroundings of the vehicle oriented in accordance with the first raster representation based on the map data and the pose; and
  • an evaluation unit for determining a blocked area of a field of view of the environmental sensor based on the first raster representation and the second raster representation.

In einem weiteren Aspekt betrifft die vorliegende Erfindung ein System zum Erkennen einer Sensorblockade eines Umgebungssensors, mit:

  • einem Umgebungssensor zum Erfassen von Abständen zwischen einem Fahrzeug und einem Objekt in einer Umgebung des Fahrzeugs;
  • einer Kartendatenbank mit Informationen zu Positionen von Objekten innerhalb eines Bezugsgebiets;
  • einem Bewegungssensor zum Erfassen einer Bewegung des Fahrzeugs in Bezug zu der Umgebung; und
  • einer Vorrichtung wie zuvor beschrieben.
In a further aspect, the present invention relates to a system for detecting a sensor blockage of an environmental sensor, with:
  • an environment sensor for detecting distances between a vehicle and an object in an environment of the vehicle;
  • a map database with information on positions of objects within a reference area;
  • a motion sensor for detecting motion of the vehicle with respect to the environment; and
  • a device as previously described.

Weitere Aspekte der Erfindung betreffen ein entsprechendes Verfahren und ein Computerprogrammprodukt mit Programmcode zum Durchführen der Schritte des Verfahrens, wenn der Programmcode auf einem Computer ausgeführt wird, sowie ein Speichermedium, auf dem ein Computerprogramm gespeichert ist, das, wenn es auf einem Computer ausgeführt wird, eine Ausführung des hierin beschriebenen Verfahrens bewirkt.Further aspects of the invention relate to a corresponding method and a computer program product with program code for carrying out the steps of the method when the program code is executed on a computer, and to a storage medium on which a computer program is stored which, when it is executed on a computer, performing the method described herein.

Bevorzugte Ausgestaltungen der Erfindung werden in den abhängigen Ansprüchen beschrieben. Es versteht sich, dass die vorstehend genannten und die nachstehend noch zu erläuternden Merkmale nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen. Insbesondere können das System, das Verfahren und das Computerprogrammprodukt entsprechend den für die Vorrichtung in den abhängigen Ansprüchen beschriebenen Ausgestaltungen ausgeführt sein.Preferred embodiments of the invention are described in the dependent claims. It goes without saying that the features mentioned above and those yet to be explained below can be used not only in the combination indicated in each case, but also in other combinations or on their own without departing from the scope of the present invention. In particular, the system, the method and the computer program product can be designed in accordance with the configurations described for the device in the dependent claims.

Das erfindungsgemäße Verfahren dient dazu, einen blockierten Bereich eines Sichtfelds eines Umgebungssensors zu erkennen. Als Eingangsdaten werden über die Schnittstelle einerseits Umgebungssensordaten des Umgebungssensors empfangen. Andererseits werden Kartendaten einer Kartendatenbank sowie Bewegungsdaten eines Bewegungssensors berücksichtigt.The method according to the invention serves to detect a blocked area of a field of view of an environmental sensor. On the one hand, environmental sensor data of the environmental sensor are received as input data via the interface. On the other hand, map data from a map database and motion data from a motion sensor are taken into account.

Der Umgebungssensor stellt Informationen zu Abständen zwischen einem Objekt und dem Fahrzeug bzw. dem Sensor zur Verfügung. Die Kartendaten umfassen Informationen zu Positionen von vorbekannten Objekten in der Umgebung des Fahrzeugs. Die Kartendaten können dabei beispielsweise ausgehend von Sensordaten anderer Fahrzeuge erzeugt worden sein. Die Bewegungsdaten spiegeln die aktuelle Bewegung des Fahrzeugs wider. Basierend auf den empfangenen Abständen des Umgebungssensors wird eine erste Rasterdarstellung der Umgebung des Fahrzeugs erzeugt. Eine Rasterdarstellung entspricht dabei einem Abbild der Umgebung des Fahrzeugs, bei dem einzelne Detektionen des Umgebungssensors diskreten Rasterzellen zugordnet werden. Die erste Rasterdarstellung stellt eine Repräsentation der Fahrzeugumgebung dar. Basierend auf den Bewegungsdaten wird eine Position und Orientierung des Fahrzeugs in Bezug zu seiner Umgebung (Pose) ermittelt. Mittels dieser Pose wird ausgehend von den empfangenen Kartendaten eine zweite Rasterdarstellung erzeugt, die entsprechend der ersten Rasterdarstellung ausgerichtet ist. Insoweit werden die Kartendaten durch Berücksichtigung der Bewegungsdaten so ausgerichtet, dass eine Zusammenschau mit der basierend auf den Umgebungssensordaten erzeugten ersten Rasterdarstellung ermöglicht wird.The environment sensor provides information on distances between an object and the vehicle or the sensor. The map data include information on positions of previously known objects in the area surrounding the vehicle. The map data can be generated, for example, based on sensor data from other vehicles. The movement data reflect the current movement of the vehicle. A first raster representation of the surroundings of the vehicle is generated based on the received distances from the surroundings sensor. A raster representation corresponds to an image of the surroundings of the vehicle, in which individual detections of the surroundings sensor are assigned to discrete raster cells. The first raster representation represents the vehicle surroundings. Based on the movement data, a position and orientation of the vehicle in relation to its surroundings (pose) is determined. Using this pose, a second raster representation is generated based on the received map data, which is aligned according to the first raster representation. In this respect, the map data are aligned by taking the movement data into account in such a way that a view together with the first raster display generated based on the environment sensor data is made possible.

In der Auswerteeinheit wird dann eine Zuordnung zwischen Objekten in der ersten Rasterdarstellung und Objekten in der zweiten Rasterdarstellung vorgenommen. Basierend hierauf kann überprüft werden, ob ein Objekt in der ersten Rasterdarstellung einem entsprechenden Objekt in der zweiten Rasterdarstellung zugeordnet werden kann. Solange eine Zuordnung nicht möglich ist, liegt eine teilweise oder vollständige Sensorblockade (kann auch als Blockierung bezeichnet werden) des Umgebungssensors vor.An assignment between objects in the first raster representation and objects in the second raster representation is then carried out in the evaluation unit. Based on this, it can be checked whether an object in the first raster representation can be assigned to a corresponding object in the second raster representation. As long as an assignment is not possible, there is a partial or complete sensor blockage (can also be called a blockage) of the environmental sensor.

Es wird möglich, einen blockierten Bereich des Umgebungssensors zu identifizieren. Der blockierte Bereich ist dabei derjenige Bereich, aus dem Messwerte des Umgebungssensors stammen, die keinem Objekt in der zweiten Rasterdarstellung zugeordnet werden können. Der erfindungsgemäße Ansatz basiert auf einer Fusion von Daten eines abstandsbasierten Umgebungssensors mit vorbekannten Kartendaten einer entsprechenden Kartendatenbank.It becomes possible to identify a blocked area of the environmental sensor. The blocked area is the area from which measured values of the environmental sensor originate that cannot be assigned to any object in the second raster display. The approach according to the invention is based on a fusion of data from a distance-based environment sensor with previously known map data from a corresponding map database.

Der ermittelte blockierte Bereich kann beispielsweise an ein Fahrerassistenzsystem übermittelt werden, das basierend auf den Umgebungssensordaten eine Fahrerassistenzfunktion ausführt. Durch den ermittelten Bereich kann die entsprechende Fahrerassistenzfunktion angepasst werden. Es kann beispielsweise sichergestellt werden, dass lediglich dann eine Reaktion infolge von Messungen des Umgebungssensors erfolgt, wenn der entsprechende Umgebungssensor nicht blockiert ist. Im Vergleich zu bisherigen Ansätzen erlaubt der erfindungsgemäße Ansatz eine zuverlässige und präzise Ermittlung eines blockierten Bereichs eines abstandsbasierten Umgebungssensors. Durch die Erkennung des blockierten Bereichs kann eine Anpassung einer Steuerung eines autonomen oder teilautonomen Fahrzeugs erfolgen. Es kann sichergestellt werden, dass eine Reaktion eines autonomen oder teilautonomen Fahrzeugs nicht basierend auf verfälschten Sensordaten eines Umgebungssensors ermittelt wird. Die erfindungsgemäße Ermittlung des blockierten Bereichs führt daher zu einer verbesserten Abbildung der Umgebung. Die Umgebung eines Fahrzeugs kann mit höherer Sicherheit erkannt werden. Hierdurch wird es möglich, dass die Sicherheit beim autonomen oder teilautonomen Fahren verbessert und der Fahrkomfort erhöht werden.The determined blocked area can, for example, be transmitted to a driver assistance system which executes a driver assistance function based on the environment sensor data. The corresponding driver assistance function can be adapted through the determined area. For example, it can be ensured that a reaction as a result of measurements by the environmental sensor only takes place if the corresponding environmental sensor is not blocked. In comparison to previous approaches, the approach according to the invention allows a reliable and precise determination of a blocked area of a distance-based environment sensor. The control of an autonomous or semi-autonomous vehicle can be adapted by recognizing the blocked area. It can be ensured that a reaction of an autonomous or semi-autonomous vehicle is not determined based on corrupted sensor data from an environmental sensor. The determination of the blocked area according to the invention therefore leads to an improved mapping of the surroundings. The surroundings of a vehicle can be recognized with greater certainty. This makes it possible to improve safety in autonomous or semi-autonomous driving and to increase driving comfort.

In einer bevorzugten Ausgestaltung ist die erste Rastereinheit zum Erzeugen einer zweidimensionalen ersten Rasterdarstellung ausgebildet. Die zweite Rastereinheit ist zum Erzeugen einer zweidimensionalen zweiten Rasterdarstellung ausgebildet. Im Bereich des autonomen oder teilautonomen Fahrens ist es insbesondere relevant, eine Draufsicht auf die Umgebung des Fahrzeugs auswerten zu können. Basierend hierauf kann festgestellt werden, ob eine Fahrt in eine bestimmte Richtung möglich ist oder nicht, bzw. ob ein Hindernis eine freie Fahrt verhindert. Die hierzu verwendete zweidimensionalen Rasterdarstellung entspricht einer vogelperspektivischen Ansicht der Umgebung des Fahrzeugs. Durch die Verwendung einer zweidimensionalen ersten und zweiten Rasterdarstellung kann eine effiziente Verarbeitung sichergestellt werden. Eine Echtzeit-Datenverarbeitung wird möglich.In a preferred embodiment, the first raster unit is designed to generate a two-dimensional first raster representation. The second raster unit is designed to generate a two-dimensional second raster representation. In the area of autonomous or semi-autonomous driving, it is particularly relevant to be able to evaluate a top view of the surroundings of the vehicle. Based on this, it can be determined whether a trip in a certain direction is possible or not, or whether an obstacle prevents a free trip. The two-dimensional raster representation used for this corresponds to a bird's-eye view of the surroundings of the vehicle. Efficient processing can be ensured by using a two-dimensional first and second raster representation. Real-time data processing is possible.

In einer vorteilhaften Ausgestaltung ist die erste Rastereinheit zum Erzeugen der ersten Rasterdarstellung basierend auf einer Akkumulation der Umgebungssensordaten über mehrere Messzyklen des Umgebungssensors ausgebildet. Vorzugsweise werden Daten über ein vordefiniertes Zeitfenster gesammelt. Durch die Verwendung von Sensordaten, die über mehrere Messzyklen gesammelt wurden, kann eine erhöhte Zuverlässigkeit erreicht werden. Eine Erkennung von Objekten kann mit größerer Sicherheit erfolgen, wenn pro Objekt mehrere Detektionen bzw. Scanpunkte verfügbar sind. Die Zuverlässigkeit bei der Erzeugung des Abbilds der Umgebung durch die erste Rasterdarstellung wird verbessert.In an advantageous embodiment, the first raster unit is designed to generate the first raster representation based on an accumulation of the environment sensor data over several measurement cycles of the environment sensor. Data is preferably collected over a predefined time window. Increased reliability can be achieved by using sensor data that has been collected over several measurement cycles. Objects can be identified with greater certainty if several detections or scan points are available per object. The reliability in the generation of the image of the environment by the first raster representation is improved.

In einer vorteilhaften Ausgestaltung ist die erste Rastereinheit zum Erzeugen eines Evidential Grids, eines Occupancy Grids und/oder eines Freespace Grids der Umgebung des Fahrzeugs ausgebildet. Für das Erzeugen der Rasterdarstellung der Umgebung des Fahrzeugs stehen verschiedene Möglichkeiten zur Verfügung. Es ist dabei möglich, dass mehrere verschiedene Rasterdarstellungen erzeugt und einzeln ausgewertet werden. Ebenfalls ist es vorteilhaft, wenn eine kombinierte Auswertung erfolgt. Unterschiedliche Rasterdarstellungen haben in Bezug auf die Datenverarbeitung und Prozessierung verschiedene Eigenschaften bzw. Vor- und Nachteile. Durch die Verwendung einer angepassten ersten Rasterdarstellung kann ein verbessertes Abbild der Umgebung des Fahrzeugs erzeugt werden.In an advantageous embodiment, the first raster unit is designed to generate an evidential grid, an occupancy grid and / or a free space grid in the vicinity of the vehicle. Various options are available for generating the raster representation of the surroundings of the vehicle. It is possible for several different raster representations to be generated and evaluated individually. It is also advantageous if a combined evaluation is carried out. Different grid representations have different properties or advantages and disadvantages with regard to data processing and processing. By using an adapted first raster representation, an improved image of the surroundings of the vehicle can be generated.

In einer bevorzugten Ausgestaltung ist die Schnittstelle zum Empfangen von Kartendaten mit einer vorbekannten Rasterdarstellung der Umgebung des Fahrzeugs, vorzugsweise eines Evidential Grids, eines Occupancy Grids und/oder eines Freespace Grids ausgebildet. Sofern bereits eine Repräsentation der Umgebung des Fahrzeugs in einer vorbekannten Rasterdarstellung vorliegt, kann diese Repräsentation als Kartendaten verwendet werden. Die empfangene vorbekannte Rasterdarstellung muss dann lediglich basierend auf der Pose des Fahrzeugs mit der ersten Rasterdarstellung in Zusammenhang gebracht werden. Die vorbekannte Rasterdarstellung kann dabei beispielsweise basierend auf Sensordaten anderer Fahrzeuge erzeugt worden sein. Insbesondere ist ein Cloud-Ansatz möglich, bei dem verschiedene Fahrzeuge ihre Sensordaten an eine zentrale Sammelstelle übermitteln. Die Verwendung einer vorbekannten Rasterdarstellung erlaubt eine effiziente Berechnung der zweiten Rasterdarstellung.In a preferred embodiment, the interface for receiving map data is designed with a previously known raster representation of the surroundings of the vehicle, preferably an evidential grid, an occupancy grid and / or a freespace grid. If there is already a representation of the surroundings of the vehicle in a previously known raster representation, this representation can be used as map data. The previously known raster representation received then only has to be associated with the first raster representation based on the pose of the vehicle. The previously known raster representation can have been generated, for example, based on sensor data from other vehicles. In particular, a cloud approach is possible, in which different vehicles transmit their sensor data to a central collection point. The use of a previously known raster representation allows an efficient calculation of the second raster representation.

In einer bevorzugten Ausgestaltung ist die Lokalisierungseinheit zum Ermitteln der Pose basierend auf einer Inertialnavigation, einer simultanen Lokalisierung und Kartographierung und/oder einer Odometrie ausgebildet. Insbesondere ist es möglich, dass eine laufend aktualisierte Schätzung der eigenen Position und Orientierung verwendet wird. Eine laufend aktualisierte Schätzung ermöglicht eine hohe Genauigkeit, sodass eine weitgehende Übereinstimmung zwischen erster Rasterdarstellung und zweiter Rasterdarstellung in Bezug auf die Ausrichtung erreicht werden kann. Hierdurch kann die Genauigkeit bei der Ermittlung des blockierten Bereichs verbessert werden.In a preferred embodiment, the localization unit is designed to determine the pose based on inertial navigation, simultaneous localization and mapping and / or odometry. In particular, it is possible that a continuously updated estimate of one's own position and orientation is used. A continuously updated estimate enables a high degree of accuracy, so that an extensive agreement between the first raster representation and the second raster representation can be achieved with regard to the alignment. This can improve the accuracy in determining the blocked area.

In einer weiteren vorteilhaften Ausgestaltung ist die Auswerteeinheit zum Ermitteln des blockierten Bereichs basierend auf einer Zuordnung zwischen einem ersten Objekt der ersten Rasterdarstellung und einem zweiten Objekt der zweiten Rasterdarstellung ausgebildet. Weiterhin ist die Auswerteeinheit zum Ermitteln eines dem ersten Objekt entsprechenden Bereiches des Sichtfelds des Umgebungssensors als blockiertem Bereich ausgebildet, wenn dem ersten Objekt kein zweites Objekt zuordenbar ist. Vorzugsweise erfolgt die Erkennung des blockierten Bereichs basierend auf einer Zuordnung von Objekten in den beiden Rasterdarstellungen. Eine derartige Fusion erlaubt es, Objekte zu identifizieren, die lediglich in der ersten Rasterdarstellung vorliegen. Derartige Objekte könnten einer Sensorblockade geschuldet sein. Eine einfache Zuordnung stellt dabei einen effizient berechenbaren Ansatz zum Ermitteln des blockierten Bereichs des Sichtfelds des Umgebungssensors dar.In a further advantageous embodiment, the evaluation unit is designed to determine the blocked area based on an assignment between a first object of the first raster representation and a second object of the second raster representation. Furthermore, the evaluation unit is designed to determine an area of the field of view of the environmental sensor corresponding to the first object as a blocked area if the second object cannot be assigned to the first object. The blocked area is preferably identified based on an assignment of objects in the two raster representations. Such a fusion makes it possible to identify objects that are only present in the first raster representation. Such objects could be due to a sensor blockage. A simple assignment represents an efficiently calculable approach for determining the blocked area of the field of view of the environmental sensor.

In einer vorteilhaften Ausgestaltung ist die Schnittstelle zum Empfangen von Bewegungsdaten mit Sensordaten einer Inertialmesseinheit und/oder Positionsdaten eines Positionssensors ausgebildet. Insbesondere können die Bewegungsdaten Sensordaten von Beschleunigungs- und Drehratensensoren umfassen. Zudem kann ein Signal eines Positionssensors, insbesondere eines GPS-, Galileo- oder GLONASS-Sensors verwendet werden. In an advantageous embodiment, the interface is designed to receive movement data with sensor data from an inertial measuring unit and / or position data from a position sensor. In particular, the movement data can include sensor data from acceleration and rotation rate sensors. In addition, a signal from a position sensor, in particular a GPS, Galileo or GLONASS sensor, can be used.

In einer vorteilhaften Ausgestaltung ist die Schnittstelle zum Übermitteln der Position des Fahrzeugs an die Kartendatenbank ausgebildet. Zudem ist die Schnittstelle zum Empfangen von Kartendaten mit Informationen zu Objekten innerhalb eines vordefinierten Bereichs um die Position des Fahrzeugs ausgebildet. Es ist möglich, dass die Kartendatenbank als entfernte Datenbank ausgebildet ist. Insbesondere kann eine Cloud-Datenbank verwendet werden, die über eine entsprechende Kommunikationsschnittstelle zugreifbar ist. Um lediglich Daten bezüglich eines relevanten Bereichs um die aktuelle Position des Fahrzeugs zu übermitteln und damit den Datenverbrauch sowie die benötigte Übermittlungszeit gering zu halten, kann bei der entsprechenden Datenbankanfrage bereits eine aktuelle Position des Fahrzeugs übermittelt werden. Es werden dann nur Daten eines vordefinierten Bereichs, beispielsweise basierend auf einem Radius um die Position des Fahrzeugs, von der Kartendatenbank an das Fahrzeug zurückübermittelt. Hierdurch wird erreicht, dass möglichst aktuelle und hochauflösende Kartendaten verwendet werden können.In an advantageous embodiment, the interface is designed to transmit the position of the vehicle to the map database. In addition, the interface is designed to receive map data with information about objects within a predefined area around the position of the vehicle. It is possible that the map database is designed as a remote database. In particular, a cloud database can be used, which is accessible via a corresponding communication interface. In order to only transmit data relating to a relevant area around the current position of the vehicle and thus to keep the data consumption and the required transmission time low, a current position of the vehicle can already be transmitted with the corresponding database request. Only data of a predefined area, for example based on a radius around the position of the vehicle, are then transmitted back from the map database to the vehicle. This ensures that the most current and high-resolution map data can be used.

In einer vorteilhaften Ausgestaltung ist die Auswerteeinheit zum Ermitteln eines erwarteten freien Bereichs basierend auf der zweiten Rasterdarstellung ausgebildet. Weiterhin ist die Auswerteeinheit zum Ermitteln des blockierten Bereichs basierend auf dem erwarteten freien Bereich und der ersten Rasterdarstellung ausgebildet. Es wird ausgehend von den Kartendaten geschätzt, ob ein Objekt in den Umgebungssensordaten sichtbar ist oder nicht. Dann wird geprüft, ob diese Hypothese erfüllt ist. Durch diesen Ansatz kann eine effiziente und einfach berechenbare Ermittlung des blockierten Bereichs erfolgen.In an advantageous embodiment, the evaluation unit is designed to determine an expected free area based on the second raster representation. Furthermore, the evaluation unit is designed to determine the blocked area based on the expected free area and the first raster representation. Based on the map data, it is estimated whether an object is visible in the environment sensor data or not. Then it is checked whether this hypothesis is fulfilled. This approach enables the blocked area to be determined efficiently and easily calculated.

In einer vorteilhaften Ausgestaltung ist die Schnittstelle zum Empfangen von Kartendaten mit Informationen zu einem Verlauf einer Straße in der Umgebung des Fahrzeugs ausgebildet. Weiterhin ist die Auswerteeinheit zum Erkennen eines dynamischen Objekts basierend auf den Kartendaten und den Umgebungssensordaten ausgebildet. Zudem ist die Auswerteeinheit zum Ermitteln des blockierten Bereichs basierend auf dem erkannten dynamischen Objekt ausgebildet. Es ist möglich, dass zusätzlich eine Objekterkennung eines dynamischen Objekts stattfindet. Hierzu wird geprüft, ob in den Daten des Umgebungssensors ein Objekt vorliegt, das in den Kartendaten bzw. der darauf basierend generierten zweiten Rasterdarstellung keine Entsprechung findet. Wenn ein bewegliches Objekt erkannt wird, kann dies bei der Ermittlung des blockierten Bereichs berücksichtigt werden. Insbesondere kann festgestellt werden, dass ein Bereich, in dem sich ein dynamisches Objekt (Fußgänger, anderes Fahrzeug, Radfahrer, Baustelle etc.) befindet, nicht blockiert ist.In an advantageous embodiment, the interface is designed to receive map data with information about a course of a road in the vicinity of the vehicle. Furthermore, the evaluation unit is designed to recognize a dynamic object based on the map data and the environmental sensor data. In addition, the evaluation unit is designed to determine the blocked area based on the detected dynamic object. It is possible that an object detection of a dynamic object also takes place. For this purpose, a check is carried out to determine whether there is an object in the data from the environmental sensor that does not find any correspondence in the map data or the second raster representation generated on the basis thereof. If a moving object is detected, this can be taken into account when determining the blocked area. In particular, it can be determined that an area in which a dynamic object (pedestrian, other vehicle, cyclist, construction site, etc.) is located is not blocked.

In einer vorteilhaften Ausgestaltung ist die Schnittstelle zum Empfangen von Umgebungssensordaten eines Radar-, Lidar- und/oder Ultraschallsensors ausgebildet. Es versteht sich, dass auch eine Kombination der verschiedenen abstandsbasierten Sensorprinzipien möglich ist.In an advantageous embodiment, the interface is designed to receive environmental sensor data from a radar, lidar and / or ultrasonic sensor. It goes without saying that a combination of the different distance-based sensor principles is also possible.

Unter einem Objekt versteht sich hierin ein statisches oder dynamisches Objekt. Beispielsweise stellen Bäume, Häuser, andere Fahrzeuge, Fußgänger, Tiere, Brücken und Straßen Objekte dar. Eine Umgebung eines Fahrzeugs umfasst insbesondere einen von einem am Fahrzeug angebrachten Umgebungssensor aus sichtbaren Bereich im Umfeld des Fahrzeugsensors. Ein Umgebungssensor kann auch mehrere Sensoren umfassen, die beispielsweise eine 360°-Rundumsicht ermöglichen und somit ein vollständiges Umgebungsabbild aufzeichnen können. Ein Sichtfeld eines Umgebungssensors kann beispielsweise durch einen Öffnungswinkel eines Kegels definiert sein. Ebenfalls ist es möglich, dass ein Sichtfeld durch eine Angabe eines Öffnungswinkels in einer Draufsicht definiert ist. Üblicherweise wird während eines Messzyklus eines Umgebungssensors eine Vielzahl an Scanpunkten generiert. Unter einem Messzyklus wird ein einmaliges Durchlaufen des sichtbaren Bereichs verstanden. Die in einem Messzyklus erfassten Umgebungssensordaten können als Zielliste (Target List) bezeichnet werden.An object is understood here to mean a static or dynamic object. For example, trees, houses, other vehicles, pedestrians, animals, bridges and streets represent objects. A vehicle's surroundings particularly include an area in the surroundings of the vehicle sensor that is visible from an environment sensor attached to the vehicle. An environment sensor can also comprise a plurality of sensors which, for example, enable a 360 ° all-round view and can therefore record a complete environment image. A field of view of an environmental sensor can be defined, for example, by an opening angle of a cone. It is also possible for a field of view to be defined by specifying an opening angle in a plan view. A large number of scan points are usually generated during a measurement cycle of an environmental sensor. A measurement cycle is understood to mean a single passage through the visible area. The environmental sensor data recorded in a measurement cycle can be referred to as a target list.

Unter einer Rasterdarstellung versteht sich eine Darstellung als Grid, bei der insbesondere verschiedene Scanpunkte anhand ihrer Detektionsposition zu Zellen des Grids zugeordnet werden. Grundsätzlich kann die Rasterdarstellung zwei- oder dreidimensional sein. Unter einer zweidimensionalen Rasterdarstellung wird eine zweidimensionale Modellierung einer Umgebung des Fahrzeugs verstanden. Jede Rasterzelle enthält Informationen über die Anzahl von Detektionen innerhalb des von der Rasterzelle repräsentierten Bereichs der Umgebung. Eine Blockade eines Umgebungssensors kann insbesondere durch Dreck oder anderes Material, durch Wasser oder auch durch einen Sensordefekt hervorgerufen werden. Ein blockierter Bereich eines Sichtfelds kann mehrere Teilbereiche umfassen.A raster representation is understood to mean a representation as a grid, in which in particular different scan points are assigned to cells of the grid on the basis of their detection position. Basically, the raster display can be two or three-dimensional. A two-dimensional raster representation is understood to mean a two-dimensional modeling of an environment of the vehicle. Each grid cell contains information about the number of detections within the area of the environment represented by the grid cell. A blockage of an environmental sensor can in particular be caused by dirt or other material, by water or also by a sensor defect. A blocked area of a field of view can comprise several partial areas.

Die Erfindung wird nachfolgend anhand einiger ausgewählter Ausführungsbeispiele im Zusammenhang mit den beiliegenden Zeichnungen näher beschrieben und erläutert. Es zeigen:

  • 1 eine Darstellung eines erfindungsgemäßen Systems in einer Umgebung in einer schematischen Seitenansicht;
  • 2 eine schematische Darstellung einer erfindungsgemäßen Vorrichtung zum Erkennen einer Sensorblockade eines Umgebungssensors;
  • 3 eine schematische Darstellung eines blockierten Bereichs eines Sichtfelds des Umgebungssensors mit zwei Teilbereichen;
  • 4 eine schematische Darstellung eines Ansatzes zum Ermitteln eines blockierten Bereichs;
  • 5 eine schematische Darstellung einer Ausführungsform des erfindungsgemäßen Systems in einem Fahrzeug; und
  • 6 eine schematische Darstellung des erfindungsgemäßen Verfahrens.
The invention is described and explained in more detail below on the basis of a few selected exemplary embodiments in conjunction with the accompanying drawings. Show it:
  • 1 a representation of a system according to the invention in an environment in a schematic side view;
  • 2nd a schematic representation of an inventive device for detecting a sensor blockage of an environmental sensor;
  • 3rd a schematic representation of a blocked area of a field of view of the environmental sensor with two partial areas;
  • 4th a schematic representation of an approach for determining a blocked area;
  • 5 a schematic representation of an embodiment of the system according to the invention in a vehicle; and
  • 6 a schematic representation of the method according to the invention.

1 zeigt eine schematische Darstellung eines Fahrzeugs 10 mit einem erfindungsgemäßen System 12 zum Erkennen einer Sensorblockade eines Umgebungssensors. Das System umfasst eine Vorrichtung 14, einen Umgebungssensor 16, eine Kartendatenbank 18 sowie einen Bewegungssensor 20. Über den Umgebungssensor 16 werden Abstände zwischen dem Fahrzeug 10 und einem Objekt 22 in der Umgebung des Fahrzeugs 10 erfasst. Der Umgebungssensor 16 erfasst dabei zumeist mehrere Objekte innerhalb eines Sichtfelds 24. Von der Kartendatenbank 18 werden Kartendaten empfangen. Die Kartendaten umfassen Informationen über die Position des Objekts 22. Basierend auf einer Berücksichtigung der Bewegungsdaten des Bewegungssensors 20 können die Kartendaten gegenüber dem Fahrzeug 10 ausgerichtet werden. Ausgehend von einer Zusammenschau der Kartendaten (nach der Ausrichtung) und den Umgebungssensordaten wird ein blockierter Bereich des Sichtfelds des Umgebungssensor 16 ermittelt. 1 shows a schematic representation of a vehicle 10th with a system according to the invention 12 to detect a sensor blockage of an environmental sensor. The system includes a device 14 , an environmental sensor 16 , a map database 18th as well as a motion sensor 20th . Via the environmental sensor 16 are distances between the vehicle 10th and an object 22 around the vehicle 10th detected. The environmental sensor 16 usually detects several objects within a field of view 24th . From the map database 18th card data is received. The map data includes information about the location of the object 22 . Based on a consideration of the motion data of the motion sensor 20th can map the data to the vehicle 10th be aligned. Starting from a summary of the map data (after the alignment) and the environment sensor data, a blocked area of the field of view of the environment sensor becomes 16 determined.

Erfindungsgemäß wird also festgestellt, ob ein Teil des Sichtfelds des Umgebungssensors 16 blockiert ist, weil die vom Umgebungssensor 16 gelieferten Umgebungssensordaten und die ausgerichteten Kartendaten der Kartendatenbank 18 Abweichungen voneinander aufweisen. Ein blockierter Bereich des Sichtfelds des Umgebungssensors 16 kann dabei aufgrund einer Verschmutzung des Sensors oder auch wegen eines Defekts des Sensors vorliegen. Ebenfalls ist es möglich, dass es aufgrund von Witterungsbedingungen zu einer Blockade kommt, beispielsweise durch Regen oder Schnee.According to the invention, it is thus determined whether part of the field of vision of the environmental sensor 16 is blocked because of the environment sensor 16 supplied environmental sensor data and the aligned map data of the map database 18th Show deviations from each other. A blocked area of the field of view of the environmental sensor 16 may be due to contamination of the sensor or due to a defect in the sensor. It is also possible that there is a blockage due to weather conditions, for example due to rain or snow.

Die vorliegende Erfindung basiert darauf, dass abstandsbasierte Umgebungssensoren wie Radar-, Lidar- und Ultraschallsensoren eine immer größere Rolle spielen, insbesondere im Automotivebereich. Basierend auf den von solchen Sensoren bereitgestellten Daten werden verschiedene Funktionen eines autonomen oder teilautonomen Fahrzeugs ausgeführt. Daher ist es von hoher Wichtigkeit, dass den bereitgestellten Sensordaten vertraut werden kann. Aus einer Verschmutzung oder sonstigen Blockierung eines abstandsbasierten Umgebungssensors können fehlerhafte Sensorwerte resultieren. Erfindungsgemäß wird eine solche Verschmutzung oder eine andere Blockade erkannt. Hierzu werden die Daten des abstandsbasierten Umgebungssensors mit vorbekannten Kartendaten einer Kartendatenbank fusioniert, wobei die Kartendaten zunächst entsprechend der Umgebungssensordaten ausgerichtet werden müssen. Für die Ausrichtung werden Bewegungsdaten eines Bewegungssensors verwendet. Es wird festgestellt, ob sich Abweichungen zwischen den Umgebungssensordaten und den Kartendaten ergeben, um darauf basierend auf eine Blockade des Umgebungssensors schließen zu können.The present invention is based on the fact that distance-based environmental sensors such as radar, lidar and ultrasonic sensors play an increasingly important role, in particular in the automotive sector. Various functions of an autonomous or semi-autonomous vehicle are carried out based on the data provided by such sensors. It is therefore very important that the sensor data provided can be trusted. Contamination or other blocking of a distance-based environmental sensor can result in incorrect sensor values. According to the invention, such contamination or another blockage is recognized. For this purpose, the data of the distance-based environment sensor are merged with previously known map data from a map database, the map data first having to be aligned with the environment sensor data. Motion data from a motion sensor are used for the alignment. It is determined whether there are any discrepancies between the environmental sensor data and the map data in order to be able to infer them based on a blockage of the environmental sensor.

In der 2 ist schematisch eine erfindungsgemäße Vorrichtung 14 dargestellt. Die Vorrichtung 14 umfasst eine Schnittstelle 26, eine erste Rastereinheit 28, eine Lokalisierungseinheit 30, eine zweite Rastereinheit 32 sowie eine Auswerteeinheit 34. Die erfindungsgemäße Vorrichtung 14 kann beispielsweise in ein Fahrzeugsteuergerät integriert sein bzw. als Teil eines Fahrerassistenzsystems ausgebildet sein oder auch als separates Modul implementiert sein. Es ist möglich, dass die erfindungsgemäße Vorrichtung teilweise oder vollständig in Soft- und/oder in Hardware umgesetzt ist. Die verschiedenen Einheiten und Schnittstellen können vorzugsweise als Prozessor, Prozessormodul oder Software für einen Prozessor ausgebildet sein.In the 2nd is schematically a device according to the invention 14 shown. The device 14 includes an interface 26 , a first raster unit 28 , a localization unit 30th , a second grid unit 32 and an evaluation unit 34 . The device according to the invention 14 can, for example, be integrated in a vehicle control unit or be designed as part of a driver assistance system or can also be implemented as a separate module. It is possible that the device according to the invention is partially or completely implemented in software and / or in hardware. The various units and interfaces can preferably be designed as a processor, processor module or software for a processor.

Über die Schnittstelle 26 werden Umgebungssensordaten eines Umgebungssensors, Kartendaten einer Kartendatenbank sowie Bewegungsdaten eines Bewegungssensors empfangen. Die Schnittstelle 26 kann beispielsweise als Steckverbindung in Hardware umgesetzt sein. Es ist auch möglich, dass die Schnittstelle 26 als entsprechende Softwareschnittstelle zum Datenempfang ausgebildet ist. Die empfangenen Umgebungssensordaten umfassen Informationen zu Abständen zwischen einem Objekt in einer Umgebung eines Fahrzeugs und dem Fahrzeug bzw. dem Umgebungssensor. Die empfangenen Kartendaten umfassen Informationen zu einer Position des Objekts. Die Bewegungsdaten umfassen Informationen zu einer Bewegung des Fahrzeugs. Es versteht sich, dass die Umgebungssensordaten, die Kartendaten sowie auch die Bewegungsdaten weitere Informationen umfassen können.Via the interface 26 environment sensor data of an environment sensor, map data of a map database and motion data of a motion sensor are received. the interface 26 can be implemented, for example, as a plug connection in hardware. It is also possible that the interface 26 is designed as a corresponding software interface for data reception. The received environment sensor data include information on distances between an object in an environment of a vehicle and the vehicle or the environment sensor. The received map data include information about a position of the object. The movement data include information on a movement of the vehicle. It goes without saying that the environment sensor data, the map data and also the movement data can comprise further information.

Insbesondere werden als Umgebungssensordaten Detektionen eines Radar-, Lidar- und/oder Ultraschallsensors empfangen. Die Detektionen solcher Sensoren umfassen Informationen über eine räumliche Position eines detektierten Objekts bzw. einer Stelle, an der eine elektromagnetische Welle oder eine Schallwelle reflektiert wurde. Insbesondere werden einzelne Scanpunkte empfangen. Für jeden einzelnen Scanpunkt werden ein Höhenwinkel, ein Azimutwinkel sowie eine Distanz erfasst. In einem Messzyklus eines Umgebungssensors können beispielsweise einige Hundert bis mehrere Tausend Scanpunkte erfasst bzw. generiert werden. Üblicherweise werden mehrere Messzyklen pro Sekunde durchgeführt. Eine Messfrequenz kann beispielsweise bei 5 bis 50 Hz liegen.In particular, detections of a radar, lidar and / or ultrasonic sensor are received as environment sensor data. The detections of such sensors include information about a spatial position of a detected object or a location at which an electromagnetic wave or a sound wave was reflected. In particular, individual scan points are received. An elevation angle, an azimuth angle and a distance are recorded for each individual scan point. For example, a few hundred to several thousand scan points can be recorded or generated in a measurement cycle of an environmental sensor. Usually several measurement cycles are carried out per second. A measuring frequency can be, for example, 5 to 50 Hz.

Die Kartendaten der Kartendatenbank umfassen Informationen zu Objekten in der Umgebung des Fahrzeugs. Relevant sind insbesondere Positionen der Objekte. Es ist aber auch möglich und vorteilhaft, dass weitere Informationen zu den Objekten in den Kartendaten enthalten sind. Beispielsweise kann für einzelne Objekte eine Objektklasse empfangen werden. Eine Objektklasse stellt dabei eine Beschreibung der Art bzw. des Typs eines bestimmten Objekts dar. Mögliche Objektklassen sind beispielsweise „Bushaltestelle“, „Bürgersteig“, „Tunnel“, „Bahnüberfahrt“, „Straßenlaterne“, „Straße“, „Baum“, „Mauer“ etc. Zudem können weitere Informationen zu Eigenschaften eines Objekts der entsprechenden Klasse in den Kartendaten umfasst sein.The map data in the map database include information about objects in the vicinity of the vehicle. Positions of the objects are particularly relevant. However, it is also possible and advantageous that further information on the objects is contained in the map data. For example, an object class can be received for individual objects. An object class represents a description of the type or type of a specific object. Possible object classes are, for example, "bus stop", "sidewalk", "tunnel", "rail crossing", "street lamp", "street", "tree", " Wall ”etc. In addition, further information on the properties of an object of the corresponding class can be included in the map data.

Die Bewegungsdaten des Bewegungssensors 20 umfassen insbesondere Beschleunigungen, Drehraten oder Koordinaten, die von einem entsprechenden Inertialsensor bzw. in einer Inertialsensoreinheit oder einem Positionssensor ermittelt wurden.The motion data of the motion sensor 20th include in particular accelerations, rotation rates or coordinates that were determined by a corresponding inertial sensor or in an inertial sensor unit or a position sensor.

In der ersten Rastereinheit 28 kann insbesondere eine Evidential Grid Map-Darstellung der Umgebung erzeugt werden. Ein Evidential Grid basiert darauf, dass Detektionen oder auch andere Informationen wie beispielsweise die Belegungswahrscheinlichkeit der verschiedenen Sensortechnologien über die Zeit akkumuliert werden. Alternativ oder zusätzlich kann eine Occupancy Grid Map-Darstellung der Umgebung erzeugt werden. Unter einem Occupancy Grid wird insbesondere ein zweidimensionales, in der Bodenebene liegendes Gitter verstanden, das in jeder Zelle die Wahrscheinlichkeit dafür enthält, dass dieser Bereich des Umfelds durch ein Hindernis belegt ist.In the first grid unit 28 In particular, an evidential grid map representation of the surroundings can be generated. An Evidential Grid is based on the fact that detections or other information such as the occupancy probability of the various sensor technologies are accumulated over time. Alternatively or additionally, an occupancy grid map representation of the surroundings can be generated. An occupancy grid is understood to mean, in particular, a two-dimensional grid lying on the ground level, which contains in every cell the probability that this area of the environment is occupied by an obstacle.

In der Lokalisierungseinheit 30 wird basierend auf den empfangenen Bewegungsdaten eine Position und Orientierung (Pose) des Fahrzeugs berechnet. Die berechnete Pose entspricht dabei vorzugsweise einer Absolutinformation bezüglich eines absoluten Koordinatensystems (Weltkoordinatensystems). Insbesondere die Orientierung, also die aktuelle Ausrichtung des Fahrzeugs und der Sensoren des Fahrzeugs, wird vorzugsweise innerhalb eines absoluten Koordinatensystems ermittelt. Hierzu können in der Lokalisierungseinheit beispielsweise rekursive Ansätze verwendet werden. Bei diesen wird eine Schätzung der Pose in regelmäßigen oder unregelmäßigen Zeitabständen aktualisiert basierend auf neu hinzugekommenen Bewegungsdaten. In the localization unit 30th a position and orientation (pose) of the vehicle is calculated based on the received movement data. The calculated pose preferably corresponds to absolute information regarding an absolute coordinate system (world coordinate system). In particular, the orientation, that is the current orientation of the vehicle and the sensors of the vehicle, is preferably determined within an absolute coordinate system. For this purpose, recursive approaches can be used in the localization unit, for example. In these, an estimate of the pose is updated at regular or irregular intervals based on newly added movement data.

Algorithmen aus dem Bereich der simultanen Lokalisierung und Kartographierung, der Inertialnavigation oder der Odometrie können dabei verwendet werden.Algorithms from the area of simultaneous localization and mapping, inertial navigation or odometry can be used.

Die zweite Rastereinheit 32 erzeugt ausgehend von den Kartendaten und der Pose eine zweite Rasterdarstellung, die in ihrer Ausrichtung der ersten Rasterdarstellung entspricht. Es wird sozusagen sichergestellt, dass die erste Rasterdarstellung und die zweite Rasterdarstellung einen entsprechenden Bereich der Umgebung des Fahrzeugs repräsentieren. Es ist vorteilhaft, wenn die erste Rasterdarstellung und die zweite Rasterdarstellung im Wesentlichen denselben Bereich repräsentieren, sich also größtenteils oder vollständig überlappen. Es ist aber nicht erforderlich, dass die erste und zweite Rasterdarstellung komplett überlappend sind. Es ist auch möglich, dass lediglich eine teilweise Überlappung besteht oder auch nur ein Angrenzen bzw. eine zeitliche Überschneidung vorliegt. Beispielsweise kann die zweite Rasterdarstellung einen Bereich des Umfelds des Fahrzeugs repräsentieren, der vom Fahrzeug durchfahren wird, nachdem dieses den aktuell von der ersten Rasterdarstellung repräsentierten Bereich des Umfelds durchfahren hat. In der zweiten Rastereinheit 32 kann dabei vergleichbar zur ersten Rastereinheit ebenfalls eine Evidential Grid Map-Darstellung oder eine Occupancy Grid Map-Darstellung der Umgebung erzeugt werden. In anderen Worten werden die vorbekannten Informationen der Kartendaten sowie die im Fahrzeug vorhandenen Informationen des Umgebungssensors bzw. die darauf basierend generierten Rasterdarstellungen synchronisiert.The second grid unit 32 generates a second raster representation based on the map data and the pose, the alignment of which corresponds to that of the first raster representation. It is ensured, so to speak, that the first raster representation and the second raster representation represent a corresponding area of the surroundings of the vehicle. It is advantageous if the first raster representation and the second raster representation represent essentially the same area, that is to say they overlap for the most part or completely. However, it is not necessary for the first and second raster display to overlap completely. It is also possible that there is only a partial overlap or that there is only a border or a temporal overlap. For example, the second raster representation can represent a region of the surroundings of the vehicle which the vehicle traverses after it has passed the region of the region currently represented by the first raster representation. In the second grid unit 32 an Evidential Grid Map representation or an Occupancy Grid Map representation of the surroundings can also be generated, comparable to the first raster unit. In other words, the previously known information of the map data and the information from the environment sensor present in the vehicle or the raster representations generated on the basis thereof are synchronized.

In der Auswerteeinheit 34 werden die erste Rasterdarstellung und die zweite Rasterdarstellung fusioniert. Insbesondere kann eine Zuordnung vorgenommen werden zwischen Objekten in den beiden Rasterdarstellungen. Wenn beispielsweise ein Objekt in der ersten Rasterdarstellung keine Entsprechung in der zweiten Rasterdarstellung findet, kann dies bedeuten, dass im entsprechenden Bereich des Sichtfelds des Umgebungssensors eine Blockade vorliegt. Es versteht sich, dass der ermittelte blockierte Bereich des Sichtfelds des Umgebungssensors dabei auch mehrere Teilbereiche umfassen kann. In anderen Worten wird in der Auswerteeinheit 34 eine Fusion der verschiedenen Informationsquellen vorgenommen.In the evaluation unit 34 the first raster representation and the second raster representation are merged. In particular, an assignment can be made between objects in the two raster representations. If, for example, an object in the first raster display does not find a match in the second raster display, this can mean that there is a blockage in the corresponding area of the field of view of the environmental sensor. It goes without saying that the determined blocked area of the field of view of the environmental sensor can also comprise several partial areas. In other words, in the evaluation unit 34 a fusion of the various information sources.

Für die eigentliche Schätzung der Sensorblockade können beispielsweise ein Freespace Estimation-Algorithmus oder Ansätze des Ray-Tracings (2D oder 3D) eingesetzt werden. Es ist möglich und vorteilhaft, dass bei der Ermittlung der Sensorblockade zusätzlich weitere Informationen der Kartendaten berücksichtigt werden. Beispielsweise kann ein Verlauf einer Straße als Straßenmodell in den Kartendaten vorhanden sein. Ausgehend hiervon können dynamische Objekte (auch als Ghost Objects bezeichnet) erkannt werden, da diese sich vorzugsweise auf einer Straße befinden. Insoweit wird ein apriori-Wissen des Straßenmodells als Erwartungswert für möglicherweise auftretende dynamische Objekte verwendet. Das Ergebnis der Ermittlung des blockierten Bereichs des Sichtfelds des Umgebungssensors entspricht in anderen Worten einem realen Sichtfeld des Umgebungssensors. Ermittelt wird sozusagen, wie weit der Umgebungssensor sehen kann.For the actual estimation of the sensor blockage, for example, a freespace estimation algorithm or approaches of ray tracing (2D or 3D) can be used. It is possible and advantageous that additional information from the card data is taken into account when determining the sensor blockage. For example, a course of a street can be present in the map data as a street model. Based on this, dynamic objects (also as ghost objects designated) can be recognized, since these are preferably located on a street. In this respect, an a priori knowledge of the street model is used as the expected value for dynamic objects that may occur. In other words, the result of the determination of the blocked area of the field of view of the environment sensor corresponds to a real field of vision of the environment sensor. It is determined, so to speak, how far the environmental sensor can see.

In der 3 ist schematisch eine Ermittlung eines blockierten Bereichs dargestellt. Die Darstellung entspricht dabei einer Draufsicht aus der Vogelperspektive. Innerhalb eines Sichtfelds 24 des Umgebungssensors 16 befindet sich ein Objekt 22. Verschiedene Scanpunkte 36 erlauben eine Detektion des Objekts 22. Neben den Scanpunkten 36 des Umgebungssensors 16 wird das Objekt 22 auch ausgehend von den Kartendaten erkannt. In der Auswerteeinheit kann nun festgestellt werden, dass das Objekt 22, wie basierend auf den Kartendaten (der zweiten Rasterdarstellung) identifiziert, größer sein sollte als von den Scanpunkten 36 des Umgebungssensors 16 reflektiert. Hierauf basierend wird ein (möglicherweise) blockierter Bereich 38 ermittelt. Der blockierte Bereich 38 liegt im Sichtfeld 24 des Umgebungssensors 16 und umfasst im dargestellten Beispiel zwei Teilbereiche.In the 3rd a determination of a blocked area is shown schematically. The illustration corresponds to a top view from a bird's eye view. Within a field of vision 24th of the environmental sensor 16 there is an object 22 . Different scan points 36 allow detection of the object 22 . In addition to the scan points 36 of the environmental sensor 16 becomes the object 22 also recognized based on the card data. It can now be determined in the evaluation unit that the object 22 as identified based on the map data (the second raster representation) should be larger than from the scan points 36 of the environmental sensor 16 reflected. Based on this, a (possibly) blocked area is created 38 determined. The blocked area 38 lies in the field of vision 24th of the environmental sensor 16 and in the example shown comprises two sub-areas.

In der 4 ist schematisch ein Umgebungssensor 16, eine erste Rasterdarstellung 40 und eine zweite Rasterdarstellung 42 abgebildet. Die Darstellung entspricht dabei ebenfalls einer Draufsicht auf einen bestimmten Bereich in der Umgebung eines Fahrzeugs. Im dargestellten Beispiel schließen die erste Rasterdarstellung 40 und die zweite Rasterdarstellung 42 aneinander an. Insoweit wird ein Bereich in der Nähe des Umgebungssensors 16 mittels einer Rasterdarstellung basierend auf Umgebungssensordaten abgebildet und ein Bereich in größerer Entfernung mittels einer Rasterdarstellung basierend auf vorbekannten Kartendaten abgebildet. Durch das Aneinanderanschließen der ersten Rasterdarstellung 40 und der zweiten Rasterdarstellung 42 können erwartete Objekte in Bereichen, die demnächst durchfahren werden, identifiziert werden. Dies kann als Grundlage für das Ermitteln eines blockierten Bereichs eines Sichtfelds des Umgebungssensors 16 verwendet werden.In the 4th is a schematic of an environmental sensor 16 , a first raster representation 40 and a second raster representation 42 pictured. The representation also corresponds to a top view of a specific area in the vicinity of a vehicle. In the example shown, the first raster display is closed 40 and the second raster representation 42 to each other. In this respect, an area near the environmental sensor 16 mapped using a raster display based on environment sensor data and an area at a greater distance mapped using a raster display based on previously known map data. By connecting the first grid display together 40 and the second raster representation 42 expected objects can be identified in areas that will soon be passed through. This can be used as the basis for determining a blocked area of a field of view of the environmental sensor 16 be used.

In der 5 ist schematisch ein Fahrzeug 10 dargestellt, in das ein erfindungsgemä-ßes System 12 teilweise integriert ist. Das System 12 umfasst eine Vorrichtung 14, einen Umgebungssensor 16, eine Kartendatenbank 18 sowie einen Bewegungssensor 20. Vorzugsweise werden als Sensoren ohnehin im Fahrzeug 10 bereits vorhandene Sensoren verwendet.In the 5 is schematically a vehicle 10th shown, in which a system according to the invention 12 is partially integrated. The system 12 comprises a device 14 , an environmental sensor 16 , a map database 18th as well as a motion sensor 20th . Are preferably used as sensors anyway in the vehicle 10th existing sensors used.

Im Gegensatz zur zuvor dargestellten Ausführungsform ist die Kartendatenbank 18 im dargestellten Ausführungsbeispiel außerhalb des Fahrzeugs 10 angeordnet. Ein Zugriff auf die Kartendatenbank 18 erfolgt beispielsweise über eine Mobilkommunikationseinheit 44 des Fahrzeugs. Um eine effiziente Datenübertragung sicherzustellen, wird vorzugsweise zunächst eine Synchronisierung zwischen der entfernten Kartendatenbank 18 (Clouddatenbank) und dem Fahrzeug vorgenommen. Hierzu kann die Position des Fahrzeugs an die Kartendatenbank 18 übermittelt werden. Dann kann in der Kartendatenbank 18 festgestellt werden, welche Kartendaten übermittelt werden sollen. Insbesondere kann festgestellt werden, welchen räumlichen Bezug die übermittelten Kartendaten aufweisen sollen. Beispielsweise können Kartendaten für einen Bereich um das Fahrzeug übermittelt werden. Insbesondere kann ein vorgefülltes Raster für die Umgebung des Fahrzeugs oder auch ein Straßenmodell als Kartendaten an das Fahrzeug 10 übermittelt werden. Die Übermittlung erfolgt üblicherweise über eine Mobilkommunikationseinheit 44. Innerhalb des Fahrzeugs erfolgt dann eine Synchronisierung der auf Basis der Umgebungssensordaten hergestellten ersten Rasterdarstellung mit den Informationen der Kartendatenbank 18. Ausgehend hiervon kann das Sichtfeld des Umgebungssensors 16 bestätigt werden oder auch eine Sensorblockade festgestellt werden.In contrast to the embodiment shown above, the map database is 18th in the illustrated embodiment outside the vehicle 10th arranged. Access to the map database 18th takes place, for example, via a mobile communication unit 44 of the vehicle. In order to ensure efficient data transmission, synchronization between the remote map database is preferably carried out first 18th (Cloud database) and the vehicle. To do this, the position of the vehicle can be sent to the map database 18th be transmitted. Then in the card database 18th determine which card data should be transmitted. In particular, it can be determined which spatial reference the transmitted map data should have. For example, map data for an area around the vehicle can be transmitted. In particular, a prefilled grid for the surroundings of the vehicle or a street model can be sent to the vehicle as map data 10th be transmitted. The transmission is usually carried out via a mobile communication unit 44 . The first raster display produced on the basis of the environment sensor data is then synchronized with the information from the map database within the vehicle 18th . Based on this, the field of view of the environmental sensor 16 be confirmed or a sensor blockage can be found.

In der 6 ist schematisch ein erfindungsgemäßes Verfahren dargestellt. Das Verfahren umfasst Schritte des Empfangens S10 von Umgebungssensordaten, Kartendaten und Bewegungsdaten, des Erzeugens S12 einer ersten Rasterdarstellung, des Ermittelns S14 einer Pose des Fahrzeugs, des Erzeugens S16 einer zweiten Rasterdarstellung und des Ermittelns S18 eines blockierten Bereichs des Sichtfelds des Umgebungssensors. Das Verfahren kann beispielsweise als Software implementiert sein, die auf einem Fahrzeugsteuergerät ausgeführt wird. Ebenfalls ist es möglich, dass das erfindungsgemäße Verfahren als Software für ein Mobilgerät (Smartphone-App) implementiert ist. Das Verfahren kann vollständig oder teilweise cloudbasiert ausgeführt sein.In the 6 a method according to the invention is shown schematically. The method includes steps of receiving S10 of environment sensor data, map data and movement data, of generation S12 a first raster representation, the determination S14 a pose of the vehicle, of creating S16 a second raster display and the determination S18 a blocked area of the field of view of the environmental sensor. The method can be implemented, for example, as software that is executed on a vehicle control unit. It is also possible that the method according to the invention is implemented as software for a mobile device (smartphone app). The method can be completely or partially cloud-based.

Die Erfindung wurde anhand der Zeichnungen und der Beschreibung umfassend beschrieben und erklärt. Die Beschreibung und Erklärung sind als Beispiel und nicht einschränkend zu verstehen. Die Erfindung ist nicht auf die offenbarten Ausführungsformen beschränkt. Andere Ausführungsformen oder Variationen ergeben sich für den Fachmann bei der Verwendung der vorliegenden Erfindung sowie bei einer genauen Analyse der Zeichnungen, der Offenbarung und der nachfolgenden Patentansprüche.The invention has been described and explained comprehensively with reference to the drawings and the description. The description and explanation are to be understood as examples and not restrictive. The invention is not limited to the disclosed embodiments. Other embodiments or variations will occur to those skilled in the art using the present invention, as well as upon a detailed analysis of the drawings, the disclosure, and the following claims.

In den Patentansprüchen schließen die Wörter „umfassen“ und „mit“ nicht das Vorhandensein weiterer Elemente oder Schritte aus. Der undefinierte Artikel „ein“ oder „eine“ schließt nicht das Vorhandensein einer Mehrzahl aus. Ein einzelnes Element oder eine einzelne Einheit kann die Funktionen mehrerer der in den Patentansprüchen genannten Einheiten ausführen. Ein Element, eine Einheit, eine Vorrichtung und ein System können teilweise oder vollständig in Hard- und/oder in Software umgesetzt sein. Die bloße Nennung einiger Maßnahmen in mehreren verschiedenen abhängigen Patentansprüchen ist nicht dahingehend zu verstehen, dass eine Kombination dieser Maßnahmen nicht ebenfalls vorteilhaft verwendet werden kann. Ein Computerprogramm kann auf einem nichtflüchtigen Datenträger gespeichert/vertrieben werden, beispielsweise auf einem optischen Speicher oder auf einem Halbleiterlaufwerk (SSD). Ein Computerprogramm kann zusammen mit Hardware und/oder als Teil einer Hardware vertrieben werden, beispielsweise mittels des Internets oder mittels drahtgebundener oder drahtloser Kommunikationssysteme. Bezugszeichen in den Patentansprüchen sind nicht einschränkend zu verstehen.In the claims, the words "comprise" and "with" do not exclude the presence of further elements or steps. The undefined article "a" or "an" does not exclude the existence of a plurality. A single element or a single unit can perform the functions of several of the units mentioned in the claims. An element, a unit, a device and a system can be partially or completely implemented in hardware and / or in software. The mere mention of some measures in several different dependent claims is not to be understood to mean that a combination of these measures cannot also be used advantageously. A computer program can be stored / distributed on a non-volatile data carrier, for example on an optical memory or on a semiconductor drive (SSD). A computer program can be distributed together with hardware and / or as part of hardware, for example by means of the Internet or by means of wired or wireless communication systems. Reference signs in the claims are not to be understood as restrictive.

BezugszeichenlisteReference symbol list

1010th
Fahrzeugvehicle
1212
Systemsystem
1414
Vorrichtungcontraption
1616
UmgebungssensorEnvironmental sensor
1818th
KartendatenbankMap database
2020th
BewegungssensorMotion sensor
2222
Objektobject
2424th
SichtfeldField of view
2626
Schnittstelleinterface
2828
erste Rastereinheitfirst raster unit
3030th
LokalisierungseinheitLocalization unit
3232
zweite Rastereinheitsecond grid unit
3434
AuswerteeinheitEvaluation unit
3636
ScanpunktScan point
3838
blockierter Bereichblocked area
4040
erste Rasterdarstellungfirst raster display
4242
zweite Rasterdarstellungsecond raster representation
4444
MobilkommunikationseinheitMobile communication unit

Claims (15)

Vorrichtung (14) zum Erkennen einer Sensorblockade eines Umgebungssensors (16), mit: einer Schnittstelle (26) zum Empfangen von Umgebungssensordaten des Umgebungssensors mit Informationen zu Abständen zwischen Objekten (22) in einer Umgebung eines Fahrzeugs (10) und dem Fahrzeug, von Kartendaten einer Kartendatenbank (18) mit Informationen zu Positionen der Objekte in der Umgebung des Fahrzeugs sowie von Bewegungsdaten eines Bewegungssensors (20) mit Informationen zu einer Bewegung des Fahrzeugs in Bezug zu der Umgebung; einer ersten Rastereinheit (28) zum Erzeugen einer ersten Rasterdarstellung (40) der Umgebung des Fahrzeugs basierend auf den Umgebungssensordaten; einer Lokalisierungseinheit (30) zum Ermitteln einer Pose des Fahrzeugs mit Informationen zu einer Position und Orientierung des Fahrzeugs in Bezug zu der Umgebung basierend auf den Bewegungsdaten; einer zweiten Rastereinheit (32) zum Erzeugen einer entsprechend der ersten Rasterdarstellung ausgerichteten zweiten Rasterdarstellung (42) der Umgebung des Fahrzeugs basierend auf den Kartendaten und der Pose; und einer Auswerteeinheit (34) zum Ermitteln eines blockierten Bereichs (38) eines Sichtfelds (24) des Umgebungssensors basierend auf der ersten Rasterdarstellung und der zweiten Rasterdarstellung.Device (14) for detecting a sensor blockage of an environmental sensor (16), with: an interface (26) for receiving environment sensor data from the environment sensor with information on distances between objects (22) in an environment of a vehicle (10) and the vehicle, map data from a map database (18) with information on positions of the objects in the environment of the vehicle and movement data of a movement sensor (20) with information on a movement of the vehicle in relation to the surroundings; a first raster unit (28) for generating a first raster representation (40) of the surroundings of the vehicle based on the surroundings sensor data; a localization unit (30) for determining a pose of the vehicle with information on a position and orientation of the vehicle in relation to the surroundings based on the movement data; a second raster unit (32) for generating a second raster representation (42) of the surroundings of the vehicle oriented according to the first raster representation based on the map data and the pose; and an evaluation unit (34) for determining a blocked area (38) of a field of view (24) of the environmental sensor based on the first raster representation and the second raster representation. Vorrichtung (14) nach Anspruch 1, wobei die erste Rastereinheit (28) zum Erzeugen einer zweidimensionalen ersten Rasterdarstellung (40) ausgebildet ist; und die zweite Rastereinheit (32) zum Erzeugen einer zweidimensionalen zweiten Rasterdarstellung (42) ausgebildet ist.Device (14) after Claim 1 , wherein the first raster unit (28) is designed to generate a two-dimensional first raster representation (40); and the second raster unit (32) is designed to generate a two-dimensional second raster representation (42). Vorrichtung (14) nach einem der vorstehenden Ansprüche, wobei die erste Rastereinheit (28) zum Erzeugen der ersten Rasterdarstellung (40) basierend auf einer Akkumulation der Umgebungssensordaten über mehrere Messzyklen des Umgebungssensors (16) ausgebildet ist.Device (14) according to one of the preceding claims, wherein the first raster unit (28) is designed to generate the first raster representation (40) based on an accumulation of the environmental sensor data over several measurement cycles of the environmental sensor (16). Vorrichtung (14) nach einem der vorstehenden Ansprüche, wobei die erste Rastereinheit (28) zum Erzeugen eines Evidential Grids, eines Occupancy Grids und/oder eines Freespace Grids der Umgebung des Fahrzeugs (10) ausgebildet ist.Device (14) according to one of the preceding claims, wherein the first raster unit (28) is designed to generate an Evidential Grid, an Occupancy Grid and / or a Freespace Grid in the vicinity of the vehicle (10). Vorrichtung (14) nach einem der vorstehenden Ansprüche, wobei die Schnittstelle (26) zum Empfangen von Kartendaten mit einer vorbekannten Rasterdarstellung der Umgebung des Fahrzeugs (10), vorzugsweise eines Evidential Grids, eines Occupancy Grids und/oder eines Freespace Grids ausgebildet ist.Device (14) according to one of the preceding claims, wherein the interface (26) is designed to receive map data with a known raster representation of the surroundings of the vehicle (10), preferably an evidential grid, an occupancy grid and / or a freespace grid. Vorrichtung (14) nach einem der vorstehenden Ansprüche, wobei die Lokalisierungseinheit (30) zum Ermitteln der Pose basierend auf einer Inertialnavigation, einer simultanen Lokalisierung und Kartographierung und/oder einer Odometrie ausgebildet ist. Device (14) according to one of the preceding claims, wherein the localization unit (30) is designed to determine the pose based on inertial navigation, simultaneous localization and mapping and / or odometry. Vorrichtung (14) nach einem der vorstehenden Ansprüche, wobei die Auswerteeinheit (34) zum Ermitteln des blockierten Bereichs (38) basierend auf einer Zuordnung zwischen einem ersten Objekt der ersten Rasterdarstellung (40) und einem zweiten Objekt der zweiten Rasterdarstellung (42) ausgebildet ist; die Auswerteeinheit zum Ermitteln eines dem ersten Objekt entsprechenden Bereichs des Sichtfelds (24) des Umgebungssensors (16) als blockiertem Bereich ausgebildet ist, wenn dem ersten Objekt kein zweites Objekt zuordenbar ist.Device (14) according to one of the preceding claims, wherein the evaluation unit (34) is designed to determine the blocked area (38) based on an assignment between a first object of the first raster representation (40) and a second object of the second raster representation (42); the evaluation unit is designed to determine an area of the field of view (24) of the environmental sensor (16) corresponding to the first object as a blocked area if the second object cannot be assigned to the first object. Vorrichtung (14) nach einem der vorstehenden Ansprüche, wobei die Schnittstelle (26) zum Empfangen von Bewegungsdaten mit Sensordaten einer Inertialmesseinheit und/oder Positionsdaten eines Positionssensors ausgebildet ist.Device (14) according to one of the preceding claims, wherein the interface (26) is designed to receive movement data with sensor data of an inertial measuring unit and / or position data of a position sensor. Vorrichtung (14) nach einem der vorstehenden Ansprüche, wobei die Schnittstelle (26) zum Übermitteln der Position des Fahrzeugs (10) an die Kartendatenbank (18) ausgebildet ist; und zum Empfangen von Kartendaten mit Informationen zu Objekten (22) innerhalb eines vordefinierten Bereichs um die Position des Fahrzeugs ausgebildet ist.Device (14) according to one of the preceding claims, wherein the interface (26) is configured to transmit the position of the vehicle (10) to the map database (18); and is configured to receive map data with information about objects (22) within a predefined area around the position of the vehicle. Vorrichtung (14) nach einem der vorstehenden Ansprüche, wobei die Auswerteeinheit (34) zum Ermitteln eines erwarteten freien Bereichs basierend auf der zweiten Rasterdarstellung (42) ausgebildet ist; und zum Ermitteln des blockierten Bereichs (38) basierend auf dem erwarteten freien Bereich und der ersten Rasterdarstellung (40) ausgebildet ist.Device (14) according to one of the preceding claims, wherein the evaluation unit (34) is configured to determine an expected free area based on the second raster representation (42); and is configured to determine the blocked area (38) based on the expected free area and the first raster representation (40). Vorrichtung (14) nach einem der vorstehenden Ansprüche, wobei die Schnittstelle (26) zum Empfangen von Kartendaten mit Informationen zu einem Verlauf einer Straße in der Umgebung des Fahrzeugs (10) ausgebildet ist; die Auswerteeinheit (34) zum Erkennen eines dynamischen Objekts basierend auf den Kartendaten und den Umgebungssensordaten ausgebildet ist; und die Auswerteeinheit zum Ermitteln des blockierten Bereichs (38) basierend auf dem erkannten dynamischen Objekt ausgebildet ist.Device (14) according to one of the preceding claims, wherein the interface (26) is designed to receive map data with information on a course of a road in the vicinity of the vehicle (10); the evaluation unit (34) is designed to recognize a dynamic object based on the map data and the environmental sensor data; and the evaluation unit is designed to determine the blocked area (38) based on the detected dynamic object. Vorrichtung (14) nach einem der vorstehenden Ansprüche, wobei die Schnittstelle (26) zum Empfangen von Umgebungssensordaten eines Radar-, Lidar- und/oder Ultraschallsensors ausgebildet ist.Device (14) according to one of the preceding claims, wherein the interface (26) is designed to receive environmental sensor data from a radar, lidar and / or ultrasonic sensor. System (12) zum Erkennen einer Sensorblockade eines Umgebungssensors (16), mit: einem Umgebungssensor zum Erfassen von Abständen zwischen einem Fahrzeug (10) und einem Objekt (22) in einer Umgebung des Fahrzeugs; einer Kartendatenbank (18) mit Informationen zu Positionen von Objekten innerhalb eines Bezugsgebiets; einem Bewegungssensor (20) zum Erfassen einer Bewegung des Fahrzeugs in Bezug zu der Umgebung; und einer Vorrichtung (14) nach einem der Ansprüche 1 bis 12.A system (12) for detecting a sensor blockage of an environmental sensor (16), comprising: an environmental sensor for detecting distances between a vehicle (10) and an object (22) in an environment of the vehicle; a map database (18) with information on positions of objects within a reference area; a motion sensor (20) for detecting motion of the vehicle with respect to the environment; and a device (14) according to one of the Claims 1 to 12 . Verfahren zum Erkennen einer Sensorblockade eines Umgebungssensors (16), mit den Schritten: Empfangen (S10) von Umgebungssensordaten des Umgebungssensors mit Informationen zu Abständen zwischen Objekten (22) in einer Umgebung eines Fahrzeugs und dem Fahrzeug (10), von Kartendaten einer Kartendatenbank (18) mit Informationen zu Positionen der Objekte in der Umgebung des Fahrzeugs sowie von Bewegungsdaten eines Bewegungssensors (20) mit Informationen zu einer Bewegung des Fahrzeugs in Bezug zu der Umgebung; Erzeugen (S12) einer ersten Rasterdarstellung (40) der Umgebung des Fahrzeugs basierend auf den Umgebungssensordaten; Ermitteln (S14) einer Pose des Fahrzeugs mit Informationen zu einer Position und Orientierung des Fahrzeugs in Bezug zu der Umgebung basierend auf den Bewegungsdaten; Erzeugen (S16) einer entsprechend der ersten Rasterdarstellung ausgerichteten zweiten Rasterdarstellung (42) der Umgebung des Fahrzeugs basierend auf den Kartendaten und der Pose; und Ermitteln (S18) eines blockierten Bereichs (38) eines Sichtfelds (24) des Umgebungssensors basierend auf der ersten Rasterdarstellung und der zweiten Rasterdarstellung.Method for recognizing a sensor blockage of an environmental sensor (16), with the steps: Receiving (S10) environment sensor data from the environment sensor with information on distances between objects (22) in an environment of a vehicle and the vehicle (10), map data from a map database (18) with information on positions of the objects in the environment of the vehicle and movement data a motion sensor (20) with information on a movement of the vehicle in relation to the surroundings; Generating (S12) a first raster representation (40) of the surroundings of the vehicle based on the surroundings sensor data; Determining (S14) a pose of the vehicle with information on a position and orientation of the vehicle in relation to the surroundings based on the movement data; Generating (S16) a second raster representation (42) of the surroundings of the vehicle oriented according to the first raster representation based on the map data and the pose; and Determining (S18) a blocked area (38) of a field of view (24) of the environmental sensor based on the first raster representation and the second raster representation. Computerprogrammprodukt mit Programmcode zum Durchführen der Schritte des Verfahrens nach Anspruch 14, wenn der Programmcode auf einem Computer ausgeführt wird.Computer program product with program code for performing the steps of the method according to Claim 14 if the program code is executed on a computer.
DE102018220113.7A 2018-11-23 2018-11-23 Device and method for detecting a sensor blockage of an environmental sensor Pending DE102018220113A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018220113.7A DE102018220113A1 (en) 2018-11-23 2018-11-23 Device and method for detecting a sensor blockage of an environmental sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018220113.7A DE102018220113A1 (en) 2018-11-23 2018-11-23 Device and method for detecting a sensor blockage of an environmental sensor

Publications (1)

Publication Number Publication Date
DE102018220113A1 true DE102018220113A1 (en) 2020-05-28

Family

ID=70545687

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018220113.7A Pending DE102018220113A1 (en) 2018-11-23 2018-11-23 Device and method for detecting a sensor blockage of an environmental sensor

Country Status (1)

Country Link
DE (1) DE102018220113A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022128206A1 (en) 2020-12-18 2022-06-23 Mercedes-Benz Group AG Method for operating a light assistance system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014201158A1 (en) * 2014-01-23 2015-07-23 Robert Bosch Gmbh Method and device for checking a relevant object detected by an object recognition
DE102014208006A1 (en) * 2014-04-29 2015-11-26 Bayerische Motoren Werke Aktiengesellschaft Method for detecting the surroundings of a vehicle
DE102015223176A1 (en) * 2015-11-24 2017-05-24 Conti Temic Microelectronic Gmbh Method and device for determining occlusion areas in the vehicle environment of a vehicle
DE102016215501A1 (en) * 2016-08-18 2018-02-22 Robert Bosch Gmbh Landmark tag detection method and apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014201158A1 (en) * 2014-01-23 2015-07-23 Robert Bosch Gmbh Method and device for checking a relevant object detected by an object recognition
DE102014208006A1 (en) * 2014-04-29 2015-11-26 Bayerische Motoren Werke Aktiengesellschaft Method for detecting the surroundings of a vehicle
DE102015223176A1 (en) * 2015-11-24 2017-05-24 Conti Temic Microelectronic Gmbh Method and device for determining occlusion areas in the vehicle environment of a vehicle
DE102016215501A1 (en) * 2016-08-18 2018-02-22 Robert Bosch Gmbh Landmark tag detection method and apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022128206A1 (en) 2020-12-18 2022-06-23 Mercedes-Benz Group AG Method for operating a light assistance system
DE102020007759A1 (en) 2020-12-18 2022-06-23 Mercedes-Benz Group AG Method for operating a light assistance system

Similar Documents

Publication Publication Date Title
DE102010006828B4 (en) Method for the automatic creation of a model of the surroundings of a vehicle as well as driver assistance system and vehicle
DE102014223363B4 (en) Method and device for localizing a motor vehicle in a fixed reference map
DE102017108774A1 (en) Tire Track maps estimate
DE102018100469A1 (en) GENERATED SIMULATED SENSOR DATA FOR TRAINING AND VERIFYING RECOGNITION MODELS
EP3380810B1 (en) Method, device, map processing device and system for precise localization of a vehicle in its surroundings
DE102016112492A9 (en) Minimization of incorrect sensor data associations for autonomous vehicles
DE102018220024B3 (en) Method for fusing sensor data from several sensors and fusion device for fusing sensor data from several sensors
DE102021002798A1 (en) Process for camera-based environment detection
DE102018215753A1 (en) Device and method for determining a trajectory of a vehicle
DE102016003261A1 (en) Method for self-localization of a vehicle in a vehicle environment
DE102022100041A1 (en) OPERATIONAL ENVELOPE DETECTION WITH SITUATION ASSESSMENT USING METRICS
DE102019114371A1 (en) ONLINE DIAGNOSTICS AND PROGNOSTICS FOR A VEHICLE PERCEPTION SYSTEM
DE102019123483B4 (en) Method and motor vehicle control unit for detecting the surroundings of a motor vehicle by merging sensor data at point cloud level
DE102023111485A1 (en) TRACKING SEGMENT CLEANUP OF TRACKED OBJECTS
DE102018220114A1 (en) Device and method for detecting a sensor blockage of an environmental sensor
EP3637311A1 (en) Device and method for determining the altitude information of an object in an environment of a vehicle
DE102017212513A1 (en) Method and system for detecting a free area within a parking lot
DE102017206344A1 (en) Driver assistance system for a vehicle
DE102021128727A1 (en) GHOST POINT FILTRATION
DE102018220113A1 (en) Device and method for detecting a sensor blockage of an environmental sensor
DE102016212774A1 (en) Method and device for generating an environment map and for locating a vehicle
DE102019210933A1 (en) Environmental detection device and system for automated mobility
DE102021119871B4 (en) Method and processor circuit for operating an automated driving function with an object classifier in a motor vehicle, and motor vehicle
DE102020200876B4 (en) Method for processing sensor data from a sensor system in a vehicle
DE102022100059A1 (en) DETECTION OF THE OPERATIVE ENVELOPE WITH SITUATIVE ASSESSMENT

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed