DE102019213867A1 - Obstacle detection comprising a recurrent neural network - Google Patents
Obstacle detection comprising a recurrent neural network Download PDFInfo
- Publication number
- DE102019213867A1 DE102019213867A1 DE102019213867.5A DE102019213867A DE102019213867A1 DE 102019213867 A1 DE102019213867 A1 DE 102019213867A1 DE 102019213867 A DE102019213867 A DE 102019213867A DE 102019213867 A1 DE102019213867 A1 DE 102019213867A1
- Authority
- DE
- Germany
- Prior art keywords
- neural network
- sensor
- vehicle
- sensors
- recurrent neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9323—Alternative operation using light waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9324—Alternative operation using ultrasonic waves
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Networks & Wireless Communication (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
Abstract
Vorrichtung zur Auswertung der von wenigstens einem Umfeldsensor (26) eines Fahrzeugs (10) erfassten Sensordaten, wobei die Vorrichtung ein künstliches rekurrentes neuronales Netzwerk (47) umfasst, das dazu ausgelegt ist, die Sensordaten zu filtern.Device for evaluating the sensor data recorded by at least one environment sensor (26) of a vehicle (10), the device comprising an artificial recurrent neural network (47) which is designed to filter the sensor data.
Description
TECHNISCHES GEBIETTECHNICAL AREA
Die vorliegende Offenbarung betrifft das technische Gebiet der Fahrzeugsensorik und deren Datenauswertung, insbesondere für autonome oder teilautonome Fahrzeuge.The present disclosure relates to the technical field of vehicle sensors and their data evaluation, in particular for autonomous or semi-autonomous vehicles.
TECHNISCHER HINTERGRUNDTECHNICAL BACKGROUND
Autonome oder teilautonome Fahrzeuge weisen Sensoren wie beispielsweise Kameras, Radar- und Lidar-Sensoren auf, die das Umfeld des Fahrzeugs sensorisch erfassen und deren Daten in einer Steuereinheit mittels geeigneter Software ausgewertet werden. Auf Grundlage der durch diese Datenverarbeitung gewonnenen Informationen kann eine Steuereinheit über entsprechende Aktuatoren Brems-, Geschwindigkeits-, Abstands-, Kompensations- und/oder Ausweichregelungen selbsttätig auslösen und durchführen.Autonomous or semi-autonomous vehicles have sensors such as cameras, radar and lidar sensors, which detect the surroundings of the vehicle using sensors and whose data are evaluated in a control unit using suitable software. On the basis of the information obtained through this data processing, a control unit can automatically initiate and carry out braking, speed, distance, compensation and / or evasive regulation via corresponding actuators.
Für leistungsstarke Fahrassistenzsysteme und autonome Fahrzeuge ist eine präzise Umfelderkennung wichtig. Zu diesem Zweck besitzen moderne Fahrzeuge eine Vielzahl von Sensoren, zum Beispiel Radar, Lidar- oder Kamera-Sensoren, die ihre Messwerte in Form einer Punktwolke liefern. Aus den von den Sensoren bereitgestellten Punktwolken gilt es, zuverlässige Informationen über mögliche Objekte im Fahrpfad oder auf Kollisionskurs zum eigenen Fahrzeug zu erhalten.Precise recognition of the surroundings is important for high-performance driver assistance systems and autonomous vehicles. For this purpose, modern vehicles have a large number of sensors, for example radar, lidar or camera sensors, which deliver their measured values in the form of a point cloud. The point clouds provided by the sensors are used to obtain reliable information about possible objects in the driving path or on a collision course with one's own vehicle.
Radarpunktwolken werden typischerweise nach Bewegungszustand (statisch/dynamisch) klassifiziert und entweder in Objektverfolgern oder Belegungsrasterkarten verarbeitet. Ein Clustering von Punkten wird vorgenommen, um alle Punkte zu erhalten, die von demselben Objekt stammen. Bekannte Lösungen hierfür haben jedoch Probleme mit unvermeidbaren Fehlern in den Daten, sogenannten „Effekten“, wie beispielsweise Artefakten oder sog. „Geisterzielen“. Algorithmische Lösungen, die versuchen diese Fehler mittels technischer oder physikalischer Modelle zu eliminieren haben sich nur als begrenzt zuverlässig herausgestellt.Radar point clouds are typically classified according to the state of motion (static / dynamic) and processed either in object trackers or occupancy raster maps. A clustering of points is done in order to get all points that originate from the same object. Known solutions for this, however, have problems with unavoidable errors in the data, so-called "effects", such as artifacts or so-called "ghost targets". Algorithmic solutions that try to eliminate these errors using technical or physical models have only proven to be of limited reliability.
ZUSAMMENFASSUNG DER ERFINDUNGSUMMARY OF THE INVENTION
Die vorliegende Erfindung wurde hinsichtlich der vorstehend beschriebenen Problematik entwickelt, und es ist Aufgabe der vorliegenden Erfindung, die Auswertung von Sensordaten zu verbessern.The present invention was developed with regard to the problems described above, and it is the object of the present invention to improve the evaluation of sensor data.
Diese Aufgabe wird durch die Vorrichtung nach Anspruch 1 und das Verfahren nach Anspruch 10 gelöst. Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen und der folgenden Beschreibung bevorzugter Ausführungsbeispiele der vorliegenden Erfindung.This object is achieved by the device according to
Die Ausführungsbeispiele zeigen eine Vorrichtung zur Auswertung der von ein oder mehreren Umfeldsensoren eines Fahrzeugs erfassten Sensordaten, wobei die Vorrichtung ein künstliches rekurrentes neuronales Netzwerk umfasst, das dazu ausgelegt ist, die Sensordaten zu filtern. Experimente haben gezeigt, dass neuronale Netzwerke aufgrund deren guten Mustererkennung mit unerwünschten Effekten besser klarkommen, als herkömmliche Verarbeitungseinheiten. Die Vorrichtung kann damit den räumlichen und zeitlichen Kontext in einem wiederkehrenden Kontext mittels neuronalem Netzwerk berücksichtigen.The exemplary embodiments show a device for evaluating the sensor data recorded by one or more environment sensors of a vehicle, the device comprising an artificial recurrent neural network that is designed to filter the sensor data. Experiments have shown that neural networks can cope better with undesirable effects than conventional processing units due to their good pattern recognition. The device can thus take into account the spatial and temporal context in a recurring context by means of a neural network.
Die Vorrichtung kann zur Hinderniserkennung in einem Fahrzeug eingesetzt werden. Bei dem Fahrzeug kann es sich insbesondere um ein fahrerloses autonomes oder um ein teilautonom bewegtes Fahrzeug handeln. Es kann sich beispielsweise um ein Land-, Luft- oder Wasserfahrzeug handeln, beispielsweise um ein fahrerloses Transportsystem (FTS), einen autonomen PKW, ein Schienenfahrzeug, eine Drohne, ein Boot oder dergleichen.The device can be used for obstacle detection in a vehicle. The vehicle can in particular be a driverless autonomous vehicle or a partially autonomous vehicle. For example, it can be a land, air or water vehicle, for example a driverless transport system (AGV), an autonomous car, a rail vehicle, a drone, a boat or the like.
Die Sensordaten des Umfeldsensors können beispielsweise in Form einer Punktwolke vorliegen. Bei den Umfeldsensoren kann es sich um ein oder mehrere Radar-Sensoren, Lidar-Sensoren, Kamerasensoren oder Ultraschallsensoren handelt. Die Sensordaten liefern ZustandsdatenThe sensor data of the environment sensor can be in the form of a point cloud, for example. The environment sensors can be one or more radar sensors, lidar sensors, camera sensors or ultrasonic sensors. The sensor data provide status data
Das künstliche rekurrente neuronale Netzwerk ist beispielsweise dazu ausgelegt, auf Grundlage der Sensordaten ein Belegungsraster zur ermitteln. Neuronale netzwerkbasierte Belegungsraster demonstrieren die Fähigkeit, räumliche und zeitliche Abhängigkeiten automatisch zu lernen und können quasi unbeaufsichtigt trainiert werden. Die vorliegende Erfindung stellt damit ein System zur Hinderniserkennung bereit, welches ein rekurrentes neuronales Netzwerk umfasst, das aufgrund von einem Sensor (z. Bsp. Radar) ermittelter Daten in Form einer Punktwolke eine Belegungsrasterkarte für das Sichtfeld des Sensors bestimmt.The artificial recurrent neural network is designed, for example, to determine an occupancy grid on the basis of the sensor data. Neural network-based allocation grids demonstrate the ability to automatically learn spatial and temporal dependencies and can be practically trained unattended. The present invention thus provides a system for obstacle detection which comprises a recurrent neural network which, based on data determined by a sensor (e.g. radar) in the form of a point cloud, determines an occupancy grid map for the field of view of the sensor.
Das Belegungsraster kann mehrere Rasterzellen umfassen, wobei jeder Rasterzelle Attribute zugeordnet sind. Die Attribute können beispielsweise eine Belegungswahrscheinlichkeit, Höheninformationen und/oder kinematische Informationen oder dergleichen umfassen.The occupancy grid can comprise a plurality of grid cells, with attributes being assigned to each grid cell. The attributes can include, for example, an occupancy probability, height information and / or kinematic information or the like.
Das neuronale Netzwerk kann insbesondere mehrere Gruppen an Ausgabeneuronen besitzen, wobei jede Gruppe an Ausgabeneuronen eines der zu speichernden Attribute ausgibt.The neural network can in particular have several groups of output neurons, each group of output neurons outputting one of the attributes to be stored.
Die Filterung der Sensordaten durch beispielsweise Bestimmung von Belegungsrastern erfolgt vorzugsweise in Echtzeit.The filtering of the sensor data, for example by determining occupancy grids, is preferably carried out in real time.
Die Vorrichtung kann ferner eine Sensorfusionseinheit umfassen, die dazu ausgelegt ist, Sensordaten zusammenzuführen, um diese dem künstlichen rekurrenten neuronalen Netzwerk zuzuführen.The device can furthermore comprise a sensor fusion unit which is designed to combine sensor data in order to feed them to the artificial recurrent neural network.
Ferner kann das künstliche rekurrente neuronalen Netzwerk auch durch ein oder mehrere weitere künstliches neuronale Netzwerke, beispielsweise ein CNN-Netzwerk ergänzt werden.Furthermore, the artificial recurrent neural network can also be supplemented by one or more further artificial neural networks, for example a CNN network.
Die Ausführungsbeispiele zeigen auch ein Verfahren zur Auswertung der von ein oder mehreren Umfeldsensoren eines Fahrzeugs erfassten Sensordaten, wobei das Verfahren ein Filtern der Sensordaten mittels einem künstlichen rekurrenten neuronalen Netzwerk umfasst. Das Verfahren kann ganz oder teilweise als ein computerimplementiertes Verfahren ausgeführt werden. Insbesondere betreffen die Ausführungsbeispiele auch Programminstruktionen, welche dazu ausgelegt sind, die hier beschriebenen Verfahren auszuführen.The exemplary embodiments also show a method for evaluating the sensor data recorded by one or more environment sensors of a vehicle, the method comprising filtering the sensor data by means of an artificial recurrent neural network. The method can be carried out in whole or in part as a computer-implemented method. In particular, the exemplary embodiments also relate to program instructions which are designed to carry out the methods described here.
FigurenlisteFigure list
Im Folgenden wird die Erfindung anhand der in den Figuren dargestellten Ausführungsformen beispielhaft erläutert.
-
1 zeigt ein Blockdiagramm, das schematisch die Konfiguration eines Fahrzeugs gemäß einem Ausführungsbeispiel der vorliegenden Erfindung darstellt. -
2 zeigt schematisch eine beispielhafte Konfiguration eines Steuergeräts für autonomes Fahren zeigt. -
3 zeigt eine Unterteilung des Raums hinter einem Fahrzeug mit Hilfe von Rasterzellen in eine Rasterkarte. -
4 zeigt mögliche Attribute einer Rasterkarte aus2 . -
5 zeigt schematisch das Befüllen einer Rasterkarte mit Belegungswahrscheinlichkeiten im Fall von statischen Objekten im Raum hinter dem Fahrzeug. -
6 zeigt schematisch den Aufbau und das Funktionsprinzip eines neuronalen Netzwerks. -
7 visualisiert schematisch das Funktionsprinzip einer Sensorverarbeitungseinheit gemäß einem Ausführungsbeispiel der Erfindung. -
8 visualisiert die Fusion mehrerer unterschiedlicher Sensordaten zu einem gemeinsamen Sensorbild.
-
1 FIG. 13 is a block diagram schematically showing the configuration of a vehicle according to an embodiment of the present invention. -
2 shows schematically an exemplary configuration of a control device for autonomous driving. -
3 shows a subdivision of the space behind a vehicle with the aid of grid cells into a grid map. -
4th shows possible attributes of araster map 2 . -
5 shows schematically the filling of a grid map with occupancy probabilities in the case of static objects in the space behind the vehicle. -
6th shows schematically the structure and the functional principle of a neural network. -
7th schematically visualizes the functional principle of a sensor processing unit according to an exemplary embodiment of the invention. -
8th visualizes the fusion of several different sensor data into a common sensor image.
Im Folgenden werden Ausführungsbeispiele der vorliegenden Erfindung anhand der folgenden Figuren beschrieben.In the following, exemplary embodiments of the present invention are described with reference to the following figures.
In dem in
Die Steuereinheiten
Die Fahrzeugsensorik des Fahrzeugs
Das Fahrzeug
Das Fahrzeug
Das Fahrzeug 1 umfasst ferner eine Steuereinheit für autonomes Fahren 18 (ECU 5). Die Steuereinheit für autonomes Fahren 18 ist dazu ausgelegt, das Fahrzeug 1 so zu steuern, dass dieses ganz oder teilweise ohne Einfluss eines menschlichen Fahrers im Straßenverkehr agieren kann. Wenn steuerungsseitig oder fahrerseitig ein Betriebszustand für das autonome Fahren aktiviert ist, bestimmt die Steuereinheit für autonomes Fahren 18, auf Grundlage von zur Verfügung stehenden Daten über eine vorgegebene Fahrtstrecke, von den Umweltsensoren 20 aufgenommenen Umgebungsdaten bzw. den von der Sensorverarbeitungseinheit 22 bereitgestellten verarbeiteten Daten, sowie von mittels den Fahrzeugsensoren erfassten Fahrzeugbetriebsparametern, die der Steuereinheit 18 von den Steuereinheiten
Das Fahrzeug
Im Ausführungsbeispiel der
Im Falle von
Die Zuordnung von Belegungswahrscheinlichkeiten basierend auf der von den Sensoren gelieferten Punktwolken übernimmt in der vorliegenden Erfindung die Sensorverarbeitungseinheit 22 mit einem künstlichen rekurrenten neuronalen Netzwerk (RNN), wie dies im Folgenden im Zusammenhang mit
Rekurrente neuronale Netze zeichnen sich durch Verbindungen von Neuronen einer Schicht zu Neuronen derselben oder einer vorangegangenen Schicht aus. Künstliche rekurrente neuronale Netze erlauben eine Modellierung von komplexen räumlichen Zusammenhängen in zum Beispiel Bilddaten und damit einhergehend, eine datengetriebene Zustandsklassifikation (z. Bsp. Gewicht und Haltung eines Fahrzeuginsassen, Größe eines Objekts, Erkennung eines Objekts, etc.). Die Eigenschaften und die Implementierung von rekurrenten neuronalen Netzen sind dem Fachmann bekannt und kann der Fachliteratur zu dem Aufbau, den Netztypen, Lernregeln und bekannten Anwendungen von neuronalen Netzen entnommen werden.Recurrent neural networks are characterized by connections between neurons in one layer and neurons in the same or a previous layer. Artificial recurrent neural networks allow the modeling of complex spatial relationships in image data, for example, and the associated data-driven status classification (e.g. weight and posture of a vehicle occupant, size of an object, recognition of an object, etc.) The properties and the implementation of recurrent neural networks are known to the person skilled in the art and can be found in the specialist literature on the structure, network types, learning rules and known applications of neural networks.
Im vorliegenden Fall werden Bilddaten von einem Sensor der Umfeldsensoren
Ferner weist das neuronale Netzwerk in der Ausgabeschicht zwei Gruppen an Ausgabeneuronen
Das neuronale Netz wird eingerichtet („trainiert“), so dass es für bestimmte bekannte Eingangswerte erwartete Antworten erzeugt. Indem das neuronale Netzwerk in einer Trainingsphase mit einem Trainingssatz an Punktwolken und entsprechenden Belegungskarten trainiert wird, wird das neuronale Netzwerk dazu ausgelegt, um aus einer beliebigen gegebenen Punktwolken durch künstliche Intelligenz eine passende Belegungs-Rasterkarte zu bestimmen. Ist ein derartiges neuronales Netz einmal eingerichtet und sind seine Parameter eingestellt, so wird das Netz regelmäßig im Anwendungsfall als eine Art „Black-Box“ verwendet, welche auch für gegebene Eingangswerte zugehörige und passende Ausgangswerte erzeugt.The neural network is set up (“trained”) so that it generates expected responses for certain known input values. By training the neural network in a training phase with a training set on point clouds and corresponding occupancy maps, the neural network is designed to use artificial intelligence to determine a suitable occupancy raster map from any given point clouds. Once such a neural network has been set up and its parameters are set, the network is regularly used as a kind of “black box” in the application, which also generates associated and suitable output values for given input values.
Das rekurrente neuronale Netzwerk kann durch die zusätzliche/ergänzende Nutzung anderer Typen neuronaler Netzwerke, wie zum Beispiel Convolutional Neuronal Networks (CNN), verbessert werden. Hierbei kann ein Hybridnetzwerk erschaffen werden oder simpel die Arbeitsleistung von zwei unterschiedlichen Netzwerken zusammengeschaltet werden.The recurrent neural network can be improved by the additional / supplementary use of other types of neural networks, such as, for example, convolutional neural networks (CNN). A hybrid network can be created here or the work performance of two different networks can simply be interconnected.
Durch Sensorfusion
BezugszeichenlisteList of reference symbols
- Zi,j Z i, j
- Rasterzelle in der i. Spalte und j. ZeileGrid cell in the i. Column and j. row
- 1010
- KraftfahrzeugMotor vehicle
- 1212th
-
ECU 1 Bremssystem
ECU 1 braking system - 1414th
-
ECU 2 Antriebsstrang
ECU 2 powertrain - 1616
-
ECU 3 Lenksystem
ECU 3 steering system - 2424
- GNSSGNSS
- 2626th
- Sensorsensor
- 2727
- Sensorsensor
- 3232
- HMIHMI
- 4040
-
Steuereinheit, ECU 4 SensorverarbeitungControl unit,
ECU 4 sensor processing - 4444
- SpeichereinheitStorage unit
- 4747
- Rekurrentes Neuronales NetzwerkRecurrent neural network
- 4848
- SensorfusionSensor fusion
- 4949
- HinderniserkennungObstacle detection
- PwPw
- Belegungswahrscheinlichkeit der zugehörigen RasterzelleProbability of occupancy of the associated grid cell
- 5050
- Großer FelsenBig rock
- 6060
- kleiner Felsensmall rock
- 8181
- Sensorbild von Sensor ASensor image from sensor A
- 8282
- Sensorbild von Sensor BSensor image from sensor B
- 8383
- Gemeinsames Sensorbild der Sensoren A und BCommon sensor image of sensors A and B
- T1 - TmT1 - Tm
- EingangsneuronInput neuron
- G1 - G3G1 - G3
- Ausgangsneuron, erste GruppeOutput neuron, first group
- Q1 - Q2Q1 - Q2
- Ausgangsneuron, zweite GruppeOutput neuron, second group
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019213867.5A DE102019213867A1 (en) | 2019-09-11 | 2019-09-11 | Obstacle detection comprising a recurrent neural network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019213867.5A DE102019213867A1 (en) | 2019-09-11 | 2019-09-11 | Obstacle detection comprising a recurrent neural network |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102019213867A1 true DE102019213867A1 (en) | 2021-03-11 |
Family
ID=74644917
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019213867.5A Withdrawn DE102019213867A1 (en) | 2019-09-11 | 2019-09-11 | Obstacle detection comprising a recurrent neural network |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102019213867A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021214760A1 (en) | 2021-12-21 | 2023-06-22 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method for training a radar-based object detection and method for radar-based environment detection |
DE102022211463A1 (en) | 2022-10-28 | 2024-05-08 | Robert Bosch Gesellschaft mit beschränkter Haftung | Computer-implemented method and apparatus for determining a classification for an object |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019161300A1 (en) * | 2018-02-18 | 2019-08-22 | Nvidia Corporation | Detecting objects and determining confidence scores |
-
2019
- 2019-09-11 DE DE102019213867.5A patent/DE102019213867A1/en not_active Withdrawn
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019161300A1 (en) * | 2018-02-18 | 2019-08-22 | Nvidia Corporation | Detecting objects and determining confidence scores |
US20190258878A1 (en) * | 2018-02-18 | 2019-08-22 | Nvidia Corporation | Object detection and detection confidence suitable for autonomous driving |
DE112019000049T5 (en) * | 2018-02-18 | 2020-01-23 | Nvidia Corporation | OBJECT DETECTION AND DETECTION SECURITY SUITABLE FOR AUTONOMOUS DRIVING |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021214760A1 (en) | 2021-12-21 | 2023-06-22 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method for training a radar-based object detection and method for radar-based environment detection |
DE102022211463A1 (en) | 2022-10-28 | 2024-05-08 | Robert Bosch Gesellschaft mit beschränkter Haftung | Computer-implemented method and apparatus for determining a classification for an object |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102017120112A1 (en) | DEPTH CARE VALUATION WITH STEREO IMAGES | |
DE102019103352A1 (en) | TRAJECTOR PUBLIC TRACKING FOR VEHICLE PAGE CONTROL USING A NEURONAL NETWORK | |
DE102018213364A1 (en) | Deep Learning based self-driving vehicle, Deep Learning based self-propelled controller, and Deep Learning based self drive control method | |
DE102015209373B4 (en) | DRIVING SUPPORT UNIT | |
EP2594446B1 (en) | Apparatus and method for operating a vehicle | |
DE102019214628A1 (en) | Validation of surroundings detection using satellite images and SAR radar data | |
DE102018103803B4 (en) | SYSTEM FOR DETECTING IMPROPER SENSOR INSTALLATION WITHIN A VEHICLE TO REDUCE THE HAZARDS RELATED TO OBJECT DETECTION | |
DE102013200132A1 (en) | Lane keeping system with active rear wheel steering | |
DE102021125932A1 (en) | System and method for neural network based autonomous driving | |
DE102018219665A1 (en) | Method and control unit for operating an autonomous vehicle | |
DE112018000448T5 (en) | System and method for automatic trailer detection | |
DE102017127789A1 (en) | An apparatus for providing map information for determining a driving situation of a vehicle, a system having the same, and methods thereof | |
DE102020110392A1 (en) | DEVICE FOR DETERMINING A LANE CHANGING PATH OF AN AUTONOMOUS VEHICLE AND METHOD OF THIS | |
DE102019213867A1 (en) | Obstacle detection comprising a recurrent neural network | |
DE102020124331A1 (en) | VEHICLE TRACK MAPPING | |
DE102019213929A1 (en) | Plausibility check of stopped previously dynamic objects with the help of allocation grids | |
DE102020105619A1 (en) | SYSTEM AND PROCEDURE FOR DETERMINING VEHICLE POSITION | |
EP3250427B1 (en) | Vehicle control device and method | |
DE102018216999A1 (en) | Process, computer program and measuring system for the evaluation of movement information | |
DE102018217000A1 (en) | Process, computer program and measuring system for the evaluation of movement information | |
DE102023115570A1 (en) | CONTROLLING A VEHICLE LANE CHANGE | |
DE102017201796A1 (en) | Control device for determining a self-motion of a motor vehicle and motor vehicle and method for providing the control device | |
DE102019122249A1 (en) | Method for determining a lane change, driver assistance system and vehicle | |
WO2020200683A1 (en) | Method for determining the yaw rate of a target object on the basis of sensor data, for example a high-resolution radar | |
DE102019216304A1 (en) | Fusion of thermal images with data from 3D sensors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |