DE102015105784A1 - Verteiltes System zum Erkennen und Schützen von verwundbaren Verkehrsteilnehmern - Google Patents

Verteiltes System zum Erkennen und Schützen von verwundbaren Verkehrsteilnehmern Download PDF

Info

Publication number
DE102015105784A1
DE102015105784A1 DE102015105784.0A DE102015105784A DE102015105784A1 DE 102015105784 A1 DE102015105784 A1 DE 102015105784A1 DE 102015105784 A DE102015105784 A DE 102015105784A DE 102015105784 A1 DE102015105784 A1 DE 102015105784A1
Authority
DE
Germany
Prior art keywords
communication
recognition
objects
recognition results
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102015105784.0A
Other languages
English (en)
Inventor
Tim Leinmüller
Lutz Breyer
Boris Atanassow
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to DE102015105784.0A priority Critical patent/DE102015105784A1/de
Publication of DE102015105784A1 publication Critical patent/DE102015105784A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/015Detecting movement of traffic to be counted or controlled with provision for distinguishing between two or more types of vehicles, e.g. between motor-cars and cycles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/162Decentralised systems, e.g. inter-vehicle communication event-triggered
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein verteiltes Erkennungs- und Kommunikationssystem (1) zum Erkennen und Schützen von verwundbaren Verkehrsteilnehmern (RU, K, L, M, N). Erkennungsergebnisse (31) über identifizierte Objekte werden zwischen zwei oder mehr Kommunikationsteilnehmern (CU, A, B, C) des Systems (1) ausgetauscht. Bei einem Kommunikationsteilnehmer werden mittels einer Erkennungsvorrichtung verwundbare Verkehrsteilnehmer (RU, K, L, M, N) erfasst und als Objekte identifiziert, insbesondere als relevante Ziel-Objekte für den Schutz verwundbarer Verkehrsteilnehmer. Die Erkennungsergebnisse (31) über identifizierte Objekte werden in einer geordneten Datenstruktur (30) gespeichert sowie an die anderen Kommunikationsteilnehmer (CU, B, C) im System (1) mitgeteilt. Der Versand von Mitteilungen mit Erkennungsergebnissen (31) wird gesteuert und zwar auf Basis einer Analyse der eigenen (neuen) Erkennungsergebnisse gegenüber den gespeicherten Informationen (31) über vorbekannte Objekte und die bekannten Kommunikationsteilnehmer (CU, 30‘). Für die Steuerung des Versands werden verschiedene Maßnahmen vorgeschlagen und es wird die Effizienz der Informationsnutzung im System (1) verbessert.

Description

  • Die Erfindung betrifft ein verteiltes Erkennungs- und Kommunikationssystem zum Erkennen und Schützen von verwundbaren Verkehrsteilnehmern, wobei zwischen den Teilnehmern des Systems Erkennungsergebnisse über identifizierte Objekte ausgetauscht werden. Die Erfindung betrifft insbesondere ein Erkennungs- und Kommunikationsverfahren als Bestandteil dieses Systems, das zur Ausführung bei einem Eigen-Kommunikationsteilnehmer vorgesehen ist. Ein Eigen-Kommunikationsteilnehmer kann insbesondere ein Fahrzeug sein bzw. eine Sicherheitseinrichtung, die an einem Fahrzeug angeordnet ist und über Zugriff auf ein Erfassungsmittel sowie ein Kommunikationsmittel verfügt.
  • In der Praxis ist es bekannt, dass der Schutz von verwundbaren Verkehrsteilnehmern verbessert werden kann, wenn durch mehrere Teilnehmer in einem Kommunikationssystem Informationen ausgetauscht werden. Es ist insbesondere vorgeschlagen worden, zwischen zwei Fahrzeugen Sensordaten, wie Bilder oder Radarsignale auszutauschen, um dem jeweils anderen Fahrzeug eine zusätzliche Erkennung in den mitgeteilten Sensordaten zu ermöglichen. Der Austausch von Sensordaten erfordert standardisierte Erkennungssysteme bei den Teilnehmern des Systems und bringt eine hohe Belastung der Kommunikationskanäle mit sich.
  • Die vorliegende Erfindung betrifft demgegenüber ein verteiltes Erkennungs- und Kommunikationssystem bzw. ein zugehöriges Erkennungs- und Kommunikationsverfahren, bei dem von einem Eigen-Kommunikationsteilnehmer eine Objekterkennung auf Basis von Sensordaten durchgeführt wird, die von einer eigenen Erkennungsvorrichtung ermittelt werden, und wobei ausschließlich Erkennungsergebnisse an andere Kommunikationsteilnehmer im System mitgeteilt werden. Es besteht somit ein grundlegender Unterschied zu den vorerwähnten Systemen, bei denen Sensordaten wie Kamerabilder, Radarsignale etc. ausgetauscht werden.
  • Mit anderen Worten werden bei dem hier angesprochenen verteilten Erkennungs- und Kommunikationssystem zwischen den Kommunikationsteilnehmern deskriptive Informationen über erkannte Objekte in einer gemeinsamen Verkehrsumgebung geteilt, um so jedem Kommunikationsteilnehmer zu helfen, Maßnahmen zu ergreifen, die einem Schutz von verwundbaren Verkehrsteilnehmern beitragen.
  • Teilweise wird ein gattungsgemäßes verteiltes Erkennungs- und Kommunikationssystem gemäß der vorliegenden Offenbarung als „System“ abgekürzt. Ein Kommunikationsteilnehmer im System wird teilweise als „Teilnehmer“ abgekürzt.
  • Die bisher bekannten Systeme bieten keine optimale Nutzung der verfügbaren Information. Es ist Aufgabe der vorliegenden Erfindung, ein verteiltes Erkennungs- und Kommunikationssystem zum Schutz von verwundbaren Verkehrsteilnehmern aufzuzeigen, bei dem eine effizientere Nutzung der Erkennungsergebnisse ermöglicht und so der Schutz von verwundbaren Verkehrsteilnehmern verbessert werden.
  • Es wird nachfolgend davon ausgegangen, dass sich in dem verteilten Erkennungs- und Kommunikationssystem zumindest zwei Kommunikationsteilnehmer in einer gemeinsamen Verkehrsumgebung befinden und jeweils ein Erkennungs- und Kommunikationsverfahren gemäß dem eigenständigen Hauptanspruch ausführen.
  • Die Funktion des verteilten Systems ergibt sich aus dem Zusammenwirken der Kommunikationsteilnehmer und wird aus der Perspektive eines Teilnehmers erläutert, der im Folgenden als „Eigen-Kommunikationsteilnehmer“ bezeichnet wird. Die anderen Teilnehmer im System werden als „Fremd-Kommunikationsteilnehmer“ bezeichnet.
  • Das zur Ausführung bei dem Eigen-Kommunikationsteilnehmer beschriebene Erkennungs- und Kommunikationsverfahren kann in derselben oder einer ähnlichen Weise bei einem oder allen Fremd-Kommunikationsteilnehmern ausgeführt werden.
  • Bei dem Eigen-Kommunikationsteilnehmer wird mittels einer beliebigen Erkennungsvorrichtung eine Objekterkennung durchgeführt. Derartige Erkennungsvorrichtungen sind in verschiedenen Varianten bekannt und befinden sich in der ständigen Fortentwicklung. Beispielhaft wird davon ausgegangen, dass es sich um eine kamerabasierte Erkennungsvorrichtung handelt, welche Übereinstimmungen zwischen Referenz-Objekten und Erfassungsdaten eines bildgebenden Sensors ermittelt und hierüber Objekte identifiziert. Ferner wird angenommen, dass die Erkennungsvorrichtung über die Existenz eines Objektes hinaus weitere deskriptive Informationen bereitstellt, die das Objekt genauer kennzeichnen. Hierzu können eine relative oder absolute Position des Objekts, eine relative oder absolute Größe (Höhe / Breite) oder eine Art bzw. ein Typ des Objekts (nachfolgend auch „Klassifizierung“ genannt“ gehören.
  • Die Erkennungsvorrichtung kann bevorzugt ein identifiziertes Objekt über einen zeitlichen Verlauf hinweg nachverfolgen (object-tracking) und so ermitteln, ob sich ein Objekt innerhalb der Verkehrsumgebung bewegt sowie ggfs. mit welcher Geschwindigkeit und in welcher Richtung. Auch aus der Nachverfolgung eines Objekts können deskriptive Informationen als Erkennungsergebnisse ermittelt werden.
  • Die Erkennungsvorrichtung ist dazu ausgebildet, Objekte verschiedener Art in der Verkehrsumgebung zu erkennen, darunter zumindest verwundbare Verkehrsteilnehmer. Als verwundbare Verkehrsteilnehmer werden insbesondere Menschen und/oder Tiere aufgefasst, die sich in der gemeinsamen Verkehrsumgebung mit zumindest einem Kommunikationsteilnehmer befinden. Dazu gehören Personen und Tiere im Bereich der befahrenen und angrenzenden Verkehrswege, wie beispielsweise Fußgänger, Radfahrer, Skateboard-Fahrer (oder Benutzer vergleichbarer Spiel- oder Sportfahrzeuge), spielende Kinder, Nutzvieh und so weiter. Bevorzugt hat die Erkennungsvorrichtung Zugriff auf eine Mehrzahl von Referenz-Objekten, die eine Erkennung und Identifizierung ermöglichen. Die Referenz-Objekte können in einer erweiterbaren Datenbank abgelegt sein und ggfs. innerhalb des Systems teilweise oder vollständig vereinheitlicht sein.
  • Die Erkennungsvorrichtung kann darüber hinaus andere (reale) Objekte erkennen und identifizieren, bei denen es sich nicht um verwundbare Verkehrsteilnehmer handelt und auf entsprechende weitere Referenz-Objekte zugreifen. Hierzu zählen bspw. andere Fahrzeuge (insbesondere Last- und Personenkraftfahrzeuge), Bauwerke, Pflanzen, Begrenzungen der Verkehrswege (insbesondere Randsteine, Spurmarkierungen, Leitplanken, Leitpfosten, Pylonen, Baustellenbegrenzungen, Schilder, Lichtmarkierungen etc.).
  • Erkennungsergebnisse über die identifizierten Objekte (verwundbare Verkehrsteilnehmer sowie ggfs. andere Objekte) werden in einer geordneten Datenstruktur des Eigen-Kommunikationsteilnehmers gespeichert. Ferner werden Mitteilungen über identifizierte Objekte zwischen den Kommunikationsteilnehmern gegenseitig ausgetauscht. Die von Fremd-Kommunikationsteilnehmern mitgeteilten Informationen über identifizierte Objekte werden ebenfalls in einer geordneten Datenstruktur gespeichert. Bevorzugt kann es eine gemeinsame Datenstruktur geben, in der eigene Erkennungsergebnisse und mitgeteilte Erkennungsergebnisse zusammengefasst werden.
  • Darüber hinaus können zwischen den Kommunikationsteilnehmern deskriptive Informationen über den jeweils eigenen Zustand ausgetauscht werden. Ein solcher Austausch von Eigen-Informationen ist als Fahrzeug zu Fahrzeug Kommunikation unter der Verwendung von Statusmeldungen (sog. „beacon messages“) bekannt.
  • Ein verteiltes Erkennungssystem der vorbeschriebenen Art kann je nach Verkehrssituation, Anzahl der Kommunikationsteilnehmer sowie Anzahl der identifizierten Objekte und mitzuteilenden Ergebnisse sehr unterschiedliche Wirksamkeit zeigen.
  • Wenn zu viele Kommunikationsteilnehmer vorhanden sind, die alle jeweils identifizierten Objekte mitteilen, kann es zu einer Vielzahl von Mitteilungen kommen, wobei Erkennungsinformationen über ein einziges reales Objekt mehrfach von unterschiedlichen Quellen mitgeteilt werden. Dies führt zu unnötigen Redundanzen. Ferner kann es beim Versand einer großen Zahl von Mitteilungen dazu kommen, dass der Übertragungskanal überlastet wird, sodass ein Teil der Mitteilungen nicht empfangen oder nicht korrekt ausgelesen werden kann. Dies hat negative Auswirkungen auf die Güte der im System geteilten Informationsbasis.
  • Infolge unterschiedlicher Erkennungsqualität kann es ferner dazu kommen, dass zwei oder mehr Kommunikationsteilnehmer ein reales Objekt identifizieren, jedoch voneinander abweichende und ggfs. widersprüchliche Erkennungsergebnisse ermitteln und im System mitteilen. Hierdurch können im System fehlerhafte Auffassungen erzeugt werden.
  • Gerade bei den anderen Kommunikationsteilnehmern, die selbst keine eigene Erkennung zu einem solchen realen Objekt durchführen können, führt dies zu fehlerhaften Auffassungen über das Verkehrsgeschehen, die aus deren eigener Kompetenz nicht identifizierbar sind. Fehlerhafte Auffassungen im geteilten Kenntnisstand des Systems können entsprechend fehlerhafte Reaktionen bedingen, die dann nicht zu einem Schutz der verwundbaren Verkehrsteilnehmer beitragen oder sogar zu einer Gefährdung führen. Auch hierdurch wird die Effizienz des Systems beeinträchtigt.
  • Die vorliegende Erfindung sieht vor, dass bei einem Eigen-Kommunikationsteilnehmer der Versand von Mitteilungen mit Erkennungsergebnissen (eigene und/oder empfangene Erkennungsergebnisse) auf Basis einer Analyse der eigenen Erkennungsergebnisse gegenüber den gespeicherten Informationen steuert, wobei Informationen über vorbekannte Objekte und die bekannten Kommunikationsteilnehmer einbezogen werden. Das Steuern des Versands von Mitteilungen erfolgt bevorzugt durch eine Priorisierung, insbesondere durch Bevorzugung und/oder Beschränkung des Versands von Mitteilungen sowie der auszutauschenden Mitteilungsinhalte.
  • Die Steuerung des Mitteilungsversands ist darauf gerichtet, dass (a) unnötige Redundanzen vermieden werden und/oder (b) die Entstehung von fehlerhaften Auffassungen im gemeinsamen Kenntnisstand des Systems vermieden werden und/oder (c) bestehende Fehlinformationen im gemeinsamen Kenntnisstand des Systems auf Basis der eigenen Erkennungsergebnisse erkannt und beseitigt werden und/oder (d) eine Effizienzminderung aufgrund zu hoher Sendefrequenz oder zu hoher Informationsmengen vermieden wird und/oder (e) potentielle und/oder akute Bedrohungen für verwundbare Verkehrsteilnehmer priorisiert gehandhabt werden können.
  • Durch jeden der oben genannten Effekte für sich sowie durch deren Kombination wird eine Verbesserung des verteilten Erkennungs- und Kommunikationssystems und dessen Effizienz erreicht.
  • In den Unteransprüchen, der nachfolgenden Beschreibung sowie den beigefügten Zeichnungen sind vorteilhafte Ausführungsbeispiele und Anwendungen der Erfindung angegeben.
  • Die Erfindung ist in den Zeichnungen beispielhaft und schematisch dargestellt. Es zeigen:
  • 1: eine Draufsicht auf eine Verkehrssituation mit mehreren Teilnehmern eines verteilten Erkennungs- und Kommunikationssystems und mehreren verwundbaren Verkehrsteilnehmern;
  • 2 u. 3: Beispiele für in einer geordneten Datenstruktur gespeicherte Erkennungsergebnisse sowie Informationen über Kommunikationsteilnehmer des Systems;
  • 4: Beispiele für mögliche Erfassungsbereiche eines Kommunikationsteilnehmers bzw. einer Erkennungsvorrichtung;
  • 5A u. 5B: Eine Beispieldarstellung zur Entstehung, Erkennung und Beseitigung von Fehlauffassung im gemeinsamen Kenntnisstand des Systems.
  • 1 zeigt eine Draufsicht auf eine Verkehrsumgebung (10) mit mehreren Verkehrsteilnehmern. Auf einer ersten Straße befindet sich ein Fahrzeug (A), das im Folgenden auch als Eigen-Kommunikationsteilnehmer (A) aufgefasst wird. An dem Fahrzeug (A) ist eine Sicherheitseinrichtung zum Erkennen und Schützen von verwundbaren Verkehrsteilnehmern angeordnet, die eine Recheneinheit zur Ausführung des Erkennungs- und Kommunikationsverfahrens gemäß der vorliegenden Offenbarung aufweist. Die Sicherheitseinrichtung hat Zugriff auf ein Kommunikationsmittel sowie ein Erkennungsmittel.
  • Die Sicherheitseinrichtung kann fester Bestandteil des Fahrzeugs sein und mit einem oder mehreren Fahrzeugsteuergeräten datentechnisch verbunden sein. Alternativ kann die Sicherheitseinrichtung in ein Fahrzeugsteuergerät integriert sein. Wiederum alternativ kann die Sicherheitseinrichtung als separate und gegebenenfalls nachrüstbare Vorrichtung ausgebildet sein. Entsprechend können das Kommunikationsmittel und/oder das Erkennungsmittel feste Bestandteile des Fahrzeuges sein, auf die die Sicherheitseinrichtung zugreift oder die Sicherheitseinrichtung kann über ein eigenes Kommunikationsmittel und/oder ein eigenes Erkennungsmittel verfügen. Eine Erkennungsvorrichtung wertet die von zumindest einem Erfassungsmittel bezogenen Sensordaten aus und liefert Erkennungsergebnisse über identifizierte Objekte.
  • Die Kommunikation innerhalb des Systems (1) kann drahtlos über einen oder mehrere beliebige Kommunikationskanäle erfolgen, insbesondere über Mobilfunk oder bekannte Fahrzeug zu Fahrzeug Kommunikationssysteme. Das Kommunikationsmittel ist entsprechend ausgebildet.
  • Ein Erkennungsmittel kann ein oder mehrere Sensoren aufweisen, die einen oder mehrere Umgebungsbereiche des Kommunikationsteilnehmers zu Zwecken der Erkennung sensorisch überwachen. Solche Sensoren können bildgebende Sensoren wie Kameras, 3D-Kameras oder LiDAR- /LaDAR-Sensoren sein. Alternativ oder zusätzlich können andere Sensoren vorgesehen sein, wie Radar-Sensoren, Wärmebildkameras oder Ultraschall-Sensoren.
  • Im Rahmen der vorliegenden Offenbarung wird davon ausgegangen, dass eine Erkennungsvorrichtung auf die Sensordaten von zumindest einem Erkennungsmittel zugreift und innerhalb der Sensordaten Objekte identifiziert, die reale Objekte in der Umgebung des Kommunikationsteilnehmers repräsentieren. Zu solchen realen Objekten gehören in der Verkehrsumgebung (10) gemäß dem in 1 gezeigten Beispiel andere Fahrzeuge (B, C), Personen (K, L, M, N), Gegenstände (14), Pflanzen (11, 13) oder eine Bebauung (15) sowie ggfs. die oben erwähnten weiteren Objekte.
  • In dem Beispiel gemäß 1 werden bei dem Fahrzeug (A), dem Fahrzeug (B) sowie dem Fahrzeug (C) jeweils ein Erkennungs- und Kommunikationsverfahren gemäß der vorliegenden Offenbarung ausgeführt. Die Fahrzeuge (B, C) werden in der nachfolgenden Beschreibung jeweils als Fremd-Kommunikationsteilnehmer aufgefasst. Es wird ferner davon ausgegangen, dass die Fahrzeuge (A, B, C) gegebenenfalls Statusmeldungen über ihren derzeitigen Zustand untereinander austauschen, insbesondere durch Versand von Zustandsmeldungen über die eigene Position, Richtung, Fahrgeschwindigkeit, Größe (Höhe / Breite) etc.
  • Die Fahrzeuge (A, B, C) können jeweils Sicherheitseinrichtungen und Erkennungsvorrichtungen unterschiedlicher Ausbildung aufweisen. Ferner können die Fahrzeuge (A, B, C) beliebige bekannte aktive oder passive Kollisionsvermeidungssysteme sowie Personenschutzvorrichtungen aufweisen. Als Kollisionsvermeidungssystem kommen beispielsweise Bremsassistenten, Ausweichassistenten und dergleichen, in Betracht. Personenschutzvorrichtungen können im Fall einer nicht abwendbaren Kollision das Verletzungsrisiko eines verwundbaren Verkehrsteilnehmers mindern. Zu solchen Personenschutzvorrichtungen zählen beispielsweise Außenairbags.
  • Im Rahmen der vorliegenden Offenbarung kann durch eine Sicherheitseinrichtung auf Basis der eigenen und/oder empfangenen Erkennungsergebnisse eine potenzielle oder akute Kollisionssituation mit einem verwundbaren Verkehrsteilnehmer festgestellt werden und es können beliebige Maßnahmen zur Abwendung oder Milderung der Kollision ergriffen werden. Solche Maßnahmen können unter anderem das Anzeigen von Warnungen an den Fahrer, das Bemerkbarmachen des eigenen Fahrzeuges gegenüber einem konfliktgefährdeten Verkehrsteilnehmer und/oder das Betätigen einer der vorgenannten aktiven oder passiven Systeme sein.
  • In der Verkehrssituation (10) gemäß 1 fährt das Fahrzeug (A) in einer ersten Fahrtrichtung auf einer Vorfahrtstraße in einem Wohngebiet und passiert dabei einen Fußweg, auf dem sich eine Frau (K) mit einem Kinderwagen und ein Kind (L) mit einem Ball befinden. Neben dem Fußweg befindet sich eine Rasenfläche (12) mit einer Parkbank (14) auf der ein Mann (N) sitzt. Die Rasenfläche (12) wird in der Fahrtrichtung des Fahrzeuges (A) durch eine Hecke (11) begrenzt. Zwischen der Hecke (11) und der Parkbank (14) steht ein Baum (13).
  • In 1 sind die momentanen Bewegungen der Verkehrsteilnehmer durch Blockpfeile illustriert.
  • Auf der Rückseite der Hecke (11) befindet sich eine schmale Seitenstraße (17), die mit der Vorfahrtstraße (16) kreuzt. Auf der anderen Seite wird die schmale Seitenstraße (17) durch ein Haus (15) begrenzt, das nahe am Straßenrand gebaut ist.
  • In der Seitenstraße (17) befindet sich das zweite Fahrzeug (B). Es wird beispielhaft davon ausgegangen, dass das Fahrzeug (B) rückwärts in die Vorfahrtstraße (16) einfahren möchte.
  • In der Gegenrichtung zum Fahrzeug (A) bewegt sich auf der Vorfahrtstraße (16) ein drittes Fahrzeug (C) und dahinter ein Fahrradfahrer (M). Der Fahrradfahrer (M) möchte aus seiner Sicht nach links in die Seitenstraße (17) einbiegen.
  • Es wird nun weiter angenommen, dass das Kind (L) plötzlich beginnt, in Richtung der Seitenstraße (17) zu laufen, beispielsweise weil der Ball in diese Richtung davonrollt.
  • Es ist offensichtlich, dass sich diese Verkehrssituation (10) im weiteren Verlauf gefährlich entwickeln kann. Das Kind (L) könnte mit dem rückwärtsfahrenden Fahrzeug (B) kollidieren. Die Frau (K) könnte dem Kind (L) hinterherlaufen und dabei den Kinderwagen loslassen, der vielleicht in Richtung der Vorfahrtstraße (16) rollen könnte, wo eine Kollision mit dem Fahrzeug (A) droht. Der Fahrer des Fahrzeuges (A) könnte durch die komplexe Situation überfordert sein und zwar durch Ausweichen eine Kollision mit dem Kinderwagen (K) vermeiden, dann jedoch mit dem zum Abbiegen ansetzenden Fahrradfahrer (M) herbeiführen.
  • Die Fahrzeuge (A, B, C) weisen in Folge der jeweils unterschiedlichen Erkennungsvorrichtungen verschiedene Wahrnehmungs-Umgebungsbereiche auf, d.h. mit Bezug auf das jeweilige Fahrzeug (A, B, C) definierbare Abschnitte der Außenumgebung, in denen durch Auswertung der Sensordaten grundsätzlich verwundbare Verkehrsteilnehmer identifizierbar sind. 4 illustriert beispielhaft die Erfassungsbereiche (2025) des Fahrzeuges (A).
  • Ein Fronterfassungsbereich (20) wird durch eine oder mehrere hochauflösende Kameras sowie gleichzeitig durch Radarsysteme überwacht, die eine hohe Reichweite haben. Ein Heckerfassungsbereich (21) wird über eine Rückfahrkamera mit einem breiten und im Wesentlichen nach unten gerichteten Erfassungsbereich erfasst. Ein linker und ein rechter Seitenerfassungsbereich (22, 23) werden durch ein Abbiegeassistenzsystem mit Seitenkameras in den Kotflügeln überwacht. In einem linken und rechten Rückspiegelerfassungsbereich (24, 25) findet eine Erfassung mit Kameras und/oder Ultraschallsensoren eines Spurwechselassistenten statt. Darüber hinaus ist am Fahrzeug (A) ein Parkassistenzsystem mit Nahbereichs-Abstandssensoren angeordnet.
  • Das Fahrzeug (B) verfügt hingegen über eine geringere sensorische Ausstattung. Es weist lediglich ein Kamerasystem aus, das einen Fronterfassungsbereich überwacht. In allen anderen Umgebungsbereichen ist das Fahrzeug (B) sensorisch blind.
  • Das Fahrzeug (C) verfügt über eine Frontkamera, eine nach hinten gerichtete Kamera sowie Kameras in den Kotflügeln, die im Wesentlichen den Systemen von Fahrzeug (A) entsprechen.
  • Es ist leicht ersichtlich, dass in der gezeigten Verkehrssituation (10) manche der oben beschriebenen Kollisionsmöglichkeiten wegen einer fehlenden Sensorik durch eines oder mehrere der Fahrzeuge selbst nicht erkennbar sind. Beispielsweise kann das Fahrzeug (B) in Ermangelung einer rückwärtigen Sensorik das Annähern des Kindes (L) nicht selbst feststellen. Die Sicht auf den Fahrradfahrer (M) könnte für die nach vorne gerichtete Kamera des Fahrzeuges (A) durch das entgegenkommende Fahrzeug (C) eingeschränkt sein, so dass der Fahrradfahrer (M) nicht oder erst sehr spät durch das Fahrzeug (A) erkannt werden kann. Es könnte ferner sein, dass bei der Weiterfahrt des Fahrzeuges (A) der Kinderwagen der Frau (K) beim Losrollen gerade nicht mehr von der Frontalkamera und noch nicht von den Seitenkameras erfassbar ist, oder dass eine eigene Erfassung zu spät erfolgt, um eine Kollision zu antizipieren.
  • Es kann nun weiterhin angenommen werden, dass sich in der weiteren Umgebung (nicht dargestellt) zahlreiche andere Kommunikationsteilnehmer befinden und bereits eine erhebliche Auslastung der Kommunikationskanäle vorliegt.
  • Damit das verteilte Erkennungs- und Kommunikationssystem in effizienter Weise einen Schutz der verwundbaren Verkehrsteilnehmer bewirken kann, werden nachfolgend verschiedene aus Sicht des Fahrzeuges (A) ausführbare Maßnahmen erläutert, die einzeln oder gemeinsam den oben beschriebenen gewünschten Effekten zuträglich sind. Diese Maßnahmen können bevorzugt ebenfalls von den anderen Kommunikationsteilnehmern (B, C) ausgeführt werden.
  • Die Maßnahmen basieren auf dem Grundgedanken, dass jeder Teilnehmer in dem System (1) den Versand von Mitteilungen mit Erkennungsergebnissen derart steuert, dass hierdurch die Eingriffsmöglichkeiten der anderen Teilnehmer zum Schutz von verwundbaren Verkehrsteilnehmern gefördert oder gezielt ermöglicht werden.
  • Eine erste Maßnahme sieht vor, dass der Eigen-Kommunikationsteilnehmer innerhalb der ihm zur Verfügung stehenden Sensordaten Objekte nachverfolgt, d.h. die deskriptiven Daten zu jedem Objekt nicht nur punktuell auswertet sondern über eine gewisse Zeitdauer, beispielsweise mindestens ein bis zwei Sekunden vergleichend analysiert und auf Konsistenz prüft. Die Verlässlichkeit der Erkennungsergebnisse wird hierdurch verbessert. Ein Eigen-Kommunikationsteilnehmer kann bevorzugt Erkennungsergebnisse über ein durch ihn neu identifiziertes Objekt erst nach Erreichen einer einstellbaren Konfidenzschwelle im System (1) mitteilen, sofern keine besonderen Umstände eine sofortige Mitteilung der Ergebnisse nahelegen (siehe unten). Eine solche Konfidenzschwelle kann in unterschiedlicher Weise definiert sein, beispielsweise als Mindest-Zeitdauer, über die ein Objekt nachverfolgt worden ist. Alternativ oder kann eine Konfidenzschwelle auf Basis einer Konfidenzbewertung der Erkennungsvorrichtung definiert sein, wobei die Konfidenzbewertung angibt, mit welcher Wahrscheinlichkeit eine Übereinstimmung zwischen den Sensordaten und einem Referenz-Objekt ermittelt worden ist.
  • Die vorgenannte Maßnahme kann für sich allein eingesetzt werden oder bevorzugt in Kombination mit einer zusätzlichen Objektklassifikation. Eine solche Klassifikation kann bevorzugt zwischen für das Schützen von verwundbaren Verkehrsteilnehmern relevanten Ziel-Objekten und anderen Objekten unterscheiden. Durch den Eigen-Kommunikationsteilnehmer (A) werden dann bevorzugt oder ausschließlich Erkennungsergebnisse über relevante Ziel-Objekte versendet, während Erkennungsergebnisse über andere Objekte nachrangig oder gar nicht mitgeteilt werden. Der Grad der Priorisierung, insbesondere der Verzögerung bzw. Bevorzugung des Versands, kann dabei in Abhängigkeit von weiteren Kriterien einstellbar sein, insbesondere in Abhängigkeit von einer festgestellten Auslastung auf dem Kommunikationskanal.
  • Die beiden vorgenannten Maßnahmen führen einzeln oder in Kombination dazu, dass der gemeinsame Kenntnisstand in dem verteilten System zuerst bzw. am Schnellsten mit verlässlichen und vornehmlich relevanten Informationen erweitert und aktualisiert wird. Demgegenüber werden weniger verlässliche oder weniger relevante Erkennungsergebnisse nicht mitgeteilt oder erst dann mitgeteilt, wenn die Auslastung auf dem Kommunikationskanal dies zulässt.
  • Eine Klassifikation kann auf Basis der deskriptiven Informationen über die identifizierten Objekte erfolgen. Beispielsweise können alle Objekte, zu denen eine Kollision mit einem Kommunikationsteilnehmer antizipiert wird, als relevantes Ziel-Objekt klassifiziert werden, was beispielsweise den Kinderwagen der Frau umfasst. Ferner können als verwundbare Verkehrsteilnehmer identifizierte Objekte als relevante Ziel-Objekte klassifiziert werden. Die Klassifikation kann ggfs. von der momentanen Bewegung und/oder der Bewegungshistorie abhängig gemacht werden. So könnte der auf der Parkbank sitzende Mann als nicht relevant aufgefasst werden, weil er sich über einen längeren Zeitraum nicht bewegt und einen erheblichen Abstand zu den Verkehrswegen hat. Weiter unten werden weitere Aspekte der Klassifikation von relevanten Ziel-Objekten erläutert.
  • Eine weitere Maßnahme, die für sich allein oder in Kombination mit den vorgenannten Maßnahmen anwendbar ist, sieht vor, dass neu ermittelte Erkennungsergebnisse über bekannte Objekte in Abhängigkeit von dem Alter der zuletzt ausgetauschten Informationen mitgeteilt werden. Als bekanntes Objekt kann jedes Objekt aufgefasst werden, zu dem bereits Erkennungsergebnisse von dem Eigen-Kommunikationsteilnehmer versendet oder empfangen worden sind.
  • In dem Beispiel von 1 könnte die Frau (K) mit dem Kinderwagen beispielsweise über einen längeren Zeitraum sowohl von dem Fahrzeug (A) als auch von dem Fahrzeug (C) erfasst und gegebenenfalls als relevantes Ziel-Objekt klassifiziert worden sein. Ferner könnten Objekte wie der sitzende Mann (N), die Parkbank (14), die Hecke (11) und der Baum (13) schon länger identifiziert und Erkennungsergebnisse hierzu im System (1) ausgetauscht worden sein. Demgegenüber könnte die Erkennung des Kindes (L) – da es sich um ein kleines und schwer identifizierbares Objekt handelt – erst in dem in 1 gezeigten Zustand stattfinden (vergleiche auch Erläuterungen zu 5A und 5B unten). Insbesondere könnte es sein, dass das Fahrzeug (A) und das Fahrzeug (C) im Wesentlichen gleichzeitig das Kind (L) erkennen und gegebenenfalls als relevantes Ziel-Objekt klassifizieren.
  • Es ist für die Effizienz des Systems in dem genannten Fall positiv, wenn neue Erkennungsergebnisse über das Kind (L) bevorzugt ausgetauscht werden, insbesondere da zu dem neu erkannten Kind (L) noch keine Bewegungshistorie bekannt ist.
  • 2 zeigt beispielhaft eine geordnete Datenstruktur (30), beispielsweise in Form einer Objektliste, in der Erkennungsergebnisse (31) über verschiedene Objekte gespeichert werden. In dieser geordneten Datenstruktur (30) können bevorzugt eigene Erkennungsergebnisse sowie von Fremd-Kommunikationsteilnehmern mitgeteilte Erkennungsergebnisse zusammengefasst werden.
  • Bevorzugt wird für jedes Objekt eine Objekt-Referenznummer (ID) als Identifikator vergeben. Diese Referenznummer kann ggfs. beim Versand von Mitteilungen einbezogen werden. Die Objekt-Referenznummer ist hier beispielhaft in Übereinstimmung mit den Bezugszeichen für die verwundbaren Verkehrsteilnehmer (K, L, M, N) gewählt. Für jedes identifizierte Objekt werden bevorzugt Daten gespeichert, die eine räumliche Lokalisierung ermöglichen. Die räumiche Lokalisierung kann auf beliebige Weise ermöglicht werden, insbesondere durch absolute Positionsangaben (x-Koordinate, y-Koordinate) und/oder Positionsangaben in Relation zu den Kommunikationsteilnehmern (A, B, C) (auf eine definierten Halbgerade im Raum / innerhalb eines Flächenbereichs etc.). Solche Daten können in beliebig geeigneter Form gespeichert und mitgeteilt werden. In dem Beispiel von 2 sind absolute Raumkoordinaten (X-Y/lat-long) zur Definition eines Positionspunktes oder eines Positionsgebietes vorgesehen.
  • Ferner können eine festgestellte Bewegungsrichtung (Dir.) und eine momentane Bewegungsgeschwindigkeit (v) erfasst und mitgeteilt werden. Gegebenenfalls kann über einen längeren Zeitraum für eines oder mehrere Objekte eine Bewegungshistorie aufgezeichnet werden.
  • Soweit verfügbar, können weitere deskriptive Daten wie beispielsweise eine Höhe/Größe (H) oder Breite (W) eines identifizierten Objektes erfasst und mitgeteilt werden.
  • Für jedes Objekt kann ein Alter der gespeicherten Information erfasst werden, d.h. die Zeitdauer seit der letzten Aktualisierung der Erkennungsergebnisse (Ta). Es kann dabei gegebenenfalls zwischen dem Alter der zuletzt mitgeteilten Information und dem Alter der letzten eigenen Erkennungsergebnisse unterschieden werden.
  • 3 zeigt eine weitere geordnete Datenstruktur (30‘), in der deskriptive Daten über die Kommunikationsteilnehmer (A, B, C) im System (1) erfasst werden. In der geordneten Datenstruktur (30‘) können gemäß dem gezeigten Beispiel dieselben oder ähnliche deskriptive Informationen abgelegt werden wie in der geordneten Datenstruktur (30). Mit anderen Worten können die bekannten Kommunikationsteilnehmer (A, B, C) ebenfalls als Objekte der Verkehrsumgebung behandelt werden. Die deskriptiven Daten können von den Kommunikationsteilnehmern (A, B, C) mit hoher Genauigkeit erfasst und im Rahmen der Statusmeldungen ausgetauscht werden. Alternativ oder zusätzlich kann ein Eigen-Kommunikationsteilnehmer (A) mittels seiner Erkennungsvorrichtung Erkennungsergebnisse zu den Fremd-Kommunikationsteilnehmern (B, C) ermitteln und abspeichern, insbesondere um Informationen aus den empfangenen Statusmeldungen zu ergänzen.
  • Die Klassifikation der identifizierten Objekte kann auf beliebige Weise erfolgen. Beispielsweise können die Referenz-Objekte, anhand derer die Objekterkennung durchgeführt wird, bestimmte Klassen definieren. Dies können Klassen wie Bäume, Fahrbahnbegrenzungen, Gebäude, Fußgänger, Motorradfahrer etc. sein. Alternativ oder zusätzlich können die weiteren deskriptiven Informationen aus den Erkennungsergebnissen (31) ausgewertet werden, d.h. beispielsweise die Position, Größe, Breite und Geschwindigkeit. Es kann dabei vorteilhaft sein, wenn innerhalb des Systems (1) eine zumindest teilweise vereinheitlichte Klassifizierungsdatenbank genutzt wird, die beispielsweise regelmäßig in der aktuellen Version von einem Provider bezogen und aktualisiert wird.
  • In dem Beispiel von 2 und 3 werden das Objekt (K) als Erwachsener (adult), das Objekt (L) als Kind (child), das Objekt (M) als Fahrrad bzw. Fahrradfahrer (bicycle) und das Objekt (N) ebenfalls als Erwachsener klassifiziert. Die Fremd-Kommunikationsteilnehmer (B, C) können gegebenenfalls im Rahmen der Statusmeldungen ihre eigene Klassifikation angeben, hier jeweils als Personenkraftfahrzeug (car).
  • Eine weitere bevorzugte Maßnahme, die für sich allein oder in beliebiger Kombination mit den vorhergehenden Maßnahmen verwendet werden kann, sieht vor, dass Blind-Spot-Umgebungsbereiche (BE) der Kommunikationsteilnehmer (A, B, C) ermittelt werden. Es ist insbesondere vorgesehen, dass der Eigen-Kommunikationsteilnehmer (A) feststellt, ob ein Objekt, insbesondere ein relevantes Ziel-Objekt (K, L, M) einem Blind-Spot-Umgebungsbereich eines Fremd-Kommunikationsteilnehmers (B) zugeordnet ist. Wird eine solche Zuordnung festgestellt, so werden Erkennungsergebnisse über solche relevanten Ziel-Objekte (K, L, M) bevorzugt mitgeteilt.
  • Ein Blind-Spot-Umgebungsbereich (BE) ist ein solcher Umgebungsbereich eines Fremd-Kommunikationsteilnehmers (B), in dem dieser selbst keine Erkennung durchführt und/oder (momentan) keine Erkennung durchführen kann. Nachfolgend werden verschiedene Varianten zur Ermittlung von Blind-Spot-Umgebungsbereichen (BE) erläutert.
  • Eine erste Variante sieht vor, dass ein Kommunikationsteilnehmer (A, B, C) im System (1) eine Mitteilung darüber versendet, in welchen Wahrnehmungsumgebungsbereichen (AE) er selbst eine Erkennung durchführt bzw. durchführen kann. Dies kann beispielsweise dadurch geschehen, dass Informationen über die bei einem Kommunikationsteilnehmern (A, B, C) verfügbaren Erfassungssysteme und insbesondere die verfügbaren Erfassungsbereiche (2025) ausgetauscht werden. Solche Informationen können bevorzugt standardisiert sein. Es kann auch hier bevorzugt eine einheitliche Datenbank über standardisierte Erfassungsbereiche und/oder Erfassungssysteme vorgesehen sein, die von einem Provider bezogen und regelmäßig aktualisiert wird.
  • Alternativ können Erfassungsbereiche durch ein allgemein definiertes Raster gekennzeichnet werden, wobei ein Kommunikationsteilnehmer mitteilt, welche der definierten Rasterbereiche durch seine Erkennungsvorrichtung abgedeckt sind. In 1 ist mit Bezug auf das Fahrzeug (B) ein solches Raster beispielhaft dargestellt. Es definiert mit einem ersten Rasterbereich (40) eine vordere Umgebung, mit einem zweiten Rasterbereich (41) eine hintere Umgebung und mit entsprechend weiteren Rasterbereichen (4245) vordere linke und rechte Umgebungen sowie hintere linke und rechte Umgebungen, die im Wesentlichen mit der Definition der Erfassungsbereiche (2025) aus 4 korrespondieren. Alternativ können ein beliebiges anderes Raster und/oder eine beliebige andere Unterteilung der Umgebung gewählt werden.
  • In dem Beispiel aus 1 könnte somit das Fahrzeug (B) aus Sicht des Fahrzeuges (A) als Fremd-Kommunikationsteilnehmer mitgeteilt haben, dass es lediglich in seiner vorderen Umgebung (40) eine eigene Erfassung durchführen kann. Ferner kann auf Basis der Statusmeldungen dem Fahrzeug (A) bekannt sein, dass sich das Fahrzeug (B) rückwärts bewegt, d.h. in einer Richtung, in der es selbst keine Erfassung durchführen kann. Es wird weiter angenommen, dass das Fahrzeug (A) das Kind (L) als relevantes Ziel-Objekt erfasst sowie dessen Position und gegebenenfalls Bewegung erkennt. Anhand der Positionsinformationen zum Fahrzeug (B) und zum Kind (L) kann das Fahrzeug (A) ermitteln, dass das Kind (L) mit seiner momentanen Position der rückwärtigen Umgebung (41) und/oder der hinteren rechten Umgebung (45) des Fahrzeugs (B) zugeordnet ist. Es kann ferner feststellen, dass die antizipierte Weiterbewegung des Kindes (L) der rückwärtigen Umgebung (41) des Fahrzeuges (B) zugeordnet ist. Dementsprechend kann das Fahrzeug (A) feststellen, dass sich das Kind (L) in einem Blind-Spot-Umgebungsbereich (BE) des Fahrzeuges (B) befindet, in dem dieses selbst keine Erkennung durchführt. Das Fahrzeug (A) versendet als Eigen-Kommunikationsteilnehmer bevorzugt eine Mitteilung mit Erkennungsergebnissen über das Kind (L), um damit gezielt den Kenntnisstand des Systems (1) und insbesondere des Fremd-Kommunikationsteilnehmers (B) zu verbessern.
  • Aus der im Wesentlichen übereinstimmenden Erwägung heraus kann das Fahrzeug (A) ebenfalls Erkennungsergebnisse über die Frau (K) mit dem Kinderwagen mitteilen, da auch deren Positionen dem Blind-Spot-Umgebungsbereich (BE, 45) des Fahrzeuges (B) zugeordnet ist.
  • Gemäß einer alternativen oder zusätzlichen Variante können Blind-Spot-Umgebungsbereiche (BE) eines Fremd-Kommunikationsteilnehmers (B) auf Basis von erkannten oder mitgeteilten Hindernis-Objekten (11, 13, 15) ermittelt werden. Das Fahrzeug (A) kann beispielsweise die Hecke (11) als Objekt identifiziert haben, wobei auch die Position, Höhe und Breite der Hecke (11) bekannt sind. Anhand der bekannten Position des Fahrzeuges (B), der deskriptiven Daten über die Hecke (11) und der Erkennungsergebnisse über das Kind (L) und die Frau (K) mit dem Kinderwagen kann das Fahrzeug feststellen, dass in Bezug auf das Fahrzeug (B) die Hecke (11) ein Hindernis-Objekt darstellt, die dem Fahrzeug (B) (jedenfalls momentan) eine eigene Erfassung des Kindes (L) und der Frau (K) verwehrt, d.h. dass sich das Kind (L) und die Frau (K) in einem Blind-Spot-Umgebungsbereich (BE) des Fremd-Kommunikationsteilnehmers (B) befinden. Diese Ermittlung ist unabhängig davon, ob dem Eigen-Kommunikationsteilnehmer (A) die Wahrnehmungsbereiche (AE) des Fahrzeugs (B) bekannt sind.
  • Bevorzugt können die beiden vorgenannten Varianten zur Ermittlung eines Blind-Spot-Umgebungsbereichs (BE) eines Fremd-Kommunikationsteilnehmers (B) kombiniert ausgeführt werden. Es kann ferner vorgesehen sein, dass ein Eigen-Kommunikationsteilnehmer (A) im System (1) selbst mitteilt, dass einer seiner Erfassungsbereiche (2025) durch ein Hindernis-Objekt eingeschränkt ist. Mit anderen Worten kann ein Eigen-Kommunikationsteilnehmer (A) eigene Blind-Spot-Umgebungsbereiche (BE) erfassen und mitteilen.
  • Eine weitere Maßnahme, die für sich allein oder in beliebiger Kombination mit den vorher genannten Maßnahmen angewendet werden kann, sieht vor, dass ein Eigen-Kommunikationsteilnehmer (A) potenzielle Kollisionssituationen zwischen bekannten relevanten Ziel-Objekten (L, M) und bekannten Fremd-Kommunikationsteilnehmern (B, C) analysiert. Hierzu können insbesondere eine momentane Bewegung oder eine Bewegungshistorie zur Antizipation der weiteren Bewegung der ausgewertet werden. Ein Eigen-Kommunikationsteilnehmer (A) versendet bevorzugt Mitteilungen mit Erkennungsergebnissen über solche relevanten Ziel-Objekte (L, M), zu denen eine Kollisionssituation mit einem Fremd-Kommunikationsteilnehmer (B, C) antizipiert wird. Der Versand kann beispielsweise mit höherer Frequenz oder unter Verdrängung von anderen Mitteilungen erfolgen. In dem Beispiel kann der Kommunikationsteilnehmer (A) antizipieren, dass sich das Kind (L) auf einem Pfad bewegt, der sich mit dem Bewegungspfad des Fahrzeuges (B) zeitlich und räumlich überschneidet. Somit wird eine akute Kollisionsgefährdung festgestellt.
  • In derselben Weise könnte das Fahrzeug (C) die Bewegung des Kinderwagens der Frau (K) oder das Abbiegen des Fahrradfahrers (M) gegenüber der Bewegung des Fahrzeugs (A) analysieren und die vorerwähnten Kollisionssituationen antizipieren. Das Fahrzeug (C) würde somit bevorzugt Erkennungsergebnisse über den Kinderwagen sowie den Fahrradfahrer (M) mitteilen und dem Fahrzeug (A) zur Verfügung stellen. Der bevorzugte Versand ist hier sinnvoll, obwohl das Fahrzeug (A) selbst zuvor Erkennungsergebnisse über diese relevanten Ziel-Objekte mitgeteilt hat, weil eine Kollisionssituation antizipiert wurde.
  • In 5A ist beispielhaft ein Bildausschnitt gezeigt, in dem ein Erwachsener und ein Kind eng beieinanderstehen. Nur der Erwachsene ist voll sichtbar. Das Kind wird durch den Erwachsenen teilweise überdeckt. Es kann für eine Erkennungsvorrichtung schwierig sein, den Erwachsenen von dem Kind zu unterscheiden, sodass lediglich der Erwachsene als Objekt (X) mit einer Größe (H(X)) und einer Breite (W(X)) erfasst wird. Die beiden realen Objekte (Kind, Erwachsener) werden fälschlicher Weise als ein einziges Objekt (X) aufgefasst. Auch die oben erwähnte Nachverfolgung von Objekten innerhalb der Sensordaten kann eine solche fehlerhafte Auffassung ggf. nicht vermeiden. Dementsprechend kann es sein, dass nur die Erkennungsergebnisse über das Objekt (X) im System (1) mitgeteilt werden. Es ist ferner möglich, dass sogar durch mehrere Kommunikationsteilnehmer dieselbe unzureichende Interpretation der Verkehrsumgebung erfolgt, was ggf. zu einer verstärkten Manifestation der fehlerhaften Auffassung im System (1) führen kann.
  • Die Darstellung von 5B zeigt eine Bildaufnahme zu einem späteren Zeitpunkt. Hier hat sich der Erwachsene innerhalb des aufgenommenen Bildes von dem Kind entfernt, beispielsweise weil eine tatsächliche Entfernung von dem Kind stattgefunden hat, oder weil das Bild aus einer anderen Perspektive stammt. Dementsprechend wird nun eine separate Identifikation eines Objekts (X‘ = Erwachsener) und eines Objekts (Y = Kind) stattfinden, wobei unterschiedliche deskriptive Daten für diese Objekte (X‘, Y) aus den Erkennungsergebnissen hervorgehen. Insbesondere kann festgestellt werden, dass das Objekt (Y) eine andere Größe (H(Y)) und/oder eine andere Position und/oder eine andere Klassifikation aufweist als das Objekt (X‘) bzw. das vorhergehende Objekt (X).
  • Gemäß einer weiteren Maßnahme, die für sich allein oder in beliebiger Kombination mit den oben genannten Maßnahmen angewendet werden kann, kann ein Eigen-Kommunikationsteilnehmer (A) eine Zuordnung zwischen einem erfassten Objekt (X, X‘, Y) und dessen deskriptiven Daten und insbesondere dessen Klassifizierung gegenüber den vorgekannten Erkennungsergebnissen (eigene und empfangene) analysieren. Aus den neuen Erkennungsergebnissen kann insbesondere hervorgehen, dass zwischen einem identifizierten Objekt und dessen Klassifizierung als ein oder mehre relevante Ziel-Objekte eine neue Zuordnung auftritt. Die geänderte Klassifizierung kann sich aus den deskriptiven Informationen ergeben oder daraus, dass von zwei oder mehr bisher bekannten Objekten mit bekannter Klassifizierung plötzlich eines wegfällt. Ferner können sich deskriptive Daten zu einem bekannten Objekt sprunghaft ändern, während der oben genannte Konfidenzschwellenwert erreicht oder überschritten ist. Die Eigen-Kommunikationseinrichtung kann aus solchen Abweichungen folgern, dass innerhalb der im System mitgeteilten Erkennungsergebnisse mindestens eine fehlerhafte Auffassung vorliegt.
  • Aus einer solchen Erkenntnis können unterschiedliche Reaktionen abgeleitet werden. Einerseits kann der Eigen-Kommunikationsteilnehmer (A) eine Mitteilung mit den neuen Erkennungsergebnissen bevorzugt versenden, um die weiteren Kommunikationsteilnehmer (B, C) im System (1) mit besseren bzw. aktuelleren deskriptiven Informationen zu versorgen. Alternativ oder zusätzlich kann im System (1) eine Warnung versendet werden, dass in Bezug auf die ein oder mehreren bekannten Objekte eine fehlerhafte Auffassung vorliegt. Eine solche Warnung kann die Fremd-Kommunikationsteilnehmer (B, C), die eine eigene Erfassung zu diesen Objekten ausführen, dazu veranlassen, ebenfalls eine Konsistenzprüfung durchzuführen und ggf. zusätzliche neue Erkennungsergebnisse bevorzugt zu versenden.
  • Abwandlungen der Erfindung sind in verschiedener Weise möglich. Insbesondere können die zu den Ausführungsbeispielen gezeigten oder beschriebenen Merkmale in beliebiger Weise miteinander kombiniert, gegeneinander ersetzt, ergänzt oder weggelassen werden. Alle oben genannten Maßnahmen können in beliebiger Kombination genutzt werden und ggf. durch weitere Maßnahmen ergänzt werden. Neben den oben genannten Systemen kann ein Schutz von verwundbaren Verkehrsteilnehmern beispielsweise durch gezieltes Anleuchten mit ausrichtbaren Fahrzeugscheinwerfern oder durch Einblendung von positionsbezogenen Markierungen in einem Head-up-display unterstützt werden. Eine Erkennungsvorrichtung kann alternativ oder zusätzlich zu den oben genannten Sensoren eine Wärmebildkamera aufweisen. Ferner kann eine Erkennungsvorrichtung verschiedene Sensordaten oder Zwischenergebnisse der Objekterkennung miteinander fusionieren, um verwundbare Verkehrsteilnehmer zu erkennen. So können beispielsweise gleichzeitig, überlappend oder nacheinander Sensordaten einer Kamera, eines Radars, und einer Wärmebildkamera ausgewertet werden. Aus den Bilddaten der Kamera kann in Kombination mit den Wärmebilddaten ein Objekt gut als Fußgänger oder Tier klassifiziert werden, während anhand der Radardaten eine besonders genaue Positionsbestimmung möglich ist. Alternativ oder zusätzlich kann die Positionsbestimmung durch die von einer 3D-Kamera aus Stereobildern erfasste Abstandsinformation hergeleitet werden. In ähnlicher Weise sind beliebige andere Sensordatenfusionen oder Fusionen von Zwischenergebnissen der Objekterkennung möglich. BEZUGSZEICHENLISTE
    A Erstes Fahrzeug / Eigen- First vehicle / Own
    Kommunikationsteilnehmer communication
    participant
    B Zweites Fahrzeug / Fremd- Second vehicle /
    Kommunikationsteilnehmer Foreign communication
    participant
    C Drittes Fahrzeug / Fremd- Third vehicle / Foreign
    Kommunikationsteilnehmer communication
    participant
    K Erster Verkehrsteilnehmer First road user / First
    / erstes relevantes Ziel- relevant target object
    Objekt / Frau mit / Woman with buggy
    Kinderwagen
    L Zweiter Second road user /
    Verkehrsteilnehmer / Second relevant target
    zweites relevantes Ziel- object / Child with
    Objekt / Kind mit Ball ball
    M Dritter Third road user / third
    Verkehrsteilnehmer / relevant target object
    drittes relevantes Ziel- / bicyclist
    Objekt / Fahrradfahrer
    N Vierter Forth road user /
    Verkehrsteilnehmer / Sitting man
    Sitzender Mann
    RU Verwundbarer Vulnerable road user
    Verkehrsteilnehmer
    CU Kommunikationsteilnehmer Communication
    im System participant within the
    system
    AE Wahrnehmungs- Perception-surroundings
    Umgebungsbereich area
    BE Blind-Spot- blind-Spot-surroundings
    Umgebungsbereich area
    ID Objekt-Referenznummer Object reference number
    Pos. Position Position
    H Höhe / Größe Height / Size
    W Breite Width
    Dir. Richtung Direction
    v Geschwindigkeit Speed
    Class Objektklasse Object class
    Ta Alter der Information / Age of information /
    Zeit seit Aktualisierung Time since updating
    X Bekanntes Objekt Known Object
    X’ Ersatz-Objekt Substitute Object
    Y Zusätzliches Objekt Additional Object
    1 Erkennungs- und Detection and
    Kommunikationssystem communication system
    10 Verkehrsumgebung Traffic environment
    11 Hecke / Erstes Hindernis- Hedge / First obstacle
    Objekt object
    12 Rasenfläche Grass field
    13 Baum / Zweites Hindernis- Tree / Second obstacle
    Objekt object
    14 Parkbank Park bench
    15 Haus / Drittes Hindernis- House / Third obstacle
    Objekt object
    16 Vorfahrtstraße Priority road
    17 Seitenstraße Byroad
    20 Fronterfassungsbereich Front detection area
    21 Heckerfassungsbereich Back detection area
    22 Linker Seiten- Left lateral detection
    Erfassungsbereich area
    23 Rechter Seiten- Right lateral detection
    Erfassungsbereich area
    24 Linker Rückspiegel Left rearview mirror
    Erfassungsbereich detection area
    25 Rechter Rückspiegel Right rearview mirror
    Erfassungsbereich detection area
    30 Geordnete Datenstruktur / Organized data
    Objektliste structure / object list
    30’ Geordnete Datenstruktur / Organized data
    Liste über structure / list of
    Kommunikationsteilnehmer communication
    participants
    31 Erkennungsergebnisse Detection results
    32 Teilnehmerinformation Participants
    information
    40 Vordere Umgebung Front surrounding
    41 Hintere Umgebung Rear surrounding
    42 Vordere linke Umgebung Frontal left
    surrounding
    43 Vordere rechte Umgebung Frontal right
    surrounding
    44 Hintere linke Umgebung Rear left surrounding
    45 Hintere rechte Umgebung Rear right surrounding

Claims (13)

  1. Erkennungs- und Kommunikationsverfahren zur Ausführung bei einem Eigen-Kommunikationsteilnehmer (A) und als Bestandteil eines verteilten Erkennungs- und Kommunikationssystems (1) zum Erkennen und Schützen von verwundbaren Verkehrsteilnehmern (RU, K, L, M, N) unter Mitteilung von Erkennungsergebnissen über identifizierte Objekte zwischen zwei oder mehr Kommunikationsteilnehmern (CU, A, B, C) des Systems (1), wobei bei dem Eigen-Kommunikationsteilnehmer (A) mittels einer Erkennungsvorrichtung verwundbare Verkehrsteilnehmer (RU, K, L, M, N) in dessen Erkennungsumgebung (2025) erfasst und als Objekte identifiziert werden und Erkennungsergebnisse (31) über identifizierte Objekte in einer geordneten Datenstruktur (30) gespeichert sowie an Fremd-Kommunikationsteilnehmer (CU, B, C) im System (1) mitgeteilt werden, dadurch gekennzeichnet, dass bei dem Eigen-Kommunikationsteilnehmer (A) der Versand von Mitteilungen mit Erkennungsergebnissen (31) gesteuert wird und zwar auf Basis einer Analyse der eigenen Erkennungsergebnisse gegenüber den gespeicherten Informationen (31) über bekannte Objekte und bekannte Kommunikationsteilnehmer (CU, 30‘), insbesondere durch Bevorzugung und/oder Beschränkung des Versands von Mitteilungen.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass bei dem Eigen-Kommunikationsteilnehmer (A) innerhalb der Sensordaten der Erkennungsvorrichtung Objekte (K, L, M, N) nachverfolgt werden, und wobei diese Objekte (K, L, M, N) dahingehend klassifiziert werden, ob es sich um für das Schützen von verwundbaren Verkehrsteilnehmern relevante Ziel-Objekte handelt.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der Eigen-Kommunikationsteilnehmer (A) nur Mitteilungen mit Erkennungsergebnissen über relevante Ziel-Objekte versendet.
  4. Verfahren nach Anspruch 1, 2 oder 3, dadurch gekennzeichnet, dass die Mitteilung von neu ermittelten Erkennungsergebnissen (31) über bekannte Objekte in Abhängigkeit von dem Alter (Ta) der hierzu zuletzt ausgetauschten Informationen gesteuert wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Eigen-Kommunikationsteilnehmer (A) bevorzugt Erkennungsergebnisse (31) über solche relevanten Ziel-Objekte (K, L, M) mitteilt, die einem Blind-Spot-Umgebungsbereich (BE, 41, 44, 45) eines Fremd-Kommunikationsteilnehmers (B) zugeordnet sind, in dem durch diesen Fremd-Kommunikationsteilnehmer (B) selbst keine Erkennung erfolgt oder möglich ist.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Eigen-Kommunikationsteilnehmer (A) eine Mitteilung darüber versendet, in welchen Wahrnehmungs-Umgebungsbereichen (AE) er selbst eine Erkennung durchführt bzw. durchführen kann, und/oder dass der Eigen-Kommunikationsteilnehmer (A) von einem Fremd-Kommunikationsteilnehmer (B) eine Mitteilung darüber empfängt, in welchen Wahrnehmungs-Umgebungsbereichen (AE, 40) dieser eine Erkennung durchführt bzw. durchführen kann.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein Blind-Spot-Umgebungsbereich (BE, 41, 44, 45) aus den mitgeteilten Informationen über den Wahrnehmungs-Umgebungsbereich (AE) des Fremd-Kommunikationsteilnehmers (B) ermittelt wird.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Eigen-Kommunikationsteilnehmer (A) einen Blind-Spot-Umgebungsbereich (BE, 41, 44, 45) eines Fremd-Kommunikationsteilnehmers (B) auf Basis von erkannten oder mitgeteilten Hindernis-Objekten (11, 13, 15) im Umfeld dieses Fremd-Kommunikationsteilnehmers (B) ermittelt.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Eigen-Kommunikationsteilnehmer (A) potenzielle Kollisionssituationen zwischen relevanten Ziel-Objekten (L, M) und Fremd-Kommunikationsteilnehmern analysiert und Erkennungsergebnisse (31) über solche relevanten Ziel-Objekte (L, M) bevorzugt versendet, zu denen eine Kollisionssituation antizipiert wird.
  10. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Mitteilung mit neuen Erkennungsergebnissen (31) bevorzugt gesendet wird, wenn sich aus den neuen Erkennungsergebnissen (31) eine neue Zuordnung zwischen einem erfassten Objekt (K, L, M, N) und dessen Klassifizierung (Class) als ein oder mehrere relevante Ziel-Objekte ergibt.
  11. Sicherheitseinrichtung zum Erkennen und Schützen von verwundbaren Verkehrsteilnehmern (RU) in Zusammenwirkung mit einem verteilten Erkennungs- und Kommunikationssystem (1), wobei die Sicherheitseinrichtung eine Recheneinheit zur Ausführung eines Erkennungs- und Kommunikationsverfahrens aufweist und auf ein Kommunikationsmittel sowie auf ein Erkennungsmittel Zugriff hat, dadurch gekennzeichnet, dass die Sicherheitseinrichtung dazu ausgebildet ist, auf Basis der Sensordaten des Erkennungsmittels eine Erkennung von verwundbaren Verkehrsteilnehmern (RU) durchzuführen und ein Verfahren nach einem der vorhergehenden Ansprüche auszuführen.
  12. Sicherheitseinrichtung nach Anspruch 11, dadurch gekennzeichnet, dass die Sicherheitseinrichtung Bestandteil eines Kraftfahrzeugs ist.
  13. Softwareprodukt zur Bereitstellung eines Erkennungs- und Kommunikationsverfahrens als Bestandteil eines verteilten Erkennungs- und Kommunikationssystems (1), wobei das System (1) zum Erkennen und Schützen von verwundbaren Verkehrsteilnehmern (RU, K, L, M, N) unter Mitteilung von Erkennungsergebnissen (31) über identifizierte Objekte (K, L, M, N) zwischen zwei oder mehr Kommunikationsteilnehmern (CU, A, B, C) des Systems (1) ausgebildet ist, dadurch gekennzeichnet, dass das Softwareprodukt programmierte Anweisungen umfasst, durch die bei Ausführung auf einer Recheneinheit ein Verfahren nach einem der Ansprüche 1 bis 10 ausgeführt wird.
DE102015105784.0A 2015-04-15 2015-04-15 Verteiltes System zum Erkennen und Schützen von verwundbaren Verkehrsteilnehmern Pending DE102015105784A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102015105784.0A DE102015105784A1 (de) 2015-04-15 2015-04-15 Verteiltes System zum Erkennen und Schützen von verwundbaren Verkehrsteilnehmern

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015105784.0A DE102015105784A1 (de) 2015-04-15 2015-04-15 Verteiltes System zum Erkennen und Schützen von verwundbaren Verkehrsteilnehmern

Publications (1)

Publication Number Publication Date
DE102015105784A1 true DE102015105784A1 (de) 2016-10-20

Family

ID=57043757

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015105784.0A Pending DE102015105784A1 (de) 2015-04-15 2015-04-15 Verteiltes System zum Erkennen und Schützen von verwundbaren Verkehrsteilnehmern

Country Status (1)

Country Link
DE (1) DE102015105784A1 (de)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017122261A1 (de) * 2017-09-26 2019-03-28 Valeo Schalter Und Sensoren Gmbh Verfahren zum Überwachen eines Umgebungsbereiches eines Kraftfahrzeugs sowie Kamerasystem
WO2020111999A1 (en) * 2018-11-27 2020-06-04 Scania Cv Ab Method and control arrangement for visualisation of obstructed view
WO2023285076A1 (de) * 2021-07-16 2023-01-19 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum überwachen eines umgebungsbereichs eines fahrzeugs, assistenzsystem für ein fahrzeug, datenaustauschvorrichtung sowie system zum durchführen eines verfahrens zum überwachen eines umgebungsbereichs eines fahrzeugs
WO2023001330A1 (de) 2021-07-23 2023-01-26 HARTING Electronics GmbH Leiterkartenanordnung
WO2023028632A1 (de) * 2021-08-31 2023-03-09 Tom Robotics Gmbh Klassifizierungsverfahren für ein klassifizieren von objekten
DE102021125582A1 (de) 2021-10-01 2023-04-06 Bayerische Motoren Werke Aktiengesellschaft Verfahren und vorrichtung zur bestimmung eines umgebungsmodells eines kraftfahrzeugs
EP4167607A1 (de) 2021-10-12 2023-04-19 Denso Corporation Kooperatives intelligentes transportsystem und verfahren mit cpm-informationssignifikanzniveau
EP4167611A1 (de) 2021-10-12 2023-04-19 Denso Corporation Kooperatives intelligentes transportsystem und verfahren mit cpm-signifikanzindex zur redundanzabschwächung
EP4167209A1 (de) 2021-10-12 2023-04-19 Denso Corporation Kooperatives intelligentes transportsystem und verfahren mit cpm-erzeugungssteuerung basierend auf dem signifikanzindex und dem informationssignifikanzniveau

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007048809A1 (de) * 2006-10-13 2008-07-10 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur Erkennung von verdeckten Objekten im Straßenverkehr
DE102007035026A1 (de) * 2007-07-26 2009-01-29 Adc Automotive Distance Control Systems Gmbh Fahrerassistenzsystem und Verfahren zum Betreiben eines Fahrerassistenzsystems
DE102009016568A1 (de) * 2008-04-07 2009-10-08 Toyota Jidosha Kabushiki Kaisha, Toyota-shi Trajektorien-Abschätzvorrichtung für ein bewegliches Objekt

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007048809A1 (de) * 2006-10-13 2008-07-10 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur Erkennung von verdeckten Objekten im Straßenverkehr
DE102007035026A1 (de) * 2007-07-26 2009-01-29 Adc Automotive Distance Control Systems Gmbh Fahrerassistenzsystem und Verfahren zum Betreiben eines Fahrerassistenzsystems
DE102009016568A1 (de) * 2008-04-07 2009-10-08 Toyota Jidosha Kabushiki Kaisha, Toyota-shi Trajektorien-Abschätzvorrichtung für ein bewegliches Objekt

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017122261A1 (de) * 2017-09-26 2019-03-28 Valeo Schalter Und Sensoren Gmbh Verfahren zum Überwachen eines Umgebungsbereiches eines Kraftfahrzeugs sowie Kamerasystem
WO2020111999A1 (en) * 2018-11-27 2020-06-04 Scania Cv Ab Method and control arrangement for visualisation of obstructed view
WO2023285076A1 (de) * 2021-07-16 2023-01-19 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum überwachen eines umgebungsbereichs eines fahrzeugs, assistenzsystem für ein fahrzeug, datenaustauschvorrichtung sowie system zum durchführen eines verfahrens zum überwachen eines umgebungsbereichs eines fahrzeugs
WO2023001330A1 (de) 2021-07-23 2023-01-26 HARTING Electronics GmbH Leiterkartenanordnung
WO2023028632A1 (de) * 2021-08-31 2023-03-09 Tom Robotics Gmbh Klassifizierungsverfahren für ein klassifizieren von objekten
AT525406A1 (de) * 2021-08-31 2023-03-15 Tom Robotics Gmbh Klassifizierungsverfahren für ein klassifizieren von objekten
DE102021125582A1 (de) 2021-10-01 2023-04-06 Bayerische Motoren Werke Aktiengesellschaft Verfahren und vorrichtung zur bestimmung eines umgebungsmodells eines kraftfahrzeugs
EP4167607A1 (de) 2021-10-12 2023-04-19 Denso Corporation Kooperatives intelligentes transportsystem und verfahren mit cpm-informationssignifikanzniveau
EP4167611A1 (de) 2021-10-12 2023-04-19 Denso Corporation Kooperatives intelligentes transportsystem und verfahren mit cpm-signifikanzindex zur redundanzabschwächung
EP4167209A1 (de) 2021-10-12 2023-04-19 Denso Corporation Kooperatives intelligentes transportsystem und verfahren mit cpm-erzeugungssteuerung basierend auf dem signifikanzindex und dem informationssignifikanzniveau

Similar Documents

Publication Publication Date Title
DE102015105784A1 (de) Verteiltes System zum Erkennen und Schützen von verwundbaren Verkehrsteilnehmern
EP3155603B1 (de) Verfahren zur ermittlung von positionsdaten zur nutzung beim betrieb eines fahrzeugsystems eines kraftfahrzeugs und positionsdatenermittlungs- und -verteilungssystem
DE69826793T2 (de) Fahrassistenzsystem für Kraftfahrzeuge
EP2826031B1 (de) Verfahren zur stauerkennung mittels einer drahtlosen fahrzeug-zu-fahrzeug-kommunikation
DE102013217370B4 (de) Fahrzeugumgebung-Überwachungseinrichtung
DE102012214852B4 (de) Verfahren und Vorrichtung zum Selektieren von Objekten in einem Umfeld eines Fahrzeugs
DE102004035842B4 (de) Duales ungleichartiges erfassendes Objektdetektions- und Zielerfassungssystem
DE102019205228A1 (de) Einfädelverhaltenssysteme und Verfahren für Fahrzeuge auf einer Hauptspur
DE102006047634A1 (de) Verfahren zum Erfassen eines Umfelds eines Fahrzeugs
WO2019121035A1 (de) Verfahren zur klassifizierung von parklücken in einem umgebungsbereich eines fahrzeugs mit einem neuronalen netzwerk
EP3627386A1 (de) Verfahren und vorrichtung zum bereitstellen eines umfeldabbildes eines umfeldes einer mobilen einrichtung und kraftfahrzeug mit einer solchen vorrichtung
DE102012210608A1 (de) Verfahren und Vorrichtung zum Erzeugen eines Steuerparameters für ein Abstandsassistenzsystem eines Fahrzeugs
EP2707862B1 (de) Abstandsbestimmung mittels eines kamerasensors
DE102010025351A1 (de) Verfahren und Vorrichtung zum Unterstützen eines Fahrzeugführers
WO2009019214A2 (de) Verfahren zum bestimmen eines wahrscheinlichen bewegungs-aufenthaltsbereichs eines lebewesens und fahrzeug zur durchführung des verfahrens
DE102011010864A1 (de) Verfahren und System zur Vorhersage von Kollisionen
EP3818466B1 (de) Schnelle erkennung gefährlicher oder gefährdeter objekte im umfeld eines fahrzeugs
DE102012205293A1 (de) Fahrerunterstützungssystem gegen tote Winkel für den Fahrer
DE102019216348A1 (de) Fahrzeugunterstützungssystem
DE10151982A1 (de) Optoelektronische Erfassungseinrichtung
DE102017212644A1 (de) Sensorsystem und Verfahren zum Ermitteln wenigstens einer Verkehrssituation
DE102014110206A1 (de) Fahrzeugaußenumgebungerkennungsvorrichtung
DE102016014709A1 (de) Verfahren zur Visualisierung eines Fahrzustandes
DE102021205680A1 (de) Vorrichtung und verfahren zum steuern eines fahrzeugs
DE102012208302B4 (de) Verfahren zur Bereitstellung von Informationen über eine Umgebung eines Fahrzeugs

Legal Events

Date Code Title Description
R163 Identified publications notified
R130 Divisional application to

Ref document number: 102015017426

Country of ref document: DE

R012 Request for examination validly filed
R084 Declaration of willingness to licence