DE102020210697A1 - Verfahren und Vorrichtung zum Überwachen eines Bereichs - Google Patents

Verfahren und Vorrichtung zum Überwachen eines Bereichs Download PDF

Info

Publication number
DE102020210697A1
DE102020210697A1 DE102020210697.5A DE102020210697A DE102020210697A1 DE 102020210697 A1 DE102020210697 A1 DE 102020210697A1 DE 102020210697 A DE102020210697 A DE 102020210697A DE 102020210697 A1 DE102020210697 A1 DE 102020210697A1
Authority
DE
Germany
Prior art keywords
vehicle
area
sensor data
sensor
surroundings
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020210697.5A
Other languages
English (en)
Inventor
Marlon Ramon Ewert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102020210697.5A priority Critical patent/DE102020210697A1/de
Publication of DE102020210697A1 publication Critical patent/DE102020210697A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0129Traffic data processing for creating historical data or processing based on historical data

Landscapes

  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

Es werden ein Verfahren und eine Vorrichtung zur Überwachung eines Bereiches vorgeschlagen, wobei
- Umfeldsensordaten des Bereichs mittels mindestens einen Umfeldsensors mindestens eines den Bereich durchfahrenden, insbesondere zumindest teilautomatisierten oder autonom fahrenden, Fahrzeugs, erfasst werden, und
- die erfassten Umfeldsensordaten und eine zugehörige Fahrzeugposition und eine zugehörige Sensorausrichtungsinformation in bestimmten, insbesondere regelmäßigen, zeitlichen Abständen, an eine zentrale Einrichtung, insbesondere ein Cloud-Computing System, übermittelt werden, unabhängig von einem Verdacht auf eine Gefährdung.

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Überwachen eines Bereiches, beispielsweise eines öffentlichen Bereichs, wobei Umfeldsensoren von den Bereich durchfahrenden Fahrzeugen, insbesondere autonomen Fahrzeugen, genutzt werden. Die Erfindung betrifft des Weiteren ein Fahrzeug. Die Erfindung betrifft ferner ein Cloud-Computing System. Die Erfindung betrifft ferner ein Computerprogramm.
  • Stand der Technik
  • In heutzutage bekannten autonomen oder teilautonomen Fahrzeugen kommt eine Vielzahl von Umfeldsensoren zur Anwendung. Diese Umfeldsensoren werden verwendet, um Objekte um das Fahrzeug herum zu erkennen und darauf basierend eine Trajektorienplanung oder Ansteuerung der Fahrzeugaktuatoren durchzuführen. Auf diese Weise ist ein sicherer Betrieb des autonomen Fahrzeugs möglich.
  • In städtischen Gebieten erfolgt die Überwachung des Straßenverkehrs bzw. die Überwachung von Fußgängern oder Passanten üblicherweise mithilfe von Überwachungskameras. Diese sind in der Regel an Lichtpfosten oder Gebäuden befestigt und überwachen einen bestimmten Bereich einer Straße oder eines Fußgängerwegs oder gefährliche Orte. Der Betrieb derartiger Überwachungskameras ist relativ teuer und deckt immer nur einen bestimmten Bereich einer Straße oder eines Fußgängerwegs ab. Auf diese Weise kann sich beispielsweise Kriminalität in Bereiche verlagern, die von den Überwachungskameras nicht erfasst werden.
  • DE 10 2018 112 148 A1 beschreibt ein Verfahren zur Verfolgung von Unfallfluchttätern mit Hilfe von kommunizierenden Fahrzeugen. Bei dem Verfahren ist vorgesehen, bei Erfassung einer Kollision mit einem Zielfahrzeug zu ermitteln, ob ein Unfallfluchtereignis vorliegt. Liegt ein solches Ereignis vor, werden Daten zu dem Zielfahrzeug gesammelt und eine Verfolgungsnachricht an andere Fahrzeuge oder straßenseitige Einheiten wie fest installierte Kameras in der Umgebung übermittelt. Erkennen andere Fahrzeuge oder straßenseitige Einheiten das Zielfahrzeug, so werden Informationen über das Fahrzeug aufgenommen und die Verfolgungsnachricht wird an weitere Einheiten in der Umgebung übermittelt. Die Verfolgungsnachrichten werden von Behörden gesammelt.
  • DE 10 2018 111 265 A1 beschreibt ein System und ein Verfahren zur Abbildung der Fahrzeugumgebung. Das System umfasst dazu eine Steuerung, um die beteiligten Komponenten zu koordinieren. Die Steuerung steht dazu mit Bilderfassungseinrichtungen in Verbindung, die die Umgebung eines Fahrzeugs abbilden können, und kann die Bilder bei Bedarf speichern.
  • DE 10 2018 101 006 A1 beschreibt ein System und ein Verfahren zur Abbildung der Umgebung eines Fahrzeugs. Das System umfasst eine Benutzeroberflächenanzeige, die dazu konfiguriert ist, Bilddaten von mindestens einer Bildgebungsvorrichtung anzuzeigen, wobei eine Steuerung darauf programmiert ist, Bilddaten auf das Vorhandensein von sich bewegenden externen Objekten in der Umgebung zu überwachen.
  • DE 10 2017 201 426 A1 beschreibt ein Verfahren zum Betreiben eines Fahrzeugs in Verbindung mit einer betreffend das Fahrzeug extern angeordneten Alarmanlage. Bei Vorliegen eines Alarmsignals werden Sensoreinheiten von Fahrzeugen in der Nähe der Alarmanlage aktiviert und es werden Daten aufgezeichnet. Die Umfeldsensordaten können beispielsweise verwendet werden, um flüchtende Personen und deren Fluchtrichtung zu ermitteln und an Einsatzkräfte zu übermitteln.
  • Es kann als eine Aufgabe der Erfindung angesehen werden, einen bestimmten Bereich effizient zu überwachen und Überwachungsbilder des Bereichs zur Verfügung zu stellen.
  • Offenbarung der Erfindung
  • Kerngedanke der Erfindung ist, in Fahrzeugen, insbesondere hochautomatisierten oder autonomen Fahrzeugen, vorhandene Sensoren, insbesondere optische Kameras, als Überwachungskameras im öffentlichen Raum einzusetzen. Dazu übertragen die Fahrzeuge die erfassten Umfeldsensordaten zusammen mit der Fahrzeugposition und Fahrzeugausrichtung, insbesondere mit einer angepassten Datenrate an eine zentrale Einrichtung.
  • Erfindungsgemäß werden dabei unabhängig von einem Verdacht auf eine Gefährdung in z.B. regelmäßigen Abständen Umfeldsensordaten, beispielsweise Überwachungsbilder an eine zentrale Einrichtung übermittelt.
  • Nach einem ersten Aspekt der Erfindung wird ein Verfahren zur Überwachung eines Bereiches vorgeschlagen, wobei
    • - Umfeldsensordaten des Bereichs mittels mindestens einen Umfeldsensors mindestens eines den Bereich durchfahrenden, insbesondere zumindest teilautomatisierten oder autonom fahrenden, Fahrzeugs, erfasst werden, und
    • - die erfassten Umfeldsensordaten und eine zugehörige Fahrzeugposition und eine zugehörige Sensorausrichtungsinformation in bestimmten, insbesondere regelmäßigen, zeitlichen Abständen, an eine zentrale Einrichtung, insbesondere ein Cloud-Computing System, übermittelt werden, unabhängig von einem Verdacht auf eine Gefährdung.
  • Ein oder mehrere der an dem Verfahren beteiligte/n Fahrzeug/e kann bzw. können insbesondere als zumindest teilautomatisiert geführte/s Fahrzeug/e oder als vollautonome/s Fahrzeug/e ausgebildet sein.
  • Die Formulierung „zumindest teilautomatisiertes geführt“ umfasst einen oder mehrere der folgenden Fälle: assistiertes Führen, teilautomatisiertes Führen, hochautomatisiertes Führen, vollautomatisiertes Führen.
  • Assistiertes Führen bedeutet, dass ein Fahrer des Kraftfahrzeugs dauerhaft entweder die Quer- oder die Längsführung des Kraftfahrzeugs ausführt. Die jeweils andere Fahraufgabe (also ein Steuern der Längs- oder der Querführung des Kraftfahrzeugs) wird automatisch durchgeführt. Das heißt also, dass bei einem assistierten Führen des Kraftfahrzeugs entweder die Quer- oder die Längsführung automatisch gesteuert wird.
  • Teilautomatisiertes Führen bedeutet, dass in einer spezifischen Situation (zum Beispiel: Fahren auf einer Autobahn, Fahren innerhalb eines Parkplatzes, Überholen eines Objekts, Fahren innerhalb einer Fahrspur, die durch Fahrspurmarkierungen festgelegt ist) und/oder für einen gewissen Zeitraum eine Längs- und eine Querführung des Kraftfahrzeugs automatisch gesteuert werden. Ein Fahrer des Kraftfahrzeugs muss selbst nicht manuell die Längs -und Querführung des Kraftfahrzeugs steuern. Der Fahrer muss aber das automatische Steuern der Längs- und Querführung dauerhaft überwachen, um bei Bedarf manuell eingreifen zu können. Der Fahrer muss jederzeit zur vollständigen Übernahme der Kraftfahrzeugführung bereit sein.
  • Hochautomatisiertes Führen bedeutet, dass für einen gewissen Zeitraum in einer spezifischen Situation (zum Beispiel: Fahren auf einer Autobahn, Fahren innerhalb eines Parkplatzes, Überholen eines Objekts, Fahren innerhalb einer Fahrspur, die durch Fahrspurmarkierungen festgelegt ist) eine Längs- und eine Querführung des Kraftfahrzeugs automatisch gesteuert werden. Ein Fahrer des Kraftfahrzeugs muss selbst nicht manuell die Längs -und Querführung des Kraftfahrzeugs steuern. Der Fahrer muss das automatische Steuern der Längs- und Querführung nicht dauerhaft überwachen, um bei Bedarf manuell eingreifen zu können. Bei Bedarf wird automatisch eine Übernahmeaufforderung an den Fahrer zur Übernahme des Steuerns der Längs- und Querführung ausgegeben, insbesondere mit einer ausreichenden Zeitreserve ausgegeben. Der Fahrer muss also potenziell in der Lage sein, das Steuern der Längs- und Querführung zu übernehmen. Grenzen des automatischen Steuerns der Quer- und Längsführung werden automatisch erkannt. Bei einem hochautomatisierten Führen ist es nicht möglich, in jeder Ausgangssituation automatisch einen risikominimalen Zustand herbeizuführen.
  • Vollautomatisiertes Führen bedeutet, dass in einer spezifischen Situation (zum Beispiel: Fahren auf einer Autobahn, Fahren innerhalb eines Parkplatzes, Überholen eines Objekts, Fahren innerhalb einer Fahrspur, die durch Fahrspurmarkierungen festgelegt ist) eine Längs- und eine Querführung des Kraftfahrzeugs automatisch gesteuert werden. Ein Fahrer des Kraftfahrzeugs muss selbst nicht manuell die Längs -und Querführung des Kraftfahrzeugs steuern. Der Fahrer muss das automatische Steuern der Längs- und Querführung nicht überwachen, um bei Bedarf manuell eingreifen zu können. Vor einem Beenden des automatischen Steuerns der Quer- und Längsführung erfolgt automatisch eine Aufforderung an den Fahrer zur Übernahme der Fahraufgabe (Steuern der Quer- und Längsführung des Kraftfahrzeugs), insbesondere mit einer ausreichenden Zeitreserve. Sofern der Fahrer nicht die Fahraufgabe übernimmt, wird automatisch in einen risikominimalen Zustand zurückgeführt. Grenzen des automatischen Steuerns der Quer- und Längsführung werden automatisch erkannt. In allen Situationen ist es möglich, automatisch in einen risikominimalen Systemzustand zurückzuführen.
  • Vollautonom bedeutet, dass das Fahrzeug die gesamte Fahraufgabe ohne Zutun eines menschlichen Fahrers durchführt.
  • Der Bereich kann beispielsweise ein öffentlicher Bereich sein, z.B. ein Wohngebiet oder ein innenstädtischer Bereich. Es kann sich bei dem Bereich aber alternativ oder teilweise auch um einen nichtöffentlichen Bereich handeln, die etwa eine private Tiefgarage, ein Firmengelände oder ähnliches.
  • Bei den Umfeldsensoren kann es sich beispielsweise um Kameras (Mono- oder Stereokamera), Lidarsensoren, Radarsensoren und/oder Ultraschallsensoren handeln. Bei den Umfeldsensordaten kann es sich insbesondere um Bilddaten handeln, die von einer oder mehreren Kameras eines oder mehrerer der beteiligten Fahrzeuge erfasst werden. Damit können die Fahrzeuge, die sich insbesondere zumindest teilautomatisiert oder autonom durch den zu überwachenden Bereich bewegen, effektiv eine oder mehrere fest installierte Überwachungssensoren, wie z.B. Überwachungskameras ersetzen.
  • Bei der zugehörigen Fahrzeugposition kann es sich insbesondere um Koordinaten des Fahrzeugs zum Zeitpunkt des Erfassens der Umfeldsensordaten handeln, z.B. Längen- und Breitengrad. Derartige Koordinaten können z.B. in bekannter Weise durch ein Satellitennavigationssystem des Fahrzeugs bestimmt werden. Die zugehörige Sensorausrichtungsinformation umfasst insbesondere eine Blickrichtung des Umfeldsensors zum Zeitpunkt des Erfassens der Umfeldsensordaten. Die Blickrichtung entspricht beispielsweise einer Hauptachse des Erfassungsbereichs des Umfeldsensors relativ zur Längsachse des Fahrzeugs.
  • Die Übermittlung der erfassten Umfeldsensordaten, der zugehörigen Fahrzeugposition und der zugehörigen Sensorausrichtungsinformation an die zentrale Einrichtung kann über eine drahtlose Kommunikationsverbindung, wie z.B. eine Car-to-X Verbindung oder per Mobilfunkverbindung erfolgen.
  • Dadurch, dass die erfassten Umfeldsensordaten zusammen mit der zugehörigen Fahrzeugposition und der zugehörigen Sensorausrichtungsinformation unabhängig von einem Verdacht auf eine Gefährdung in bestimmten zeitlichen Abständen, an die zentrale Einrichtung übermittelt werden, ergibt sich der Vorteil, dass nicht schon vor Übermittlung der Daten eine Auswertung erfolgen muss, ob sich aus den Umfeldsensordaten ein Verdacht auf eine Gefährdung ergibt. Stattdessen kann eine derartige Auswertung auf der zentralen Einrichtung erfolgen, wo üblicherweise mehr Rechenleistung zur Verfügung steht als in einem Fahrzeug. So können Gefährdungen zuverlässiger erkannt werden. Dadurch, dass beispielsweise bei einem Unfall, auch die Situation vor dem Unfall, bei der eventuell noch keine Gefährdung erkennbar war, aufgezeichnet und übertragen wird, kann der vollständige Unfallhergang später besser rekonstruiert und analysiert werden.
  • Gemäß einer bevorzugten Ausführung der Erfindung werden die erfassten Umfeldsensordaten, die Fahrzeugposition und die Sensorausrichtungsinformation bevorzugt mit einer angepassten Datenrate an die zentrale Einrichtung übermittelt, d.h. die Datenrate wird den aktuellen Gegebenheiten angepasst. So kann beispielsweise nur ein Teil der Umfeldsensordaten übertragen werden, beispielsweise der Teil, der sich im Vergleich zu zuvor übermittelten Umfeldsensordaten verändert hat.
  • Daraus ergibt sich der Vorteil, dass eine geringere Datenmenge übertragen werden muss.
  • Die Umfeldsensordaten des Bereichs können nun bevorzugt durch eine Recheneinheit der zentralen Einrichtung analysiert werden, insbesondere mittels einer künstlichen Intelligenz (Kl) und/oder eines neuronalen Netzes und/oder eines Bilderkennungsalgorithmus und/oder eines Gesichtserkennungsalgorithmus, um einen Verdacht auf eine Gefährdung des Bereichs zu ermitteln. So können mittels eines Gesichtserkennungsalgorithmus beispielsweise Personen erkannt werden, die sich unerlaubt in einem bestimmten Teilbereich aufhalten. Es können außerdem beispielsweise polizeilich gesuchte Personen erkannt werden. Mittels einer Bildanalyse durch eine KI bzw. ein neuronales Netz können außerdem bestimmte Situationen, wie z.B. bedrohliche Situationen oder Unfälle erkannt, unterschieden und klassifiziert werden. So kann eine bestimmte Situation, die insbesondere ein weiteres Eingreifen der zuständigen Behörden oder Dienste (z.B. Polizei, Feuerwehr, Rettungsdienste) nötig macht, automatisiert erkannt werden.
  • Bevorzugt werden bei einem ermittelten Verdacht auf eine Gefährdung des Bereichs eine Mitteilung über den Verdacht und/oder die Umfeldsensordaten und/oder weitere Informationen an eine Behörde und/oder einen Dienst, wie etwa einen Sicherheitsdienst oder einen Rettungsdienst, übermittelt. Dort können unmittelbar Maßnahmen ergriffen werden und/oder durch eine weitere, spezifische Analyse der übermittelten Daten bzw. Informationen eine angepasste Maßnahme ausgewählt und eingeleitet werden.
  • In einer bevorzugten Ausführung der Erfindung wird ein bestimmtes in dem Bereich erfasstes Objekt mittels der übertragenen Umfeldsensordaten eines Fahrzeugs oder verschiedener Fahrzeuge an einer ähnlichen Position, über der Zeit verfolgt. Dazu kann das Objekt beispielsweise auf verschiedenen Kamerabildern, die von Kameras verschiedener Fahrzeuge erfasst wurden und/oder von einer oder mehreren Kameras eines Fahrzeugs zu verschiedenen Zeitpunkten erfasst wurden, erkannt und identifiziert werden. Durch eine Zuordnung der Bilder auf denen das Objekt erfasst wurde zu einer zugehörigen Fahrzeugposition und einer zugehörigen Sensorausrichtungsinformation kann das Objekt über die Zeit verfolgt werden, und beispielsweise eine Bewegung des Objekts ermittelt werden.
  • In einer besonders bevorzugten Ausführung der Erfindung ist der Umfeldsensor als Kamera ausgebildet und die erfassten Umfeldsensordaten umfassen Kamerabilder, wobei zu einem ersten Zeitpunkt ein erstes Kamerabild der Umgebung des Fahrzeugs an einer ersten Fahrzeugposition erfasst wird und zusammen mit der ersten Fahrzeugposition und einer ersten Sensorausrichtungsinformation an die zentrale Einrichtung übermittelt wird, und wobei zu einem zweiten, späteren Zeitpunkt ein zweites Kamerabild der Umgebung des Fahrzeugs an einer zweiten Fahrzeugposition erfasst wird und zusammen mit einer zweiten Fahrzeugposition und einer zweiten Sensorausrichtungsinformation an die zentrale Einrichtung übermittelt wird, wobei durch Vergleich der ersten Fahrzeugposition und der zweiten Fahrzeugposition und durch Vergleich der ersten Sensorausrichtungsinformation und der zweiten Sensorausrichtungsinformation ein Überlappungsbereich erkannt wird, auf dem das erste Kamerabild und das zweite Kamerabild den selben Ausschnitt des durchfahrenen Bereiches abbilden, wobei insbesondere Objekte in dem Überlappungsbereich, wie oben beschrieben verfolgt werden können.
  • Der zeitliche Abstand zwischen dem ersten Zeitpunkt und dem zweiten Zeitpunkt kann bevorzugt abhängig von einer momentanen Fahrzeugdynamik bzw. Fahrzeuggeschwindigkeit des Fahrzeugs gewählt werden, um einen bestimmten vorgegebenen Überlappungsanteil des ersten Kamerabildes mit dem zweiten Kamerabild zu erzielen (z.B. 30%, 50% oder 70% Überlappung). Nun kann durch Analyse der erfassten Umfeldsensordaten eine Bewegung des erfassten Objekts ermittelt werden und/oder eine zukünftige Position des Objektes prädiziert werden. Wurde eine zukünftige Position des Objekts ermittelt, können im weiteren Verlauf gezielt Bilder ausgewertet werden, die die zukünftige Position des Objektes abbilden.
  • Damit wird der Vorteil erzielt, dass die Datenrate der Übermittlung der Umfeldsensordaten aus dem Fahrzeug geringgehalten wird. So kann beispielsweise mit einem Umfeldsensor ein Standbild an einer ersten Position erstellt und zusammen mit der Fahrzeugposition und der Sensorausrichtungsinformation in einem Weltkoordinatensystem an die externe Einrichtung übertragen werden. Anhand der momentanen Fahrzeugdynamik bzw. Fahrzeuggeschwindigkeit wird nun ein weiteres Standbild aufgenommen, welches sich nur teilweise mit dem zuerst aufgezeichneten Bild überlappt (z.B. 30%, 50% oder 70% Überlappung). Auf diese Weise kann ein Objekt in den Umfeldsensordaten auch weiterhin verfolgt werden, jedoch wird die Datenrate reduziert, da nur Standbilder in einem zeitlichen Abstand übertragen werden.
  • Nach einem zweiten Aspekt der Erfindung wird eine Vorrichtung zur Überwachung eines Bereiches vorgeschlagen, die ausgebildet ist ein erfindungsgemäßes Verfahren auszuführen. Die Vorrichtung umfasst
    • - mindestens eine Umfeldsensorik mindestens eines, den Bereich durchfahrenden, insbesondere autonom fahrenden, Fahrzeugs, zur Erfassung von Umfeldsensordaten des Bereichs und
    • - eine Kommunikationseinrichtung zur Übermittlung der erfassten Umfeldsensordaten und einer zugehörigen Fahrzeugposition und einer zugehörigen Sensorausrichtungsinformation in bestimmten, insbesondere regelmäßigen, zeitlichen Abständen an eine zentrale Einrichtung, unabhängig von einem Verdacht auf eine Gefährdung.
  • Nach einem dritten Aspekt der Erfindung wird ein Fahrzeug, insbesondere ein autonomes Fahrzeug vorgeschlagen, dass eine erfindungsgemäße Vorrichtung aufweist.
  • Nach einem vierten Aspekt der Erfindung wird ein Cloud-Computing System vorgeschlagen, welches zum Empfangen und Analysieren von durch einen Umfeldsensor eines einen Bereich durchfahrenden, insbesondere autonom fahrenden, Fahrzeugs, erfassten Umfeldsensordaten eines Bereiches und einer zugehörigen Fahrzeugposition und einer zugehörigen Sensorausrichtungsinformation eingerichtet ist. Das Empfangen und Analysieren erfolgt dabei in bestimmten, insbesondere regelmäßigen, zeitlichen Abständen, unabhängig von einem Verdacht auf eine Gefährdung.
  • Das Cloud-Computing System ist insbesondere eingerichtet, die erfassten Umfeldsensordaten, die zugehörige Fahrzeugposition und die zugehörige Sensorausrichtungsinformation für eine bestimmte Zeitdauer, insbesondere 24 Stunden, zu speichern und nach Ablauf der Zeitdauer zu löschen.
  • So wird vorteilhaft sichergestellt, dass während der Zeitdauer, autorisierte Dienste und Behörden Zugriff auf die gespeicherten Daten erhalten können, um diese beispielsweise nachträglich zu analysieren.
  • Es ist auch denkbar, dass Daten, z.B. Kamerabilder, auf denen eine mögliche Gefährdung erkannt wurde, länger gespeichert werden.
  • Nach einem weiteren Aspekt der Erfindung wird ein Computerprogramm vorgeschlagen, das Befehle umfasst, die bei Ausführung des Computerprogramms durch einen Computer diesen veranlassen, ein erfindungsgemäßes Verfahren auszuführen.
  • Nach einem weiteren Aspekt der Erfindung wird ein maschinenlesbares Speichermedium vorgeschlagen, auf dem ein derartiges Computerprogramm gespeichert ist.
  • Die Erfindung beschreibt somit eine Vorrichtung und ein Verfahren zur Auswertung von Umfeldsensordaten, die durch Umfeldsensoren von Fahrzeugen erfasst wurden z.B. durch Behörden mit dem Ziel der Erhöhung der Sicherheit in Stadtgebieten. So können Daten von Umfeldsensoren, wie beispielsweise Fahrzeugkamerasensoren verwendet werden, um die Sicherheit in bestimmten Bereichen, z.B. Stadtgebieten zu erhöhen. Zu diesem Zweck werden die Umfeldsensordaten von Fahrzeugen während der Fahrt des Fahrzeugs auf einer Straße in einem Stadtgebiet, z.B. in einer zyklischen Form mit einer angepassten Datenrate über eine Car-to-X Kommunikationsverbindung zusammen mit einer Fahrzeugposition und einer Blickrichtung des Umfeldsensors (Sensorausrichtungsinformation) an eine Cloud übertragen. Auf der Cloud werden die entsprechenden Umfeldsensordaten für eine bestimmte Zeit zwischengespeichert (beispielsweise 24 Stunden) und können über eine gesicherte Kommunikationsverbindung durch zertifizierte Behörden wie beispielsweise Polizei oder Verbrechensbekämpfung abgerufen werden und ausgewertet werden. Daraus ergibt sich eine mobile Überwachungskamera, welche durch ein vorbeifahrendes Autonomes Fahrzeug an einer bestimmten Position in einem bestimmten Stadtgebiet realisiert wird.
  • Figurenliste
  • Unter Bezugnahme auf die beigefügten Figuren werden Ausführungsformen der Erfindung im Detail beschrieben.
    • 1 zeigt schematisch eine Fahrsituation in einer Innenstadt wobei ein Verfahren nach einer möglichen Ausführungsform der Erfindung durchgeführt wird.
    • 2 zeigt ein Fahrzeug mit einer Vorrichtung zur Überwachung eines Bereiches nach einer möglichen Ausführungsform der Erfindung.
  • Bevorzugte Ausführungen der Erfindung
  • In der nachfolgenden Beschreibung der Ausführungsbeispiele der Erfindung werden gleiche Elemente mit gleichen Bezugszeichen bezeichnet, wobei auf eine wiederholte Beschreibung dieser Elemente gegebenenfalls verzichtet wird. Die Figuren stellen den Gegenstand der Erfindung nur schematisch dar.
  • 1 zeigt in Vogelperspektive eine schematische Ansicht einer Fahrsituation in einer Innenstadt. Dargestellt ist ein Bereich 10 in dem mehrere Fahrzeuge 20a, 20b, 20c, 20d, 20e auf der Straße 17 unterwegs sind. Die Fahrzeuge 20a - 20e können beispielsweise zumindest teilautomatisiert geführte Fahrzeuge und/oder autonome Fahrzeuge sein. Auch ein Mischbetrieb von Fahrzeugen verschiedener Automatisierungsgrade ist denkbar.
  • Jedes der Fahrzeuge 20a -20e, weist einen oder mehrere Umfeldsensoren 12a, 12b, 12c, 12d, 12e auf, die jeweils Umfeldsensordaten aus einem Umfeld des jeweiligen Fahrzeugs 20a - 20e erfassen. Jeder der Umfeldsensoren 12a-12e weist bezogen auf das Fahrzeug 20a - 20e an dem der jeweilige Umfeldsensor 12a-12e angeordnet ist, einen bestimmten Erfassungsbereich 11a-11e, sowie eine bestimmte Sensorausrichtung auf, die beispielsweise relativ zu einer Fahrzeuglängsachse definiert sein kann
  • In regelmäßigen zeitlichen Abständen übermittelt jedes der Fahrzeuge 20a-20e mittels einer drahtlosen Datenverbindung 13 erfasste Umfeldsensordaten des Bereichs 10 zusammen mit einer zugehörigen Fahrzeugposition und einer zugehörigen Sensorausrichtungsinformation an ein Cloud-Computing System 18, unabhängig davon, ob die Umfeldsensordaten einen Verdacht auf eine Gefährdung implizieren. So werden beispielsweise von den Umfeldsensoren 12a-12e erfasste Kamerabilder ohne vorherige Auswertung des Bildinhalts an das Cloud-Computing System 18 übermittelt.
  • Auf dem Cloud-Computing System 18 können die entsprechenden Umfeldsensordaten der Fahrzeug 20a-20e beispielsweise durch Behörden oder mithilfe von intelligenten Algorithmen nach bestimmten Mustern oder Personen durchsucht werden. Beispielsweise kann basierend auf den Umfeldsensordaten des Fahrzeugs 20a eine Gesichtserkennung der Passanten 32, 33 auf einem Gehweg 15 durchgeführt werden und auf diese Weise Personen, die von den Behörden gesucht werden zuverlässig und schnell erkannt werden, auch wenn in dem Bereich 10 keine stationäre Überwachungskamera vorhanden ist. Auf diese Weise wird die Verbrechensbekämpfung bzw. Fahndung durch Behörden verbessert. Gesichtserkennungsalgorithmen sind dem Fachmann bekannt und müssen an dieser Stelle nicht beschrieben werden.
  • Denkbar ist darüber hinaus, dass bestimmte Personen 34 oder Objekte mithilfe der übertragenen Umfeldsensordaten verschiedener Fahrzeuge an einer ähnlichen Position, während einer Vorbeifahrt, über eine gewisse Zeit verfolgt werden können. Beispielsweise kann ein bestimmtes Fahrzeug 20b Umfeldsensordaten an das Cloud-Computing System 18 übertragen, und dort wird eine bestimmte Person 34 oder ein bestimmtes Objekt in den Umfeldsensordaten erkannt. Ein anschließend vorbeifahrendes Fahrzeug 20d übermittelt ebenfalls Umfeldsensordaten an das Cloud-Computing System 18, wobei in den Umfeldsensordaten die gleiche Person 34 oder das gleiche Objekt bezüglich einer neuen Position geortet werden. Verlässt die Person 34 oder das Objekt den Blickbereich 11b des Umfeldsensors 12b, so kann die Person 34 und das Objekt über ein weites Fahrzeug 20d an einer weiteren Position weiterverfolgt werden und es wird zwischen den einzelnen Sensordatensätzen unterschiedlicher Fahrzeuge 20b, 20d ein und dasselbe Objekt oder ein und dieselbe Person 34 weiterverfolgt bzw. geortet. Im gezeigten Beispiel befindet sich die Person 34 auf der Straße 17. Dies kann als Gefährdung eingeschätzt werden, wobei die Übertragung der Umfeldsensordaten von den Fahrzeugen 20b, 20d an das Cloud-Computing System18 jedoch unabhängig von einem Verdacht auf eine Gefährdung erfolgt. Die Analyse der Umfeldsensordaten kann durch das Cloud-Computing System 18 beispielsweise mittels einer künstlichen Intelligenz und/oder eines neuronalen Netzes und/ oder eines Bilderkennungsalgorithmus erfolgen. Andere Auswertungsmethoden sind denkbar, beispielsweise der Einsatz menschlicher Beobachter.
  • Durch die Überwachung und Verfolgung der Person 34 durch die Umfeldsensoren 12b, 12d der vorbeifahrenden Fahrzeuge 20b, 20d kann dies durch eine zentrale Einrichtung (hier mittels des Cloud-Computing Systems 18) nachträglich, also nach Übertragung der Umfeldsensordaten erkannt werden und entsprechende Maßnahmen, z.B. die Ausgabe einer Warnung, die Entsendung eines Rettungsdienstes, etc. können eingeleitet werden. Durch eine fortlaufende Erfassung und Verfolgung der Position der Person 34 kann auch erkannt werden, ob und wann eine mögliche Gefährdung vorüber ist, z.B. wenn die Person 34 die Straße 17 verlassen hat.
  • 2 zeigt ein Ausführungsbeispiel eines erfindungsgemäßen Fahrzeugs 120. Das Fahrzeug ist als zumindest teilautomatisiertes Fahrzeug ausgebildet, bevorzugt als autonomes Fahrzeug. Das Fahrzeug umfasst eine Vorrichtung 100 zur Überwachung eines Bereiches. Das Fahrzeug umfasst eine Umfeldsensorik mit einer Mehrzahl von Umfeldsensoren 112. Die Umfeldsensoren 112 sind primär ausgebildet das Umfeld des Fahrzeugs möglichst vollständig zu erfassen und so eine zumindest teilautomatisierte Fahrt zu ermöglichen. Dabei erfassen die Umfeldsensoren zwangsläufig Umfeldsensordaten eines von dem Fahrzeug 120 durchfahrenen Bereichs. Die Umfeldsensoren 112 können gleichartig oder verschiedenartig ausgebildet sein und umfassen bevorzugt Kameras und/oder Radarsensoren und/oder Ultraschallsensoren und/oder Lidarsensoren. Jeder der Umfeldsensoren 112 weist einen Erfassungsbereich 111 auf. Die Ausrichtung der Mittelachse eines jeweiligen Erfassungsbereiches 111 relativ zu einer Längsachse 114 des Fahrzeugs 120 kann auch als Blickrichtung 115 des Umfeldsensors 112 bezeichnet werden. Die Umfeldsensordaten können z.B, zusammen mit einem Zeitstempel, der den Zeitpunkt der Erfassung angibt und einer Identifikation desjenigen Umfeldsensors 112, mit dem die Umfeldsensordaten erfasst wurden, auf einer Speichereinheit 119 des Fahrzeugs abgelegt werden.
  • Das Fahrzeug 120 weist eine Positionsbestimmungseinheit 116 auf, die ausgebildet ist, mittels Satellitendaten die aktuelle Position des Fahrzeugs 120 z.B. durch Verwendung eines globalen Satellitensystems (GNSS) wie GPS, Glonass, Galileo oder Beidou. Darüber hinaus können Korrekturdaten von sogenannten Korrekturdiensten mitverwendet werden um die Position des Fahrzeugs 120 noch genauer zu berechnen. Zusammen mit den empfangenen Satellitendaten kann außerdem eine hochgenaue Zeitinformation empfangen und für die genaue Positionsbestimmung verwendet werden. Weiterhin wird eine Ausrichtung des Fahrzeugs 120, z.B. in Bezug auf die Fahrzeuglängsachse 114 bestimmt. Zusammen mit den bekannten Einbauorten und Blickrichtungen 115 der Umfeldsensoren 112 kann so zu jedem Umfeldsensor 112 eine Sensorausrichtungsinformation bestimmt werden.
  • Das Fahrzeug 120 weist eine Kommunikationseinrichtung 113 zur drahtlosen Übermittlung der erfassten Umfeldsensordaten und einer zugehörigen Fahrzeugposition und einer zugehörigen Sensorausrichtungsinformation auf. Die Kommunikationseinrichtung 113 ist ausgebildet, erfasste Umfeldsensordaten zusammen mit einer zugehörigen Fahrzeugposition und einer dem erfassten Umfeldsensor 112 zugeordneten zugehörige Sensorausrichtungsinformation in bestimmten, insbesondere regelmäßigen, zeitlichen Abständen an eine zentrale Einrichtung, unabhängig von einem Verdacht auf eine Gefährdung, zu senden.
  • Die Datenübertragung kann beispielsweise einen bekannten Mobilfunkstandard oder einen Car-to-X Kommunikationsstandard verwenden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102018112148 A1 [0004]
    • DE 102018111265 A1 [0005]
    • DE 102018101006 A1 [0006]
    • DE 102017201426 A1 [0007]

Claims (14)

  1. Verfahren zur Überwachung eines Bereiches (10), wobei - Umfeldsensordaten des Bereichs (10) mittels mindestens einen Umfeldsensors (12a-12e, 112) mindestens eines den Bereich (10) durchfahrenden, insbesondere zumindest teilautomatisierten oder autonom fahrenden, Fahrzeugs (20a-20e, 120) erfasst werden, und - die erfassten Umfeldsensordaten und eine zugehörige Fahrzeugposition und eine zugehörige Sensorausrichtungsinformation in bestimmten, insbesondere regelmäßigen, zeitlichen Abständen, an eine zentrale Einrichtung, insbesondere ein Cloud-Computing System (18), übermittelt werden, unabhängig von einem Verdacht auf eine Gefährdung.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die erfassten Umfeldsensordaten und/oder die Fahrzeugposition und/oder die Sensorausrichtungsinformation mit einer angepassten Datenrate an die zentrale Einrichtung übermittelt werden.
  3. Verfahren nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass die Umfeldsensordaten des Bereichs (10) durch eine Recheneinheit der zentralen Einrichtung analysiert werden, insbesondere mittels einer künstlichen Intelligenz und/oder eines neuronalen Netzes und/ oder eines Bilderkennungsalgorithmus und/oder eines Gesichtserkennungsalgorithmus, um einen Verdacht auf eine Gefährdung des Bereichs (10) zu ermitteln.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass bei einem ermittelten Verdacht auf eine Gefährdung des Bereichs eine Mitteilung über den Verdacht und/oder die Umfeldsensordaten und/oder weitere Informationen an eine Behörde und/oder einen Sicherheitsdienst übermittelt werden.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass ein bestimmtes in dem Bereich erfasstes Objekt (32, 33, 34) mittels der übertragenen Umfeldsensordaten eines Fahrzeugs (20a-20e, 120) oder verschiedener Fahrzeuge (20a-20e, 120) an einer ähnlichen Position, über der Zeit verfolgt wird.
  6. Verfahren nach einem der Ansprüchen 1 bis 5, dadurch gekennzeichnet, dass mindestens ein Umfeldsensor (12a-12e, 112) als Kamera ausgebildet ist und die erfassten Umfeldsensordaten Kamerabilder umfassen, wobei zu einem ersten Zeitpunkt ein erstes Kamerabild der Umgebung eines Fahrzeugs (20a-20e, 120) an einer ersten Fahrzeugposition erfasst wird und zusammen mit einer ersten Fahrzeugposition und einer ersten Sensorausrichtungsinformation an die zentrale Einrichtung übermittelt wird, und wobei zu einem zweiten, späteren Zeitpunkt ein zweites Kamerabild der Umgebung des Fahrzeugs (20a-20e, 120) an einer zweiten Fahrzeugposition erfasst wird und zusammen mit einer zweiten Fahrzeugposition und einer zweiten Sensorausrichtungsinformation an die zentrale Einrichtung übermittelt wird, wobei durch Vergleich der ersten Fahrzeugposition und der zweiten Fahrzeugposition und durch Vergleich der ersten Sensorausrichtungsinformation und der zweiten Sensorausrichtungsinformation ein Überlappungsbereich erkannt wird, auf dem das erste Kamerabild und das zweite Kamerabild den selben Ausschnitt des Bereiches abbilden, wobei insbesondere Objekte (32, 33, 34) in dem Überlappungsbereich verfolgt werden.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass der zeitliche Abstand zwischen dem ersten Zeitpunkt und dem zweiten Zeitpunkt abhängig von einer momentanen Fahrzeugdynamik bzw. Fahrzeuggeschwindigkeit des Fahrzeugs (20a-20e, 120) gewählt wird, um einen bestimmten vorgegebenen Überlappungsanteil des ersten Kamerabildes mit dem zweiten Kamerabild zu erzielen.
  8. Verfahren nach einem der Ansprüche 5 bis 7, dadurch gekennzeichnet, dass durch Analyse der erfassten Umfeldsensordaten eine Bewegung des erfassten Objekts (32, 33, 34) ermittelt wird und/oder eine zukünftige Position des Objektes (32, 33,24) prädiziert wird.
  9. Vorrichtung (100) zur Überwachung eines Bereiches (10), ausgebildet ein Verfahren nach einem der Ansprüche 1 bis 8 auszuführen, umfassend - mindestens einen Umfeldsensor (12a-12e, 112) eines Fahrzeugs (20a-20e, 120) zur Erfassung von Umfeldsensordaten des Bereichs (10) und - eine Kommunikationseinrichtung (13, 113) zur Übermittlung der erfassten Umfeldsensordaten und einer zugehörigen Fahrzeugposition und einer zugehörigen Sensorausrichtungsinformation in bestimmten, insbesondere regelmäßigen, zeitlichen Abständen an eine zentrale Einrichtung, unabhängig von einem Verdacht auf eine Gefährdung.
  10. Fahrzeug (20a-20e, 120), insbesondere autonomes Fahrzeug, umfassend eine Vorrichtung (100) nach Anspruch 9.
  11. Cloud-Computing System, eingerichtet zum Empfangen und Analysieren von durch einen Umfeldsensor eines einen Bereich durchfahrenden, insbesondere autonom fahrenden, Fahrzeugs, erfassten Umfeldsensordaten des Bereiches und einer zugehörigen Fahrzeugposition und einer zugehörigen Sensorausrichtungsinformation in bestimmten, insbesondere regelmäßigen, zeitlichen Abständen, unabhängig von einem Verdacht auf eine Gefährdung.
  12. Cloud-Computing System nach Anspruch 11, dadurch gekennzeichnet, dass die erfassten Umfeldsensordaten, die zugehörige Fahrzeugposition und die zugehörige Sensorausrichtungsinformation für eine bestimmte Zeitdauer, insbesondere 24 Stunden, gespeichert werden und nach Ablauf der Zeitdauer gelöscht werden.
  13. Computerprogramm, umfassend Befehle, die bei Ausführung des Computerprogramms durch einen Computer diesen veranlassen, ein Verfahren gemäß einem der Ansprüche 1 bis 8 auszuführen.
  14. Maschinenlesbares Speichermedium, auf dem das Computerprogramm nach Anspruch 13 gespeichert ist.
DE102020210697.5A 2020-08-24 2020-08-24 Verfahren und Vorrichtung zum Überwachen eines Bereichs Pending DE102020210697A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020210697.5A DE102020210697A1 (de) 2020-08-24 2020-08-24 Verfahren und Vorrichtung zum Überwachen eines Bereichs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020210697.5A DE102020210697A1 (de) 2020-08-24 2020-08-24 Verfahren und Vorrichtung zum Überwachen eines Bereichs

Publications (1)

Publication Number Publication Date
DE102020210697A1 true DE102020210697A1 (de) 2022-02-24

Family

ID=80112869

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020210697.5A Pending DE102020210697A1 (de) 2020-08-24 2020-08-24 Verfahren und Vorrichtung zum Überwachen eines Bereichs

Country Status (1)

Country Link
DE (1) DE102020210697A1 (de)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018101006A1 (de) 2017-01-18 2018-07-19 GM Global Technology Operations LLC Fahrzeugumgebung-abbildungssysteme und -verfahren
DE102017201426A1 (de) 2017-01-30 2018-08-02 Bayerische Motoren Werke Aktiengesellschaft Fahrzeug, Alarmanlage und Überwachungssystem sowie korrespondierende Verfahren zum Betreiben
DE102018111265A1 (de) 2017-05-16 2018-11-22 GM Global Technology Operations LLC Fahrzeugumgebungs-abbildungssysteme und -verfahren
DE102018112148A1 (de) 2017-05-25 2018-11-29 Ford Global Technologies, Llc Verfolgen von unfallfluchttätern mithilfe von v2x-kommunikation
US20190347820A1 (en) 2018-04-03 2019-11-14 Mobileye Vision Technologies Ltd. Using mapped elevation to determine navigational parameters
WO2020009552A1 (ko) 2018-07-06 2020-01-09 엘지전자 주식회사 협대역 무선 통신 시스템에서 신호 및 채널을 송수신하기 위한 방법 및 이를 위한 장치
US20200057896A1 (en) 2019-09-26 2020-02-20 Intel Corporation Vehicle risk recognition and avoidance

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018101006A1 (de) 2017-01-18 2018-07-19 GM Global Technology Operations LLC Fahrzeugumgebung-abbildungssysteme und -verfahren
DE102017201426A1 (de) 2017-01-30 2018-08-02 Bayerische Motoren Werke Aktiengesellschaft Fahrzeug, Alarmanlage und Überwachungssystem sowie korrespondierende Verfahren zum Betreiben
DE102018111265A1 (de) 2017-05-16 2018-11-22 GM Global Technology Operations LLC Fahrzeugumgebungs-abbildungssysteme und -verfahren
DE102018112148A1 (de) 2017-05-25 2018-11-29 Ford Global Technologies, Llc Verfolgen von unfallfluchttätern mithilfe von v2x-kommunikation
US20190347820A1 (en) 2018-04-03 2019-11-14 Mobileye Vision Technologies Ltd. Using mapped elevation to determine navigational parameters
WO2020009552A1 (ko) 2018-07-06 2020-01-09 엘지전자 주식회사 협대역 무선 통신 시스템에서 신호 및 채널을 송수신하기 위한 방법 및 이를 위한 장치
DE112019003452T5 (de) 2018-07-06 2021-03-18 Lg Electronics Inc. Verfahren zum Senden/Empfangen von Signal und Kanal in einem schmalbandigen drahtlosen Kommunikationssystem und Einrichtung dafür
US20200057896A1 (en) 2019-09-26 2020-02-20 Intel Corporation Vehicle risk recognition and avoidance

Similar Documents

Publication Publication Date Title
EP3181422B1 (de) Verfahren und system zur automatischen steuerung eines folgefahrzeugs mit einem scout-fahrzeug
DE102018221179A1 (de) Verfahren und System zum Ermitteln bestimmter Zustandsinformationen für wenigstens eine geographische Position mithilfe autonomer oder teilautonomer Fahrzeuge
EP3440654B1 (de) Verfahren und system zur erfassung von geparkten fahrzeugen
EP3155603A1 (de) Verfahren zur ermittlung von positionsdaten zur nutzung beim betrieb eines fahrzeugsystems eines kraftfahrzeugs und positionsdatenermittlungs- und -verteilungssystem
WO2018189076A1 (de) Verfahren zum erfassen von parklücken in einem umgebungsbereich eines kraftfahrzeugs, auswerteeinrichtung, parkassistenzsystem, kraftfahrzeug sowie vernetztes system
EP3204926A1 (de) Verfahren zum handhaben einer regelkarte
EP2562735A1 (de) Verfahren und Vorrichtung zur Analysierung eines von einem Fahrzeug zu befahrenden Streckenabschnitts
DE102016215931A1 (de) System und Verfahren zum abrufbaren Bereitstellen und Aktualisieren von Klassifikationsdaten zu Parkplätzen
DE102015004605B4 (de) Verfahren zum Betrieb eines Steuersystems einer Mobileinheit und Mobileinheit
DE102012200068A1 (de) Verfahren und Vorrichtung zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs
DE102015103361A1 (de) Verkehrsdichte-empfindlichkeitswähler
WO2019233766A1 (de) Kraftfahrzeug und verfahren eines kraftfahrzeugs zum durchführen eines autonomen umparkvorgangs
DE102020123831A1 (de) Konzept zum Unterstützen eines zumindest teilautomatisiert geführten Kraftfahrzeugs
DE102020211478A1 (de) Konzept zum Unterstützen eines zumindest teilautomatisiert geführten Kraftfahrzeugs
WO2018059874A1 (de) Verfahren und vorrichtung zum erstellen einer dynamischen gefährdungskarte
DE102013201821B4 (de) Verfahren und System zur Erfassung von Falschfahrern
EP0915446A2 (de) Verkehrsleit-, Informations- und Positionierungssystem (VIPS)
DE102019208899A1 (de) Verfahren zum zumindest teilautomatisierten Führen eines Kraftfahrzeugs
DE102017219301A1 (de) Verfahren zur Erhöhung der Sicherheit bei Gefahrensituationen betreffend den Straßenverkehr
DE102014220571A1 (de) Verfahren und Vorrichtung zur Erkennung von relevanten Verkehrszeichen für ein Fahrzeug
DE102018251778A1 (de) Verfahren zum Assistieren eines Kraftfahrzeugs
DE102018210852A1 (de) Verfahren zum Ermitteln von rechtswidrigem Fahrverhalten durch ein Fahrzeug
DE102007007283A1 (de) Verfahren und Vorrichtung zur Bestimmung von in der Fahrzeugumgebung befindlichen Fahrzeugen
DE102020210697A1 (de) Verfahren und Vorrichtung zum Überwachen eines Bereichs
DE102017209370B4 (de) Verfahren zur Ermittlung einer Überholinformation

Legal Events

Date Code Title Description
R163 Identified publications notified