DE102020215573A1 - Überwachung der Funktionsfähigkeit von Sensoren an Fahrzeugen - Google Patents

Überwachung der Funktionsfähigkeit von Sensoren an Fahrzeugen Download PDF

Info

Publication number
DE102020215573A1
DE102020215573A1 DE102020215573.9A DE102020215573A DE102020215573A1 DE 102020215573 A1 DE102020215573 A1 DE 102020215573A1 DE 102020215573 A DE102020215573 A DE 102020215573A DE 102020215573 A1 DE102020215573 A1 DE 102020215573A1
Authority
DE
Germany
Prior art keywords
sensor
camera
vehicle
image section
until
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102020215573.9A
Other languages
English (en)
Other versions
DE102020215573B4 (de
Inventor
Martin Stolz
Falk Rehm
Dayo Oshinubi
Thomas Rocznik
Jihad Miramo
Kilian RAMBACH
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102020215573.9A priority Critical patent/DE102020215573B4/de
Publication of DE102020215573A1 publication Critical patent/DE102020215573A1/de
Application granted granted Critical
Publication of DE102020215573B4 publication Critical patent/DE102020215573B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

Verfahren (100) zur Überwachung der Funktionsfähigkeit eines Sensors (1), der an einem Fahrzeug (50) montiert ist und zur Beobachtung des Fahrzeugumfelds (51) vorgesehen ist, mit den Schritten:• von mindestens einer Kamera (2), die zur Aufnahme von Bildern (3) des Fahrzeugumfelds (51) ausgebildet ist und in deren Sichtfeld sich auch der Sensor (1), und/oder ein in Fahrtrichtung des Fahrzeugs vor dem Sensor liegender Bereich (1a), befindet, wird ein Bildausschnitt (3a) eines solchen Bildes (3) bezogen (110), der den Sensor (1), und/oder den vor dem Sensor liegenden Bereich (1a), zeigt;• aus diesem Bildausschnitt (3a) wird ausgewertet (120), ob der Sensor (1) beschädigt oder verschmutzt ist, und/oder ob sich Schmutz oder andere Objekte auf den Sensor (1) zubewegen; unter Heranziehung des Ergebnisses (120a) dieser Auswertung wird ermittelt (130), inwieweit der Sensor (1) funktionsfähig ist (1*).

Description

  • Die vorliegende Erfindung betrifft die Überwachung von Sensoren an Fahrzeugen, deren Messsignale von Fahrassistenzsystemen und Systemen für das zumindest teilweise automatisierte Fahren genutzt werden.
  • Stand der Technik
  • Analog zu einem menschlichen Fahrer sind Fahrassistenzsysteme und Systeme für das zumindest teilweise automatisierte Fahren darauf angewiesen, relevante Informationen aus dem Fahrzeugumfeld korrekt zu erfassen, um die der jeweiligen Situation angemessene Reaktion auszulösen. So wird beispielsweise der Abstand zu einem vorausfahrenden Fahrzeug mit einem Radarsensor gemessen, um die Geschwindigkeit des eigenen Fahrzeuges so anzupassen, dass es mit konstantem Abstand hinter einem vorausfahrenden Fahrzeug herfährt. Auch automatische Notbremssysteme können auf Grund von Radardaten bevorstehende Kollisionen erkennen und eine Notbremsung auslösen. Die DE 10 2018 222 195 A1 offenbart ein beispielhaftes Verfahren, das sich maschinelles Lernen zu Nutze macht, um Objekte in einem von mindestens einem Radarsensor überwachten Bereich zu orten und/oder zu klassifizieren.
  • Offenbarung der Erfindung
  • Im Rahmen der Erfindung wurde ein Verfahren zur Überwachung der Funktionsfähigkeit eines Sensors, der an einem Fahrzeug montiert ist und zur Beobachtung des Fahrzeugumfelds vorgesehen ist, entwickelt.
  • Das Verfahren macht sich eine Kamera zu Nutze, die zur Aufnahme von Bildern des Fahrzeugumfelds ausgebildet ist und in deren Sichtfeld sich auch der Sensor, und/oder einen in Fahrtrichtung des Fahrzeugs vor dem Sensor liegender Bereich, befindet. Von dieser Kamera wird ein Bildausschnitt eines Kamerabildes bezogen, der den Sensor, und/oder den vor dem Sensor liegenden Bereich, zeigt.
  • Aus diesem Bildausschnitt wird ausgewertet, ob der Sensor beschädigt oder verschmutzt ist, und/oder ob sich Schmutz oder andere Objekte auf den Sensor zubewegen. Unter Heranziehung des Ergebnisses dieser Auswertung wird ermittelt, inwieweit der Sensor funktionsfähig ist.
  • Es wurde erkannt, dass viele Fahrzeuge bereits über Kamerasysteme verfügen, die eigentlich zur Beobachtung des Fahrzeugumfelds gedacht sind, sich jedoch zusätzlich zur Überwachung des Sensors nutzen lassen. Ein Beispiel hierfür sind insbesondere Nahbereichskameras (Near Range Camera, NRC), Weitwinkelkameras oder Fischaugenkameras, die in Parkunterstützungssysteme eingebunden sind. Gerade solche Kameras erfassen das Fahrzeugumfeld besonders weitwinklig, damit der Fahrer, und/oder eine automatisierte Einparkhilfe, am gesamten Außenumfang des Fahrzeugs auf eine mögliche Annäherung an ein fremdes Objekt reagieren und ein Anstoßen vermeiden kann. Quasi als Abfallprodukt gerät hierbei auch der Sensor, und/oder ein vor dem Sensor liegender Bereich, mit ins Bild.
  • Die Überwachung des Sensors erfordert jedoch eine deutlich höhere Bildwiederholfrequenz als die Parkunterstützung. Während eines Einparkvorgangs fährt das Fahrzeug typischerweise maximal mit Schrittgeschwindigkeit. Zum vorsichtigen Herantasten an ein Hindernis kann eine Bildwiederholfrequenz von ein oder zwei Aktualisierungen pro Sekunde (frames per second, fps) bereits ausreichen. Wenn hingegen etwa bei 120 km/h Niederschlag oder Schmutz verfolgt werden soll, der sich auf den Sensor zubewegt, ist eine um ein Vielfaches höhere Bildwiederholfrequenz nötig. Bei 15 fps bewegt sich der Niederschlag oder Schmutz zwischen zwei aufeinanderfolgenden Aktualisierungen noch um 2,2 m, bei 30 fps nur noch um 1,1 m. Das Kamerasystem ist jedoch typischerweise nicht mit einer ausreichenden Netzwerkbandbreite an ein fahrzeuginternes Netzwerk angebunden, um in voller Auflösung mit einer so hohen Bildwiederholfrequenz Bilder zu liefern. So belegt ein Videodatenstrom in Full-HD-Auflösung (1.920 x 1.080 Pixel) mit 10 Bit Farbtiefe bereits bei 1 fps eine Bandbreite von 61,5 Mbit/s. Bei 30 fps würde dementsprechend sogar eine Ethernet-Verbindung mit 1 Gbit/s nur etwas mehr als die Hälfte des Bedarfs decken.
  • Indem nun aber lediglich ein Bildausschnitt bezogen wird, der den Sensor, und/oder den vor dem Sensor liegenden Bereich, zeigt, wird der Bandbreitenbedarf drastisch reduziert. Da die Kamera so ausgerichtet ist, dass sie primär das Fahrzeugumfeld und so wenig wie möglich vom eigenen Fahrzeug erfasst, ist der für die Überwachung des Sensors relevante Anteil im Vergleich zum Gesamtbild sehr klein. Hat dieser Bereich beispielsweise eine Größe von 120x120 Pixeln, ist bei 30 fps nur noch eine Bandbreite von 12 Mbit/s notwendig. Eine solche Bandbreite ist in einem fahrzeuginternen Ethernet-Netzwerk mit hoher Wahrscheinlichkeit noch als Freikapazität verfügbar. Somit ermöglicht es gerade die Berücksichtigung nur eines kleinen Bildausschnitts, die Kamera einer Zweitnutzung für die Überwachung des Sensors zuzuführen.
  • Besonders vorteilhaft umfasst der Bildausschnitt höchstens 5 %, bevorzugt höchstens 1 % und ganz besonders bevorzugt höchstens 0,5 %, des Sichtfeldes der Kamera. Ausschnitte dieser Größe reduzieren den Bandbreitenbedarf im Vergleich zum Vollbild deutlich, sind jedoch immer noch detailreich genug, um hinreichend Aufschluss über den Zustand des Sensors zu geben. Wenn die Kamera besonders hoch auflösend ist und/oder besonders weitwinklig ist, kann der Bildausschnitt auch beispielsweise höchstens 0,1 % oder 0,001 % des Sichtfeldes der Kamera umfassen.
  • Besonders vorteilhaft wird eine Anforderung lediglich des Bildausschnitts an die Kamera gesendet und der Bildausschnitt von der Kamera empfangen. Wenn die Kamera es hardwaremäßig ermöglicht, an Stelle des kompletten Bildsensors (etwa CMOS oder CCD) nur jeweils den interessierenden Teilbereich auszulesen, kann im Gegenzug beispielsweise eine höhere Bildwiederholfrequenz gewählt werden, ohne die nachgeschaltete Verarbeitung damit zu überlasten. Somit wird bei der Ausrüstung eines Fahrzeugs mit einer Kamera vorteilhaft eine Kamera gewählt, die genau diese hardwaremäßige Funktionalität aufweist, auch wenn dies für den ursprünglich angedachten Verwendungszweck der Kamera nicht erforderlich ist: Ein geringer Mehrpreis für die Kamera führt dazu, dass die Kamera eine zweite Aufgabe, nämlich die Überwachung des Sensors, deutlich besser ausführen kann. Somit rentiert sich der Mehrpreis.
  • Alternativ können von der Kamera ausgegebene Bilder vor der Übertragung über ein fahrzeuginternes Netzwerk zu der Verarbeitungseinheit, die die Auswertung übernimmt, auf den Bildausschnitt reduziert werden. Dies kann beispielsweise durch ein Zusatzmodul in der Betriebssoftware der Kamera oder auch durch ein der Kamera nachgeschaltetes weiteres Modul geschehen. Damit kommt die Übertragung über das fahrzeuginterne Netzwerk immer noch mit einem deutlich geringeren Bandbreitenbedarf aus. Der Aufwand für das Reduzieren des Bandbreitenbedarfs ist klein im Vergleich zum Aufwand, das fahrzeuginterne Netzwerk für den höheren Bandbreitenbedarf zu ertüchtigen.
  • Wie zuvor erläutert, wird vorteilhaft der Bildausschnitt mit einer Bildwiederholrate von der Kamera bezogen, die höher ist als die für die Überwachung des Fahrzeugumfelds mit dieser Kamera vorgesehene Bildwiederholrate. Je höher die Bildwiederholrate ist, desto genauer lassen sich insbesondere Schmutz oder andere Objekte verfolgen, die sich auf den Sensor zubewegen.
  • In einer weiteren vorteilhaften Ausgestaltung wird in Antwort darauf, dass sich im zeitlichen Zusammenhang mit der Bewegung von Schmutz oder anderen Objekten auf den Sensor zu das Messsignal des Sensors in einer Weise verändert, die mit einer Verschlechterung der Funktionsfähigkeit des Sensors in Einklang steht, festgestellt, dass die Funktionsfähigkeit des Sensors beeinträchtigt ist. Wenn beispielsweise ein Objekt auf einen Radarsensor zufliegt und in unmittelbarem zeitlichem Zusammenhang hiermit die vom Radarsensor registrierte Intensität abnimmt, kann darauf geschlossen werden, dass der Strahlengang des Radarsensors teilweise verlegt worden ist und der Radarsensor nur noch eingeschränkt funktionsfähig ist.
  • Besonders vorteilhaft wird ein Radar-, Ultraschall-, oder Lidar-Sensor als Sensor gewählt. Derartige Sensoren senden eine elektromagnetische Abfragestrahlung in das Fahrzeugumfeld und registrieren die von Objekten reflektierte Strahlung. Wenn keine Strahlung zurückkommt, dann ist eine mögliche Ursache, dass sich im Umfeld kein reflektierendes Objekt befindet. Es ist jedoch auch möglich, dass die ausgesendete Strahlung, und/oder die reflektierte Strahlung, beispielsweise durch eine Verschmutzung auf dem Sensor absorbiert wird. Wenn also beispielsweise plötzlich keine Strahlung mehr registriert wird, könnte hieraus der falsche Schluss gezogen werden, dass das vorausfahrende Fahrzeug aus dem Umfeld des eigenen Fahrzeugs herausbeschleunigt hat, und das eigene Fahrzeug könnte zu einer Beschleunigung veranlasst werden, um wieder aufzuschließen.
  • In einer weiteren besonders vorteilhaften Ausgestaltung wird mit mindestens einem neuronalen Netzwerk aus dem Bildausschnitt ausgewertet, ob der Sensor beschädigt oder verschmutzt ist, und/oder ob sich Schmutz oder andere Objekte auf den Sensor zubewegen. Das neuronale Netzwerk hat eine große Kraft zur Verallgemeinerung und kann somit ausgehend von einer endlichen Anzahl an Trainingssituationen auch eine Vielzahl ungesehener Situationen zutreffend bewerten. Der Aufwand an Speicher und an Rechenkapazität für die Verarbeitung mit dem neuronalen Netzwerk wird wesentlich durch die Dimensionalität, also durch die Pixelanzahl, des bewerteten Bildes getrieben. Der kleine Bildausschnitt, der nur den relevanten Bereich zeigt, erfordert hier einen wesentlich geringeren Aufwand als die Verarbeitung des Vollbildes. Weiterhin wird durch die Verwendung des Bildausschnitts das Training des neuronalen Netzwerks auch genau auf die Bewertung fokussiert, inwieweit der Sensor beschädigt oder verschmutzt ist. Würde hingegen zum Training jeweils das Vollbild verwendet, würde das neuronale Netzwerk möglicherweise vorwiegend etwas anderes lernen als eine Beurteilung speziell eines sehr kleinen Bildausschnitts.
  • Wenn sich herausstellt, dass die Funktionsfähigkeit des Sensors beeinträchtigt ist, können verschiedene abgestufte Gegenmaßnahmen ergriffen werden.
  • Beispielsweise kann eine Heizung und/oder eine Reinigungsvorrichtung für den Sensor aktiviert werden. Wenn dies immer aus einem konkreten Anlass geschieht und nicht prophylaktisch, kann Energie eingespart werden. Auch verbraucht beispielsweise eine Reinigungsvorrichtung Wasser und ggfs. auch Reinigungsmittel, was bei übermäßigem Verbrauch durch den Nutzer des Fahrzeugs häufiger nachzufüllen wäre.
  • Alternativ oder auch in Kombination hierzu können beispielsweise Messsignale, die der Sensor hätte liefern sollen, aus Messsignalen anderer Sensoren, deren Erfassungsbereich sich mit dem Erfassungsbereich dieses Sensors überlappen, rekonstruiert werden. Dies liefert zumindest eine Abschätzung für fehlende Messsignale. Eine nachgeschaltete Auswertung für ein fahrdynamisches System kann dann zumindest noch mit reduzierter Genauigkeit weiterarbeiten, statt den Betrieb gleich komplett einstellen zu müssen.
  • Als ultima ratio kann ein Fahrassistenzsystem und/oder System für das zumindest teilweise automatisierte Fahren, das den Sensor nutzt, ganz oder teilweise deaktiviert werden. Dadurch wird verhindert, dass durch Beschädigung oder Verschmutzung des Sensors verfälschte Messsignale zu einer falschen Schlussfolgerung und schließlich zu einer der tatsächlichen Situation nicht angemessenen fahrdynamischen Reaktion des Fahrzeugs verstärkt werden. Gleichzeitig wird dem Nutzer des Fahrzeugs durch den Verlust an Funktionalität ein Ansatz gesetzt, durch Reinigung und/oder Reparatur den Sensor baldmöglichst in Ordnung zu bringen.
  • Das zuvor beschriebene Verfahren kann insbesondere beispielsweise computerimplementiert und somit in einer Software verkörpert sein. Die Erfindung bezieht sich daher auch auf ein Computerprogramm mit maschinenlesbaren Anweisungen, die, wenn sie auf einem oder mehreren Computern ausgeführt werden, den oder die Computer dazu veranlassen, das beschriebene Verfahren auszuführen. In diesem Sinne sind auch Steuergeräte für Fahrzeuge und Embedded-Systeme für technische Geräte, die ebenfalls in der Lage sind, maschinenlesbare Anweisungen auszuführen, als Computer anzusehen.
  • Ebenso bezieht sich die Erfindung auch auf einen maschinenlesbaren Datenträger und/oder auf ein Downloadprodukt mit dem Computerprogramm. Ein Downloadprodukt ist ein über ein Datennetzwerk übertragbares, d.h. von einem Benutzer des Datennetzwerks downloadbares, digitales Produkt, das beispielsweise in einem Online-Shop zum sofortigen Download feilgeboten werden kann.
  • Weiterhin kann ein Computer mit dem Computerprogramm, mit dem maschinenlesbaren Datenträger bzw. mit dem Downloadprodukt ausgerüstet sein.
  • Weitere, die Erfindung verbessernde Maßnahmen werden nachstehend gemeinsam mit der Beschreibung der bevorzugten Ausführungsbeispiele der Erfindung anhand von Figuren näher dargestellt.
  • Figurenliste
  • Es zeigt:
    • 1 Ausführungsbeispiel des Verfahrens 100;
    • 2 Beispielhafte Realisierung des Verfahrens 100 an einem Fahrzeug 50.
  • 1 ist ein schematisches Ablaufdiagramm eines Ausführungsbeispiels des Verfahrens 100 zur Überwachung der Funktionsfähigkeit eines Sensors 1, der an einem Fahrzeug 50 montiert ist und zur Beobachtung des Fahrzeugumfelds 51 vorgesehen ist. Eine beispielhafte Situation, in der das Verfahren 100 angewendet werden kann, ist in 2 skizziert.
  • In Schritt 105 kann insbesondere ein Radar-Sensor, ein Ultraschall-Sensor oder ein Lidar-Sensor für die Durchführung des Verfahrens 100 gewählt werden.
  • In Schritt 110 wird mindestens eine Kamera 2, die zur Aufnahme von Bildern 3 des Fahrzeugumfelds 51 ausgebildet ist und in deren Sichtfeld sich auch der Sensor 1, und/oder ein in Fahrtrichtung des Fahrzeugs vor dem Sensor liegender Bereich 1a, befindet, genutzt. Diese Kamera kann gemäß Block 111 insbesondere beispielsweise eine Nahbereichskamera, eine Weitwinkelkamera oder eine Fischaugenkamera sein, die in ein Parkunterstützungssystem eingebunden ist. Von der Kamera 2 wird ein Bildausschnitt 3a eines Bildes 3 bezogen. Dieser Bildausschnitt 3a zeigt den Sensor 1, und/oder den vor dem Sensor liegenden Bereich 1a.
  • Gemäß Block 112 kann eine Anforderung lediglich des Bildausschnitts 3a an die Kamera 2 gesendet werden, und der Bildausschnitt 3a kann dann gemäß Block 113 von der Kamera 2 empfangen werden.
  • Alternativ können von der Kamera 2 ausgegebene Bilder 3 gemäß Block 114 zunächst auf den Bildausschnitt 3a reduziert werden, bevor sie über ein fahrzeuginternes Netzwerk 52 zu einem Modul 53 übertragen werden, das die Auswertung vornimmt.
  • In beiden Fällen kann gemäß Block 115 insbesondere der Bildausschnitt 3a mit einer Bildwiederholrate von der Kamera 2 bezogen werden, die höher ist als die für die Überwachung des Fahrzeugumfelds 51 mit dieser Kamera 2 vorgesehene Bildwiederholrate. Dabei fällt der mögliche Gewinn an Bildwiederholrate höher aus, wenn gemäß den Blöcken 112 und 113 die Kamera 2 von vornherein nur den speziellen Bildausschnitt 3a liefert.
  • In Schritt 120 wird aus dem Bildausschnitt 3a ausgewertet, ob der Sensor 1 beschädigt oder verschmutzt ist, und/oder ob sich Schmutz oder andere Objekte auf den Sensor 1 zubewegen. Hierzu kann insbesondere beispielsweise gemäß Block 121 ein neuronales Netzwerk eingesetzt werden.
  • Unter Heranziehung des Ergebnisses 120a der Auswertung 120 wird in Schritt 130 eine Aussage 1* dahingehend ermittelt, inwieweit der Sensor 1 funktionsfähig ist. Diese Aussage 1* muss nicht ausschließlich und auch nicht linear von beispielsweise einem Verschmutzungsgrad des Sensors 1 abhängen. So kann beispielsweise bis zu einem gewissen Sockelbetrag der Verschmutzungsgrad noch keinen Einfluss auf die Funktionsfähigkeit haben, während anschließend mit zunehmendem Verschmutzungsgrad die Funktionsfähigkeit abnimmt. Ab einem gewissen Verschmutzungsgrad kann diese Abnahme dann beispielsweise wieder in eine Sättigung gehen.
  • Insbesondere kann gemäß Block 131 beispielsweise geprüft werden, ob sich das Messsignal des Sensors 1 im zeitlichen Zusammenhang mit der Bewegung von Schmutz oder anderen Objekten auf den Sensor 1 zu in einer Weise verändert, die mit einer Verschlechterung der Funktionsfähigkeit des Sensors 1 in Einklang steht. Es kann dann gemäß Block 132 die Feststellung 1* getroffen werden, dass die Funktionsfähigkeit des Sensors 1 beeinträchtigt ist.
  • Sofern die Funktionsfähigkeit des Sensors 1 beeinträchtigt ist, kann in Schritt 140 eine Heizung oder eine Reinigungsvorrichtung für den Sensor 1 aktiviert werden. Alternativ oder in Kombination hierzu können in Schritt 150 Messsignale, die der Sensor 1 hätte liefern sollen, aus Messsignalen anderer Sensoren, deren Erfassungsbereich sich mit dem Erfassungsbereich dieses Sensors 1 überlappen, rekonstruiert werden. Schließlich kann auch in Schritt 160 ein Fahrassistenzsystem und/oder System für das zumindest teilweise automatisierte Fahren, das den Sensor 1 nutzt, ganz oder teilweise deaktiviert werden.
  • 2 zeigt eine beispielhafte Realisierung des Verfahrens 100 an einem Fahrzeug 50. Das Fahrzeug 50 beobachtet sein Umfeld 51 mit einem Radarsensor 1, der Abfragestrahlung A aussendet und von Objekten O reflektierte Strahlung registriert.
  • Eine Nahfeldkamera 2 ist dafür ausgelegt, beim Einparken einen großen Erfassungsbereich 2a zu beobachten und dabei Bilder 3 zu erzeugen, die diesen gesamten Erfassungsbereich 2a zeigen. Im Rahmen des Verfahrens 100 wird diese Nahfeldkamera 2 dazu verwendet, einen Bildausschnitt 3a eines Bildes 3 mit hoher Bildwiederholfrequenz aufzunehmen. In dem in 2 gezeigten Beispiel werden zunächst Bilder 3 aufgenommen, die den vollständigen Erfassungsbereich 2a der Nahfeldkamera 2 zeigen. Bevor diese Bilder über ein fahrzeuginternes Netzwerk 52 zu dem Modul 53 übertragen werden, das die weitere Auswertung vornimmt, werden sie in Schritt 114 des Verfahrens 100 auf den Bildausschnitt 3a reduziert.
  • In der in 2 gezeigten Situation kann so erkannt werden, dass im Bereich 1a unmittelbar vor dem Sensor 1 Schmutz S dabei ist, in Richtung des Sensors 1 zu fliegen. Wenn im zeitlichen Zusammenhang hiermit das Messsignal des Sensors 1 einbricht, kann erkannt werden, dass hierfür wahrscheinlich der Schmutz S die Ursache ist, und nicht etwa ein Entfernen des Objekts O aus dem Erfassungsbereich des Radarsensors 1.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102018222195 A1 [0002]

Claims (13)

  1. Verfahren (100) zur Überwachung der Funktionsfähigkeit eines Sensors (1), der an einem Fahrzeug (50) montiert ist und zur Beobachtung des Fahrzeugumfelds (51) vorgesehen ist, mit den Schritten: • von mindestens einer Kamera (2), die zur Aufnahme von Bildern (3) des Fahrzeugumfelds (51) ausgebildet ist und in deren Sichtfeld sich auch der Sensor (1), und/oder ein in Fahrtrichtung des Fahrzeugs vor dem Sensor liegender Bereich (1a), befindet, wird ein Bildausschnitt (3a) eines solchen Bildes (3) bezogen (110), der den Sensor (1), und/oder den vor dem Sensor liegenden Bereich (1a), zeigt; • aus diesem Bildausschnitt (3a) wird ausgewertet (120), ob der Sensor (1) beschädigt oder verschmutzt ist, und/oder ob sich Schmutz oder andere Objekte auf den Sensor (1) zubewegen; • unter Heranziehung des Ergebnisses (120a) dieser Auswertung wird ermittelt (130), inwieweit der Sensor (1) funktionsfähig ist (1*).
  2. Verfahren (100) nach Anspruch 1, wobei der Bildausschnitt (3a) höchstens 5 %, bevorzugt höchstens 1 % und ganz besonders bevorzugt höchstens 0,5 %, des Sichtfeldes der Kamera (2) umfasst.
  3. Verfahren (100) nach einem der Ansprüche 1 bis 2, wobei eine Anforderung lediglich des Bildausschnitts (3a) an die Kamera (2) gesendet (112) und der Bildausschnitt (3a) von der Kamera (2) empfangen (113) wird.
  4. Verfahren (100) nach einem der Ansprüche 1 bis 2, wobei von der Kamera (2) ausgegebene Bilder (3) vor einer Übertragung über ein fahrzeuginternes Netzwerk (52) zur Auswertung auf den Bildausschnitt (3a) reduziert werden (114).
  5. Verfahren (100) nach einem der Ansprüche 1 bis 4, wobei der Bildausschnitt (3a) mit einer Bildwiederholrate von der Kamera (2) bezogen wird (115), die höher ist als die für die Überwachung des Fahrzeugumfelds (51) mit dieser Kamera (2) vorgesehene Bildwiederholrate.
  6. Verfahren (100) nach einem der Ansprüche 1 bis 5, wobei in Antwort darauf, dass sich im zeitlichen Zusammenhang mit der Bewegung von Schmutz oder anderen Objekten auf den Sensor (1) zu das Messsignal des Sensors (1) in einer Weise verändert, die mit einer Verschlechterung der Funktionsfähigkeit des Sensors (1) in Einklang steht (131), festgestellt wird (132), dass die Funktionsfähigkeit des Sensors (1) beeinträchtigt ist (1*).
  7. Verfahren (100) nach einem der Ansprüche 1 bis 6, wobei ein Radar-, Ultraschall-, oder Lidar-Sensor als Sensor (1) gewählt wird (105).
  8. Verfahren (100) nach einem der Ansprüche 1 bis 7, wobei eine Nahbereichskamera, eine Weitwinkelkamera oder eine Fischaugenkamera, die in ein Parkunterstützungssystem eingebunden ist, als Kamera (2) gewählt wird (111).
  9. Verfahren (100) nach einem der Ansprüche 1 bis 8, wobei mit mindestens einem neuronalen Netzwerk aus dem Bildausschnitt (3a) ausgewertet wird (121), ob der Sensor (1) beschädigt oder verschmutzt ist, und/oder ob sich Schmutz oder andere Objekte auf den Sensor (1) zubewegen.
  10. Verfahren (100) nach einem der Ansprüche 1 bis 9, wobei in Antwort auf die Feststellung (130), dass die Funktionsfähigkeit des Sensors beeinträchtigt ist, • eine Heizung oder eine Reinigungsvorrichtung für den Sensor (1) aktiviert wird (140); und/oder • Messsignale, die der Sensor (1) hätte liefern sollen, aus Messsignalen anderer Sensoren, deren Erfassungsbereich sich mit dem Erfassungsbereich dieses Sensors (1) überlappen, rekonstruiert werden (150); und/oder • ein Fahrassistenzsystem und/oder System für das zumindest teilweise automatisierte Fahren, das den Sensor (1) nutzt, ganz oder teilweise deaktiviert wird (160).
  11. Computerprogramm, enthaltend maschinenlesbare Anweisungen, die, wenn sie auf einem oder mehreren Computern ausgeführt werden, den oder die Computer dazu veranlassen, das Verfahren (100) nach einem der Ansprüche 1 bis 10 auszuführen.
  12. Maschinenlesbarer Datenträger und/oder Downloadprodukt mit dem Computerprogramm nach Anspruch 11.
  13. Computer mit dem Computerprogramm nach Anspruch 11, und/oder mit dem maschinenlesbaren Datenträger und/oder Downloadprodukt nach Anspruch 12.
DE102020215573.9A 2020-12-09 2020-12-09 Überwachung der Funktionsfähigkeit von Sensoren an Fahrzeugen Active DE102020215573B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020215573.9A DE102020215573B4 (de) 2020-12-09 2020-12-09 Überwachung der Funktionsfähigkeit von Sensoren an Fahrzeugen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020215573.9A DE102020215573B4 (de) 2020-12-09 2020-12-09 Überwachung der Funktionsfähigkeit von Sensoren an Fahrzeugen

Publications (2)

Publication Number Publication Date
DE102020215573A1 true DE102020215573A1 (de) 2022-06-09
DE102020215573B4 DE102020215573B4 (de) 2022-06-15

Family

ID=81655539

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020215573.9A Active DE102020215573B4 (de) 2020-12-09 2020-12-09 Überwachung der Funktionsfähigkeit von Sensoren an Fahrzeugen

Country Status (1)

Country Link
DE (1) DE102020215573B4 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9185360B2 (en) 2005-11-23 2015-11-10 Mobileye Vision Technologies Ltd. Systems and methods for detecting obstructions in a camera field of view
DE102018222195A1 (de) 2018-12-18 2020-06-18 Robert Bosch Gmbh Ortung und/oder KIassifikation von Objekten aus Radardaten mit maschinellem Lernen

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9185360B2 (en) 2005-11-23 2015-11-10 Mobileye Vision Technologies Ltd. Systems and methods for detecting obstructions in a camera field of view
DE102018222195A1 (de) 2018-12-18 2020-06-18 Robert Bosch Gmbh Ortung und/oder KIassifikation von Objekten aus Radardaten mit maschinellem Lernen

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KUTILA, Matti, et al. Benchmarking Automotive LiDAR Performance in Arctic Conditions. In: 2020 IEEE 23rd International Conference on Intelligent Transportation Systems (ITSC), Date of Conference: 20-23 Sept. 2020; IEEE, 2020. S. 1-8

Also Published As

Publication number Publication date
DE102020215573B4 (de) 2022-06-15

Similar Documents

Publication Publication Date Title
DE102015218704B4 (de) Systeme und Verfahren für die Erfassung von Hindernissen innerhalb des Sichtfeldes eines Bildsensors
DE102004029129B4 (de) Verfahren und Vorrichtung zur Ankupplung eines Anhängers an ein Kraftfahrzeug
DE102019008316A1 (de) Verfahren zur Objekterkennung und Abstandsbestimmung
EP3332400A1 (de) Verfahren und vorrichtung in einem kraftfahrzeug zur verbesserten datenfusionierung bei einer umfelderfassung
DE102014204872B4 (de) Verfahren und Anzeigesystem zum Anzeigen von Umgebungsinformationen eines Fahrzeugs
DE102011084477A1 (de) Abstandsmesssystem sowie Verfahren zur Abstandsmessung insbesondere eines Fahrzeugs zu seiner Umgebung
EP3488607A1 (de) Kameravorrichtung zur aufnahme eines umgebungsbereichs eines eigenen fahrzeugs sowie verfahren zur bereitstellung einer fahrerassistenzfunktion
DE102016117712A1 (de) Verfahren zum zumindest semi-autonomen Manövrieren eines Kraftfahrzeugs unter Berücksichtigung eines Erfassungsbereichs eines Sensors, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102017200710A1 (de) Sensorvorrichtung und Verfahren zum Betreiben eines Sensorsystems eines Fahrzeugs
DE102013205361A1 (de) System und Verfahren zur Archivierung von Berührungsereignissen eines Fahrzeugs
DE102010049216A1 (de) Verfahren zum Betrieb einer an einem Fahrzeug angeordneten Kamera
DE102016012345A1 (de) Verfahren zum Erkennen von Objekten
DE102013022076A1 (de) Verfahren zum Bestimmen einer Breite eines Zielfahrzeugs mittels eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
DE102016216962B3 (de) Verfahren und Steuerungseinheit zur Nachführung eines Bildausschnitts
DE102020215573B4 (de) Überwachung der Funktionsfähigkeit von Sensoren an Fahrzeugen
DE102012024879A1 (de) Fahrerassistenzsystem zum zumindest partiellen Abbremsen eines Kraftfahrzeugs, Kraftfahrzeug und entsprechendes Verfahren
DE102018005969A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsvstems mit zwei Erfassungseinrichtungen
EP3032517B1 (de) Vorrichtung und verfahren zur unterstützung eines fahrers eines fahrzeugs, insbesondere eines nutzfahrzeugs
DE102022212343A1 (de) Autonom-fahrsystem
DE102021005731A1 (de) Verfahren zum Betrieb einer sensorgestützten Umgebungsüberwachung eines Fahrzeugs
DE102018211889A1 (de) System zum Überwachen eines längsgeparkten Fahrzeugs, Fahrzeug mit demselben und Verfahren zum Überwachen eines längsgeparkten Fahrzeugs
DE102017100669A1 (de) Verfahren zum Erfassen eines Umgebungsbereichs eines Kraftfahrzeugs mit Anpassung einer Region von Interesse in Abhängigkeit von einem Anhänger, Recheneinrichtung, Kamerasystem sowie Kraftfahrzeug
DE102018003593A1 (de) Verfahren zum Betrieb eines Assistenzsystems eines Fahrzeuges
DE102019129101A1 (de) Verfahren und System zum Schätzen eines Begrenzungsrahmens, der ein Zielfahrzeug einschließt
DE102019209667A1 (de) System und Verfahren zum Ermitteln eines Flüssigkeitsverlustes eines Fahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06V0030190000

Ipc: G06V0020100000

R020 Patent grant now final