DE102013206707A1 - Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs - Google Patents

Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs Download PDF

Info

Publication number
DE102013206707A1
DE102013206707A1 DE201310206707 DE102013206707A DE102013206707A1 DE 102013206707 A1 DE102013206707 A1 DE 102013206707A1 DE 201310206707 DE201310206707 DE 201310206707 DE 102013206707 A DE102013206707 A DE 102013206707A DE 102013206707 A1 DE102013206707 A1 DE 102013206707A1
Authority
DE
Germany
Prior art keywords
vehicle
sensor type
environmental sensor
objects
sensors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE201310206707
Other languages
English (en)
Inventor
Stefan Lang
Thomas Gussner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE201310206707 priority Critical patent/DE102013206707A1/de
Priority to EP14163655.5A priority patent/EP2793045B1/de
Publication of DE102013206707A1 publication Critical patent/DE102013206707A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/87Combinations of sonar systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93274Sensor installation details on the side of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2015/937Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles sensor installation details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs (10), wobei das Umfelderfassungssystem mindestens zwei verschiedene Umfeldsensortypen (12, 14) umfasst und wobei Objekte im Umfeld des Fahrzeugs (10) mit einem ersten Umfeldsensortyp (12) erfasst werden, die Objekte mit den Daten des ersten Umfeldsensortyps (12) in statische und dynamische Objekte kategorisiert werden, die relative Position der erfassten statischen Objekte zum Fahrzeug (10) bestimmt wird, diese Position mit einer über einen zweiten Umfeldsensortyp (14) ermittelten Position verglichen wird und bei einer Abweichung über einem Grenzwert auf einen Fehler geschlossen wird, wobei der Sichtbereich (18) des ersten Umfeldsensortyps (12) nicht mit dem Sichtbereich (20) des zweiten Umfeldsensortyps (14) überlappt und die relative Position der erfassten statischen Objekte nach dem Verlassen des Sichtbereichs (18) des ersten Umfeldsensortyps (12) unter Berücksichtigung der Bewegung des Fahrzeugs (10) aktualisiert wird. Des Weiteren betrifft die Erfindung ein Computerprogramm und eine Vorrichtung zur Durchführung des Verfahrens.

Description

  • Stand der Technik
  • Die Erfindung betrifft ein Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs, wobei das Umfelderfassungssystem mindestens zwei verschiedene Umfeldsensortypen umfasst, Objekte im Umfeld des Fahrzeugs mit einem ersten Umfeldsensortyp erfasst werden, die Objekte in statische und dynamische Objekte kategorisiert werden und wobei die Position der statischen Objekte mit der über einen zweiten Umfeldsensortyp ermittelten Position verglichen wird. Des Weiteren betrifft die Erfindung ein Computerprogramm und eine Vorrichtung, welche zur Ausführung des Verfahrens eingerichtet sind.
  • Umfelderfassungssysteme werden in modernen Fahrzeugen eingesetzt, um Daten über die Umgebung des Fahrzeugs zur Verwendung in Fahrassistenzsystemen zu gewinnen. Als Sensoren für die Umfelderfassungssysteme werden beispielsweise Ultraschall, Radar oder Lidar basierende Sensoren eingesetzt. Auch optische Systeme wie Kameras sind zur Umfelderfassung geeignet. Stereokameras erlauben dabei eine dreidimensionale bildliche Erfassung der Fahrzeugumgebung. Für eine zuverlässige dreidimensionale Erfassung der Umgebung muss eine Stereokamera zuvor kalibriert werden. Ferner dürfen sich die Parameter der Stereokamera, wie beispielsweise die Ausrichtung der beiden einzelnen Kameras zueinander, im laufenden Betrieb nicht ändern, da andernfalls bei der Berechnung der Tiefe des erfassten Bildes systematische Fehler auftreten, beispielsweise in Form einer Verzerrten 3D-Vermessung.
  • Aus DE 102 29 336 A1 sind ein Verfahren und eine Vorrichtung zur Kalibrierung von Bildsensorsystemen bekannt. Das zu kalibrierende Bildsensorsystem kann beispielsweise eine Stereokamera sein. Die Vorrichtung umfasst zusätzlich zum Bildsensorsystem ein weiteres Sensorsystem, beispielsweise einen Radarsensor oder einen Ultraschallsensor, dessen Erfassungsbereich mit dem des Bildsensorsystems überlappt. Zum Kalibrieren des Bildsensorsystems wird ein Kalibrierobjekt verwendet, welches in den Erfassungsbereich der beiden verschiedenen Sensorsysteme eingebracht wird. Die Messdaten der verschiedenen Sensorsysteme werden an eine Auswerteeinheit übertragen, die anschließend die Kalibrierdaten zur Kalibrierung des Bildsensorsystems ermittelt.
  • Aus WO 2004/072901 A1 sind ein Verfahren und eine Vorrichtung zur Echtzeithinderniserkennung bekannt, basierend auf einer kalibrierten Kamera. Dabei wird der optische Fluss in den Kamerabildern analysiert und ein Punkt in der Umgebung des Fahrzeugs ausgewählt, der sich leicht verfolgen lässt. Die Bewegung dieses Punktes in den Kamerabildern wird analysiert und mit einer über die bekannte Eigenbewegung des Fahrzeugs berechneten Bewegung des Punktes verglichen. Zur Erhöhung der Zuverlässigkeit kann das Verfahren mit weiteren Sensorsystemen, wie beispielsweise einem Ultraschallsensorsystem, kombiniert werden.
  • Aus DE 10 2010 051 602 A1 ist ein Verfahren zur Erfassung von Merkmalen in der Umgebung eines Fahrzeugs bekannt, wobei mindestens zwei Aufnahmen mit im Wesentlichen gleichen Ausrichtungen, jedoch unterschiedlichen Standorten einer Kamera gemacht werden. Dazu kann beispielsweise eine Stereokamera verwendet werden, die typischerweise zwei Kameras enthält. Zur Redundanzprüfung kann zusätzlich ein Laser-, Ultraschall- oder Radarsystem in Kombination mit dem Kamerasystem eingesetzt werden.
  • Nachteilig an den aus dem Stand der Technik bekannten Verfahren ist, dass diese für eine Überprüfung oder für eine Kalibrierung einer Kamera, insbesondere einer Stereokamera, einen weiteren Umfeldsensor benötigen, der im Wesentlichen redundante Informationen liefert. Da die Umfeldsensoren typischerweise nur einen begrenzten Sichtbereich aufweisen, müssen somit zusätzliche Sensoren verbaut werden, damit die Sichtbereiche verschiedener Sensortypen zumindest teilweise überlappen.
  • Offenbarung der Erfindung
  • Es wird ein Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs vorgeschlagen, wobei das Umfelderfassungssystem mindestens zwei verschiedene Umfeldsensortypen umfasst, wobei Objekte im Umfeld des Fahrzeugs mit einem ersten Umfeldsensortyp erfasst werden, die Objekte mit den Daten des ersten Umfeldsensortyps in statische und dynamische Objekte kategorisiert werden, die relative Position der erfassten statischen Objekte zum Fahrzeug bestimmt wird, diese Position mit einer über einen zweiten Umfeldsensortyp ermittelten Position verglichen wird und bei einer Abweichung über einem Grenzwert auf einen Fehler geschlossen wird, wobei der Sichtbereich des ersten Umfeldsensortyps nicht mit dem Sichtbereich des zweiten Umfeldsensortyps überlappt und die relative Position der erfassten statischen Objekte nach dem Verlassen des Sichtbereichs des ersten Umfeldsensortyps unter Berücksichtigung der Bewegung des Fahrzeugs aktualisiert wird.
  • Das zu überprüfende Umfelderfassungssystem ist in einem Fahrzeug angeordnet und umfasst mindestens zwei verschiedene Typen von Umfeldsensoren. Jeder Umfeldsensor weist einen Sichtbereich auf, in dem dieser Objekte erkennen kann. Zur Erfassung der Umgebung des Fahrzeugs sind die Umfeldsensoren so verteilt am Fahrzeug angeordnet, dass deren Sichtbereiche möglichst viel der Umgebung des Fahrzeugs erfassen können. Die verschiedenen Umfeldsensortypen unterscheiden sich dabei sowohl im Öffnungswinkel ihres Sichtbereichs, als auch in der Reichweite, in der diese Objekte wahrnehmen können. Bevorzugt wird zur Erfassung von Objekten in Fahrtrichtung ein Sensortyp mit hoher Reichweite gewählt, während für die Erfassung von Objekten, die sich seitlich neben dem Fahrzeug befinden, Sensortypen mit geringer Reichweite ausreichend sind. Bevorzugt werden für die Erfassung von Objekten neben dem Fahrzeug Sensortypen ausgewählt, deren Sichtbereich einen großen Öffnungswinkel aufweist.
  • Eine Funktionsüberprüfung eines Sensors kann durch einen Verglich von dessen Messergebnis mit dem eines anderen Sensors erfolgen. Dazu müssen zwei Sensoren dazu eingerichtet sein, die gleiche Größe zu messen. Im Fall eines Umfelderfassungssystems bedeutet dies dass die Position eines Objekts relativ zum Fahrzeug für einen Vergleich von zwei verschiedenen Sensoren gemessen werden muss. Wird dann bei dem Vergleich festgestellt, dass die Differenz größer als ein vorgegebener Grenzwert ist, wird auf einen Fehler im Umfelderfassungssystem geschlossen. Der Grenzwert wird bevorzugt so gewählt, dass übliche statistische Schwankungen in den Positionsbestimmungen unter dem Grenzwert liegen.
  • Bei dem vorgeschlagenen Verfahren werden für den Vergleich der ermittelten Positionen statische Objekte verwendet. Dabei ist es nicht erforderlich, dass das statische Objekt zeitgleich von zwei verschiedenen Umfeldsensoren erfasst wird, das heißt es ist nicht erforderlich, dass die Sichtbereiche zwei verschiedener Umfeldsensoren überlappen. Dazu werden in einem ersten Schritt des Verfahrens Objekte in der Umgebung des Fahrzeugs mit einem Umfeldsensor eines ersten Typs erfasst, wobei mit Hilfe der Daten dieses Umfeldsensors die Objekte in statische und dynamische Objekte kategorisiert werden. Statische Objekte sind unbewegliche Objekte wie beispielsweise Leitplanken, Bäume, Verkehrsschilder, Fahrbahnmarkierungen oder parkende Fahrzeuge. Dynamische Objekte sind bewegliche Objekte wie beispielsweise andere Fahrzeuge auf der Straße.
  • In einem zweiten Schritt des Verfahrens wird die relative Position der statischen Objekte zum Fahrzeug ermittelt. Die relative Position eines Objekts wird anschließend fortlaufend aktualisiert. Solange das Objekt noch im Sichtbereich des Sensors vom ersten Umfeldsensortyps ist, können dabei dessen Messdaten verwendet werden. Nach dem Verlassen des Sichtbereichs wird die relative Position des statischen Objekts zum Fahrzeug berechnet, wobei die bekannte Bewegung des Fahrzeugs berücksichtigt wird.
  • Tritt das statische Objekt in den Sichtbereich eines Sensors eines zweiten Typs ein, so wird in einem dritten Schritt des Verfahrens dessen relative Position zum Fahrzeug aus den Messdaten des zweiten Umfeldsensortyps bestimmt.
  • In einem vierten Schritt des Verfahrens wird die über einen Sensor eines zweiten Umfeldsensortyps ermittelte relative Position mit der Position verglichen, die anhand der Messung des ersten Sensortyps im zweiten Schritt des Verfahrens ermittelt wurde. Überschreitet die Differenz der beiden Positionen einen vorgegebenen Grenzwert, wird auf einen Fehler im Umfelderfassungssystem des Fahrzeugs geschlossen. Der Grenzwert wird bevorzugt so gewählt, dass erst bei Abweichungen die größer als die durch die Messgenauigkeit der Sensoren zu erwartenden Schwankungen sind auf eine Fehlfunktion geschlossen wird.
  • In einer Ausführungsform des Verfahrens ist der erste Umfeldsensortyp eine Kamera oder eine Stereokamera.
  • In dieser Ausführungsform erfolgt die Kategorisierung erfasster Objekte in statische und dynamische Objekte mittels Vergleichen des gemessenen optischen Flusses im Kamerabild mit dem für statische Objekte erwarteten optischen Fluss.
  • Der optische Fluss bezeichnet einen Bewegungsvektor, der jedem Bildpunkt eines Kamerabildes zugeordnet wird. Der Bewegungsvektor gibt dabei die Richtung und Geschwindigkeit an, in die sich der ihm zugeordnete Bildpunkt bewegt. Wird eine Kamera in einem Fahrzeug angeordnet und in Fahrtrichtung ausgerichtet und befinden sich keine beweglichen Objekte im Sichtbereich der Kamera, so weisen Bildpunkte, die weit entfernte Objekte oder weit entfernte Teile der Straße darstellen, einen geringen optischen Fluss auf – sie bewegen sich im Kamerabild nur langsam. Bildpunkte hingegen, die zu nahen Objekten oder zu einem nahen Teil der Straße gehören, weisen einen großen optischen Fluss auf – sie bewegen sich schnell im Kamerabild.
  • Zur Kategorisierung der im Kamerabild erfassten Objekte in statische und dynamische Objekte wird für jedes Objekt ein hypothetischer optischer Fluss unter der Annahme berechnet, dass das Objekt statisch ist. Stimmen der gemessene optische Fluss und der hypothetische optische Fluss bis auf einen statistischen Fehler überein, so wird das Objekt als statisch kategorisiert.
  • Die Berechnung des hypothetischen optischen Flusswertes fstat eines statischen Objekts ist abhängig von dessen Position (xw, yw) relativ zum Fahrzeug sowie der Eigenbewegung des Fahrzeugs. Die Eigenbewegung des Fahrzeugs drückt sich in Form einer Relativgeschwindigkeit (vx,virt, vy,virt) im Fahrzeug-Koordinatensystem aus: vx,virt = –vf + Ψ‘·yw vy,virt = –Ψ‘·xw
  • Das Fahrzeugkoordinatensystem hat dabei seinen Ursprung in der Mitte der Fahrzeughinterachse. Das Kamera-koordinatensystem ist gegenüber dem Fahrzeug-Koordinatensystem um
    Delta x_cam
    Delta y_cam
    Delta Psi_cam verschoben und verdreht. Dementsprechend ergibt sich die Geschwindigkeit im Kamera-Koordinatensystem aus v_x,virt,cam = v_x,virt·cos(–Delta Psi_cam) + v_y,virt·sin(–Delta Psi_cam) v_y,virt,cam = v_x,virt·sin(–Delta Psi_cam) – v_y,virt·cos(–Delta Psi_cam)
  • Positionen in Kamera-Koordinaten ergeben sich aus Fahrzeug-Koordinaten gemäß x_cam = (x_w – Delta x_cam)·cos(–Delta Psi_cam) + (y_w – Delta y_cam)·sin(–Delta Psi_cam) y_cam = (x_w – Delta x_cam)·sin(–Delta Psi_cam) – (y_w – Delta y_cam)·cos(–Delta Psi_cam)
  • Dabei ist Ψ‘ die Gierrate und vf die Geschwindigkeit des Fahrzeugs. Der hypothetische optische Fluss fstat wird beschrieben durch fstat = k(y1·x2 – y2·x1)/(x1·x2)
  • Dabei ist (x1, y1) die Position des Objekts in Kamera-Koordinaten im aktuellen Kamerabild, (x2, y2) ist die hypothetische Position im vorhergehenden Kamerabild und der Fluss f ist die Bewegung des Objekts um eine bestimmte Anzahl Spalten im Kamerabild. Für eine Stereokamera ergibt sich die Bildspalte u aus den Koordinaten im Kamerakoordinatensystem (xcam, ycam) über folgende Beziehung u = p – k·(ycam/xcam) wobei p und k intrinsische Parameter der Kamera sind. Bezeichnet u1 die Bildspalte des Objekts im aktuellen Kamerabild und u2 die Bildspalte des Objekts im vorherigen Kamerabild ist der Fluss f die Differenz aus u2 und u1. Die hypothetische Position im vorhergehenden Kamerabild kann bestimmt werden, indem zunächst die hypothetische Position (x2,w, y2,w) relativ zum Fahrzeug bestimmt wird: x2,w = xw – T·vx,virt y2,w = yw – T·vy,virt
  • Dabei bezeichnet T die Zeitspanne, die zwischen zwei Kamerabildern vergeht. Die Position (x2,w, y2,w) kann anschließend in das Kamera-Koordinatensystem umgerechnet werden.
  • Der berechnete hypothetische optische Fluss fstat jedes Objekts wird nun mit dem durch die Kamera gemessenen optischen Fluss verglichen. Stimmen die Werte bis auf eine Differenz, die sich aus der Messunsicherheit ergibt, überein, so handelt es sich bei dem Objekt um ein statisches Objekt. Andernfalls wird das Objekt als dynamisches Objekt kategorisiert. Zur Verringerung der Messunsicherheit kann die Berechnung über mehrere Kamerabilder hinweg durchgeführt werden und ein Mittelwert gebildet werden.
  • Wird anstelle einer Stereokamera nur eine einfache Kamera verwendet, kann eine Kategorisierung der Objekte in statische und dynamische Objekte mit Hilfe einer Objekterkennung erfolgen. Werden z.B. Warnbaken, Verkehrsschilder oder Leitplanken in einer Bildregion erkannt, kann das Objekt als statisch eingestuft werden. Der Abstand zu einem Objekt kann ebenfalls aus einem einfachen zweidimensionalen Kamerabild abgeschätzt werden. Im einfachsten Fall kann dies dadurch geschehen, dass jeder Bildzeile über die bekannte Ausrichtung der Kamera eine Entfernung zugeordnet wird.
  • In einer Ausführungsform des Verfahrens ist der zweite Umfeldsensortyp ein Ultraschallsensor. Ultraschallsensoren senden ein Ultraschallsignal aus und empfangen das von einem Objekt reflektierte Signalecho. Aus der Laufzeit des Signals und der bekannten Schallgeschwindigkeit kann dann der Abstand des Objekts zum Ultraschallsensor bestimmt werden.
  • In einer Ausführungsform des Verfahrens ist der erste Umfeldsensortyp eine Stereokamera und der zweite Umfeldsensortyp ein Ultraschallsensor, wobei jeweils zwei Ultraschallsensoren zu jeder Seite des Fahrzeugs ausgerichtet sind und die Stereokamera nach vorne zeigt. Die über die Stereokamera ermittelte und anschließend über die bekannte Eigenbewegung des Fahrzeugs aktualisierte Position eines statischen Objekts wird bei der Vorbeifahrt des Fahrzeugs mit den über die jeweiligen Ultraschallsensoren ermittelten Positionen verglichen. Wenn mindestens zwei Ultraschallsensoren übereinstimmend von der Stereokamera abweichende Objektpositionen ermitteln, wird auf einen Fehler der Stereokamera geschlossen. Zeigt nur ein Ultraschallsensor abweichende Werte an, wird auf einen Fehler in diesem Ultraschallsensor geschlossen. Des Weiteren ist es in einer Ausführungsform denkbar, erst dann auf einen Fehler der Stereokamera zu schließen, wenn mindestens einmal von jedem der vier Ultraschallsensoren ein von der Stereokamera abweichender Wert ermittelt wurde. Ein solcher Fehler kann beispielsweise durch eine fehlerhaften Kalibrierung eines Umfeldsensors oder einen Defekt eines Sensors verursacht werden.
  • Bevorzugt wird der Fahrer über einen festgestellten Fehler informiert und der betreffende Sensor und/oder das Umfelderfassungssystem werden deaktiviert.
  • In einer Ausführungsform des Verfahrens wird die Bewegung des Fahrzeugs über Radwegsensoren, Raddrehzahlsensoren, Gierratensensoren, Beschleunigungssensoren, sowie Satellitennavigation (z.B. GPS) ermittelt. Satellitennavigation kann die Schätzung der Bewegung des Fahrzeugs insbesondere dadurch verbessern, indem die globale Orientierung (global Heading) des Fahrzeugs verwendet wird.
  • Erfindungsgemäß wird weiterhin ein Computerprogramm vorgeschlagen, gemäß dem eines der hierin beschriebenen Verfahren durchgeführt wird, wenn das Computerprogramm auf einer programmierbaren Computereinrichtung ausgeführt wird. Bei dem Computerprogramm kann es sich beispielsweise um ein Modul zur Implementierung eines Fahrassistenzsystems oder eines Subsystems hiervon in einem Fahrzeug handeln oder um eine Applikation für Fahrassistenzfunktionen, welche auf einem tragbaren Gerät, wie etwa einem Smartphone oder einem Tablet-Computer ausführbar ist. Das Computerprogramm kann auf einem maschinenlesbaren Speichermedium gespeichert werden, etwa auf einem permanenten oder wiederbeschreibbaren Speichermedium oder in Zuordnung zu einer Computereinrichtung oder auf einer tragbaren Einheit, beispielsweise auf einer entfernbaren CD-ROM, DVD, einer Speicherkarte oder einem USB-Stick. Zusätzlich oder alternativ kann das Computerprogramm auf einer Computereinrichtung wie etwa auf einem Server zum Herunterladen bereitgestellt werden, z.B. über ein Datennetzwerk wie das Internet oder eine Kommunikationsverbindung wie etwa eine Telefonleitung oder eine drahtlose Verbindung.
  • Ein weiterer Aspekt der Erfindung betrifft eine Vorrichtung zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs, wobei das Umfelderfassungssystem mindestens zwei verschiedene Umfeldsensortypen umfasst und wobei die Vorrichtung ein Steuergerät umfasst, welches eingerichtet ist, Objekte mit einem ersten Umfeldsensortyp zu erfassen, die Objekte mit Hilfe der Daten des ersten Umfeldsensortyps in statische und dynamische Objekte zu kategorisieren, die relative Position der erfassten statischen Objekte relativ zum Fahrzeug zu bestimmen und diese mit der über einen zweiten Umfeldsensortyp ermittelten Position zu vergleichen, wobei bei einer Abweichung über einem vorgegebenen Grenzwert auf einen Fehler geschlossen wird und wobei der Sichtbereich des ersten Umfeldsensortyps nicht mit dem Sichtbereich des zweiten Umfeldsensortyps überlappt und das Steuergerät eingerichtet ist, die relative Position der erfassten statischen Objekte nach dem Verlassen des Sichtbereichs des ersten Umfeldsensortyps unter Berücksichtigung der Bewegung des Fahrzeugs zu aktualisieren.
  • In einer Ausführungsform der Erfindung ist der erste Umfeldsensortyp eine Kamera oder eine Stereokamera.
  • In einer Ausführungsform der Erfindung ist der zweite Umfeldsensortyp ein Ultraschallsensor. Denkbar sind auch Ausführungen des zweiten Umfeldsensortyps als Radar oder Lidar basierende Sensoren.
  • In einer Ausführungsform der Vorrichtung umfasst diese des Weiteren Mittel zur Erfassung der Bewegung des Fahrzeugs, wobei die Mittel ausgewählt sind aus Radwegsensoren, Gierratensensoren, Raddrehzahlsensoren, Beschleunigungssensoren, sowie Satellitennavigation (z.B. GPS).
  • Vorteile der Erfindung
  • Es wird ein Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs bereitgestellt, bei dem die Messwerte zwei verschiedener Umfeldsensortypen miteinander verglichen werden können, ohne dass die Sichtbereiche der Sensoren überlappen müssen. Dadurch müssen keine zusätzlichen redundanten Sensoren am Fahrzeug angeordnet werden, wobei dennoch ein Fehler wie ein Defekt oder eine fehlerhafte Kalibrierung eines Sensors zuverlässig erkannt werden können.
  • Da auf die Anordnung zusätzlicher redundanter Umfeldsensoren verzichtet werden kann, lässt sich das vorgeschlagene Verfahren auch leicht in bestehende Systeme integrieren.
  • In einer speziellen Ausführungsform, bei der eine Stereokamera in Fahrtrichtung ausgerichtet wird und jeweils zwei Ultraschallsensoren an den Seiten des Fahrzeugs angeordnet sind, ermöglicht das Verfahren zudem bei dem Versagen eines Sensors diesen zu identifizieren. Eine Fehlersuche wird dadurch erheblich vereinfacht.
  • Kurze Beschreibung der Zeichnungen
  • Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert.
  • Es zeigen:
  • 1 eine schematische Darstellung eines Fahrzeugs mit einem Umfelderfassungssystem,
  • 2 Bild einer in Fahrtrichtung ausgerichteten Kamera,
  • 3 gemessener und für statische Objekte erwarteter optischer Fluss für die in 2 dargestellte Situation,
  • 4 eine Draufsicht auf die in 2 dargestellte Situation und
  • 5 eine Draufsicht auf die in 2 dargestellte Situation zu einem späteren Zeitpunkt.
  • Ausführungsformen der Erfindung
  • 1 zeigt ein Fahrzeug mit einem Umfelderfassungssystem in einer schematischen Darstellung.
  • In 1 ist ein Fahrzeug 10 dargestellt, welches mehrere Umfeldsensoren 12, 14 umfasst. Ein erster Umfeldsensortyp 12 ist in der dargestellten Ausführungsform als Stereokamera 13 ausgeführt. Die Stereokamera 13 ist in der Front des Fahrzeugs 10 angeordnet und in Fahrtrichtung ausgerichtet, so dass der Sichtbereich 18 der Stereokamera 13 ebenfalls in Fahrtrichtung weist. Innerhalb des Sichtbereichs 18 kann die Stereokamera 13 Objekte in der Umgebung des Fahrzeugs 10 erfassen. Des Weiteren ist ein zweiter Umfeldsensortyp 14 am Fahrzeug 10 angeordnet, der in der gezeigten Ausführungsform als Ultraschallsensoren 15 ausgeführt ist. Jeweils zwei Ultraschallsensoren 15 sind an jeder Seite des Fahrzeugs 10 angeordnet. Die Sichtbereiche 20 der Ultraschallsensoren 15 zeigen ebenfalls zu den jeweiligen Seiten.
  • Beide Sensortypen 12, 14 sind mit einem Steuergerät 16 verbunden, welches die Messdaten aller Sensoren auswertet und aus diesen eine Beschreibung der Umgebung des Fahrzeugs 10 generiert.
  • In weiteren Ausführungsformen der Erfindung sind abweichende Ausgestaltungen der verwendeten Umfeldsensoren 12, 14 denkbar. So kann beispielsweise eine normale optische Kamera als erster Umfeldsensortyp 12 und ein Radar oder Lidar basierender Sensortyp als zweiter Umfeldsensortyp 14 verwendet werden. Ebenso ist es denkbar, mehr als zwei verschiedene Umfeldsensortypen einzusetzen.
  • 2 zeigt ein Bild einer in Fahrtrichtung ausgerichteten Kamera.
  • In 2 ist ein Bild dargestellt, welches von einer Stereokamera aufgenommen wurde, die in der Front eines Fahrzeugs angeordnet und in Fahrtrichtung ausgerichtet ist. In dem Bild ist eine Straße 20 mit Fahrbahnmarkierungen 28 zu erkennen. Zur linken Seite ist die Straße von Leitplanken 24 begrenzt, auf der rechten Seite befinden sich Begrenzungskegel 26. Auf der rechten Fahrspur befindet sich ein weiterer Verkehrsteilnehmer in Form eines weiteren Fahrzeugs 30.
  • Bis auf das weitere Fahrzeug 30 sind alle sichtbaren Objekte statisch, dass heißt sie weisen keine Eigenbewegung auf. Nur das weitere Fahrzeug 30 ist ein dynamisches Objekt.
  • In 3 ist der gemessene und der für statische Objekte erwartete optischer Fluss für die in 2 dargestellte Situation dargestellt.
  • 3 zeigt ein Diagramm, in dem auf der Y-Achse der optische Fluss F und auf der X-Achse die Spalte C im Kamerabild aufgetragen sind.
  • Als optischer Fluss F wird hier die Anzahl der Spalten angegeben, um die sich ein Objekt im Kamerabild von einem Bild zum nächsten Kamerabild bewegt hat. Ein positiver Wert bezeichnet dabei eine Bewegung nach links, ein negativer Wert eine Bewegung nach rechts im Kamerabild.
  • Die hier verwendete Kamera ist in einem Fahrzeug angeordnet und in Fahrtrichtung ausgerichtet. Die von der Kamera erfasst Verkehrssituation ist bereits bei der 2 beschrieben worden. Der von der Kamera ermittelte optische Fluss ist als Kurve 40 in der 3 eingezeichnet. Im linken Bereich des Bildes befinden sich Leitplanken, die keine Eigenbewegung aufweisen. Die Leitplanken sind parallel zur Straße ausgerichtet. Bildpunkte, die weiter von der Kamera entfernte Teile der Leitplanke darstellen, weisen einen geringen optischen Fluss auf – sie bewegen sich im Kamerabild nur langsam. Bildpunkte hingegen, die zu nahen Teilen der Leitplanke gehören (weiter links im Bild), weisen einen größeren optischen Fluss auf – sie bewegen sich schnell im Kamerabild.
  • Im rechten Bereich des Kamerabildes befindet sich mit dem weiteren Fahrzeug 30 ein dynamisches Objekt. Auch für dieses wird der optische Fluss ermittelt, Da sich das weitere Fahrzeug 30 fortbewegt, wobei seine Geschwindigkeit nur geringfügig kleiner als die des Fahrzeugs 10 ist, scheint es sich im Kamerabild nicht zu bewegen. Der gemessene optische Fluss ist fast Null.
  • In der Mitte der 3 ist die Messkurve 40 für den optischen Fluss unterbrochen, da sich in der Mitte der Straße kein Objekt befindet und der Horizont für eine Messung zu weit entfernt liegt. Ferner ist aus der 3 ersichtlich, dass zwar die überwiegende Mehrheit der Messpunkte für den optischen Fluss 40 auf einer Kurve liegen, jedoch aufgrund von Messunsicherheiten vereinzelt Punkte abweichen, wobei sich die meisten Messfehler um den Messwert 0 häufen.
  • Zur Kategorisierung der im Kamerabild erfassten Objekte in statische und dynamische Objekte wird für jedes Objekt ein hypothetischer optischer Fluss unter der Annahme berechnet, dass das Objekt statisch ist. Stimmen der gemessene optische Fluss und der hypothetische optische Fluss bis auf einen statistischen Fehler überein, so wird das Objekt als statisch kategorisiert. Der hypothetische optische Fluss ist in 3 als Kurve 42 aufgetragen. Die Messdaten der Leitplanke stimmen sehr gut mit dem hypothetischen optischen Fluss 42 überein, die Leitplanke wird demnach als statisches Objekt eingestuft. Der dem weiteren Fahrzeug 30 zugeordnete optische Fluss weicht hingegen deutlich vom hypothetischen optischen Fluss 42 ab. Das weitere Fahrzeug wird demnach als dynamisches Objekt eingestuft.
  • 4 zeigt eine Draufsicht auf die in 2 dargestellte Situation.
  • In 4 ist die aus 2 bekannte Verkehrssituation schematisch als Draufsicht dargestellt. Das Fahrzeug 10 befindet sich auf einer Straße 20. Der Sichtbereich 18 des ersten Umfeldsensortyps ist nach vorne ausgerichtet, die Sichtbereiche 20 des zweiten Sensortyps sind zu den Seiten des Fahrzeugs 10 ausgerichtet.
  • In der dargestellten Situation kann das Fahrzeug 10 mit der Leitplanke 24 und dem weiteren Fahrzeug 30 zwei Objekte im Sichtfeld 18 des ersten Sensortyps erfassen. Durch Auswerten des optischen Flusses wird die Leitplanke 24 als statisches Objekt eingestuft und deren Bewegung relativ zum Fahrzeug 10 weiter verfolgt. Das weitere Fahrzeug 30 wird als dynamisches Objekt eingestuft und bei der Überwachung der Umfeldsensoren nicht beachtet. Die Begrenzungskegel 26 sind zwar ebenfalls statisch, befinden sich hier jedoch nicht im Sichtbereich 18 des ersten Sensortyps.
  • 5 zeigt eine Draufsicht auf die in 2 dargestellte Situation zu einem späteren Zeitpunkt.
  • In der 5 wird dieselbe Verkehrssituation wie in 2 und in 4 dargestellt, jedoch zu einem späteren Zeitpunkt. Das Fahrzeug 10 ist dabei das weitere Fahrzeug 30 zu überholen, so dass sich das weitere Fahrzeug 30 rechts vom Fahrzeug 10 und im Sichtbereich 20 des zweiten Umfeldsensortyps befindet. Da sich das Fahrzeug 10 fortbewegt hat, befindet sich die zuvor bereits als statisches Objekt eingestufte Leitplanke 24 nun links neben dem Fahrzeug 10 und damit ebenfalls im Sichtbereich 20 des zweiten Umfeldsensortyps.
  • Seit dem ersten Erfassen der Leitplanke 24 durch den ersten Umfeldsensortyp wurde ihre relative Position zum Fahrzeug 10 ständig aktualisiert, wobei für die Teile, die sich nicht mehr im Sichtbereich des ersten Umfeldsensortyps befinden, die Eigenbewegung des Fahrzeugs 10 herangezogen wurde.
  • Die relative Position der Leitplanke 24, die mit dem ersten Umfeldsensortyp ermittelt wurde, wird jetzt mit den durch den zweiten Umfeldsensortyp ermittelten Position verglichen, wobei bei einer Vorbeifahrt, wie sie in der 5 dargestellt ist, beide Sensoren des zweiten Umfeldsensortyps die Position der Leitplanke nacheinander messen.
  • Stimmen alle Messergebnisse überein, das heißt die Differenzen liegen unter einem vorgegebenen Grenzwert, so arbeitet das Umfelderfassungssystem des Fahrzeugs 10 einwandfrei. Messen beiden Sensoren des zweiten Umfeldsensortyps übereinstimmend einen vom ersten Umfeldsensortyp abweichenden Wert, so wird auf einen Fehler des ersten Umfeldsensortyps geschlossen. Wird nur von einem Sensor des zweiten Umfeldsensortyps eine abweichende relative Position ermittelt, so wird auf einen Fehler dieses Sensors geschlossen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 10229336 A1 [0003]
    • WO 2004/072901 A1 [0004]
    • DE 102010051602 A1 [0005]

Claims (11)

  1. Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs (10), wobei das Umfelderfassungssystem mindestens zwei verschiedene Umfeldsensortypen (12, 14) umfasst und wobei Objekte (24, 26, 28, 30) im Umfeld des Fahrzeugs (10) mit einem ersten Umfeldsensortyp (12) erfasst werden, die Objekte (24, 26, 30) mit den Daten des ersten Umfeldsensortyps (12) in statische (24, 26) und dynamische Objekte (30) kategorisiert werden, die relative Position der erfassten statischen Objekte (24) zum Fahrzeug (10) bestimmt wird, diese Position mit einer über einen zweiten Umfeldsensortyp (14) ermittelten Position verglichen wird und bei einer Abweichung über einem Grenzwert auf einen Fehler geschlossen wird, dadurch gekennzeichnet, dass der Sichtbereich (18) des ersten Umfeldsensortyps (12) nicht mit dem Sichtbereich (20) des zweiten Umfeldsensortyps (14) überlappt und die relative Position der erfassten statischen Objekte (24, 26) nach dem Verlassen des Sichtbereichs (18) des ersten Umfeldsensortyps (12) unter Berücksichtigung der Bewegung des Fahrzeugs (10) aktualisiert wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der erste Umfeldsensortyp (12) eine Kamera oder eine Stereokamera (13) ist.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass die Kategorisierung erfasster Objekte (24, 26, 30) in statische (24, 26) und dynamische Objekte (30) mittels Vergleichen des gemessenen optischen Flusses (40) im Kamerabild mit dem für statische Objekte (24, 26) erwarteten optischen Fluss (42) erfolgt.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass der zweite Umfeldsensortyp (14) ein Ultraschallsensor (15) ist.
  5. Verfahren nach einem der Ansprüche 1 bis 4, wobei der erste Umfeldsensortyp (12) eine Stereokamera (13) ist und der zweite Sensortyp (14) ein Ultraschallsensor (15) ist, wobei jeweils zwei Ultraschallsensoren (15) zu jeder Seite des Fahrzeugs (10) ausgerichtet sind und die Stereokamera (13) nach vorne zeigt, dadurch gekennzeichnet, dass auf einen Defekt der Stereokamera (13) geschlossen wird, wenn mindestens zwei Ultraschallsensoren (15) übereinstimmend von der Stereokamera (13) abweichende Objektpositionen ermitteln und andernfalls auf einen Defekt eines Ultraschallsensors (15) geschlossen wird.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die Bewegung des Fahrzeugs (10) über Radwegsensoren, Raddrehzahlsensoren, Gierratensensoren, Beschleunigungssensoren, sowie Satellitennavigation (z.B. GPS) ermittelt wird.
  7. Computerprogramm zur Ausführung eines der Verfahren nach einem der vorhergehenden Ansprüche, wenn das Computerprogramm auf einer programmierbaren Computereinrichtung ausgeführt wird.
  8. Vorrichtung zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs (10), wobei das Umfelderfassungssystem mindestens zwei verschiedene Umfeldsensortypen (12, 14) umfasst und wobei die Vorrichtung ein Steuergerät (16) umfasst, welches eingerichtet ist, Objekte (24, 26, 30) mit einem ersten Umfeldsensortyp (12) zu erfassen, die Objekte (24, 26, 30) mit Hilfe der Daten des ersten Umfeldsensortyps (12) in statische (24, 26) und dynamische Objekte (30) zu kategorisieren, die relative Position der erfassten statischen Objekte (24, 26) zum Fahrzeug (10) zu bestimmen und diese mit der über einen zweiten Umfeldsensortyp (14) ermittelten Position zu verglichen, wobei bei einer Abweichung über einem Grenzwert auf einen Fehler geschlossen wird, dadurch gekennzeichnet, dass der Sichtbereich (18) des ersten Umfeldsensortyps (12) nicht mit dem Sichtbereich (20) des zweiten Umfeldsensortyps (14) überlappt und dass das Steuergerät (16) eingerichtet ist, die relative Position der erfassten statischen Objekte (24, 26) nach dem Verlassen des Sichtbereichs (18) des ersten Umfeldsensortyps (12) unter Berücksichtigung der Bewegung des Fahrzeugs (10) zu aktualisieren.
  9. Vorrichtung nach Anspruch 8, dadurch gekennzeichnet, dass der erste Umfeldsensortyp (12) eine Kamera oder eine Stereokamera (13) ist.
  10. Vorrichtung nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass der zweite Umfeldsensortyp (14) ein Ultraschallsensor (15) ist.
  11. Vorrichtung nach einem der Ansprüche 8 bis 10, dadurch gekennzeichnet, dass die Vorrichtung des Weiteren Mittel zur Erfassung der Bewegung des Fahrzeugs (10) umfasst, die ausgewählt sind aus Radwegsensoren, Raddrehzahlsensoren, Gierratensensoren, Beschleunigungssensoren, sowie Satellitennavigation (z.B. GPS) ermittelt oder eine Kombination mehrerer dieser Mittel.
DE201310206707 2013-04-15 2013-04-15 Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs Withdrawn DE102013206707A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE201310206707 DE102013206707A1 (de) 2013-04-15 2013-04-15 Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs
EP14163655.5A EP2793045B1 (de) 2013-04-15 2014-04-07 Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE201310206707 DE102013206707A1 (de) 2013-04-15 2013-04-15 Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102013206707A1 true DE102013206707A1 (de) 2014-10-16

Family

ID=50488978

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201310206707 Withdrawn DE102013206707A1 (de) 2013-04-15 2013-04-15 Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs

Country Status (2)

Country Link
EP (1) EP2793045B1 (de)
DE (1) DE102013206707A1 (de)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015104965A1 (de) * 2015-03-31 2016-10-06 Valeo Schalter Und Sensoren Gmbh Fahrerassistenzsystem zur Seitenüberwachung eines Kraftfahrzeugs, Kraftfahrzeug und Verfahren
DE102015216494A1 (de) * 2015-08-28 2017-03-02 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erkennung wenigstens einer Sensorfunktion wenigstens eines ersten Sensor wenigstens eines ersten Fahrzeugs
JP2017106806A (ja) * 2015-12-09 2017-06-15 株式会社デンソー 物体認識装置
WO2018054598A1 (de) * 2016-09-22 2018-03-29 Zf Friedrichshafen Ag Klassifizierung statischer objekte mit beweglicher kamera
DE102016223107A1 (de) 2016-11-23 2018-05-24 Volkswagen Aktiengesellschaft System und Verfahren zur Schätzung der Eigenbewegung eines Fahrzeuges
DE102017111318A1 (de) 2017-08-03 2019-02-07 Valeo Schalter Und Sensoren Gmbh Ultraschallsensoreinheit mit Ultraschallsensor und Infrarotsensor
DE102018202766A1 (de) * 2018-02-23 2019-08-29 Siemens Aktiengesellschaft Verfahren und System zur Selbstdiagnose mindestens eines Sensors eines eine autonom bewegbare oder bewegliche Vorrichtung unterstützenden Systems
DE102018127059A1 (de) 2018-10-30 2020-04-30 Daimler Ag Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs
DE102018128535A1 (de) * 2018-11-14 2020-05-14 Valeo Schalter Und Sensoren Gmbh Trainieren eines künstlichen neuronalen Netzwerks mit durch Sensoren eines Fahrzeugs erfassten Daten
DE102018221427A1 (de) * 2018-12-11 2020-06-18 Volkswagen Aktiengesellschaft Verfahren zur Ermittlung einer vorliegenden Dejustage wenigstens eines Sensors innerhalb eines Sensorverbundes
WO2020200792A1 (de) 2019-04-04 2020-10-08 Daimler Ag Verfahren zur überprüfung eines umfelderfassungssensors eines fahrzeugs und verfahren zum betrieb eines fahrzeugs
DE102019212021A1 (de) * 2019-08-09 2021-02-11 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Feststellen eines Parallaxenproblems in Sensordaten zweier Sensoren
DE102020203633A1 (de) 2020-03-20 2021-09-23 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zur Bestimmung der Lufttemperatur und Computerprogrammprodukt
DE102020117870A1 (de) 2020-07-07 2022-01-13 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Fahrzeug
DE102019134985B4 (de) 2019-12-18 2022-06-09 S.M.S, Smart Microwave Sensors Gmbh Verfahren zum Erfassen wenigstens eines Verkehrsteilnehmers
DE102021107793A1 (de) 2021-03-29 2022-09-29 Ford Global Technologies, Llc Verfahren zum Betreiben einer Fahrerassistenzfunktion
DE102022101737A1 (de) 2022-01-26 2023-07-27 Bayerische Motoren Werke Aktiengesellschaft System und Verfahren zur Objekterkennung
DE102018103803B4 (de) 2017-02-23 2023-08-03 GM Global Technology Operations LLC System für das erkennen einer fehlerhaften sensorinstallation innerhalb eines fahrzeugs, um die mit der objekterkennung verbundenen gefahren zu verringern
US11772676B2 (en) 2021-02-03 2023-10-03 Honda Motor Co., Ltd. Driving support device

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016065375A1 (en) * 2014-10-27 2016-05-06 Fts Computertechnik Gmbh Computer vision monitoring for a computer vision system
JP6716857B2 (ja) * 2014-12-26 2020-07-01 株式会社リコー 移動体、測定システム、測定方法及びプログラム
EP3252501B1 (de) * 2016-06-03 2022-06-08 Veoneer Sweden AB Verbesserte objekterkennung und bewegungsstatusschätzung für ein fahrzeugumgebungserkennungssystem
DE102017210112A1 (de) 2017-06-16 2018-12-20 Robert Bosch Gmbh Verfahren und System zur Durchführung einer Kalibrierung eines Sensors
US20190041837A1 (en) * 2017-08-03 2019-02-07 GM Global Technology Operations LLC Redundant active control system coordination
DE102019211459B4 (de) 2019-07-31 2021-02-18 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Überprüfen einer Kalibrierung von Umfeldsensoren
US11003934B2 (en) 2019-08-30 2021-05-11 Here Global B.V. Method, apparatus, and system for selecting sensor systems for map feature accuracy and reliability specifications
CN113330331A (zh) * 2019-12-04 2021-08-31 华为技术有限公司 用于交通场景中收集和自动标记测量数据的装置和方法
CN114216483A (zh) * 2021-12-14 2022-03-22 北京云迹科技股份有限公司 一种机器人的检测方法及装置
DE102022206123A1 (de) * 2022-06-20 2023-12-21 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Ermittlung einer angenäherten Objektposition eines dynamischen Objektes, Computerprogramm, Vorrichtung und Fahrzeug

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10229336A1 (de) 2002-06-29 2004-01-15 Robert Bosch Gmbh Verfahren und Vorrichtung zur Kalibrierung von Bildsensorsystemen
WO2004072901A1 (en) 2003-02-05 2004-08-26 Siemens Corporate Research Inc. Real-time obstacle detection with a calibrated camera and known ego-motion
DE102010051602A1 (de) 2010-11-16 2012-05-16 Hans-Heinrich Götting jun. Verfahren zur Erfassung von Merkmalen in der Umgebung

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10313002B4 (de) * 2003-03-24 2006-03-23 Daimlerchrysler Ag Fahrzeugumgebungserfassungseinheit
EP2101193B1 (de) * 2008-03-10 2012-05-30 Sick Ag Sicherheitssystem zur berührungslosen Messung von Positionen, Wegen und Geschwindigkeiten
DE102008038731A1 (de) * 2008-08-12 2010-02-18 Continental Automotive Gmbh Verfahren zur Erkennung ausgedehnter statischer Objekte
KR101283792B1 (ko) * 2009-11-17 2013-07-08 주식회사 만도 주차공간 인식 방법 및 장치
US8232872B2 (en) * 2009-12-03 2012-07-31 GM Global Technology Operations LLC Cross traffic collision alert system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10229336A1 (de) 2002-06-29 2004-01-15 Robert Bosch Gmbh Verfahren und Vorrichtung zur Kalibrierung von Bildsensorsystemen
WO2004072901A1 (en) 2003-02-05 2004-08-26 Siemens Corporate Research Inc. Real-time obstacle detection with a calibrated camera and known ego-motion
DE102010051602A1 (de) 2010-11-16 2012-05-16 Hans-Heinrich Götting jun. Verfahren zur Erfassung von Merkmalen in der Umgebung

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015104965A1 (de) * 2015-03-31 2016-10-06 Valeo Schalter Und Sensoren Gmbh Fahrerassistenzsystem zur Seitenüberwachung eines Kraftfahrzeugs, Kraftfahrzeug und Verfahren
DE102015216494A1 (de) * 2015-08-28 2017-03-02 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erkennung wenigstens einer Sensorfunktion wenigstens eines ersten Sensor wenigstens eines ersten Fahrzeugs
JP2017106806A (ja) * 2015-12-09 2017-06-15 株式会社デンソー 物体認識装置
WO2018054598A1 (de) * 2016-09-22 2018-03-29 Zf Friedrichshafen Ag Klassifizierung statischer objekte mit beweglicher kamera
CN109716391A (zh) * 2016-09-22 2019-05-03 Zf 腓德烈斯哈芬股份公司 利用能运动的摄像头对静态物体进行分类
US20190311481A1 (en) * 2016-09-22 2019-10-10 Zf Friedrichshafen Ag Classification of Static Objects With a Mobile Camera
DE102016223107A1 (de) 2016-11-23 2018-05-24 Volkswagen Aktiengesellschaft System und Verfahren zur Schätzung der Eigenbewegung eines Fahrzeuges
DE102018103803B4 (de) 2017-02-23 2023-08-03 GM Global Technology Operations LLC System für das erkennen einer fehlerhaften sensorinstallation innerhalb eines fahrzeugs, um die mit der objekterkennung verbundenen gefahren zu verringern
DE102017111318A1 (de) 2017-08-03 2019-02-07 Valeo Schalter Und Sensoren Gmbh Ultraschallsensoreinheit mit Ultraschallsensor und Infrarotsensor
DE102017111318B4 (de) 2017-08-03 2019-03-07 Valeo Schalter Und Sensoren Gmbh Ultraschallsensoreinheit mit Ultraschallsensor und Infrarotsensor
DE102018202766A1 (de) * 2018-02-23 2019-08-29 Siemens Aktiengesellschaft Verfahren und System zur Selbstdiagnose mindestens eines Sensors eines eine autonom bewegbare oder bewegliche Vorrichtung unterstützenden Systems
WO2020088857A1 (de) 2018-10-30 2020-05-07 Daimler Ag Verfahren zur überprüfung mindestens eines umfelderfassungssensors eines fahrzeugs
US11787424B2 (en) 2018-10-30 2023-10-17 Daimler Ag Method for checking at least one driving environment sensor of a vehicle
DE102018127059A1 (de) 2018-10-30 2020-04-30 Daimler Ag Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs
DE102018128535A1 (de) * 2018-11-14 2020-05-14 Valeo Schalter Und Sensoren Gmbh Trainieren eines künstlichen neuronalen Netzwerks mit durch Sensoren eines Fahrzeugs erfassten Daten
DE102018128535B4 (de) 2018-11-14 2021-09-02 Valeo Schalter Und Sensoren Gmbh Trainieren eines künstlichen neuronalen Netzwerks mit durch Sensoren eines Fahrzeugs erfassten Daten
DE102018221427B4 (de) 2018-12-11 2020-08-06 Volkswagen Aktiengesellschaft Verfahren zur Ermittlung einer vorliegenden Dejustage wenigstens eines Sensors innerhalb eines Sensorverbundes
DE102018221427A1 (de) * 2018-12-11 2020-06-18 Volkswagen Aktiengesellschaft Verfahren zur Ermittlung einer vorliegenden Dejustage wenigstens eines Sensors innerhalb eines Sensorverbundes
US11604245B2 (en) 2018-12-11 2023-03-14 Volkswagen Aktiengesellschaft Method for establishing the presence of a misalignment of at least one sensor within a sensor group
WO2020200792A1 (de) 2019-04-04 2020-10-08 Daimler Ag Verfahren zur überprüfung eines umfelderfassungssensors eines fahrzeugs und verfahren zum betrieb eines fahrzeugs
DE102019002487A1 (de) * 2019-04-04 2020-10-08 Daimler Ag Verfahren zur Überprüfung eines Umfelderfassungssensors eines Fahrzeugs und Verfahren zum Betrieb eines Fahrzeugs
DE102019212021A1 (de) * 2019-08-09 2021-02-11 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Feststellen eines Parallaxenproblems in Sensordaten zweier Sensoren
DE102019212021B4 (de) 2019-08-09 2024-02-08 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Feststellen eines Parallaxenproblems in Sensordaten zweier Sensoren
US11719825B2 (en) 2019-08-09 2023-08-08 Volkswagen Aktiengesellschaft Method and device for determining a parallax problem in sensor data of two sensors
DE102019134985B4 (de) 2019-12-18 2022-06-09 S.M.S, Smart Microwave Sensors Gmbh Verfahren zum Erfassen wenigstens eines Verkehrsteilnehmers
DE102020203633A1 (de) 2020-03-20 2021-09-23 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zur Bestimmung der Lufttemperatur und Computerprogrammprodukt
DE102020117870A1 (de) 2020-07-07 2022-01-13 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Fahrzeug
DE102020117870B4 (de) 2020-07-07 2023-01-12 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Fahrzeug
US11772676B2 (en) 2021-02-03 2023-10-03 Honda Motor Co., Ltd. Driving support device
DE102021107793A1 (de) 2021-03-29 2022-09-29 Ford Global Technologies, Llc Verfahren zum Betreiben einer Fahrerassistenzfunktion
DE102022101737A1 (de) 2022-01-26 2023-07-27 Bayerische Motoren Werke Aktiengesellschaft System und Verfahren zur Objekterkennung

Also Published As

Publication number Publication date
EP2793045A1 (de) 2014-10-22
EP2793045B1 (de) 2019-12-04

Similar Documents

Publication Publication Date Title
EP2793045B1 (de) Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs
DE102016219455B4 (de) Verfahren und aktive Infrastruktur zur Überprüfung einer Umfelderfassung eines Kraftfahrzeugs
DE102017105305A1 (de) Verfahren zur automatischen bestimmung einer sensorstellung
DE102018114808A1 (de) Verfahren zur automatischen Querführung eines Folgefahrzeugs in einem Fahrzeug-Platoon
DE102014111127A1 (de) Verfahren zum Erzeugen einer Umgebungskarte sowie Fahrerassistenzsystem
DE102016100401A1 (de) Verfahren zum Ermitteln einer Falschausrichtung eines Objektsensors
DE102015209467A1 (de) Verfahren zur Schätzung von Fahrstreifen
EP1159638A1 (de) Verfahren und vorrichtung zur dejustageerkennung bei einem kraftfahrzeug-radarsystem bzw. einem kraftfahrzeug-sensorsystem
EP3714286B1 (de) Verfahren und vorrichtung zur ermittlung eines installationswinkels zwischen einer fahrbahn, auf der ein fahrzeug fährt, und einer erfassungsrichtung eines mess- bzw. radarsensors
WO2016177727A1 (de) Diagnoseverfahren für einen sichtsensor eines fahrzeugs und fahrzeug mit einem sichtsensor
DE102019206021A1 (de) Verfahren zur Erkennung einer Funktionsfähigkeit eines Umgebungssensors, Steuergerät und Fahrzeug
DE102014201158A1 (de) Verfahren und Vorrichtung zum Überprüfen eines von einer Objekterkennung erkannten relevanten Objekts
DE102018006503A1 (de) Digitale Karte
DE102014003152A1 (de) Verfahren und Vorrichtung zum Bestimmen zumindest eines Objektparameters eines Verkehrsmittels
DE102019102769A1 (de) Verfahren und eine Vorrichtung zur Sensordatenfusion für ein Fahrzeug
DE102012220191A1 (de) Verfahren zur Unterstützung eines Fahrers bei der Querführung eines Fahrzeugs
WO2023083620A1 (de) Prüfung der umfeldsensorik und/oder umfeldperzeption eines fahrzeugs
WO2019037940A1 (de) Verfahren und vorrichtung zum bestimmen einer hochgenauen position und zum betreiben eines automatisierten fahrzeugs
WO2019063393A1 (de) Verfahren und system zur bestimmung zumindest einer bewegungskomponente einer absolutbewegung eines objektes im ruhenden bezugssystem
DE102016109850B4 (de) Verfahren zum Erkennen einer Neigung in einer Fahrbahn eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102015205087A1 (de) Verfahren zum Ermitteln der Dejustage eines Fahrersassistenzsensors
DE102021125136A1 (de) Vorrichtung und verfahren zum vorhersagen der trajektorie eines umliegenden fahrzeugs
DE102020125448A1 (de) Kartenplausibilitätsprüfungsverfahren
DE102016223290A1 (de) Verfahren und Vorrichtung zum Kalibrieren eines Sensors für ein Fahrzeug
DE102016204654A1 (de) Vorrichtung und Verfahren zur Eigenbewegungsschätzung für ein Kraftfahrzeug

Legal Events

Date Code Title Description
R005 Application deemed withdrawn due to failure to request examination