DE102009013326A1 - Verfahren zur Steuerung eines Fahrzeugs - Google Patents

Verfahren zur Steuerung eines Fahrzeugs Download PDF

Info

Publication number
DE102009013326A1
DE102009013326A1 DE102009013326A DE102009013326A DE102009013326A1 DE 102009013326 A1 DE102009013326 A1 DE 102009013326A1 DE 102009013326 A DE102009013326 A DE 102009013326A DE 102009013326 A DE102009013326 A DE 102009013326A DE 102009013326 A1 DE102009013326 A1 DE 102009013326A1
Authority
DE
Germany
Prior art keywords
vehicle
data
relevance
determined
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102009013326A
Other languages
English (en)
Inventor
Manuel Dipl.-Ing. Beck
Andreas Dr.-Ing. Schwarzhaupt
Istvan Dipl.-Ing. Vegh
Jan Dr.-Ing. Wirnitzer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102009013326A priority Critical patent/DE102009013326A1/de
Publication of DE102009013326A1 publication Critical patent/DE102009013326A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T7/00Brake-action initiating means
    • B60T7/12Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger
    • B60T7/22Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger initiated by contact of vehicle, e.g. bumper, with an external object, e.g. another vehicle, or by means of contactless obstacle detectors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/20Road profile, i.e. the change in elevation or curvature of a plurality of continuous road segments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/30Road curve radius
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9325Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles for inter-vehicle distance regulation, e.g. navigating in platoons
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9329Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles cooperating with reflectors or transponders
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Steuerung eines Fahrzeugs (F), wobei mittels eines Radarsystems (1) zumindest ein Objekt (O1, O2) in einer Umgebung des Fahrzeugs (F) und mittels zumindest einer Kamera (2) ein Verlauf einer Straße (R) erfasst werden, wobei in Abhängigkeit einer Relevanz und/oder Klassifizierung des Objekts (O1, O2) und/oder in Abhängigkeit des Verlaufs der Straße (R) ein Fahrerassistenzsystem (3) des Fahrzeugs (F) gesteuert wird. Aus mittels des Radarsystems (1) erfassten Daten wird eine Relevanz des Objekts (O1, O2) bezüglich einer aktuellen Situation (S) des Fahrzeugs (F) ermittelt und zur Überprüfung dieser Relevanz wird mittels der Kamera (2) zumindest ein Bild des Objekts (O1, O2) erzeugt, aus welchem Objektdaten und Umgebungsdaten ermittelt werden, anhand derer das Objekt (O1, O2) klassifiziert wird.

Description

  • Die Erfindung betrifft ein Verfahren zur Steuerung eines Fahrzeugs, wobei mittels eines Radarsystems zumindest ein Objekt in einem Umfeld des Fahrzeugs und mittels zumindest einer Kamera ein Verlauf einer Straße erfasst werden, wobei in Abhängigkeit einer Relevanz und/oder Klassifizierung des Objekts und/oder in Abhängigkeit des Verlaufs der Straße ein Fahrerassistenzsystem des Fahrzeugs gesteuert wird.
  • Aus der EP 1 566 659 A1 ist ein Radarsystem eines Fahrzeugs für das Übertragen elektromagnetischer Wellen während einer Überwachung eines Erfassungsbereichs bekannt. Der Erfassungsbereich ist in mehrere Erfassungsregionen unterteilt, wobei mittels des Radarsystems ein Objekt in jeder der Erfassungsregionen erfassbar ist. Bei einer Anwendung des Radarsystems in Verbindung mit einer Geschwindigkeitsregelanlage des Fahrzeugs sind aus einem mittels des Radarsystems erfassten Bild des Objekts dessen Form und Abmessungen ermittelbar, wobei anhand der Form und den Abmessungen ermittelbar ist, um welche Art von Objekt es sich handelt. Weiterhin ist mittels einer Kamera anhand von Straßenmarkierungen ein Verlauf einer Straße, auf welcher sich das Fahrzeug befindet, ermittelbar, wobei eine Eigenbewegung des Fahrzeugs anhand eines Gierratensensors, eines Lenkwinkelsensors und eines Raddrehzahlsensors schätzbar ist. Zusätzlich ist ermittelbar, ob sich das Objekt bewegt oder steht. Anhand der ermittelten Daten des Objekts wird die Geschwindigkeitsregelanlage gesteuert.
  • Weiterhin ist aus der US 2008/0169966 A1 ein Radarsystem für ein Fahrzeug bekannt, welches eine Übertragungseinheit zur Übertragung eines Radarsignals an ein Objekt und eine Empfangseinheit zum Empfang eines von dem Objekt reflektierten Radarsignals umfasst. Eine Existenz des erfassten Objekts wird in Abhängigkeit eines Vergleichs einer Intensität des reflektierten Radarsignals mit einem vorgegebenen Intensitätsgrenzwert beurteilt. Mittels des Radarsystems ist beispielsweise eine Erfassungseinheit zur Erfassung eines Straßenverlaufs gekoppelt, wobei die Erfassungseinheit aus einer Kamera zur Bilderfassung und einer Bildverarbeitungseinheit gebildet ist. Mittels der Erfassungseinheit sind Straßenmarkierungen erfassbar, verarbeitbar und einer Signalverarbeitungseinheit des Radarsystems zuführbar, wobei mittels der Signalverarbeitungseinheit ein Verlauf einer Straße ermittelbar ist.
  • Ferner offenbart die US 2008/0042812 A1 eine Vorrichtung und ein Verfahren, wobei mittels einer Kamera eines Fahrzeugs ein digitales Video erfasst wird und anhand einer Auswertung eines Pixelversatzes zumindest ein Bereich von Interesse in dem Video identifiziert wird. Dabei kann eine Gruppe von Pixeln beispielsweise ein Fahrzeug oder ein Verkehrszeichen repräsentieren. Um verbesserte Tiefeninformation des Videos zu erzeugen und eine Gültigkeit der erfassten Videodaten zu überprüfen werden mittels eines Radarsystems Radardaten erzeugt, anhand derer die Videodaten ergänzt werden. Mittels der Radardaten werden Bewegungen von Objekten ermittelt und verifiziert.
  • Der Erfindung liegt die Aufgabe zugrunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zur Steuerung eines Fahrzeugs anzugeben.
  • Bei dem erfindungsgemäßen Verfahren zur Steuerung eines Fahrzeugs werden mittels eines Radarsystems zumindest ein Objekt in einem Umfeld des Fahrzeugs und mittels zumindest einer Kamera ein Verlauf einer Straße erfasst, wobei in Abhängigkeit einer Relevanz und/oder Klassifizierung des Objekts und/oder in Abhängigkeit des Verlaufs der Straße ein Fahrerassistenzsystem des Fahrzeugs gesteuert wird.
  • Erfindungsgemäß wird aus mittels des Radarsystems erfassten Daten eine Relevanz des Objekts bezüglich einer aktuellen Situation des Fahrzeugs ermittelt. Zur Überprüfung dieser Relevanz wird mittels der Kamera zumindest ein Bild des Objekts erzeugt, aus welchem Objektdaten und Umgebungsdaten ermittelt werden, anhand derer das Objekt klassifiziert wird.
  • Unter der Relevanz des Objekts für die aktuelle Situation des Fahrzeugs wird verstanden, welchen Einfluss das erfasste Objekt aufgrund seiner Objekteigenschaften, wie z. B. seiner Abmessungen, Form, Position, Geschwindigkeit und/oder Relativgeschwindigkeit, und/oder aufgrund von Eigenschaften der Umgebung des Fahrzeugs, wie z. B. einer Kurvenkrümmung und/oder Breite der Fahrspur, aktuell oder zukünftig auf das Fahrzeug bzw. dessen Bewegung hat.
  • Mittels des erfindungsgemäßen Verfahrens ist es in vorteilhafter Weise möglich, die mittels des Radarsystems erfassten Daten, insbesondere die Relevanz des Objekts für die aktuelle Situation des Fahrzeugs zu überprüfen und gegebenenfalls anzupassen und somit eine zuverlässige Funktion des Fahrerassistenzsystems sicherzustellen, woraus ein erhöhter Komfort und eine erhöhte Sicherheit für Insassen des Fahrzeugs resultieren.
  • Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.
  • Dabei zeigen:
  • 1 schematisch eine Situation eines Fahrzeugs in dessen Umgebung, und
  • 2 schematisch die Situation gemäß 1 und zur Überprüfung einer Relevanz eines Objekts für das Fahrzeug ermittelte Daten.
  • Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
  • 1 zeigt eine Situation S eines Fahrzeugs 1 mit einem Radarsystem 2 und einer Kamera 3.
  • Das Fahrzeug 1 fährt auf einer Straße R auf einer Fahrspur L, wobei sich auf der gleichen Fahrspur L ein erstes Objekt O1, bei welchem es sich ebenfalls um ein Fahrzeug handelt, in Fahrtrichtung vor dem Fahrzeug 1 befindet.
  • Zusätzlich befindet sich neben der Fahrspur L in gleicher Entfernung zu dem Fahrzeug 1 wie das erste Objekt O1 ein zweites Objekt O2, bei welchem es sich um ein Verkehrszeichen handelt.
  • Mittels des Radarsystems 1 wird die Umgebung des Fahrzeugs F erfasst, wobei die Fahrspur L und die vor dem Fahrzeug F befindlichen Objekte O1 und O2 erfasst werden. Auch wird anhand der mittels des Radarsystems 1 ermittelten Daten eine Relevanz der Objekte O1 und O2 für die aktuelle Situation S des Fahrzeugs F ermittelt.
  • Die Relevanz der Objekte O1 und O2 für das Fahrzeug F ist dabei insbesondere von deren Art und Bewegung abhängig, wobei zur Ermittlung der Relevanz die mittels des Radarsystems erfassten Daten der Objekte O1 und O2, beispielsweise deren Abmessungen, Form, Position, Geschwindigkeit und/oder Relativgeschwindigkeit mit hinterlegten Vergleichsdaten verglichen werden, wobei durch diesen Vergleich die Relevanz der Objekte O1 und O2 für das ermittelt wird.
  • Anhand der mittels des Radarsystems 1 erfassten Daten und der Relevanz der Objekte O1 und O2 wird ein Fahrerassistenzsystem 3 des Fahrzeugs F gesteuert. Bei dem Fahrerassistenzsystem 3 kann es sich beispielsweise um ein Spurerkennungssystem, einen Spurhalteassistent, einen Abstandsregeltempomat, einen Bremsassistent und/oder um weitere allgemein bekannte Fahrerassistenzsysteme handeln.
  • Um die mittels des Radarsystems 1 ermittelten Daten zu überprüfen und zu verifizieren, umfasst das Fahrzeug F zusätzlich zumindest eine Kamera 2, anhand derer ebenfalls die Umgebung des Fahrzeugs F erfasst wird.
  • Wie in 2 dargestellt ist, werden mittels der Kamera 2 zusätzlich Objektdaten der Objekte O1 und O2 und Umgebungsdaten des Fahrzeugs F sowie der Objekte O1 und O2 ermittelt.
  • Die Kamera 2 erfasst dabei insbesondere die Umgebung vor dem Fahrzeug F, wobei aus einem erfassten Bild der Umgebung als Objektdaten der Objekte O1 und O2 deren Abmessungen, wie z. B. eine Objektbreite bO1 des Objekts O1, sowie deren Form, Position, Geschwindigkeit und/oder Relativgeschwindigkeit erfasst werden.
  • Weiterhin werden aus dem Bild der Umgebung als Umgebungsdaten eine Kurvenkrümmung rL der Fahrspur L, eine Breite bL der Fahrspur L, ein Objektversatz yO1L in der Fahrspur L und ein Versatz yFL des Fahrzeugs F in der Fahrspur L ermittelt. Anhand dieser Ermittlung, einer so genannten Fernbereichsspurerkennung, wird das Objekt O1 der Fahrspur L zugeordnet und eine eigene Position des Fahrzeugs F in der Fahrspur L wird bestimmt.
  • Anhand der mittels der Kamera 2 ermittelten Objektdaten und Umgebungsdaten werden die Objekte O1 und O2 klassifiziert, d. h. es wird zum einen ermittelt, um welche Art von Objekten es sich handelt. Dabei wird insbesondere zwischen stehenden Objekten und sich bewegenden Objekten unterschieden, wobei aufgrund der Abmessungen und Form der Objekte O1 und O2 auch ermittelt wird, ob es sich bei den Objekten O1 und O2 um Fahrzeuge, Fußgänger, Tiere, Bepflanzungen, eine Randbebauung oder Verkehrzeichen handelt.
  • Zu dieser Klassifizierung der Objekte O1 und O2 werden diese mit nicht näher dargestellten hinterlegten Mustern verglichen. Diese Muster werden insbesondere bei einer Herstellung des Fahrzeugs F in einer ebenfalls nicht näher dargestellten Speichereinheit des Fahrzeugs F hinterlegt, wobei jedem dieser Muster zumindest eine Bedeutung zugewiesen ist. Durch einen Vergleich der erfassten Objektdaten der Objekte O1 und O2, insbesondere deren Abmessungen, Form und/oder Position, mit den Mustern, wird ermittelt, um welche Art von Objekt es sich bei den Objekten O1 und O2 jeweils handelt, so dass diese klassifiziert werden.
  • Auch die Relevanz der Objekte O1 und O2 wird anhand der mittels der Kamera 2 erfassten Objektdaten, insbesondere der Position, Geschwindigkeit und/oder Relativgeschwindigkeit der Objekte O1 und O2, ermittelt, wobei zur Ermittlung der Relevanz die erfassten Objektdaten mit hinterlegten Vergleichsdaten, insbesondere Mustern verglichen werden. Zu diesem Zweck ist den Mustern in Abhängigkeit ihrer Bedeutung und Eigenschaften, wie der Position, Geschwindigkeit und/oder Relativgeschwindigkeit, die beispielsweise als Kennlinien hinterlegt sind, jeweils eine Relevanz zugeordnet. Zusätzlich leitet sich die Relevanz der Objekte O1 und O2 aus den Umgebungsdaten, d. h. der Kurvenkrümmung rL der Fahrspur L, der Breite bL der Fahrspur L, dem Objektversatz yO1L in der Fahrspur L und dem Versatz yFL des Fahrzeugs F in der Fahrspur L ab. Mit anderen Worten ergibt sich die Relevanz der Objekte O1 und O2 aus einer Gesamtsituation in der Umgebung des Fahrzeugs, wobei die Gesamtsituation durch fahrzeugeigene Parameter, die Objekt- und die Umgebungsdaten gemeinsam geprägt ist.
  • Anhand dieser Klassifikation und Relevanz, d. h. anhand der mittels der Kamera 2 erfassten Objekt- und Umgebungsdaten, wird die aufgrund der anhand des Radarsystems erfassten Daten ermittelte Relevanz der Objekte O1 und O2 bezüglich der aktuellen Situation S des Fahrzeugs F bestätigt oder gegebenenfalls angepasst. Das heißt, es wird verglichen, ob die mittels der Kamera 2 erfassten Objekt- und Umgebungsdaten mit den mittels des Radarsystems 1 erfassten Daten übereinstimmen oder von diesen abweichen und in Abhängigkeit der Ergebnisse des Vergleichs wird die Relevanz des jeweiligen Objekts O1, O2 bezüglich der aktuellen Situation S des Fahrzeugs F angepasst.
  • Die Relevanz der Objekte O1, O2 ergibt sich dabei insbesondere aus der Bewegung und Position der Objekte O1, O2 in der Umgebung des Fahrzeugs F und der Bewegung des eigenen Fahrzeugs F bezüglich der Objekte O1, O2.
  • Handelt es sich bei dem Fahrerassistenzsystem 3 beispielsweise um den Abstandsregeltempomat, so hat das Objekt O1 eine große Relevanz für das Fahrzeug F, da es sich auf der gleichen Fahrspur L wie das Fahrzeug F vor diesem befindet. Das Objekt O2, d. h. das Verkehrsschild, weist in diesem Fall eine geringere Relevanz bezüglich der aktuellen Situation S für das Fahrzeug F auf.
  • Handelt es sich bei dem Fahrerassistenzsystem 3 jedoch um ein System, welches aufgrund erfasster Geschwindigkeitsbegrenzungen automatisch eine Geschwindigkeit des Fahrzeugs F steuert und/oder einen Fahrer des Fahrzeugs F auf das Vorhandensein der Geschwindigkeitsbegrenzung hinweist, so hat das Objekt O2 eine große Relevanz bezüglich der aktuellen Situation S des Fahrzeugs F.
  • Aus der Überprüfung und Anpassung der Relevanz der Objekte O1 und O2 bezüglich der aktuellen Situation S des Fahrzeugs F in Abhängigkeit der ermittelten Objektdaten und Umgebungsdaten ergibt sich in besonders Gewinn bringender Weise, dass Fehlauslösungen des Fahrerassistenzsystems 3 aufgrund einer ungenau bzw. fehlerhaft bestimmten Relevanz der Objekte O1 und O2 vermieden oder zumindest weitestgehend reduziert werden.
  • Aus der Vermeidung derartiger Fehlauslösungen ergibt sich sowohl ein Sicherheitsgewinn für Insassen des Fahrzeugs F als auch für andere Verkehrsteilnehmer. Auch werden Beschädigungen an dem Fahrzeug F, welche beispielsweise durch Kollisionen mit den Objekten O1 und O2 hervorgerufen werden können, durch die optimale Auslösung des Fahrerassistenzsystems 3 vermieden, woraus wiederum eine Kostenreduktion resultiert.
  • 1
    Radarsystem
    2
    Kamera
    3
    Fahrerassistenzsystem
    bL
    Breite
    F
    Fahrzeug
    L
    Fahrspur
    O1
    Objekt
    O2
    Objekt
    R
    Straße
    rL
    Kurvenkrümmung
    yFL
    Versatz
    yO1L
    Objektversatz
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - EP 1566659 A1 [0002]
    • - US 2008/0169966 A1 [0003]
    • - US 2008/0042812 A1 [0004]

Claims (5)

  1. Verfahren zur Steuerung eines Fahrzeugs (F), wobei mittels eines Radarsystems (1) zumindest ein Objekt (O1, O2) in einer Umgebung des Fahrzeugs (F) und mittels zumindest einer Kamera (2) ein Verlauf einer Straße (R) erfasst werden, wobei in Abhängigkeit einer Relevanz und/oder Klassifizierung des Objekts (O1, O2) und/oder in Abhängigkeit des Verlaufs der Straße (R) ein Fahrerassistenzsystem (3) des Fahrzeugs (F) gesteuert wird, dadurch gekennzeichnet, dass aus mittels des Radarsystems (1) erfassten Daten eine Relevanz des Objekts (O1, O2) bezüglich einer aktuellen Situation (S) des Fahrzeugs (F) ermittelt wird und zur Überprüfung dieser Relevanz mittels der Kamera (2) zumindest ein Bild des Objekts (O1, O2) erzeugt wird, aus welchem Objektdaten und Umgebungsdaten ermittelt werden, anhand derer das Objekt (O1, O2) klassifiziert wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass in Abhängigkeit der mittels der Kamera (2) erfassten Objektdaten und/oder Umgebungsdaten des Fahrzeugs (F) und/oder des Objekts (O1, O2) die ermittelte Relevanz des Objekts (O1, O2) für die aktuelle Situation (S) des Fahrzeugs (F) bestätigt oder gegebenenfalls angepasst wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass zur Ermittlung der Relevanz des Objekts (O1, O2) mittels des Radarsystems (1) eine Fahrspur (L) oder mehrere Fahrspuren (L) der Straße (R) ermittelt wird oder werden, auf welcher sich das Fahrzeug (F) und/oder das Objekt (O1, O2) befinden.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass mittels der Kamera (2) zur Klassifikation des Objekts (O1, O2) die Fahrspur (L), eine Kurvenkrümmung (rL) der Fahrspur (L), eine Breite (bL) der Fahrspur (L), ein Objektversatz (yO1L) in der Fahrspur (L) und/oder ein Versatz (yFL) des Fahrzeugs (F) in der Fahrspur (L) ermittelt werden.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mittels der Kamera (2) zur Klassifizierung des Objekts (O1, O2) dessen Abmessungen, Form, Position, Geschwindigkeit und/oder Relativgeschwindigkeit ermittelt werden.
DE102009013326A 2009-03-16 2009-03-16 Verfahren zur Steuerung eines Fahrzeugs Withdrawn DE102009013326A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102009013326A DE102009013326A1 (de) 2009-03-16 2009-03-16 Verfahren zur Steuerung eines Fahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102009013326A DE102009013326A1 (de) 2009-03-16 2009-03-16 Verfahren zur Steuerung eines Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102009013326A1 true DE102009013326A1 (de) 2009-11-12

Family

ID=41152849

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009013326A Withdrawn DE102009013326A1 (de) 2009-03-16 2009-03-16 Verfahren zur Steuerung eines Fahrzeugs

Country Status (1)

Country Link
DE (1) DE102009013326A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010033774A1 (de) 2010-08-09 2011-05-12 Daimler Ag Verfahren zum Betrieb eines Fahrzeugs
WO2014071939A1 (de) * 2012-11-06 2014-05-15 Conti Temic Microelectronic Gmbh Verfahren und vorrichtung zur erkennung von verkehrszeichen für ein fahrzeug
DE102020205629A1 (de) 2020-05-05 2021-11-11 Zf Friedrichshafen Ag Verfahren zur Steuerung eines Fahrzeugs

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1566659A1 (de) 2004-02-18 2005-08-24 Omron Corporation Verfahren und Vorrichtung zur Bestimmung des räumlichen Mittelpunkts und der räumlichen Ausdehnung eines Objekts in einem Lidar-Bild
US20080042812A1 (en) 2006-08-16 2008-02-21 Dunsmoir John W Systems And Arrangements For Providing Situational Awareness To An Operator Of A Vehicle
US20080169966A1 (en) 2006-08-09 2008-07-17 Fujitsu Ten Limited On-vehicle radar device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1566659A1 (de) 2004-02-18 2005-08-24 Omron Corporation Verfahren und Vorrichtung zur Bestimmung des räumlichen Mittelpunkts und der räumlichen Ausdehnung eines Objekts in einem Lidar-Bild
US20080169966A1 (en) 2006-08-09 2008-07-17 Fujitsu Ten Limited On-vehicle radar device
US20080042812A1 (en) 2006-08-16 2008-02-21 Dunsmoir John W Systems And Arrangements For Providing Situational Awareness To An Operator Of A Vehicle

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010033774A1 (de) 2010-08-09 2011-05-12 Daimler Ag Verfahren zum Betrieb eines Fahrzeugs
WO2014071939A1 (de) * 2012-11-06 2014-05-15 Conti Temic Microelectronic Gmbh Verfahren und vorrichtung zur erkennung von verkehrszeichen für ein fahrzeug
US10223600B2 (en) 2012-11-06 2019-03-05 Conti Temic Microelectronic Gmbh Method and device for recognizing traffic signs for a vehicle
DE102020205629A1 (de) 2020-05-05 2021-11-11 Zf Friedrichshafen Ag Verfahren zur Steuerung eines Fahrzeugs

Similar Documents

Publication Publication Date Title
DE102016209678B4 (de) Verfahren zum Betreiben eines Kraftfahrzeugs, Kraftfahrzeug und System zum Verarbeiten von Daten zu auf ein Kraftfahrzeug einwirkenden Seitenwindlasten
DE102015224192B4 (de) Erkennen einer Freifläche
DE102017203838A1 (de) Verfahren und System zur Umfelderfassung
EP2867093B1 (de) Verfahren und system zur informationsnutzung
DE102013210941A1 (de) Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs
DE10336638A1 (de) Vorrichtung zur Klassifizierung wengistens eines Objekts in einem Fahrzeugumfeld
DE102009006113A1 (de) Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten
DE102016212326A1 (de) Verfahren zur Verarbeitung von Sensordaten für eine Position und/oder Orientierung eines Fahrzeugs
DE102010049091A1 (de) Verfahren zum Betreiben zumindest eines Sensors eines Fahrzeugs und Fahrzeug mit zumindest einem Sensor
DE102009007885A1 (de) Verfahren zur Erkennung von auf die eigene Fahrspur einscherenden oder aus der eigenen Fahrspur ausscherenden Fahrzeugen
DE102012107885A1 (de) Verfahren zur Bestimmung eines Fahrspurverlaufs für ein Fahrzeug
DE102019206178A1 (de) Verfahren und Vorrichtung zum Abschätzen einer Fahrspurwechselabsicht eines Fahrzeugs
DE102009018311A1 (de) Verfahren und Vorrichtung zum Betrieb eines radargestützten Umfelderkennungssystems
WO2016177372A1 (de) Verfahren und vorrichtung zur erkennung und bewertung von umwelteinflüssen und fahrbahnzustandsinformationen im fahrzeugumfeld
DE102008020007A1 (de) Verfahren zum Unterstützen eines Fahrers beim Fahren mit einem Fahrzeug mit einer Fahrspurerkennung
DE102016213369A1 (de) Verfahren und Vorrichtung zur Überwachung eines Totwinkelbereichs eines Fahrzeugs
DE102017005320A1 (de) Verfahren zum Betrieb eines Fahrzeugs
EP1652161B2 (de) Vorrichtung zur klassifizierung wenigstens eines objekts in einem fahrzeugumfeld
DE102018009434A1 (de) Steuerungssystem und -Verfahren für ein Kraftfahrzeug zur Verarbeitung von mehrfach reflektierten Signalen
DE102013006172A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems und Fahrerassistenzsystem
DE102012024959A1 (de) Verfahren zum Betreiben eines Fahrzeugs und Fahrzeug
DE102011113325A1 (de) Verfahren zur Objekterkennung mittels Bilddaten
DE102015214425A1 (de) Verfahren zum Erkennen eines Verlaufs von Schienen
DE102010022706A1 (de) Verfahren zur adaptiven Parametrisierung von Fahrerassistenzsystemen und Pre-Crash-Sicherheitssystemen
DE102009013326A1 (de) Verfahren zur Steuerung eines Fahrzeugs

Legal Events

Date Code Title Description
OAV Publication of unexamined application with consent of applicant
R005 Application deemed withdrawn due to failure to request examination