DE102007049516A1 - System zur Bestimmung von Objekten - Google Patents

System zur Bestimmung von Objekten Download PDF

Info

Publication number
DE102007049516A1
DE102007049516A1 DE102007049516A DE102007049516A DE102007049516A1 DE 102007049516 A1 DE102007049516 A1 DE 102007049516A1 DE 102007049516 A DE102007049516 A DE 102007049516A DE 102007049516 A DE102007049516 A DE 102007049516A DE 102007049516 A1 DE102007049516 A1 DE 102007049516A1
Authority
DE
Germany
Prior art keywords
sensor
radar
objects
situation
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102007049516A
Other languages
English (en)
Inventor
Matthias Strauss
Jürgen Pfeiffer
Adam Swoboda
Enrico RÜCK
Stefan Dr. Lüke
Stefan Heinrich
Timo Seifert
Carsten Birke
Robert Baier
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Teves AG and Co OHG
ADC Automotive Distance Control Systems GmbH
Original Assignee
Continental Teves AG and Co OHG
ADC Automotive Distance Control Systems GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Teves AG and Co OHG, ADC Automotive Distance Control Systems GmbH filed Critical Continental Teves AG and Co OHG
Priority to DE102007049516A priority Critical patent/DE102007049516A1/de
Publication of DE102007049516A1 publication Critical patent/DE102007049516A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9316Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles combined with communication equipment with other vehicles or with base stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/93185Controlling the brakes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9321Velocity regulation, e.g. cruise control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9322Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using additional data, e.g. driver condition, road state or weather data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9325Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles for inter-vehicle distance regulation, e.g. navigating in platoons

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein System zur multimodalen Bestimmung von Objekten in einem vor und/oder hinter einem Fahrzeug liegenden Blickfeld, wobei mittels eines Radar-Sensors (10) eine Umfelderfassung durchgeführt wird, das Radar-Sensor-Ausgangssignal einem Radarsignalanalyseverfahren (30) zugeführt wird und mittels eines Videosensors (20) eine visuelle Umfelderfassung durchgeführt wird, das Videoausgangssignal einem Videoanalyseverfahren (40) zugeführt wird. Es erfolgt erfindungsgemäß eine Objektbestätigung, derart, dass durch das von dem Radarsignalanalyseverfahren (30) ermittelten Objekten mittels des durch das Videoanalyseverfahren (40) bestimmten Objekts ein Objektbestätigungs- und Situationsanalyse-Modul (42) zur Verifikation zugeführt wird.

Description

  • Die Erfindung betrifft das Gebiet der multimodalen Objekterkennung anhand eines Umfeldmodells im Straßenverkehr und betrifft insbesondere ein System mit den Merkmalen des Oberbegriffs des Anspruchs 1.
  • Systeme zur Vermeidung oder Milderung unfallbedingter Verletzungen wurden bislang im Wesentlichen getrennt und unabhängig von den Systemen entwickelt, die der Vermeidung von Unfällen dienen. Passive und aktive Sicherheit eines Fahrzeugs wurden voneinander unabhängig betrachtet.
  • Heute setzt sowohl die aktive als auch die passive Sicherheit auf elektronische Systeme wie das elektronische Stabilitätsprogramm (ESP), die Adaptive Cruise Control (ACC), Gurtstraffer und Airbags. Deren Potenzial ist allerdings erst dann vollständig nutzbar, wenn Informationen über den Fahrzustand, das Fahrzeugumfeld und den Fahrer selbst allen Subsystemen zur Verfügung stehen.
  • Der Effekt dieser Vernetzung führt zu einem verkürzten Anhalteweg (Reduced Stopping Distance, RSD). Im so genannten 30-Meter-Auto werden die Einzelsysteme der aktiven Sicherheit – Reifen, Fahrwerk und Bremse- zu einem optimierten Gesamtsystem verbunden. Dieses Gesamtsystem verkürzt nicht nur den Bremsweg auf 30 Meter, sondern auch den Anhalteweg – zusätzlich mit den Bestandteilen Reaktions- und Schwellweg signifikant.
  • Eine Verkürzung des Schwellwegs, der vom Zeitpunkt des ersten Bremspedalkontakts bis zum vollen Aufbau der Bremsleistung zurückgelegt wurde, brachte die elektrohydraulische Bremse (EHB) in Kombination mit einem Bremsassistenten (BA). Die EHB zeichnet sich durch einen besonders schnellen Druckaufbau aus.
  • Zur Verkürzung der Reaktionszeit wurde das Fahrzeuge in einem nächsten Schritt mit einem Bugradar ausgerüstet, das Abstand und Relativgeschwindigkeit zum voraus fahrenden Fahrzeug misst. Deuten diese auf eine Notsituation, leitet die aktivierte Adaptive Cruise Control (ACC) eine Fremdbremsung bis zum gesetzlichen Limit von 0,2 bis 0,3 g ein und fordert den Fahrer durch ein Signal zur Übernahme des Bremsvorgangs auf, falls diese Fremdbremsung nicht ausreicht. Übernimmt der Fahrer die Bremsaktivitäten, unterstützt ihn der erweiterte Bremsassistent (BA+), der die Umfeldinformationen mit dem Bremsbetätigungssignal des Fahrers vernetzt.
  • Diese Vernetzung von Abstands- und Bremsinformationen wirkt auch bei ausgeschaltetem ACC. Dieser erste Schritt der Vernetzung deckt schon einen großen Teil der Unfälle ab, bei denen sich das Fahrzeug zuvor in einer kritischen fahrdynamischen Situation befunden hatte.
  • Die DE 199 28 915 A1 offenbart ein Verfahren, mit dem die Sichtweite im Blickfeld eines Kraftfahrzeuges exakt bestimmbar ist, so dass der Fahrer mit Hilfe der Sichtweiteninformation zu einer angepassten Fahrweise veranlasst werden kann. Hierbei misst ein monokularer Videosensor den Kontrast eines von einem Radar- oder LIDAR-Sensor erfassten Objekts, und aus den vom Radar- oder LIDAR-Sensor und vom monokularen Videosensor gelieferten Messwerten wird die Sichtweite bestimmt. Alternativ dazu wird die Entfernung des mindestens einen Objekts und dessen Kontrast mittels eines binokularen Videosensors gemessen und anschliessend wird aus den Kontrast- und Entfernungsmesswerten die Sichtweite bestimmt. Ausser der Kontrastmessung erfolgt keine weitere Auswertung der vom Videosensor aufgenommenen Bilddaten. Des Weiteren erweist es sich als nachteilig, dass die für grössere Messbereiche geeigneten LIDAR-Sensoren mit steigender Entfernung zu einem Objekt die Ortsauflösung verlieren, womit eine Verschlechterung der Objekterkennung einhergeht
  • Die DE 10305861 offenbart eine Vorrichtung eines Kraftfahrzeuges zur räumlichen Erfassung einer Szene innerhalb und/oder ausserhalb des Kraftfahrzeuges mit einem mit einer elektronischen Detektionseinrichtung gekoppelten LIDAR-Sensor und einem mit einer Bildverarbeitungseinrichtung verbundenen Bildsensor zur Aufnahme und Auswertung von Bildern der Szene, wobei die Detektionseinrichtung und die Bildverarbeitungseinrichtung mit einem Rechner zur Ermittlung räumlicher Daten der Szene gekoppelt sind.
  • Aus der WO 03/006289 ist ein Verfahren zum automatischen Auslösen einer Verzögerung eines Fahrzeugs zur Verhinderung einer Kollision mit einem weiteren Objekt bekannt, bei dem in Abhän gigkeit von Radar-oder Lidarsignalen oder Videosignalen Objekte im Kursbereich des Fahrzeugs detektiert sowie Bewegungsgrössen des Fahrzeugs erfasst werden. In Abhängigkeit von dem erkannten Objekt und der Bewegungsgrössen soll ein Gefährdungspotential bestimmt werden. Nach Maßgabe dieses Gefährdungspotentials sollen die Verzögerungsmittel in mindestens drei Zuständen betrieben werden. Darüber hinaus ist eine Verminderung der Folgen einer bevorstehenden Kollision mit einem weiteren Objekt vorgesehen, indem passive oder aktive Rückhaltesysteme aktiviert werden.
  • Bekannt sind Verfahren und Systeme, die auf einem Strahlsensor basierend, den der Fahrer in einer Gefahrensituation beim Einleiten einer Bremsung unterstützt, indem beim Loslassen des Gaspedals die Bremsanlage vorfüllen wird (Prefill), während der Zeit, in der der Fahrer keines der Pedale berührt eine leicht Verzögerung von bis zu 0,3 g eingeleiten (Prebrake) wird, und bei einer Betätigung der Bremse durch den Fahrer der Bremsassistent aufgrund niedrigerer Schwellwerte früher eingreift.
  • Trotz der sehr hohen Leistungsfähigkeit der Systeme, ergeben sich systembedingte anwendungsspezifische Beschränkungen:
    Stehende Fahrzeuge oder Gegenstände werden von den Strahlsensoren nicht erkannt. Hierdurch erfolgt nur eine Klassifizierung bezüglich der Strahlsensoreigenschaften des Objektes, jedoch nicht um welchen Gegenstand es sich tatsächlich handelt, und ob es sich überhaupt um einen Gegenstand auf der Straße, daneben, darunter oder darüber handelt. Aus dieser Situationsanalyse kann aufgrund der hohen Unsicherheit keine starken autonomen Bremsungen eingeleitet werden. Des Weiteren wird die Reichweite des Sensors ständig durch Fahrzeuge oder Gegenstände in der Umgebung begrenzt und der Reibwert, der für die Eingriffs und Warnstrategie von bedeutender Wichtigkeit ist, ist nicht von vornherein bekannt.
  • Der Erfindung liegt die Aufgabe zu zugrunde, ein einfaches, robustes System zur Unterscheidung von Objekten im Umfeld eines Fahrzeugs zur Verfügung zu stellen, um hierauf aufbauend zuverlässige Bremsstrategien abzuleiten.
  • Diese Aufgabe wird erfindungsgemäß durch ein System mit den Merkmalen des Anspruchs 1 gelöst.
  • Die Aufgabe wird gelöst durch ein System zur multimodalen Bestimmung von Objekten in einem vor und/oder hinter einem Fahrzeug liegenden Blickfeld, wobei mittels eines ersten Sensors 10 eine erste Umfeldererfassung 30 durchgeführt wird, das Sensorausgangssignal einem ersten Sensorsignalanalyseverfahren mit Objektauffindung 31 zugeführt wird, und mittels eines zweiten Sensors 20 eine weitere Umfelderfassung durchgeführt wird, das Sensorausgangssignal des zweiten Sensorausgangssignal 23 einem zweiten Sensorsignanalyseverfahrens mit Objektauffindung 41 zugeführt wird, wobei durch die Sensoren 10, 20 erfassten und durch die Sensorsignalanalyseverfahren 31, 41 ermittelten und bestimmten Objekt an ein Objektbestätigungsund Situationsanalyse-Modul 42 zur Verifikation zugeführt werden, wobei zur Verifikation weitere Fahrzeuginformationen und die Fahrspurprädiktion (43) berücksichtigt werden, und das Objektbestätigungs- und Situationsanalyse-Modul (42) relevante Objekte (60) bestimmt, wobei durch die relevanten Objekte (60) und die Fahrerinformation (80) bei Erkennung einer Gefahrensi tuation durch den Gefahrenrechner (90) Maßnahmen zur Erhöhung der passiven Sicherheit (120) eingeleitet werden.
  • In einer vorteilhaften Ausgestaltung wir als erster Sensor 10 ein Radarsensor und der zweite Sensor ein visueller Sensor 20 eingesetzt, wobei die Sensoren unterschiedlichen Bereich des elektromagnetischen Wellespektrums erfassen und das System in einem Fahrerassistenzsystem mit Frontsensorik integriert wird.
  • Eine besonders vorteilhafte Ausgestaltung des Systems wird dadurch gestaltet, das der erste Sensor 10 ein Radarsensor und der zweite Sensor eine Kamera ist.
  • Besonders vorteilhaft ist, dass das System den Datenfluss zwischen den beiden Sensoren durch die Vorauswahl von relevanten Objekten im Radar minimiert. Durch die geringere zu bewertenden Datenmenge wird die Rechchengeschwindigkeit zur Bestimmung von relevanten Objekten erheblich erhöht.
  • In einer besonders vorteilhaften Ausgestaltung der Erfindung erfolgt eine Anpassung der Erfassungsbereiche von Videokamera und Radar, wobei der ermittelte gemeinsame Erfassungbereich, der abzubildend und von Relevanz ist und von den Sensoren gemeinsam überwacht wird.
  • In einer weiteren Ausgestaltung wird erfolgt die Durchführung einer Bremsstrategie mit mindestens 0,3 g mit einer Erhöhung der Verzögerung kurz vor dem Stillstand über die Sicherheitssysteme 120 erfolgt, wodurch das Gefühl einer Notbremsung erzeugt wird.
  • Diese Lösung hat den Vorteil, dass es sich bei der Erfindung um eine Zielbestätigung handelt, da die ermittelten Daten aus der Umfelderkennung überprüft, verifiziert und bestätigt werden, um die Sensoren gegenseitig zu ergänzen, wodurch die Datenübertragung zwischen den Sensoren einfach zu realisieren ist und keine hohen systemtechnischen Anforderungen gestellt werden müssen.
  • Weitere vorteilhafte Ausgestaltungen sind in den Unteransprüchen angegeben.
  • Bei der Erfindung handelt es sich um eine Zielbestätigung, da die ermittelten Daten aus der Umfelderkennung überprüft, verifiziert und bestätigt werden, um die Sensoren gegenseitig zu ergänzen, wobei die Datenübertragung bzw. Datenaustausch zwischen den Sensoren einfach zu realisieren ist und keine komplexen systemtechnischen Anforderungen zu erfüllen sind.
  • In einer vorteilhaften Ausgestaltung der Erfindung wird die Fahrbahnmarkierungen für eine verbesserte Situationsanalyse herangezogen.
  • Ein Ausführungsbeispiel der Erfindung ist in den Zeichnungen dargestellt und wird im folgenden näher beschrieben.
  • Es zeigen
  • 1 Eine Gesamtübersicht über das System gemäß der Erfindung
  • 2 Eine graphische Auswertung der mittlere Wahrscheinlichkeiten für ein Erkennung eines Fahrzeug
  • Das Grundprinzip der Erfindung liegt, wie in 1 dargestellt darin, dass der Radarsensor 10 zunächst eine Vorauswahl relevanter Ziele bzw. Objekte 60 durchführt. Die Position dieser Objekte wird direkt oder, wie in 1 gezeigt, der Kamera indirekt über eine Objektbestimmung und uns Situationsanalyse 42 gemeldet. Kann die Kamera in bestimmten Bereich ein Objekt als relevant klassifizieren, wird dieses als relevantes Ziel bzw. Objekt angenommen. Das Prinzip bei der Erkennung ist es, verschiedene optische Eigenschaften eines Fahrzeugs an der vom Radar 10 bestimmten Position im Blickfeld zu suchen, an der vom Radar 10 ein Ziel erkannt wurde. Je nach dem, ob viele oder nur wenige Eigenschaften erkannt wurden steigt oder somit die Erkennungsrate und somit die Wahrscheinlichkeit, dass es sich bei dem erkannten Objekt bspw. um ein Fahrzeug handelt.
  • Durch den Einsatz einer Radar-Nahbereichssensorik (24-GHz-Radar) 10 sind nicht nur Komfort-Funktionen wie Full-Speed-Range-ACC oder aktive Einparkhilfen mit Brems- und Lenkeingriff realisierbar, sondern auch verbesserte Sicherheitsfunktionen. Ein weiterer Schritt in Richtung mehr Sicherheit wird mit der Einführung von bildverarbeitenden Kamerasystemen 20 vollzogen. Sie erlauben neben der Detektion von Objekts auch deren Klassifizierung, was wiederum eine verbesserte Aktivierung von Sicherheitssystemen zur Folge hat.
  • Besonders vorteilhaft bei dem System ist, dass je größer ein Gegenstand ist, desto höher liegt die Wahrscheinlichkeit, dass es als Fahrzeug erkannt wird. Wird der Schwellwert sehr niedrig angesetzt, würde die Kamera Ziele in der Größe eines mittleren Kartons bestätigen. Zusätzlich steigt die Erkennungswahrscheinlichkeit des Radars mit dem Eisengehalt eines Objek tes. Das heißt je größer und metallhaltiger ein Objekt ist, desto wahrscheinlicher ergibt sich ein autonomer Bremseneingriff, was dann dem Sachverhalt entspricht, dass es sich auch um eine potentiell gefährliche Situation handeln kann.
  • Das System wird vollständig in einem Fahrzeug 1 eingebaut. Der Radarsensor 10 besitzt eine sehr hohe longitudinale Auflösung. Erfindungsgemäß wird dieser durch einen Sensor 20 ergänzt, der über eine bereits erwähnte sehr hohe laterale Auflösung verfügt. Hierfür wird ein Videosensor 20 eingesetzt. Mit dem System werden vom Radar 10 erkannte Objekte durch das Objektracking 31 erfaßt und durch die Situationsanalyse 32 klassifiziert. Die Objektauffindung für Sensor I 32 enthält drei Bestandteile. Aus den Sensordaten des Radars 10 werden zunächst Objekte detektiert und gebildet. Gefundene Objekte werden zugeordnet und über die Zeit verfolgt. Neben den direkt messbaren Objektattributen wie Größe, Entfernung und Geschwindigkeit, werden aus den Objektmerkmalen auch Metadaten, wie Objekt ist Fußgänger, Auto oder die Bedeutung eines Verkehrsschildes durch Klassifikation abgeleitet. Hierdurch erfolgt die teilweise nacheinander, häufig aber auch abwechselnd und rückgekoppelt, Objektdetektion, Objektbildung, Objektzuordnung, Objektverfolgung, und eine Objektattributierung sowie Objektklassifikation.
  • Durch die Objektdetektion bzw. Objektbildung werden aus den Daten der Sensorerfassung konkrete Objekte gebildet. Beim Radar 10 werden z.B. Reflexionspunkte, die nahe genug beieinander liegen und die gleiche Relativgeschwindigkeit besitzen, zu einem Objekt zusammengefasst werden. Ähnliches gilt für den Einsatz eines Lidar-Systeme zusammen oder getrennt mit einem Radar 10. Hier werden z.B. Scanpunkte, die die gleiche Entfer nung besitzen und benachbart sind, im ersten Schritt zu einer Objekthypothese zusammengefasst. In 2D-Bildern des Kamerasensors 20 werden auf Basis der vom Radar und/oder dem Lidar detektierten Objektpositionen zur Objektbildung verschiedene Detektionsmethoden, die Merkmale wie Form, Farbe, Kanten, Histogramme aus der Bildanalyse oder auch den optischen Fluss im Objekttracking für den visuellen Sensor 41, eingesetzt. Gerade durch die Beschränkung der visuellen Objektdetektion auf die Bereiche, in denen bereits Objekte vom Radar und/oder Lidar detektiert wurden kann der Rechenaufwand insgesamt minimiert werden.
  • Die Objektzuordnung betrifft sowohl die Identifikation desselben Objektes in unterschiedlichen Sensordaten als auch die Objekttracking 31, 41 über die Zeit. Hierzu erfolgt eine genügend genau Orts- und Zeitkalibrierung der Sensoren 10 und 20. Es wird erfindungsgemäß unterschieden mit welcher Gewichtung, ob und wie die unterschiedlichen Sensorendaten vom Radar 10 und dem Kamerabild 23 verarbeitet werden. Beispielweise ist es angedacht die Sensordaten gewissermaßen gleichberechtigt oder mit einem Master-Sensor in der Ausgestaltung als Kamera, der notwendige und hilfreiche Zusatzinformation in Form von Fahrzeuginformationen 70 von anderen Sensoren zur Verifikation durch die erfindungsgemäße Vorauswahl von interessierenden Regionen durch Radar 10 im Bild zu werden. Hierbei wird berücksicht, dass ein minimal zu gestaltender Datenflusses bzw. ein minimales Datenaufkommen erzeugt wird. Die Objektverfolgung 31 und 41 berücksichtigt hierdurch die zeitliche Abfolge der Sensordaten und umfasst die Prädiktion des Bewegungsverhaltens von Objekten.
  • Die Situationsanalyse 32 und 42 definiert und beschreibt die Beziehungen zwischen den gefundenen Objekten, wie zum Beispiel Einscherer oder Gassenfahrt. Abhängig von der Komplexität der anzusprechenden passiven und aktiven Sicherheitssysteme 120 wie Abstandsanzeige, Abstandswarnung, Abstandsregeltempomat, Stauassistent, Notbremsung, usw. sind unterschiedliche Abstraktionsstufen bei der Situationsanalyse 32 und 42 wie Abstand zum vorausfahrenden Fahrzeug, Berücksichtigung der eigenen Geschwindigkeit, Einscherer-Situation, mögliche Ausweichmanöver angedacht. Neben den Daten aus der Umgebungserfassung ist es erfindungsgemäß angedacht Vorwissen z.B. aus digitalen Karten und Kommunikation mit anderen Fahrzeugen und/oder der Infrastruktur einzusetzen.
  • Die gesamte verfügbare Information über die aktuelle Situation wird in einer Objektbestätigung und Situationsanalyse 42 abgespeichert und steht allen anzusprechen passiven und aktiven Sicherheitssystem 120 über den Gefahrenrechner 90 und der Arbitrierung 100 zur Verfügung. Denn die abwägende Betrachtung der aktuellen Verkehrssituation mit der eigenen Aktionsplanung erlaubt eine Risikobewertung und somit eine entsprechende Handlungsableitung.
  • Diese Redundanz und Komplementarität trägt maßgebend zur Robustheit und Zuverlässigkeit der multisensoriellen Umgebungserfassung bei, da zwei Module zur Objekdetektion, Objektracking und zur Situationsanalyse 32, 43 beim dem System zum Einsatz kommen. Die Objektbestätigung und Situationsanalyse 42 dient die attributierten Objekte mit Meta- Information zu versehen. Ob ein detektiertes Objekt ein wichtiges Objekt ist oder nicht, erfolgt mit statistischen Klassifikatoren, die je nach verwendeter Sensorik 10, 20 eine Vielzahl von Merkmalen in der Entscheidung berücksichtigen.
  • Je nach Einstufung des Objektes erfolgt eine Aktivierung des Sicherheitssystem 120 in Form einer die Bremsanforderung an die Elekronischen Bremsen Kontrolleinheit 110 aus der radarbasierten Situationsanalyse, da statische oder dynamische Objekte 50 erkannt wurden.
  • Parallel werden wie bereits erwähnt zusätzlich Objekte erkannt, die nicht mit einem Radarsensor 10 messbar sind. So zum Beispiel Fahrspuren, die verwendet werden, um die Voraussage über das wahrscheinliche Verhalten erkannten Objektes, wie eines Fahrzeuges oder auch die des eigenen Fahrzeuges zu verbessern. Die Fahrspurfindung 22 nimmt eine aktive Rolle im Erkennungsprozess und wird beispielsweise mittels Kalmanfiltern umgesetzt. Durch Bekanntsein des Verlaufes der Spurmarkierung und der höheren lateralen Messgenauigkeit bei den erkannten Objekten, ist eine wesentlich differenziertere Eingriffsentscheidung möglich.
  • Basierend auf dem zuverlässigeren Situationsanalyse und deren Ergebnis ist es möglich wesentlich stärker als bisher in das Fahrverhalten des Fahrzeuges einzugreifen. Der bisher realisierte Bremseneingriff wurde aufgrund des unzureichenden Umfeldmodells freiwillig auf 0,3 g begrenzt. Diese Begrenzung kann wegfallen oder zumindest nach oben verschoben werden. Vorteilhaft und sinnvoll erscheint zunächst eine Bremsung mit 0,6 g, da der Bereich über 0,4 g vom Fahrer als Gefahr wahrgenommen wird. Zusätzlich ist das System dann auch bei Regennasser Fahrbahn (mu = 0,7) funktionsfähig. Bei höheren Verzögerungen könnte dann der Fahrer mit dem Fuß wieder ins Gaspedal fallen könnten, und somit den Eingriff abrechen würden.
  • Darüber hinaus kann der Gefahrenrechner 90 zur weiteren Verbesserung der passiven Sicherheit in Abhängigkeit von dem ermittelten Gefahrenpotential Stellgrößen zum Schließen von Fahrzeugöffnungen 122 erzeugen. Vorzugsweise werden die Fenster und das Schiebedach 122 bei einem drohenden Unfall geschlossen. Steigt das Gefahrenpotential weiter und steht ein „Crash" unmittelbar bevor, so werden die Fahrzeuginsassen über einen elektromotorischen, reversiblen Gurtstraffer 121 gesichert und positioniert und es sinkt das Risiko der Insassen verletzt zu werden.
  • Vorteilhaft vorgesehen sind optische und/oder haptische Warn- und/oder Führungshinweise bzw. Handlungsanweisungen zum Warnen 123 und/oder Leiten des Fahrers zu einer an die aktuelle Fahrzeugsituation angepassten Fahrerreaktion. Die Warnhinweise erfolgen vorzugsweise mittels eines vibrierenden Pedals 124 und/oder vibrierenden Sitzes und/oder einer aktustischen und/oder visuellen Anzeige.
  • Die Führungshinweise werden mittels einer veränderten Bedienkraft an mindestens einem Pedal und/oder der Lenkhandhabe gegeben, so dass der Fahrer über die zu- oder abnehmende Bedienkraft zu situationsgerechter Fahrzeugführung veranlasst wird.
  • Die Funktionen des Gefahrenrechners 90 bestehen im wesentlichen in der Berechnung fahrdynamischer Kennzahlen, der Berechnung von Gefahrenpotentialen und der Berechnung der Ansteuersignale.
  • Mittels des Gefahrenrechners 90 wird die Situation in geeigneter Weise bewertet und die Gefahrenpotentiale bestimmt. Das Gefahrenpotential wird als dimensionslose Größe im Bereich zwischen 0 und 100 festgelegt. Das Gefahrenpotential ist abhängig von der Beschleunigung, die bei dem Fahrmanöver notwendig ist, dass durchgeführt werden muss, um den Unfall zu verhindern. Je größer die notwendige Beschleunigung ist ist, je gefährlicher ist auch die Situation und desto gefährlicher wird das Fahrmanöver von den Insassen wahrgenommen. Die Umrechnung von notwendiger Beschleunigung in Gefahrenpotential unterscheidet sich für Quer- und Längsbeschleunigung. Eine geringere notwendige Querbeschleunigung erzeugt ein höheres vergleichbares Gefahrenpotential.
  • Die passiven und aktiven Sicherheitssysteme werden lediglich aufgrund von Schwellenwertabfragen der Gefahrenpotentiale angesteuert. Dabei können mehrere Gefahrenpotentiale kombiniert werden, um einen passiven und aktiven Sicherheitssysteme zu aktivieren. Dies bedeutet, dass die Zustandsbewertung zunächst nicht die Auswahl bzw. die Betätigungsdosierung der passiven und aktiven Sicherheitssysteme beinhaltet. Dabei wird eine bestimmte Situation durch mehrere Gefahrenpotentiale bewertet. Dies lässt eine umfangreichere Bewertung der Situation zu. Es gibt Gefahrenpotentiale, die unabhängig von den passiven und aktiven Sicherheitssystemen die Situation bewerten. So kann es beispielsweise ein Gefahrenpotential geben, das den längsdynamischen Fahrzustand bewertet. Entsprechend gibt es ein allgemeingültiges Gefahrenpotential, das den querdynamischen Fahrzustand beschreibt. Im Gegensatz zu diesen allgemeingültigen Gefahrenpotentialen gibt es auf bestimmte passiven und aktiven Sicherheitssysteme zugeschnittene spezielle Gefahrenpotentiale. Diese Gefahrenpotentiale tragen der Tatsache Rechnung, dass unterschiedliche passive und aktive Sicherheitssysteme auch unterschiedliche Aktivierungszeiten haben. Das bedeutet, dass dieselbe Situation für einen passives und aktives Sicherheitssystem mit langer Aktivierungszeit vergleichsweise kriti scher ist als für eines mit kurzer. Es gibt also allgemeingültige und speziell auf passive und aktive Sicherheitssysteme zugeschnittene Gefahrenpotentiale.
  • Die in dem elektronischen Steuersystem vorgesehene Arbitrierungseinheit 110 weist vorzugsweise einen Zustandsautomaten auf, der das Verhalten des Fahrers anhand von Größen, die den Gaspedalweg, die Gaspedalgeschwindigkeit und die Umsetzzeit zwischen Gas- und Bremspedal und/oder den Zustand (An/Aus) des Bremslichts und/oder gemessene und/oder berechnete Bremsdrücke der Bremsanlage und/oder der Fahrzeugbeschleunigung und/oder deren Ableitungen wiedergeben in Korrelation zu einem von dem Gefahrenpotentialen abhängigen Ansteuergrößen arbitriert und in Abhängigkeit von dem Ergebnis Bremsdruckvorgaben des Gefahrenrechners freischaltet. In Abhängigkeit von der Entwicklung des Gefahrenpotentials (Wert und/oder Gradient) kann der Stelleingriff, wie der Bremseneingriff, auch autonom, d.h. gegen den Fahrerwunsch, stattfinden. Der autonome Stelleingriff, wie Bremseneingriff, ist dabei bzgl. des Wertes der Stellgröße, wie dem Bremsdruck, begrenzt.
  • In Abhängigkeit von dem Zustand der Arbitriereinheit 100 werden dann Stelleingriffe für die Verzögerungseinrichtungen der aktiven und passiven Sicherheitssysteme des Fahrzeugs zur Verfügung gestellt, die verschiedene Bremsdruckanforderungen beinhalten, die von einer Vorbefüllung der Bremsanlage zur Verringerung der Ansprechzeit bis zur maximalen Bremsdruckeinsteuerung reichen.
  • Hierzu wertet der Zustandsautomat das Verhalten des Fahrers aus und schaltet davon abhängig Bremsdruckvorgaben des Gefahrenrechners frei. Ausgewertet wird im Wesentlichen die Fußbe wegung des Fahrers. Diese lässt Rückschlüsse darüber zu, wie gefährlich der Fahrer die gleiche Situation einschätzt bzw. ob er überhaupt eine kritische Situation erkannt hat. Erst wenn der Fahrer diese kritische Situation bestätigt, wird Fahrer unabhängig Bremsdruck aufgebaut.
  • Abschließend soll noch einmal betont werden, dass es bei der Erfindung um eine Zielbestätigung handelt, da die Daten überprüft, verifiziert und bestätigt werden, um die Sensoren gegenseitig zu ergänzen, wodurch die Datenübertragung zwischen den Sensoren einfach zu realisieren ist und keine hohen systemtechnischen Anforderungen gestellt werden.
  • 1
    Fahrzeug
    10
    Radar
    20
    Kamerasensor
    21
    Kamera
    22
    Fahrspurfindung
    23
    Kamerabild
    30
    Objektauffindung für Sensor I
    31
    Objekttracking für Sensor I
    32
    Situationsanalyse für Sensor I
    40
    Perzeption für visuellen Sensor
    41
    Objekttracking für visuellen Sensor
    42
    Objektbestätigung und Situationsanalyse
    43
    Fahrspurprädiktion
    50
    stastische und dynamische Objekte
    60
    Relevante Obejkte
    70
    Fahrzeuginformation
    80
    Fahrerinformation
    90
    Gefahrenrechner
    100
    Arbitrierung
    110
    Elektronische Bremsen Kontrolleinheit (ECU)
    120
    Sicherheitssysteme
    121
    Gurte
    122
    Schiebedach, Fenster
    123
    Warnung
    124
    Pedalrückwirkung (Force Feedback Pedal FFP)

Claims (6)

  1. System zur multimodalen Bestimmung von Objekten in einem vor und/oder hinter einem Fahrzeug liegenden Blickfeld, wobei mittels eines ersten Sensors (10) eine erste Umfeldererfassung (30) durchgeführt wird, das Sensorausgangssignal einem ersten Sensorsignalanalyseverfahren mit Objektauffindung (31) zugeführt wird, und mittels eines zweiten Sensors (20) eine weitere Umfelderfassung durchgeführt wird, das Sensorausgangssignal des zweiten Sensorausgangssignal (23) einem zweiten Sensorsignanalyseverfahrens mit Objektauffindung (41) zugeführt wird, dadurch gekennzeichnet, dass durch die Sensoren (10, 20) erfassten und durch die Sensorsignalanalyseverfahren (31, 41) ermittelten und bestimmten Objekt an ein Objektbestätigungs- und Situationsanalyse-Modul (42) zur Verifikation zugeführt werden, wobei zur Verifikation weitere Fahrzeuginformationen und die Fahrspurprädiktion (43) berücksichtigt werden, und das Objektbestätigungs- und Situationsanalyse-Modul (42) relevante Objekte (60) bestimmt, wobei durch die relevanten Objekte (60) und die Fahrerinformation (80) bei Erkennung einer Gefahrensituation durch den Gefahrenrechner (90) Maßnahmen zur Erhöhung der passiven Sicherheit (120) eingeleitet werden.
  2. System nach Anspruch 1 dadurch gekennzeichnet, dass der erste Sensor (10) ein Radarsensor und der zweite Sensor ein visueller Sensor ist, wobei die Sensoren unterschiedlichen Bereich des elektromagnetischen Wellespektrums erfassen und das System in einem Fahrerassistenzsystem mit Frontsensorik integriert wird.
  3. System an einem der vorangegangenen Ansprüche oh 1 dadurch gekennzeichnet, das der erste Sensor (10) ein Radarsensor und der zweite Sensor eine Kamera ist.
  4. System nach einem der vorangegangen Ansprüche, dadurch gekennzeichnet, dass eine Minimierung des Datenflusses zwischen den Sensoren durch die Vorauswahl von relevanten Objekten im Radar (10) erfolgt.
  5. System nach einem der vorangegangen Ansprüche, dadurch gekennzeichnet, dass eine Anpassung der Erfassungsbereiche von Videokamera und Radar erfolgt, wobei der vom Radar (10) erfasste Bereich durch die Videokamera (20) ausgewertet wird.
  6. System nach einem der vorangegangen Ansprüche dadurch kennzeichnet, dass eine Bremsstrategie mit mindestens 0,3 g mit einer Erhöhung der Verzögerung kurz vor dem Stillstand erfolgt über die Sicherheitssysteme (120) erfolgt, wodurch ein Gefühl einer Notbremsung für den Fahrer erzeugt wird.
DE102007049516A 2006-10-13 2007-10-15 System zur Bestimmung von Objekten Withdrawn DE102007049516A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102007049516A DE102007049516A1 (de) 2006-10-13 2007-10-15 System zur Bestimmung von Objekten

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102006049102 2006-10-13
DE102006049102.5 2006-10-13
DE102007049516A DE102007049516A1 (de) 2006-10-13 2007-10-15 System zur Bestimmung von Objekten

Publications (1)

Publication Number Publication Date
DE102007049516A1 true DE102007049516A1 (de) 2008-04-24

Family

ID=39198613

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007049516A Withdrawn DE102007049516A1 (de) 2006-10-13 2007-10-15 System zur Bestimmung von Objekten

Country Status (1)

Country Link
DE (1) DE102007049516A1 (de)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010003375A1 (de) * 2010-03-29 2011-09-29 Bayerische Motoren Werke Aktiengesellschaft Umfeldbewertungssystem in einem Fahrzeug mit Sensormitteln zur Erfassung von Objekten im Umfeld des Fahrzeuges
EP2615598A1 (de) 2012-01-11 2013-07-17 Honda Research Institute Europe GmbH Fahrzeug mit Rechnereinrichtung zur Überwachung und Vorhersage von Verkehrsteilnehmerobjekten
EP2431225B1 (de) 2010-09-17 2013-11-27 SMR Patents S.à.r.l. Verfahren zur Erkennung einer Automobilgefahr und Informationssystem
DE102013200028A1 (de) * 2013-01-02 2014-07-03 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur situationsadaptiven Veränderung der Lenksteifigkeit bei einem Kraftfahrzeug
DE102013205361A1 (de) * 2013-03-26 2014-10-02 Continental Teves Ag & Co. Ohg System und Verfahren zur Archivierung von Berührungsereignissen eines Fahrzeugs
DE202013006196U1 (de) * 2013-07-09 2014-10-13 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Fahrerassistenzsystem für ein Kraftfahrzeug und Kraftfahrzeug
DE102013225804A1 (de) 2013-12-12 2015-06-18 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur Unterstützung des Fahrers eines Kraftfahrzeuges in Gefahrensituationen
US9096228B2 (en) 2010-06-23 2015-08-04 Continental Teves Ag & Co. Ohg Method and system for accelerated object recognition and/or accelerated object attribute recognition and use of said method
WO2015125022A3 (en) * 2014-02-20 2015-11-26 Mobileye Vision Technologies Ltd. Advanced driver assistance system based on radar-cued visual imaging
DE102015206918A1 (de) 2014-06-13 2015-12-17 Ford Global Technologies, Llc Verfahren zum Betrieb eines elektromechanischen Fahrzeugbremssystems
US9539992B2 (en) 2014-06-13 2017-01-10 Ford Global Technologies, Llc Method for operating an electromechanical vehicle brake system
US9539994B2 (en) 2014-06-13 2017-01-10 Ford Global Technologies, Llc Method for operating an electromechanical vehicle braking
DE102015217497A1 (de) * 2015-09-14 2017-03-16 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Synchronisieren einer ersten lokalen Umfeldkarte mit einer zweiten lokalen Umfeldkarte in einem Umfeld eines Kraftfahrzeugs
CN107813821A (zh) * 2016-09-12 2018-03-20 北京行易道科技有限公司 预警方法及装置
CN111025332A (zh) * 2018-10-04 2020-04-17 罗伯特·博世有限公司 用于机动车的环境感测***
DE102019207916A1 (de) * 2019-05-29 2020-12-03 Continental Automotive Gmbh Verfahren zum automatisierten Bremsen eines Fahrzeuges
DE102021004068A1 (de) 2021-08-06 2021-11-04 Daimler Ag Verfahren zum Betrieb eines Assistenzsystems zur geschwindigkeitsabhängigen Abstandsregelung eines Fahrzeugs
DE102021211255A1 (de) 2021-10-06 2023-04-06 Zf Friedrichshafen Ag Computerimplementiertes Verfahren, Hardwaremodul und Computerprogramm zum Auswählen wenigstens eines Kamerasensors eines Kamerasystems eines Fahrsys-tems zur Objekterkennung während einer Fahrt des Fahrsystems und automatisiert betreibbares Fahrsystem

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010003375B4 (de) 2010-03-29 2021-07-22 Bayerische Motoren Werke Aktiengesellschaft Umfeldbewertungssystem in einem Fahrzeug mit Sensormitteln zur Erfassung von Objekten im Umfeld des Fahrzeuges
DE102010003375A1 (de) * 2010-03-29 2011-09-29 Bayerische Motoren Werke Aktiengesellschaft Umfeldbewertungssystem in einem Fahrzeug mit Sensormitteln zur Erfassung von Objekten im Umfeld des Fahrzeuges
US9096228B2 (en) 2010-06-23 2015-08-04 Continental Teves Ag & Co. Ohg Method and system for accelerated object recognition and/or accelerated object attribute recognition and use of said method
EP2431225B1 (de) 2010-09-17 2013-11-27 SMR Patents S.à.r.l. Verfahren zur Erkennung einer Automobilgefahr und Informationssystem
EP2615598A1 (de) 2012-01-11 2013-07-17 Honda Research Institute Europe GmbH Fahrzeug mit Rechnereinrichtung zur Überwachung und Vorhersage von Verkehrsteilnehmerobjekten
US9104965B2 (en) 2012-01-11 2015-08-11 Honda Research Institute Europe Gmbh Vehicle with computing means for monitoring and predicting traffic participant objects
DE102013200028A1 (de) * 2013-01-02 2014-07-03 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur situationsadaptiven Veränderung der Lenksteifigkeit bei einem Kraftfahrzeug
DE102013205361A1 (de) * 2013-03-26 2014-10-02 Continental Teves Ag & Co. Ohg System und Verfahren zur Archivierung von Berührungsereignissen eines Fahrzeugs
US9333954B2 (en) 2013-07-09 2016-05-10 GM Global Technology Operations LLC Driver assistance system for a motor vehicle
CN104276172A (zh) * 2013-07-09 2015-01-14 通用汽车环球科技运作有限责任公司 用于汽车的驾驶员辅助***和汽车
DE202013006196U1 (de) * 2013-07-09 2014-10-13 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Fahrerassistenzsystem für ein Kraftfahrzeug und Kraftfahrzeug
DE102013225804A1 (de) 2013-12-12 2015-06-18 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur Unterstützung des Fahrers eines Kraftfahrzeuges in Gefahrensituationen
US10690770B2 (en) 2014-02-20 2020-06-23 Mobileye Vision Technologies Ltd Navigation based on radar-cued visual imaging
US9664789B2 (en) 2014-02-20 2017-05-30 Mobileye Vision Technologies Ltd. Navigation based on radar-cued visual imaging
WO2015125022A3 (en) * 2014-02-20 2015-11-26 Mobileye Vision Technologies Ltd. Advanced driver assistance system based on radar-cued visual imaging
US10274598B2 (en) 2014-02-20 2019-04-30 Mobileye Vision Technologies Ltd. Navigation based on radar-cued visual imaging
DE102015206918A1 (de) 2014-06-13 2015-12-17 Ford Global Technologies, Llc Verfahren zum Betrieb eines elektromechanischen Fahrzeugbremssystems
US9539994B2 (en) 2014-06-13 2017-01-10 Ford Global Technologies, Llc Method for operating an electromechanical vehicle braking
US9592812B2 (en) 2014-06-13 2017-03-14 Ford Global Technologies, Llc Method for operating an electromechanical vehicle brake system
US9539992B2 (en) 2014-06-13 2017-01-10 Ford Global Technologies, Llc Method for operating an electromechanical vehicle brake system
DE102015217497A1 (de) * 2015-09-14 2017-03-16 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Synchronisieren einer ersten lokalen Umfeldkarte mit einer zweiten lokalen Umfeldkarte in einem Umfeld eines Kraftfahrzeugs
CN107813821A (zh) * 2016-09-12 2018-03-20 北京行易道科技有限公司 预警方法及装置
CN107813821B (zh) * 2016-09-12 2024-05-31 北京行易道科技有限公司 预警方法及装置
CN111025332A (zh) * 2018-10-04 2020-04-17 罗伯特·博世有限公司 用于机动车的环境感测***
DE102019207916A1 (de) * 2019-05-29 2020-12-03 Continental Automotive Gmbh Verfahren zum automatisierten Bremsen eines Fahrzeuges
DE102021004068A1 (de) 2021-08-06 2021-11-04 Daimler Ag Verfahren zum Betrieb eines Assistenzsystems zur geschwindigkeitsabhängigen Abstandsregelung eines Fahrzeugs
DE102021211255A1 (de) 2021-10-06 2023-04-06 Zf Friedrichshafen Ag Computerimplementiertes Verfahren, Hardwaremodul und Computerprogramm zum Auswählen wenigstens eines Kamerasensors eines Kamerasystems eines Fahrsys-tems zur Objekterkennung während einer Fahrt des Fahrsystems und automatisiert betreibbares Fahrsystem

Similar Documents

Publication Publication Date Title
EP2095351B1 (de) System zur bestimmung von objekten
DE102007049516A1 (de) System zur Bestimmung von Objekten
EP2242674B1 (de) Verfahren und assistenzsystem zum erfassen von objekten im umfeld eines fahrzeugs
EP1554604B2 (de) Verfahren und einrichtung zur verhinderung der kollision von fahrzeugen
EP1486933B1 (de) Fahrerassistenzsystem
DE102009017152B4 (de) Verfahren und Vorrichtung zur Längs- und Querführung eines Kraftfahrzeugs
EP2183140B1 (de) Verfahren und vorrichtung zum unterstützen von ausparkvorgängen von kraftfahrzeugen
EP2066544B1 (de) Verfahren zum erkennen einer fahrtrichtung in einem kraftfahrzeug
EP3281830A1 (de) Steuerungssystem und steuerungsverfahren zum bestimmen einer trajektorie und zum erzeugen von zugehörigen signalen oder steuerbefehlen
EP3153376B1 (de) Verfahren und vorrichtung zur ermittlung der adaptiven reaktionszeit des fahrers eines kraftfahrzeugs
EP1609689B1 (de) Bremsassistent für Kraftfahrzeuge
DE102016226040A1 (de) Verfahren und Vorrichtung in einem Kraftfahrzeug zum Fußgängerschutz
DE102010063006A1 (de) Komfortmerkmal in einem Fahrerassistenzsystem mit Frontkamera
DE102020112686A1 (de) Adaptives autonomes Notbremssystem unter Berücksichtigung des Lenkwegs und Steuerverfahren für selbiges
DE102005023832A1 (de) Verfahren und System zur Vermeidung einer Kollision eines Kraftfahrzeugs mit einem Objekt
WO2014041023A1 (de) Verfahren und vorrichtungen zur kollisionswarnung bei fahrstreifenwechseln
WO2007051835A1 (de) Verfahren zum unterstützen eines fahrers beim fahren mit einem fahrzeug
WO2008071473A1 (de) Verfahren und vorrichtung zum erfassen eines hindernisses in einem umgebungsbereich eines kraftfahrzeugs und kraftfahrzeug
DE102011087781A1 (de) Verfahren und System zur Verminderung von Unfallschäden bei einer Kollision zwischen zwei Fahrzeugen
WO2016180665A1 (de) Verfahren zum steuern einer funktionseinrichtung eines kraftfahrzeugs anhand von fusionierten sensordaten, steuereinrichtung, fahrerassistenzsystem sowie kraftfahrzeug
EP1652161B1 (de) Vorrichtung zur klassifizierung wenigstens eines objekts in einem fahrzeugumfeld
DE102020129538A1 (de) Fahrassistenzvorrichtung
DE102016007630A1 (de) Verfahren zum Ermitteln einer Notbremssituation eines Fahrzeuges sowie Vorrichtung zur Durchführung des Verfahrens
EP2054280B1 (de) Ansteuerung von sicherheitsmitteln eines kraftfahrzeugs
DE102017103700A1 (de) Vermeiden einer Kollision durch einen Lenkeingriff in Abhängigkeit von einer Bewegung eines fahrzeugexternen Objekts

Legal Events

Date Code Title Description
ON Later submitted papers
OR8 Request for search as to paragraph 43 lit. 1 sentence 1 patent law
8105 Search report available
R012 Request for examination validly filed
R012 Request for examination validly filed

Effective date: 20140910

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee