DE102013004271A1 - Verfahren und Vorrichtung zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs - Google Patents
Verfahren und Vorrichtung zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs Download PDFInfo
- Publication number
- DE102013004271A1 DE102013004271A1 DE201310004271 DE102013004271A DE102013004271A1 DE 102013004271 A1 DE102013004271 A1 DE 102013004271A1 DE 201310004271 DE201310004271 DE 201310004271 DE 102013004271 A DE102013004271 A DE 102013004271A DE 102013004271 A1 DE102013004271 A1 DE 102013004271A1
- Authority
- DE
- Germany
- Prior art keywords
- vehicle
- driver
- environment information
- unit
- autonomous
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000003287 optical effect Effects 0.000 title claims abstract description 35
- 238000000034 method Methods 0.000 title claims abstract description 12
- 230000001419 dependent effect Effects 0.000 claims abstract description 5
- 238000001514 detection method Methods 0.000 claims description 68
- 230000007613 environmental effect Effects 0.000 claims description 14
- 238000011156 evaluation Methods 0.000 claims description 13
- 230000004888 barrier function Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 4
- 150000003839 salts Chemical class 0.000 description 4
- 230000003213 activating effect Effects 0.000 description 3
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 241000122469 Hypericum hypericoides Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/09623—Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0965—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages responding to signals from another vehicle, e.g. emergency vehicle
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/167—Driving aids for lane monitoring, lane changing, e.g. blind spot detection
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0062—Adapting control system settings
- B60W2050/0075—Automatic parameter input, automatic initialising or calibrating means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/54—Audio sensitive means, e.g. ultrasound
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs (2), wobei optische und akustische Umgebungsinformationen erfasst und klassifiziert werden. Erfindungsgemäß wird in Abhängigkeit von Klassifikationsergebnissen (K1 bis Kn) zumindest ein Fahrzeugparameter variabel eingestellt, wobei der Fahrzeugparameter eine autonome oder teilautonome Fahrzeuglängssteuerung und/oder eine autonome oder teilautonome Fahrzeugquersteuerung und/oder situationsabhängig an den Fahrer ausgegebene Fahrhinweise betrifft. Die Erfindung betrifft weiterhin eine Vorrichtung (1) zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs (2) mit zumindest einer optischen Erfassungseinheit (3.1) zur Erfassung optischer Umgebungsinformationen, zumindest einer akustischen Erfassungseinheit (3.2) zur Erfassung akustischer Umgebungsinformationen und zumindest einer Auswerteeinheit (4) zur Klassifikation der optischen und akustischen Umgebungsinformationen. Erfindungsgemäß ist die Auswerteeinheit (4) mit zumindest einer Fahrerassistenzvorrichtung (5) gekoppelt, mittels welcher in Abhängigkeit von Klassifikationsergebnissen (K1 bis Kn) zumindest ein Fahrzeugparameter, welcher eine autonome oder teilautonome Fahrzeuglängssteuerung und/oder eine autonome oder teilautonome Fahrzeugquersteuerung und/oder situationsabhängig an den Fahrer ausgegebene Fahrhinweise betrifft, variabel einstellbar ist.
Description
- Die Erfindung betrifft ein Verfahren zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs, wobei optische und akustische Umgebungsinformationen erfasst und klassifiziert werden.
- Die Erfindung betrifft weiterhin eine Vorrichtung zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs mit zumindest einer optischen Erfassungseinheit zur Erfassung optischer Umgebungsinformationen, zumindest einer akustischen Erfassungseinheit zur Erfassung akustischer Umgebungsinformationen und zumindest einer Auswerteeinheit zur Klassifikation der optischen und akustischen Umgebungsinformationen.
- Aus der
DE 10 2010 022 165 A1 sind ein Verfahren und eine Vorrichtung zur Erfassung eines von einem Einsatzfahrzeug ausgehenden akustischen Sondersignals für ein Fahrzeug bekannt, wobei ein Fahrzeugumfeld optisch und akustisch erfasst wird. Ein erfasstes akustisches und optisches Signal wird klassifiziert und mit den hinterlegten Mustern akustischer Sondersignale von Einsatzfahrzeugen und hinterlegten Farbspektren verglichen, und in Abhängigkeit des erkannten Sondersignals wird ein Warnsignal an den Fahrzeugführer ausgegeben. Die Vorrichtung umfasst eine akustische Erfassungseinheit und optische Erfassungseinheit zur akustischen bzw. optischen Erfassung eines Fahrzeugumfeldes, wobei die Erfassungseinheiten mit einer Auswerteeinheit gekoppelt sind. Mittels der Auswerteeinheit sind die optischen Signale klassifizierbar. In Abhängigkeit des erkannten Sondersignals ist mittels einer Ausgabeeinheit ein Warnsignal an den Fahrzeugführer ausgebbar. - Der Erfindung liegt die Aufgabe zugrunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs und eine verbesserte Vorrichtung zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs anzugeben.
- Hinsichtlich des Verfahrens wird die Aufgabe erfindungsgemäß durch die im Anspruch 1 angegebenen Merkmale und hinsichtlich der Vorrichtung durch die im Anspruch 5 angegebenen Merkmale gelöst.
- Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
- In dem Verfahren zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs werden optische und akustische Umgebungsinformationen erfasst und klassifiziert.
- Erfindungsgemäß wird in Abhängigkeit von Klassifikationsergebnissen zumindest ein Fahrzeugparameter variabel eingestellt, wobei der Fahrzeugparameter eine autonome oder teilautonome Fahrzeuglängssteuerung und/oder eine autonome oder teilautonome Fahrzeugquersteuerung und/oder situationsabhängig an den Fahrer ausgegebene Fahrhinweise betrifft.
- Das erfindungsgemäße Verfahren ermöglicht in besonders vorteilhafter Weise durch Kombination der Klassifikation optischer und akustischer Umgebungsinformationen sowie der Einstellung des zumindest einen Fahrzeugparameters in Abhängigkeit der Klassifikationsergebnisse einen zuverlässigen Betrieb von Fahrerassistenzvorrichtungen zur Unterstützung des Fahrers beim Führen des Fahrzeugs durch autonome oder teilautonome Fahrzeuglängssteuerung und Fahrzeugquersteuerung und durch Ausgabe von situationsabhängigen Fahrhinweise an den Fahrer.
- Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.
- Dabei zeigen:
-
1 schematisch ein Blockschaltbild einer erfindungsgemäßen Vorrichtung und -
2 schematisch eine Verkehrssituation mit zwei Fahrzeugen. - Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
- In
1 ist ein mögliches Ausführungsbeispiel einer erfindungsgemäßen Vorrichtung1 zur Unterstützung eines Fahrers beim Führen eines in2 näher dargestellten Fahrzeugs2 dargestellt. - Im Straßenverkehr existieren verschiedene Verkehrsituationen V, in welchen durch gesetzliche Vorschriften, wie beispielsweise in Deutschland die Straßenverkehrsordnung (kurz: StVO), geregelt ist, in welcher ein Fahrzeug zu führen ist. Eine solche beispielhafte Verkehrssituation V ist in
2 näher dargestellt. - Diese Vorschriften sind auch bei einer so genannten teilautonomen oder autonomen Steuerung des Fahrzeugs
2 einzuhalten. - Hierzu ist es erforderlich, dass mittels der Vorrichtung
1 sensorische Fähigkeiten des Fahrers nachgebildet werden. Zu diesem Zweck umfasst die Vorrichtung1 eine Sensorik3 mit mehreren Erfassungseinheiten3.1 bis3.3 . - Diese Erfassungseinheiten
3.1 bis3.3 umfassen zumindest eine optische Erfassungseinheit3.1 zur Erfassung optischer Umgebungsinformationen. Die optische Erfassungseinheit3.1 ist beispielsweise als Mono-Kamera, Stereokamera, Lidarsensor, Radarsensor, Ultraschallsensor oder anderer optischer Sensor ausgebildet. Erfassungsbereiche der optischen Erfassungseinheit3.1 sind in Längsausdehnung des Fahrzeugs2 vor, hinter und/oder seitlich neben diesem ausgebildet. - Weiterhin umfassen die Erfassungseinheiten
3.1 bis3.3 zumindest eine akustische Erfassungseinheit3.2 zur Erfassung akustischer Umgebungsinformationen, wobei die akustische Erfassungseinheit3.2 insbesondere als ein an einer Außenseite des Fahrzeugs2 angeordnetes Mikrofon ausgebildet ist. - Ferner umfassen die Erfassungseinheiten
3.1 bis3.3 zumindest eine Erfassungseinheit3.3 , welche in nicht näher dargestellter Weise Bestandteil einer sattelitengestützten Navigationsvorrichtung des Fahrzeugs2 ist und zum Empfang von weiteren Umgebungsinformationen in Form von Positionsdaten vorgesehen ist. Bei der Erfassungseinheit3.3 handelt es sich beispielsweise um einen so genannten GPS-Empfänger. - Zur Auswertung und Klassifikation der erfassten Umgebungsinformationen sind zumindest die optische Erfassungseinheit
3.1 und die akustische Erfassungseinheit3.2 mit einer Auswerteeinheit4 gekoppelt. Die Auswerteeinheit4 umfasst im dargestellten Ausführungsbeispiel acht Funktionseinheiten4.1 bis4.8 zur Erkennung verschiedener Objekte und Situationen aus den erfassten Umgebungsinformationen. - Eine erste Funktionseinheit
4.1 ist dabei zur Fußgängererkennung, eine zweite Funktionseinheit4.2 zur Straßenerkennung, eine dritte Funktionseinheit4.3 zur Fahrzeugerkennung, eine vierte Funktionseinheit4.4 zur Verkehrszeichenerkennung, eine fünfte Funktionseinheit4.5 zur Ampelerkennung und eine sechste Funktionseinheit4.6 zur Lichtsignalerkennung vorgesehen. Diesen Funktionseinheiten4.1 bis4.6 werden die mittels der optischen Erfassungseinheit3.1 erfassten optischen Umgebungsinformationen zugeführt und diese werden klassifiziert. Das heißt, aus den optischen Umgebungsinformationen werden in der Umgebung des Fahrzeugs2 befindliche Objekte detektiert und hinsichtlich ihrer Art klassifiziert. - Weiterhin ist eine siebte Funktionseinheit
4.7 als Warnsirenenerkennung und eine achte Funktionseinheit4.8 als Pfeiftonerkennung ausgebildet, wobei diesen Funktionseinheiten4.7 ,4.8 die mittels der akustischen Erfassungseinheit3.2 erfassten akustischen Umgebungsinformationen zugeführt werden. Auch die akustischen Umgebungsinformationen werden mittels der Funktionseinheiten4.7 ,4.8 hinsichtlich ihrer Art klassifiziert. - Zur Ermittlung und Klassifikation einer aktuellen Verkehrssituation V anhand der klassifizierten optischen und akustischen Umgebungsinformationen werden diese in der dargestellten Weise innerhalb der Auswerteeinheit
4 verschiedenen Klassifikationseinheiten4.9 bis4.13 zugeführt, welche anhand einer oder mehrerer klassifizierter Umgebungsinformationen eine jeweilige Verkehrssituation V klassifiziert, d. h. erkennt. Mittels der Funktionseinheiten4.1 bis4.8 ermittelte Klassifizierungsergebnisse K1 bis Kn werden einer Fahrerassistenzvorrichtung5 zugeführt, welche eine autonome oder teilautonome Fahrzeuglängssteuerung und Fahrzeugquersteuerung durchführt. Alternativ oder zusätzlich werden mittels der Fahrerassistenzvorrichtung5 situationsabhängig in Abhängigkeit der ermittelten Klassifizierungsergebnisse K1 bis Kn an den Fahrer des Fahrzeugs2 Fahrhinweise optisch, haptisch und/oder akustisch ausgegeben. - Eine erste Klassifikationseinheit
4.9 ist dabei im dargestellten Ausführungsbeispiel als Personendetektor ausgebildet. Dieser umfasst eine Einheit4.9.1 zur Bewegungsanalyse und eine weitere Einheit4.9.2 zur Detektion von mobilen Verkehrsleitgeräten, welche die Personen mit sich führen. Hierzu werden der ersten Klassifikationseinheit4.9 die mittels der ersten, als Fußgängererkennung ausgebildeten Funktionseinheit4.1 klassifizierten Umgebungsinformationen zugeführt. Mittels der optischen Erfassungseinheit3.1 , beispielsweise einer Stereokamera, werden die Umgebungsinformationen optisch erfasst, wobei mittels der Fußgängererkennung in der Umgebung vorhandene und als Personen ausgebildete Objekte klassifiziert werden. Klassifiziert die Fußgängererkennung eine Person beispielsweise als Polizeibeamten, wird der detektierte Polizeibeamte getrackt und dessen Armbewegungen werden entsprechend der gesetzlichen Vorschriften, beispielsweise der StVO, interpretiert und die Fahrerassistenzvorrichtung5 steuert das Fahrzeug2 in der Art, dass die Vorschriften befolgt werden. Wenn sich ein Fahrer im Fahrzeug befindet, kann an diesen die Fahrverantwortung zumindest teilweise übergeben werden. Ist dies nicht Fall, erfolgt die Steuerung des Fahrzeugs2 autonom. - Die erste Klassifikationseinheit
4.9 ist zu diesem Zweck derart ausgebildet, dass mittels der Einheit4.9.1 zur Bewegungsanalyse und der weiteren Einheit4.9.2 zur Detektion von mobilen Verkehrsleitgeräten Polizeibeamte und deren Bewegungen und mobile Verkehrsleitgeräte, wie beispielsweise eine Winkelkelle, ein Verkehrsstab oder Leuchtsignale, als entsprechende Regelungshinweise erkannt werden, so dass mittels der Fahrerassistenzvorrichtung5 eine korrekte Steuerung des Fahrzeugs2 erfolgen kann. Analog zu einem Polizeibeamten sind auch weitere Personengruppen und deren Verkehrsleitgeräte, wie beispielsweise Bahnbedienstete und deren Verkehrsleitgeräte, mittels der ersten Klassifikationseinheit4.9 detektierbar und klassifizierbar. - Eine zweite Klassifikationseinheit
4.10 ist als Bahnübergangsdetektor ausgebildet. Dieser umfasst eine Einheit4.10.1 zur Detektion von auf einen Bahnübergang hinweisenden Verkehrszeichen, wie beispielsweise Andreaskreuze und Lichtzeichen, sowie eine weitere Einheit4.10.2 zur Detektion von Schienenfahrzeugen. Hierzu werden der zweiten Klassifikationseinheit4.10 die mittels der ersten, als Fußgängererkennung ausgebildeten Funktionseinheit4.1 , der vierten, als Verkehrszeichenerkennung ausgebildeten Funktionseinheit4.4 , der fünften, als Ampelerkennung ausgebildeten Funktionseinheit4.5 und der sechsten, als Lichtsignalerkennung ausgebildeten Funktionseinheit4.6 klassifizierten optischen Umgebungsinformationen zugeführt. Auch werden der zweiten Klassifikationseinheit4.10 die mittels der achten, als Pfeiftonerkennung ausgebildeten Funktionseinheit4.8 klassifizierten akustischen Umgebungsinformationen zugeführt. - Mittels der optischen Erfassungseinheit
3.1 , beispielsweise einer Stereokamera, werden die Umgebungsinformationen optisch erfasst, wobei mittels der Verkehrszeichenerkennung geschlossene oder geöffnete Schranken oder Schlagbäume sowie die auf den Bahnübergang hinweisende Verkehrszeichen erkannt werden. Die Verkehrszeichenerkennung ist insbesondere dahingehend erweitert, dass sie eine Pfeilform an auf den Bahnübergang hinweisenden Verkehrszeichen erkennt und daraus eine erlaubte Fahrtrichtung ableitet. Hat ein am Bahnübergang befindliches rotes Blinklicht oder ein rotes Lichtzeichen die Form eines Pfeils, muss nur derjenige warten, wer in der Richtung des Pfeils fahren will. Weiterhin werden anhand der Ampelerkennung und Lichtzeichenerkennung insbesondere grüne, gelbe und rote Lichtzeichen und mittels der Pfeiftonerkennung von dem Schienenfahrzeug abgegebene Warnsignale sowie beim Schließen der Schranken bzw. Schlagbäume abgegebene Glockensignale erkannt. Die zweite Klassifikationseinheit4.10 wertet alle die ihr zugeführten klassifizierten optischen und akustischen Umgebungsdaten aus und ermittelt daraus die aktuelle Verkehrssituation. In Abhängigkeit der diese Verkehrssituation V beschreibenden Klassifikationsergebnisse K1 bis Kn steuert die Fahrerassistenzvorrichtung5 das Fahrzeug2 . Insbesondere wird eine Fahrzeuggeschwindigkeit nach der Detektion eines Bahnübergangs stark reduziert. - Eine dritte Klassifikationseinheit
4.11 ist als Gefahrdetektor ausgebildet. Dieser umfasst eine Einheit4.11.1 zur Detektion von Warnlichtzeichen, beispielsweise Blau- und Gelblicht, sowie eine weitere Einheit4.11.2 zur Detektion von Inkonsistenzen. Hierzu werden der dritten Klassifikationseinheit4.11 die mittels der ersten, als Fußgängererkennung ausgebildeten Funktionseinheit4.1 , der zweiten, als Straßenerkennung ausgebildeten Funktionseinheit4.2 , der dritten, als Fahrzeugerkennung ausgebildeten Funktionseinheit4.3 und der sechsten, als Lichtsignalerkennung ausgebildeten Funktionseinheit4.6 klassifizierten optischen Umgebungsinformationen zugeführt. - Wird beispielsweise ein gelbes Blinklicht detektiert, wird mittels der dritten Klassifikationseinheit
4.11 auf eine in der Umgebung befindliche Gefahr geschlossen und anhand der weiteren Umgebungsinformationen werden die Klassifikationsergebnisse K1 bis Kn ermittelt. Bei Vorhandensein eines Fahrers, kann die Fahrverantwortung an diesen übergeben werden, ansonsten wird das Fahrzeug2 autonom mittels der Fahrerassistenzvorrichtung5 entsprechend defensiv und sicher in Abhängigkeit der jeweiligen Situation, beispielsweise durch Verringerung einer Fahrzeuggeschwindigkeit, Aktivieren einer fahrzeugeigenen Warnblinklichtfunktion oder durch Stoppen des Fahrzeugs2 , geführt. - Auch bei der Detektion von Blaulicht wird mittels der dritten Klassifikationseinheit
4.11 auf eine in der Umgebung befindliche Gefahr geschlossen und anhand der weiteren Umgebungsinformationen werden die Klassifikationsergebnisse K1 bis Kn ermittelt. Häufig sind schon Rettungsfahrzeuge an einem Unfallort. Deshalb ist auch Blaulicht ein Indiz für Gefahr. Bei anderen Farbgebungen von Warnleuchten, beispielsweise Rotlicht, ist die dritte Klassifikationseinheit4.11 entsprechend durch abweichende Parametrierungen gekennzeichnet. Analog zur Steuerung des Fahrzeugs2 bei Gelblicht kann bei Vorhandensein eines Fahrers die Fahrverantwortung an diesen übergeben werden. Ansonsten wird das Fahrzeug2 autonom mittels der Fahrerassistenzvorrichtung entsprechend defensiv und sicher in Abhängigkeit der jeweiligen Situation, beispielsweise durch Verringerung einer Fahrzeuggeschwindigkeit, Aktivieren einer fahrzeugeigenen Warnblinklichtfunktion oder durch Stoppen des Fahrzeugs2 , geführt. - Wird mittels der Einheit
4.11.2 zur Detektion von Inkonsistenzen eine Inkonsistenz bezüglich einer aktuellen Verkehrssituation V oder eines Fahrszenarios ermittelt, ist dies ebenfalls ein Indiz für eine Gefahr. Wird beispielsweise innerhalb einer Verkehrssituation V ein Objekt erfasst, aus welchem eine Gefahr resultiert, wie z. B. ein Fußgänger auf einer Autobahn, wird mittels der Fahrerassistenzvorrichtung5 die teilautonome oder autonome Steuerung des Fahrzeugs2 derart durchgeführt, dass die Gefahr minimiert wird. Insbesondere erfolgt die Ausgabe einer Warnung an den Fahrer des Fahrzeugs2 , die Warnung anderer Verkehrsteilnehmer durch Aktivierung der fahrzeugeigenen Warnblinklichtfunktion sowie eine defensive Steuerung des Fahrzeugs2 , insbesondere durch Ausweichmanöver, Verringerung der Fahrzeuggeschwindigkeit oder durch Stoppen des Fahrzeugs2 . Weiterhin kann auch bei Erfassung von Inkonsistenzen zwischen den optischen und akustischen Umgebungsinformationen, insbesondere bei von dem Klassifikationsergebnis der optischen Umgebungsinformationen abweichendem Klassifikationsergebnis der akustischen Umgebungsinformation, eine Warnung an den Fahrer ausgegeben werden. - Eine vierte Klassifikationseinheit
4.12 ist dazu ausgebildet, Verkehrssituationen V zu erkennen und zu klassifizieren, in welchen es erforderlich ist, eine so genannte Rettungsgasse zwischen mehreren Fahrspuren zu bilden, um Einsatzfahrzeugen eine Durchfahrt zwischen wartenden Fahrzeugen zu ermöglichen. Die vierte Klassifikationseinheit4.12 umfasst eine Einheit4.12.1 zur Detektion von Warnlichtzeichen, beispielsweise Blau- und Gelblicht, sowie eine weitere Einheit4.12.2 zur Detektion von Einsatzfahrzeugen, beispielsweise Rettungsfahrzeugen. Die Einheit4.12.1 zur Detektion von Warnlichtzeichen ist dabei entsprechend der Einheit4.11.1 zur Detektion von Warnlichtzeichen des Gefahrdetektors ausgebildet. Das heißt, die Erfassung und Verarbeitung von Gelblicht, Blaulicht und anderen Warnlichtern erfolgt entsprechend. Der vierten Klassifikationseinheit4.12 werden die mittels der ersten, als Fußgängererkennung ausgebildeten Funktionseinheit4.1 , der zweiten, als Straßenerkennung ausgebildeten Funktionseinheit4.2 , der dritten, als Fahrzeugerkennung ausgebildeten Funktionseinheit4.3 und der sechsten, als Lichtsignalerkennung ausgebildeten Funktionseinheit4.6 klassifizierten optischen Umgebungsinformationen zugeführt. Auch werden der vierten Klassifikationseinheit4.12 die mittels der siebten, als Warnsirenenerkennung ausgebildeten Funktionseinheit4.7 klassifizierten akustischen Umgebungsinformationen zugeführt. - Bei einer Fahrt des Fahrzeugs
2 mit geringer Geschwindigkeit, beispielsweise auf einer Autobahn, wird das Fahrzeug2 mittels der Fahrerassistenzvorrichtung5 derart automatisch längs- und quergesteuert, dass eine Gasse für Einsatzfahrzeuge gebildet wird. - Bei stehendem Fahrzeug
2 und der Erfassung eines von hinten herannahenden Einsatzfahrzeugs mit Warnbeleuchtung, beispielsweise Gelblicht oder Blaulicht, wird das Fahrzeug2 mittels der Fahrerassistenzvorrichtung5 derart längs- und quergesteuert, dass dieses ausweicht, beispielsweise auf einen neben der Fahrbahn befindlichen Standstreifen. Weiterhin erfolgt die automatische Längs- und Quersteuerung in der Art, dass das Fahrzeug2 in der ausgewichenen Position wartet, bis das entsprechende Einsatzfahrzeug das Fahrzeug2 passiert hat. Innerhalb geschlossener Ortschaften erfolgt das Ausweichen beispielsweise auf einen Gehweg, wenn dies erforderlich ist, um die Rettungsgasse zu bilden. Hierfür werden mittels der Fußgängererkennung Fußgänger, Radfahrer, Rollstuhlfahrer, Kinderwägen und andere Verkehrsteilnehmer auf dem Gehweg erkannt und berücksichtigt, um Gefährdungen dieser zu vermeiden. Außerhalb geschlossener Ortschaften, wo kein Gehweg oder Standstreifen vorhanden ist, wird das Fahrzeug2 derart gesteuert, dass ein sicheres Ausweichen möglich ist. Hierzu werden neben der Fahrbahn befindliche Gräben, Fahrbahnbegrenzungen, wie z. B. Leitpfosten, Baken, Leitplanken u. ä. mittels der Straßenerkennung erkannt und klassifiziert, so dass ein für das Fahrzeug2 selbst und andere Verkehrsteilnehmer sicheres Ausweichen möglich ist und das Fahrzeugs2 nach der der Gassenbildung ohne Beschädigungen weiterfahren kann. - Eine fünfte Klassifikationseinheit
4.13 ist zur Detektion blockierter Straßenkreuzungen vorgesehen. Die fünfte Klassifikationseinheit4.13 umfasst eine Einheit4.13.1 zur Detektion von vorausfahrenden Verkehrsteilnehmern sowie eine weitere Einheit4.13.2 zur Detektion von Straßenkreuzungen. Hierzu werden der fünften Klassifikationseinheit4.13 die mittels der dritten, als Fahrzeugerkennung ausgebildeten Funktionseinheit4.3 klassifizierten optischen Umgebungsinformationen und die mittels der dritten Erfassungseinheit3.3 erfassten und Positionsdaten umfassenden Umgebungsinformationen zugeführt. - Mittels der Fahrzeugerkennung werden dabei vor dem Fahrzeug
2 befindliche Verkehrsteilnehmer erkannt. Wird mittels der Einheiten4.13.1 ,4.13.2 festgestellt, dass an einer Straßenkreuzung der Vorausfahrende nicht weiterfährt, wird ein Sollabstand mittels der Fahrerassistenzvorrichtung5 derart eingestellt, dass das teilautonom oder autonom geführte Fahrzeug2 nicht in die Straßenkreuzung einfährt. - In nicht näher dargestellter Weise umfasst die Auswerteeinheit
4 eine sechste Klassifikationseinheit, welche zur Klassifikation von Verkehrssituationen V vorgesehen ist, in welchen ein Überfahren einer roten Ampel erforderlich ist. - Hierzu werden mittels der Erfassungseinheiten
3.1 bis3.3 die Umgebungsinformationen erfasst und mittels einer oder mehrerer der Funktionseinheiten4.1 bis4.8 derart ausgewertet und klassifiziert, dass mittels der Ampelerkennung festgestellt werden kann, ob sich das Fahrzeug2 an einer roten Ampel befindet. Nähert sich ein Einsatzfahrzeug, beispielsweise ein Rettungsfahrzeug, dem Fahrzeug2 von hinten, wird das Fahrzeug2 mittels der Fahrerassistenzvorrichtung5 derart gesteuert, dass dieses die rote Ampel überfährt, um eine freie Fahrgasse für das Einsatzfahrzeug zu schaffen. Hierzu wird die Fahrgasse für das Passieren der Einsatzfahrzeuge aus dem Rückraum vermessen. Steht das Fahrzeug2 vor einer roten Ampel und ist eine Breite der Fahrgasse zu gering, wird mit geringer Geschwindigkeit bei roter Ampel gefahren, bis die Fahrgasse eine ausreichende Breite aufweist. - Weiterhin werden mittels der Fußgängererkennung und Fahrzeugerkennung im Bereich der Straßenkreuzung befindliche Personen und andere Verkehrsteilnehmer erfasst, um mittels der Fahrerassistenzvorrichtung
5 mögliche Kollisionen zu vermeiden und gegebenenfalls eine Bremsung bis zum Stillstand einzuleiten. Die Eigengeschwindigkeit des Fahrzeugs2 wird dabei so gewählt, dass ein so genanntes Durchdrücken im Verkehr möglich ist. Unter dem Durchdrücken wird dabei verstanden, dass so dicht auf den Vordermann aufgefahren wird, bis dieser weiterfährt. -
2 zeigt eine Verkehrssituation V mit dem Fahrzeug2 und einem weiteren, dem Fahrzeug2 vorausfahrenden Fahrzeug6 . Bei dem weiteren Fahrzeug6 handelt es sich um ein Räum- und Streufahrzeug zum Beräumen verschneiter Fahrbahnen und zum Aufbringen von Streusalz auf eine Fahrbahnoberfläche. - Da das ausgeworfene Streusalz zu Beschädigungen am nachfolgenden Fahrzeug
2 führen kann, ist es erforderlich dass ein ausreichender Abstand zwischen den Fahrzeugen2 ,6 eingestellt wird. - Hierzu wird mittels der der dritten, als Fahrzeugerkennung ausgebildeten Funktionseinheit
4.3 erkannt, dass das als Räum- und Streufahrzeug ausgebildete Fahrzeug6 dem Fahrzeug2 vorausfährt. Zur Einstellung des ausreichenden Abstands sind die optische Erfassungseinheit3.1 , beispielsweise eine Stereokamera, und die Auswerteeinheit4 derart ausgebildet, dass eine durch den Auswurf des Streusalzes erzeugte Streusalzwolke SW nicht zur Erkennung von so genannten Phantomobjekten führt. - Bei der Erfassung eines als Räum- und Streufahrzeug ausgebildeten Fahrzeugs
6 wird das Fahrzeug2 mittels der Fahrerassistenzvorrichtung5 derart gesteuert, dass ein Überholen eines vorausfahrenden Räum- und Streufahrzeugs vermieden wird. Bei auf einer Gegenfahrspur entgegenkommenden Räum- und Streufahrzeugen wird die Eigengeschwindigkeit des Fahrzeugs2 angepasst, insbesondere reduziert. - Weiterhin sind die optische Erfassungseinheit
3.1 und die Auswerteeinheit4 derart ausgebildet, dass ein durch auf einer Gegenfahrspur entgegenkommendes Räumfahrzeug auf die eigene Fahrspur beförderter ”Schneewall” oder ”Schneenebel” nicht als Objekt erkannt wird, so dass eine allein aufgrund des ”Schnellwalls” oder ”Schneenebels” durchgeführte Notbremsung verhindert wird. Das gleiche gilt auch für die Streusalzwolke SW. - Bezugszeichenliste
-
- 1
- Vorrichtung
- 2
- Fahrzeug
- 3
- Sensorik
- 3.1 bis 3.3
- Erfassungseinheit
- 4
- Auswerteeinheit
- 4.1 bis 4.8
- Funktionseinheit
- 4.9
- Klassifikationseinheit
- 4.9.1
- Einheit
- 4.9.2
- Einheit
- 4.10
- Klassifikationseinheit
- 4.10.1
- Einheit
- 4.10.2
- Einheit
- 4.11
- Klassifikationseinheit
- 4.11.1
- Einheit
- 4.11.2
- Einheit
- 4.12
- Klassifikationseinheit
- 4.12.1
- Einheit
- 4.12.2
- Einheit
- 4.13
- Klassifikationseinheit
- 4.13.1
- Einheit
- 4.13.2
- Einheit
- 5
- Fahrerassistenzvorrichtung
- 6
- Fahrzeug
- K1 bis Kn
- Klassifikationsergebnis
- SW
- Salzwolke
- V
- Verkehrssituation
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- DE 102010022165 A1 [0003]
Claims (5)
- Verfahren zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs (
2 ), wobei optische und akustische Umgebungsinformationen erfasst und klassifiziert werden, dadurch gekennzeichnet, dass in Abhängigkeit von Klassifikationsergebnissen (K1 bis Kn) zumindest ein Fahrzeugparameter variabel eingestellt wird, wobei der Fahrzeugparameter eine autonome oder teilautonome Fahrzeuglängssteuerung und/oder eine autonome oder teilautonome Fahrzeugquersteuerung und/oder situationsabhängig an den Fahrer ausgegebene Fahrhinweise betrifft. - Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass bei vom Klassifikationsergebnis (K1 bis Kn) der optischen Umgebungsinformationen abweichendem Klassifikationsergebnis (K1 bis Kn) der akustischen Umgebungsinformation Warnung an den Fahrer ausgegeben wird.
- Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass in Abhängigkeit der Klassifikationsergebnisse (K1 bis Kn) zusätzlich zumindest ein, eine Fahrzeugbeleuchtung und/oder eine Fahrerwarneinrichtung betreffender Fahrzeugparameter variabel eingestellt wird.
- Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass weitere Umgebungsinformationen mittels einer sattelitengestützten Navigationsvorrichtung erfasst und klassifiziert werden, wobei die weiteren Umgebungsinformationen betreffende Klassifikationsergebnisse (K1 bis Kn) zusätzlich zur variablen Einstellung des zumindest einen Fahrzeugparameters verwendet werden.
- Vorrichtung (
1 ) zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs (2 ) mit zumindest einer optischen Erfassungseinheit (3.1 ) zur Erfassung optischer Umgebungsinformationen, zumindest einer akustischen Erfassungseinheit (3.2 ) zur Erfassung akustischer Umgebungsinformationen und zumindest einer Auswerteeinheit (4 ) zur Klassifikation der optischen und akustischen Umgebungsinformationen, dadurch gekennzeichnet, dass die Auswerteeinheit (4 ) mit zumindest einer Fahrerassistenzvorrichtung (5 ) gekoppelt ist, mittels welcher in Abhängigkeit von Klassifikationsergebnissen (K1 bis Kn) zumindest ein Fahrzeugparameter, welcher eine autonome oder teilautonome Fahrzeuglängssteuerung und/oder eine autonome oder teilautonome Fahrzeugquersteuerung und/oder situationsabhängig an den Fahrer ausgegebene Fahrhinweise betrifft, variabel einstellbar ist.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE201310004271 DE102013004271A1 (de) | 2013-03-13 | 2013-03-13 | Verfahren und Vorrichtung zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE201310004271 DE102013004271A1 (de) | 2013-03-13 | 2013-03-13 | Verfahren und Vorrichtung zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102013004271A1 true DE102013004271A1 (de) | 2013-09-19 |
Family
ID=49044063
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE201310004271 Withdrawn DE102013004271A1 (de) | 2013-03-13 | 2013-03-13 | Verfahren und Vorrichtung zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102013004271A1 (de) |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013220307A1 (de) * | 2013-10-08 | 2015-04-09 | Bayerische Motoren Werke Aktiengesellschaft | System und Verfahren zur Unterstützung des Fahrers eines Kraftfahrzeugs bei der Bildung von Rettungsgassen |
WO2015039654A3 (de) * | 2013-09-23 | 2015-07-02 | Conti Temic Microelectronic Gmbh | Verfahren zur erkennung eines verkehrspolizisten durch ein fahrerassistenzsystem eines kraftfahrzeugs sowie ein fahrerassistenzsystem |
DE102014207666A1 (de) * | 2014-04-23 | 2015-10-29 | Bayerische Motoren Werke Aktiengesellschaft | Autonomes Fahren bei einer Gefahrensituation |
US9428194B2 (en) | 2014-12-11 | 2016-08-30 | Toyota Motor Engineering & Manufacturing North America, Inc. | Splash condition detection for vehicles |
DE102015004605A1 (de) | 2015-04-08 | 2016-10-13 | Audi Ag | Verfahren zum Betrieb eines Steuersystems einer Mobileinheit und Mobileinheit |
DE102015209671A1 (de) * | 2015-05-27 | 2016-12-01 | Robert Bosch Gmbh | Fahrerassistenzsystem zur Überquerung eines Bahnübergangs |
WO2017115666A1 (en) * | 2015-12-31 | 2017-07-06 | Sony Corporation | Method and system for adaptive detection and application of horn for an autonomous vehicle |
CN107650914A (zh) * | 2017-09-29 | 2018-02-02 | 上海汽车集团股份有限公司 | 先进驾驶辅助***的车辆接口测试方法 |
DE102016221574A1 (de) * | 2016-11-03 | 2018-05-03 | Bayerische Motoren Werke Aktiengesellschaft | Fahrzeugsystem und Verfahren zur automatisierten Durchführung eines Spurwechselmanövers mit einer Funktionalität zur Feststellung der Freigabe eines temporären Seitenstreifens |
DE102016223494A1 (de) * | 2016-11-25 | 2018-05-30 | Bayerische Motoren Werke Aktiengesellschaft | System für Kraftfahrzeuge zur Fahrunterstützung |
CN110116731A (zh) * | 2018-02-05 | 2019-08-13 | 通用汽车环球科技运作有限责任公司 | 传感器间学习 |
WO2019162405A1 (de) * | 2018-02-23 | 2019-08-29 | Audi Ag | Verfahren zum betrieb eines vollautomatisch geführten kraftfahrzeugs und kraftfahrzeug |
DE102018109711A1 (de) * | 2018-04-23 | 2019-10-24 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum automatisierten Steuern eines Kraftfahrzeugs mittels eines Fahrunterstützungssystems bei Anwesenheit eines anderen Fahrzeugs |
DE102018214420A1 (de) * | 2018-08-27 | 2020-02-27 | Zf Friedrichshafen Ag | Fahrerassistenzsystem |
WO2020144339A1 (de) * | 2019-01-11 | 2020-07-16 | Robert Bosch Gmbh | Verfahren zum automatisierten steuern eines fahrzeugs und steuergerät |
FR3099904A1 (fr) * | 2019-08-16 | 2021-02-19 | Aptiv Technologies Limited | Procédé de gestion d’un véhicule à moteur équipé d’un système avancé d’aide à la conduite |
DE102019213818A1 (de) * | 2019-09-11 | 2021-03-11 | Zf Friedrichshafen Ag | Detektieren von akustischen Betriebsmitteln eines Bahnübergangs |
US11027747B2 (en) | 2018-05-15 | 2021-06-08 | International Business Machines Corporation | Vehicle content based symbiosis for vehicle occupants |
EP3876143A1 (de) * | 2020-03-02 | 2021-09-08 | ZKW Group GmbH | System zur überwachung der umgebung eines kraftfahrzeuges |
US11127297B2 (en) * | 2017-07-17 | 2021-09-21 | Veoneer Us, Inc. | Traffic environment adaptive thresholds |
US11244564B2 (en) | 2017-01-26 | 2022-02-08 | Magna Electronics Inc. | Vehicle acoustic-based emergency vehicle detection |
WO2022073777A1 (de) * | 2020-10-07 | 2022-04-14 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum betreiben eines fahrerassistenzsystems, computerprogrammprodukt, fahrerassistenzsystem und fahrzeug |
US20220197300A1 (en) * | 2020-12-22 | 2022-06-23 | Waymo Llc | Sensor for Flashing Light Detection |
US11600076B2 (en) | 2016-01-23 | 2023-03-07 | Audi Ag | Detection of a hazardous situation in road traffic |
US11866063B2 (en) | 2020-01-10 | 2024-01-09 | Magna Electronics Inc. | Communication system and method |
DE102022210288A1 (de) | 2022-09-28 | 2024-03-28 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren und Vorrichtung zur Ermittlung eines Regelungszustandes einer Ampel |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102010022165A1 (de) | 2010-05-20 | 2011-01-05 | Daimler Ag | Verfahren und Vorrichtung zur Erfassung zumindest eines von einem Einsatzfahrzeug ausgehenden akustischen Sondersignals für ein Fahrzeug |
-
2013
- 2013-03-13 DE DE201310004271 patent/DE102013004271A1/de not_active Withdrawn
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102010022165A1 (de) | 2010-05-20 | 2011-01-05 | Daimler Ag | Verfahren und Vorrichtung zur Erfassung zumindest eines von einem Einsatzfahrzeug ausgehenden akustischen Sondersignals für ein Fahrzeug |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015039654A3 (de) * | 2013-09-23 | 2015-07-02 | Conti Temic Microelectronic Gmbh | Verfahren zur erkennung eines verkehrspolizisten durch ein fahrerassistenzsystem eines kraftfahrzeugs sowie ein fahrerassistenzsystem |
DE102013220307A1 (de) * | 2013-10-08 | 2015-04-09 | Bayerische Motoren Werke Aktiengesellschaft | System und Verfahren zur Unterstützung des Fahrers eines Kraftfahrzeugs bei der Bildung von Rettungsgassen |
DE102014207666A1 (de) * | 2014-04-23 | 2015-10-29 | Bayerische Motoren Werke Aktiengesellschaft | Autonomes Fahren bei einer Gefahrensituation |
US9428194B2 (en) | 2014-12-11 | 2016-08-30 | Toyota Motor Engineering & Manufacturing North America, Inc. | Splash condition detection for vehicles |
DE102015004605A1 (de) | 2015-04-08 | 2016-10-13 | Audi Ag | Verfahren zum Betrieb eines Steuersystems einer Mobileinheit und Mobileinheit |
DE102015004605B4 (de) * | 2015-04-08 | 2021-01-14 | Audi Ag | Verfahren zum Betrieb eines Steuersystems einer Mobileinheit und Mobileinheit |
DE102015209671A1 (de) * | 2015-05-27 | 2016-12-01 | Robert Bosch Gmbh | Fahrerassistenzsystem zur Überquerung eines Bahnübergangs |
DE102015209671B4 (de) * | 2015-05-27 | 2016-12-08 | Robert Bosch Gmbh | Fahrerassistenzsystem zur Überquerung eines Bahnübergangs |
JP2019506324A (ja) * | 2015-12-31 | 2019-03-07 | ソニー株式会社 | 自動運転車のためのホーンの適応検出および適用のための方法およびシステム |
WO2017115666A1 (en) * | 2015-12-31 | 2017-07-06 | Sony Corporation | Method and system for adaptive detection and application of horn for an autonomous vehicle |
EP3405939B1 (de) * | 2016-01-23 | 2024-05-22 | Audi AG | Erfassung einer gefahrensituation im strassenverkehr |
US11600076B2 (en) | 2016-01-23 | 2023-03-07 | Audi Ag | Detection of a hazardous situation in road traffic |
DE102016221574A1 (de) * | 2016-11-03 | 2018-05-03 | Bayerische Motoren Werke Aktiengesellschaft | Fahrzeugsystem und Verfahren zur automatisierten Durchführung eines Spurwechselmanövers mit einer Funktionalität zur Feststellung der Freigabe eines temporären Seitenstreifens |
DE102016223494A1 (de) * | 2016-11-25 | 2018-05-30 | Bayerische Motoren Werke Aktiengesellschaft | System für Kraftfahrzeuge zur Fahrunterstützung |
US11244564B2 (en) | 2017-01-26 | 2022-02-08 | Magna Electronics Inc. | Vehicle acoustic-based emergency vehicle detection |
US11127297B2 (en) * | 2017-07-17 | 2021-09-21 | Veoneer Us, Inc. | Traffic environment adaptive thresholds |
CN107650914B (zh) * | 2017-09-29 | 2020-05-12 | 上海汽车集团股份有限公司 | 先进驾驶辅助***的车辆接口测试方法 |
CN107650914A (zh) * | 2017-09-29 | 2018-02-02 | 上海汽车集团股份有限公司 | 先进驾驶辅助***的车辆接口测试方法 |
CN110116731A (zh) * | 2018-02-05 | 2019-08-13 | 通用汽车环球科技运作有限责任公司 | 传感器间学习 |
WO2019162405A1 (de) * | 2018-02-23 | 2019-08-29 | Audi Ag | Verfahren zum betrieb eines vollautomatisch geführten kraftfahrzeugs und kraftfahrzeug |
DE102018109711A1 (de) * | 2018-04-23 | 2019-10-24 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum automatisierten Steuern eines Kraftfahrzeugs mittels eines Fahrunterstützungssystems bei Anwesenheit eines anderen Fahrzeugs |
US11027747B2 (en) | 2018-05-15 | 2021-06-08 | International Business Machines Corporation | Vehicle content based symbiosis for vehicle occupants |
WO2020043403A1 (de) | 2018-08-27 | 2020-03-05 | Zf Friedrichshafen Ag | Fahrerassistenzsystem |
DE102018214420A1 (de) * | 2018-08-27 | 2020-02-27 | Zf Friedrichshafen Ag | Fahrerassistenzsystem |
WO2020144339A1 (de) * | 2019-01-11 | 2020-07-16 | Robert Bosch Gmbh | Verfahren zum automatisierten steuern eines fahrzeugs und steuergerät |
FR3099904A1 (fr) * | 2019-08-16 | 2021-02-19 | Aptiv Technologies Limited | Procédé de gestion d’un véhicule à moteur équipé d’un système avancé d’aide à la conduite |
DE102019213818A1 (de) * | 2019-09-11 | 2021-03-11 | Zf Friedrichshafen Ag | Detektieren von akustischen Betriebsmitteln eines Bahnübergangs |
US11866063B2 (en) | 2020-01-10 | 2024-01-09 | Magna Electronics Inc. | Communication system and method |
EP3876143A1 (de) * | 2020-03-02 | 2021-09-08 | ZKW Group GmbH | System zur überwachung der umgebung eines kraftfahrzeuges |
WO2021175814A1 (de) * | 2020-03-02 | 2021-09-10 | Zkw Group Gmbh | System zur überwachung der umgebung eines kraftfahrzeuges |
WO2022073777A1 (de) * | 2020-10-07 | 2022-04-14 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum betreiben eines fahrerassistenzsystems, computerprogrammprodukt, fahrerassistenzsystem und fahrzeug |
US20220197300A1 (en) * | 2020-12-22 | 2022-06-23 | Waymo Llc | Sensor for Flashing Light Detection |
US11899468B2 (en) * | 2020-12-22 | 2024-02-13 | Waymo Llc | Sensor for flashing light detection |
DE102022210288A1 (de) | 2022-09-28 | 2024-03-28 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren und Vorrichtung zur Ermittlung eines Regelungszustandes einer Ampel |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102013004271A1 (de) | Verfahren und Vorrichtung zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs | |
EP3160813B1 (de) | Verfahren zur erstellung eines umfeldmodells eines fahrzeugs | |
EP1904340B1 (de) | Verfahren und vorrichtung zur fahrerunterstützung | |
EP2562039B1 (de) | Verfahren und Vorrichtung zum Ändern einer Lichtaussendung zumindest eines Scheinwerfers eines Fahrzeugs | |
DE102012200950B3 (de) | Verfahren und Vorrichtung zur Erkennung einer Sondersituation im Straßenverkehr | |
EP2540596B1 (de) | Verfahren und Vorrichtung zum teilautomatischen Fahren eines Kraftfahrzeugs | |
DE102014002116B4 (de) | Verfahren zum Betrieb eines Fahrerassistenzsystems für Überholvorgänge und Kraftfahrzeug | |
DE102016002230B4 (de) | Verfahren zum Betrieb eines Kraftfahrzeugs und Kraftfahrzeug | |
DE102014223744A1 (de) | Assistenzsystem zur Detektion von in der Umgebung eines Fahrzeuges auftretenden Fahrhindernissen | |
DE102011003881A1 (de) | Verfahren zur Unterstützung eines Fahrers eines Kraftfahrzeugs | |
DE102017212607A1 (de) | Verfahren und Vorrichtung zur umgebungsbasierten Adaption von Fahrerassistenzsystem-Funktionen | |
DE102018201896B4 (de) | Ermitteln des Fahrens eines Fahrzeugs auf einer Auffahrt | |
DE102009021284A1 (de) | Kraftfahrzeug mit einem Umgebungssensor und Verfahren zum Betreiben des Umgebungssensors | |
DE102014214090A1 (de) | Verfahren zur Erkennung von Verkehrssituationen | |
DE102015200059A1 (de) | Fahrer-Intentions-Vorhersage-Vorrichtung und Verfahren und Fahrzeug umfassend solch eine Vorrichtung | |
DE102019215657A1 (de) | Fahrzeugsteuerungsstystem und -verfahren | |
DE102012206903A1 (de) | Verfahren für ein Assistenzsystem eines Fahrzeugs | |
WO2009097883A1 (de) | Verfahren zum betrieb einer bildaufnahmevorrichtung und eine bildaufnahmevorrichtung | |
DE102017103862A1 (de) | System für eine Verkehrsfläche und Verfahren mit einem System für eine Verkehrsfläche | |
DE102007001117A1 (de) | Verfahren für die Steuerung eines Fahrerassistenzsystems | |
DE102005008266A1 (de) | Dynamische Routenplanung unter Beachtung von Objekten im Seitenraum von Fahrzeugen | |
WO2023036545A1 (de) | Verfahren und steuerschaltung zum überprüfen, ob ein aktuell aktiver fahrmodus innerhalb seiner odd betrieben wird, sowie system und backend-server | |
DE102018207719A1 (de) | Vorrichtung und Verfahren zum Betreiben eines automatisierten Fahrzeugs | |
DE102018209653A1 (de) | Bildung einer Gasse für ein sich annäherndes Einsatzfahrzeug | |
DE102014013218A1 (de) | Fahrerassistenzsystem für einen Kraftwagen sowie Verfahren zum Betreiben eines solchen Fahrerassistenzsystems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R230 | Request for early publication | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |