DE102016216000A1 - Fahrzeugannäherungs-Detektionsvorrichtung und Fahrzeugannäherungs-Detektionsverfahren - Google Patents

Fahrzeugannäherungs-Detektionsvorrichtung und Fahrzeugannäherungs-Detektionsverfahren Download PDF

Info

Publication number
DE102016216000A1
DE102016216000A1 DE102016216000.1A DE102016216000A DE102016216000A1 DE 102016216000 A1 DE102016216000 A1 DE 102016216000A1 DE 102016216000 A DE102016216000 A DE 102016216000A DE 102016216000 A1 DE102016216000 A1 DE 102016216000A1
Authority
DE
Germany
Prior art keywords
vehicle
information
wall surface
detected
approach detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102016216000.1A
Other languages
English (en)
Other versions
DE102016216000B4 (de
Inventor
Yoichi Kato
Takahisa Aoyagi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE102016216000A1 publication Critical patent/DE102016216000A1/de
Application granted granted Critical
Publication of DE102016216000B4 publication Critical patent/DE102016216000B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18154Approaching an intersection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/30Conjoint control of vehicle sub-units of different type or different function including control of auxiliary equipment, e.g. air-conditioning compressors or oil pumps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2510/00Input parameters relating to a particular sub-units
    • B60W2510/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2510/00Input parameters relating to a particular sub-units
    • B60W2510/20Steering systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Abstract

Es wird eine Fahrzeugannäherungs-Detektionsvorrichtung und ein Fahrzeugannäherungs-Detektionsverfahren bereitgestellt, die zum Detektieren einer Annäherung eines anderen Fahrzeugs in der Lage sind, ohne dass eine dedizierte Vorrichtung auf einer Straße installiert wäre. Ein Fahrzeugumgebungsvideo zum Zeigen einer beobachteten Fläche (beispielsweise Straßenoberfläche), das verwendet wird, Bestrahlungslicht, beispielsweise einen Scheinwerferstrahl, der aus eine Scheinwerfer eines anderen Fahrzeug emittiert wird) aus einer anderen Fahrzeug zu beobachten, und ein Fahrzeugumgebungs-Umweltgeräusch wird als Fahrzeug-Außeninformation detektiert, und es wird basierend auf der detektierten Fahrzeug-Außeninformation bestimmt, ob sich ein anderes Fahrzeug dem eigenen Fahrzeug nähert oder nicht.

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf eine Fahrzeugannäherungs-Detektionsvorrichtung und ein Fahrzeugannäherungs-Detektionsverfahren zum Bestimmen, ob sich einem Fahrzeug ein anderes Fahrzeug nähert oder nicht, um dadurch das Annähern eines anderen Fahrzeugs zu detektieren.
  • 2. Beschreibung verwandten Stands der Technik
  • In den letzten Jahren ist ein Fahrzeug verbreitet worden, das eine Warnfunktion aufweist, die eine Fahrzeugkamera oder ein Radar verwendet, und eine präventive Sicherheitsfunktion, beispielsweise eine automatische Bremsfunktion. Insbesondere ist eine Technologie zum Detektieren von Bremslicht eines vorausfahrenden Fahrzeugs oder eines Scheinwerfers eines herannahenden Fahrzeugs durch eine Kamera bei Fahrt während der Nacht oder bei Fahrt in einer dunklen Umgebung entwickelt worden, um dadurch einen Heckend-Kollisionsalarm auszulösen oder einen Scheinwerfer eines eigenen Fahrzeugs zu steuern.
  • Spezifisch ist beispielsweise eine Technologie vorgeschlagen worden, einen Fahrer zu warnen, indem ein Licht eines anderen Fahrzeugs, das einen Kurvenabschnitt einer Straße von hinter der Kurve betritt, detektiert wird, für den Zweck, einen Unfall bei Nacht zu vermeiden (siehe beispielsweise japanische Gebrauchsmuster-Offenlegungsschrift Nr. 03-119300 ).
  • Jedoch muss beim in der japanischen Gebrauchsmuster-Offenlegungsschrift Nr. 03-119300 offenbarten Stand der Technik, um das Licht eines anderen Fahrzeugs zu detektieren, eine dedizierte Vorrichtung an jedem notwendigen Punkt auf der Straße installiert werden, was im Ergebnis hohe Kosten erfordert. Daher ist es notwendig, eine Technologie bereitzustellen, die zum Detektieren einer Annäherung eines anderen Fahrzeugs ohne Installation solch einer dedizierten Vorrichtung auf einer Straße in der Lage ist.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die vorliegende Erfindung ist gemacht worden, um das oben erwähnte Problem zu lösen und hat als Aufgabe, eine Fahrzeugannäherungs-Detektionsvorrichtung und ein Fahrzeugannäherungs-Detektionsverfahren zu erhalten, die zum Detektieren der Annäherung eines anderen Fahrzeugs in der Lage sind, ohne dass eine dedizierte Vorrichtung auf einer Straße installiert wird.
  • Gemäß einer Ausführungsform der vorliegenden Erfindung wird eine Fahrzeugannäherungs-Detektionsvorrichtung bereitgestellt, die in einem Fahrzeug montiert ist, beinhaltend: einen Fahrzeug-Außeninformationsdetektor, der konfiguriert ist, ein Fahrzeugumgebungs-Video zum Zeigen einer beobachteten Fläche, die verwendet wird, um Einstrahlungslicht aus einem anderen Fahrzeug zu beobachten, oder/und ein Fahrzeugumgebungs-Umweltgeräusch als Fahrzeug-Außeninformation zu detektieren, um dadurch die detektierte Fahrzeug-Außeninformation auszugeben; und eine Elektroniksteuereinheit, die eine Fahrzeugannäherungs-Detektionseinheit enthält, die konfiguriert ist, zu bestimmen, ob das andere Fahrzeug sich dem Fahrzeug nähert oder nicht, basierend auf der aus dem Fahrzeug-Außeninformationsdetektor eingegebenen Fahrzeug-Außeninformation.
  • Weiterhin wird gemäß einer Ausführungsform der vorliegenden Erfindung, ein Fahrzeugannäherungs-Detektionsverfahren bereitgestellt, das durch eine an einem Fahrzeug montierte Elektroniksteuereinheit auszuführen ist, beinhaltend: Erfassen von Fahrzeug-Außeninformation aus einem Fahrzeug-Außeninformationsdetektor, der konfiguriert ist, ein Fahrzeugumgebungs-Video zum Zeigen einer beobachteten Fläche, die verwendet wird, um Einstrahlungslicht aus einem anderen Fahrzeug zu beobachten, oder/und ein Fahrzeugumgebungs-Umweltgeräusch als Fahrzeug-Außeninformation zu detektieren, um dadurch die detektierte Fahrzeug-Außeninformation auszugeben; und Bestimmen, ob sich das andere Fahrzeug dem Fahrzeug nähert, basierend auf der erfassten Fahrzeug-Außeninformation, oder nicht.
  • Gemäß der vorliegenden Erfindung wird ein Fahrzeugumgebungs-Video zum Zeigen einer beobachteten Fläche, die verwendet wird, um Einstrahlungslicht aus einem anderen Fahrzeug zu beobachten, oder/und ein Fahrzeugumgebungs-Umweltgeräusch als Fahrzeug-Außeninformation detektiert, und es wird basierend auf dem Detektionsergebnis davon bestimmt, ob sich ein anderes Fahrzeug dem Fahrzeug nähert oder nicht. Mit dieser Konfiguration ist es möglich, die Fahrzeugannäherungs-Detektionsvorrichtung und das Fahrzeugannäherungs-Detektionsverfahren zu erhalten, die zum Detektieren einer Annäherung eines anderen Fahrzeugs in der Lage sind, ohne eine dedizierte Vorrichtung auf einer Straße zu installieren.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Blockdiagramm zum Illustrieren einer Konfiguration einer Fahrzeugannäherungs-Detektionsvorrichtung gemäß einer ersten Ausführungsform der vorliegenden Erfindung.
  • 2 ist ein Flussdiagramm zum Illustrieren einer Reihe von Schritten einer Fahrzeugannäherungs-Bewertungsoperation der Fahrzeugannäherungs-Detektionsvorrichtung gemäß der ersten Ausführungsform der vorliegenden Erfindung.
  • 3 ist ein erläuterndes Diagramm zum Illustrieren eines Beispiels einer Szene, die eine Änderung bei einer Luminanz einer Straßenoberfläche zeigt, die durch einen Fahrzeugannäherungs-Bewertungsteil von 1 bestimmt wird.
  • 4 ist ein Blockdiagramm zum Illustrieren einer Konfiguration einer Fahrzeugannäherungs-Detektionsvorrichtung gemäß einer zweiten Ausführungsform der vorliegenden Erfindung.
  • 5 ist ein Flussdiagramm zum Illustrieren einer Reihe von Schritten einer Fahrzeugannäherungs-Bewertungsoperation der Fahrzeugannäherungs-Detektionsvorrichtung gemäß der zweiten Ausführungsform der vorliegenden Erfindung.
  • 6 ist ein Flussdiagramm zum Illustrieren einer Reihe von Schritten der Fahrzeugannäherungs-Bewertungsoperation der Fahrzeugannäherungs-Detektionsvorrichtung gemäß der zweiten Ausführungsform der vorliegenden Erfindung.
  • 7 ist ein erläuterndes Diagramm zum Illustrieren eines Beispiels einer Szene, die eine beobachtete Fläche involviert, die auf eine erste Zielwandoberfläche durch einen Wandoberflächen-Detektionsteil von 4 eingestellt ist.
  • 8 ist ein erläuterndes Diagramm zum Illustrieren eines Beispiels einer Szene, die eine beobachtete Fläche involviert, die auf eine Straßenoberfläche eingestellt ist, durch den Wandoberflächen-Detektionsteil von 4.
  • 9 ist ein Blockdiagramm zum Illustrieren einer Konfiguration einer Fahrzeugannäherungs-Detektionsvorrichtung gemäß einer dritten Ausführungsform der vorliegenden Erfindung.
  • 10 ist ein Flussdiagramm zum Illustrieren einer Reihe von Schritten einer Symbolmarken-Projektion der Fahrzeugannäherungs-Detektionsvorrichtung gemäß der dritten Ausführungsform der vorliegenden Erfindung.
  • 11 ist ein Flussdiagramm zum Illustrieren einer Reihe von Schritten einer Fahrzeugannäherungs-Bewertungsoperation der Fahrzeugannäherungs-Detektionsvorrichtung gemäß der dritten Ausführungsform der vorliegenden Erfindung.
  • 12 ist ein Flussdiagramm zum Illustrieren einer Reihe von Schritten der Fahrzeugannäherungs-Bewertungsoperation der Fahrzeugannäherungs-Detektionsvorrichtung gemäß der dritten Ausführungsform der vorliegenden Erfindung.
  • 13 ist ein erläuterndes Diagramm zum Illustrieren eines Beispiels einer Szene, die eine beobachtete Fläche involviert, die auf eine erste Zielwandoberfläche eingestellt ist, durch ein Wandoberflächen-Detektionsteil von 9.
  • 14 ist ein erläuterndes Diagramm zum Illustrieren eines Beispiels einer Szene, die eine beobachtete Fläche involviert, die auf einer Straßenoberfläche eingestellt ist, durch den Wandoberflächen-Detektionsteil von 9.
  • 15 ist ein Blockdiagramm zum Illustrieren einer Konfiguration einer Fahrzeugannäherungs-Detektionsvorrichtung gemäß einer vierten Ausführungsform der vorliegenden Erfindung.
  • 16 ist ein Flussdiagramm zum Illustrieren einer Reihe von Schritten einer Fahrzeugannäherungs-Bewertungsoperation der Fahrzeugannäherungs-Detektionsvorrichtung gemäß der vierten Ausführungsform der vorliegenden Erfindung.
  • 17 ist ein Flussdiagramm zum Illustrieren einer Reihe von Schritten der Fahrzeugannäherungs-Bewertungsoperation der Fahrzeugannäherungs-Detektionsvorrichtung gemäß der vierten Ausführungsform der vorliegenden Erfindung.
  • DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Nunmehr werden eine Fahrzeugannäherungs-Detektionsvorrichtung und ein Fahrzeugannäherungs-Detektionsverfahren gemäß beispielhaften Ausführungsformen der vorliegenden Erfindung Bezug nehmend auf die beigefügten Zeichnungen beschrieben. In der Illustration der Zeichnungen werden dieselben Komponenten oder entsprechende Komponenten durch dieselben Bezugszeichen bezeichnet und deren überlappende Beschreibung ist hier weggelassen.
  • Erste Ausführungsform
  • 1 ist ein Blockdiagramm zum Illustrieren einer Konfiguration einer Fahrzeugannäherungs-Detektionsvorrichtung gemäß einer ersten Ausführungsform der vorliegenden Erfindung. Die in 1 illustrierte Fahrzeugannäherungs-Detektionsvorrichtung beinhaltet einen Fahrzeug-Außeninformations-Detektor 1, eine Elektroniksteuereinheit 2, eine Warnton-Erzeugungsvorrichtung 3, eine Warnanzeigevorrichtung 4 und eine Bremse 5.
  • Der Fahrzeug-Außeninformations-Detektor 1 enthält eine Kamera 11 und ein Mikrofon 12 und die Kamera 11 und das Mikrofon 12 sind am Fahrzeug montiert.
  • Die Kamera 11 ist konfiguriert, ein Video von Umgebungen zu erfassen, einschließlich einer Fläche vor dem Fahrzeug, das die Kamera 11 enthält, und das Video auszugeben. Weiter wird die Kamera 11 vorab eingestellt, ein Fahrzeugumgebungsvideo zu erfassen, um eine Straßenoberfläche als beobachtete Fläche zu zeigen, die verwendet wird, um Einstrahlungslicht von einem anderen Fahrzeug zu beobachten. Die erste Ausführungsform wird beschrieben, indem ein beispielhafter Fall angenommen wird, bei dem das Bestrahlungslicht aus einem anderen Fahrzeug ein Frontscheinwerferstrahl ist, der aus einem Scheinwerfer eines anderen Fahrzeugs emittiert wird. Das Mikrofon 12 ist konfiguriert, ein Umweltgeräusch um das Fahrzeug herum zu erfassen (nachfolgend als "Fahrzeugumgebungs-Umweltgeräusch" bezeichnet) und das Fahrzeugumgebungs-Umweltgeräusch auszugeben.
  • Wie oben beschrieben, ist der Fahrzeug-Außeninformations-Detektor 1 konfiguriert, das Fahrzeugumgebungsvideo zum Zeigen der beobachteten Fläche, die verwendet wird, um das Bestrahlungslicht von einem anderen Fahrzeug und das Fahrzeugumgebungs-Umweltgeräusch zu beobachten, als Fahrzeug-Außeninformation zu detektieren, und die detektierte Fahrzeug-Außeninformation auszugeben.
  • Die Elektroniksteuereinheit 2 wird beispielsweise durch eine CPU, die konfiguriert ist, ein in einem Speicher gespeichertes Programm auszuführen, und einen System-LSI oder eine andere solche Verarbeitungsschaltung gebildet. Die Elektroniksteuereinheit 2 beinhaltet einen Fahrzeugannäherungs-Detektionsabschnitt 21 und einen Fahrunterstützungssteuerteil 22.
  • Der Fahrzeugannäherungs-Detektionsabschnitt 21 beinhaltet einen Bildverarbeitungsteil 23, einen Akustikverarbeitungsteil 24 und einen Fahrzeugannäherungs-Bewertungsteil 25.
  • Der Bildverarbeitungsteil 23 ist konfiguriert, das durch die Kamera 11 in einem festen Zyklus erfasste Fahrzeugumgebungsvideo zu erfassen und eine bekannte Bildanalyse auf das erfasste Fahrzeugumgebungsvideo anzuwenden, um dadurch eine Zeitreihenänderung bei der Helligkeit der in dem Fahrzeugumgebungsvideo gezeigten Straßenoberfläche zu detektieren. Spezifisch ist der Bildverarbeitungsteil 23 konfiguriert, eine Zeitreihenänderung in jedem Pixelwert des Fahrzeugumgebungsvideos, das aus der Kamera eingegeben ist, zu detektieren. Weiter ist der Bildverarbeitungsteil 23 konfiguriert, ein Detektionsergebnis desselben an den Fahrzeugannäherungs-Bewertungsteil 25 auszugeben.
  • Der Akustikverarbeitungsteil 24 ist konfiguriert, das durch das Mikrofon 12 erfassten Fahrzeugumgebungs-Umweltgeräusch zu erfassen und eine bekannte akustische Analyse auf das erfasste Fahrzeugumgebungs-Umweltgeräusch anzuwenden, um dadurch eine Änderung beim Motorgeräusch eines anderen Fahrzeugs zu detektieren. Spezifisch ist der Akustikverarbeitungsteil 24 konfiguriert, eine Zeitreihenänderung beim Motorgeräusch eines anderen Fahrzeugs zu detektieren, das im aus dem Mikrofon 12 eingegebenen Fahrzeugumgebungs-Umweltgeräusch enthalten ist. Weiter ist der Akustikverarbeitungsteil 24 konfiguriert, ein Detektionsergebnis davon an den Fahrzeugannäherungs-Bewertungsteil 25 auszugeben.
  • Der Fahrzeugannäherungs-Bewertungsteil 25 ist konfiguriert, zu bestimmen, ob ein anderes Fahrzeug sich dem Fahrzeug nähert oder nicht, basierend auf dem Detektionsergebnis aus dem Bildverarbeitungsteil 23 und dem Detektionsergebnis aus dem Akustikverarbeitungsteil 24, und ein Bestimmungsergebnis davon an den Fahrunterstützungssteuerteil 22 auszugeben.
  • Wie oben beschrieben, ist der Fahrzeugannäherungs-Detektionsabschnitt 21 konfiguriert, zu bestimmen, ob oder ob nicht ein anderes Fahrzeug sich dem Fahrzeug nähert, basierend auf der aus dem Fahrzeug-Außeninformations-Detektor 1 eingegebene Fahrzeug-Außeninformation.
  • Der Fahrunterstützungssteuerteil 22 ist konfiguriert, das Fahrzeug mit Fahrunterstützung entsprechend der Annäherung eines anderen Fahrzeugs zu versorgen, wenn festgestellt wird, dass sich ein anderes Fahrzeug dem Fahrzeug nähert, als ein Ergebnis der durch den Fahrzeugannäherungs-Bewertungsteil 25 durchgeführten Bestimmung.
  • Spezifisch, als ein erstes Beispiel der Fahrunterstützung, steuert der Fahrunterstützungssteuerteil 22 die Warnton-Erzeugungsvorrichtung 3 zur Ausgabe eines Warntons, um dadurch einen Fahrer des Fahrzeugs zu warnen, dass sich ein anderes Fahrzeug dem Fahrzeug nähert. Als ein zweites Beispiel der Fahrunterstützung steuert der Fahrunterstützungssteuerteil 22 die Warnanzeigevorrichtung 4, um ein Video anzuzeigen, das eine Warnung angibt, um dadurch den Fahrer des Fahrzeugs zu warnen, dass sich ein anderes Fahrzeug dem Fahrzeug nähert. Mit einer solchen Konfiguration wird der Fahrer vor der Annäherung eines anderen Fahrzeugs gewarnt und daher kann die weitere Sicherheit des Fahrers sichergestellt werden.
  • Als ein drittes Beispiel der Fahrunterstützung steuert der Fahrunterstützungssteuerteil 22 die Bremse nach Bedarf, um dadurch die Geschwindigkeit des Fahrzeugs zu verlangsamen. Bei dieser Konfiguration wird eine automatische Bremssteuerung durchgeführt und daher wird die weitere Sicherheit des Fahrers sichergestellt. Als anderes Beispiel der Fahrunterstützung kann die Richtung des Lichtstrahls so gesteuert werden, dass sie nicht die Sicht eines Fahrers eines anderen Fahrzeugs blockiert.
  • Auf diese Weise sind verschiedene Arten von Fahrunterstützung als Fahrunterstützung für das Fahrzeug entsprechend der Annäherung eines anderen Fahrzeugs vorstellbar. Der Fahrunterstützungssteuerteil 22 kann so konfiguriert sein, dass zumindest eine einer Mehrzahl von Arten von Fahrunterstützung, die oben exemplifiziert sind, bereitgestellt wird.
  • Als Nächstes wird eine Reihe von Schritten einer Fahrzeugannäherungs-Bewertungsoperation der Fahrzeugannäherungs-Detektionsvorrichtung gemäß der ersten Ausführungsform unter Bezugnahme auf 2 beschrieben. 2 ist ein Flussdiagramm zum Illustrieren der Reihe von Schritten der Fahrzeugannäherungs-Bewertungsoperation der Fahrzeugannäherungs-Detektionsvorrichtung gemäß der ersten Ausführungsform der vorliegenden Erfindung.
  • Im Schritt S101 erfasst der Bildverarbeitungsteil 23 das Fahrzeugumgebungsvideo aus der Kamera 11 und rückt die Verarbeitung zu Schritt S102 vor. Es ist anzumerken, dass ein Zeitintervall, bei welchem der Bildverarbeitungsteil 23 das Fahrzeugumgebungsvideo aus der Kamera 11 erfasst, wünschenswerter Weise ein Intervall ist, das berücksichtigt, in der Lage zu sein, dem Fahrer die Fahrunterstützung in einer frühen Stufe bereitzustellen, und in der Lage ist, eine Bildanalyse detaillierter durchzuführen, beispielsweise mehrere 10 bis mehrere 100 ms. Weiter wird die nachfolgende Beschreibung gemacht, indem ein beispielhafter Fall angenommen wird, bei dem ein, die Straßenoberfläche vor dem Fahrzeug enthaltendes Video als Fahrzeugumgebungsvideo unter der Annahme erfasst wird, dass sich das Fahrzeug vorwärts bewegt.
  • Im Schritt S102 führt der Bildverarbeitungsteil 23 die Bildanalyse für das im Schritt S101 erfasste Fahrzeugumgebungsvideo durch und rückt die Verarbeitung zu Schritt S103 vor.
  • Im Schritt S103 verwendet der Fahrzeugannäherungs-Bewertungsteil 25 ein im Schritt S102 ermitteltes Bildanalyseergebnis, um festzustellen, ob es eine Änderung bei einer Luminanz der beobachteten Fläche gibt oder nicht, das heißt der Luminanz der Straßenoberfläche. Im Schritt S103, wenn festgestellt wird, dass es eine Änderung bei der Luminanz der Straßenoberfläche gibt, schreitet die Verarbeitung zu Schritt S104 fort, und wenn festgestellt wird, dass es keine Änderung bei der Luminanz der Straßenoberfläche gibt, schreitet die Verarbeitung zu Schritt S108 fort.
  • Spezifisch detektiert der Bildverarbeitungsteil 23 die Zeitreihenänderung in jedem Pixelwert des aus der Kamera 11 eingegebenen Fahrzeugumgebungsvideos, das heißt eine Änderung bei jedem Pixelwert einer Zeitreihe innerhalb des Fahrzeugumgebungsvideos. Der Bildverarbeitungsteil 23 analysiert beispielsweise eine Zeitreihenänderung bei einer Helligkeit oder einer Leuchtkraft jedes Pixels, als die Zeitreihenänderung in jedem Pixelwert.
  • Der Fahrzeugannäherungs-Bewertungsteil 25 bestimmt, dass es eine Änderung bei der Luminanz der Straßenoberfläche gibt, wenn es Steigerungen bei einer Mehrzahl von Pixelwerten als die Zeitreihenänderung in den durch den Bildverarbeitungsteil 23 analysierten entsprechenden Pixelwerten gibt, und bestimmt ansonsten, dass es keine Änderung bei der Luminanz der Straßenoberfläche gibt.
  • Nun wird ein exemplarischer Fall, bei dem festgestellt wird, dass es eine Änderung bei der Luminanz der Straßenoberfläche gibt, unter Bezugnahme auf 3 beschrieben. 3 ist ein erläuterndes Diagramm zum Illustrieren eines Beispiels einer Szene, die eine Änderung bei der Luminanz der Straßenoberfläche zeigt, welche durch den Fahrzeugannäherungs-Bewertungsteil 25 von 1 bestimmt wird.
  • In 3 befährt ein auf der Straßenoberfläche fahrendes eigenes Fahrzeug 101 eine Kreuzung 103 bei schlechter Sicht und fährt ein anderes Fahrzeug 102 nach links, während es einen Scheinwerferstrahl 104 emittiert. Mit anderen Worten ist 3 eine Illustration einer Situation, in der das andere Fahrzeug 102 sich dem eigenen Fahrzeug 101 aus der rechten Richtung nähert.
  • In diesem Fall, wenn sich das andere Fahrzeug 102 nach links bewegt, nähert sich das andere Fahrzeug 102 dem eigenen Fahrzeug 101. Als Ergebnis wird das durch die Kamera 11 erfasste Fahrzeugumgebungsbild aufgrund des Scheinwerferstrahls 104 heller. Mit anderen Worten existiert eine Mehrzahl von Pixeln mit über die Zeit hinweg steigenden Pixelwerten in der Zeitreihenänderung in jedem Pixelwert des Fahrzeugumgebungsvideos.
  • Auf diese Weise, wenn sich ein anderes Fahrzeug dem Fahrzeug nähert, gibt es eine Änderung bei der Luminanz der im Fahrzeugumgebungsvideo gezeigten Straßenoberfläche. Im Hinblick auf das Vorstehende ist der Fahrzeugannäherungs-Detektionsabschnitt 21 konfiguriert, Anwesenheit oder Abwesenheit einer Änderung bei der Luminanz der Straßenoberfläche zu bestimmen, basierend auf dem durch die Kamera 11 erfassten Fahrzeugumgebungsbild, und festzustellen, ob ein anderes Fahrzeug sich dem Fahrzeug nähert oder nicht, durch Verwendung eines Bestimmungsergebnisses davon. Daher ist es möglich, vorab das Annähern eines anderen Fahrzeugs aus einer anderen Richtung als einer Fahrtrichtung des Fahrzeugs in der in 3 illustrierten Situation vorherzusagen.
  • Rückkehrend zu der unter Bezugnahme auf 2 gemachten Beschreibung erfasst in Schritt S104 der Akustikverarbeitungsteil 24 das Fahrzeugumgebungs-Umweltgeräusch aus dem Mikrofon 12 und schreitet die Verarbeitung zu Schritt S105 fort. Es ist anzumerken, dass ein Zeitintervall, zu welchem der Akustikverarbeitungsteil 24 das Fahrzeugumgebungs-Umweltgeräusch aus dem Mikrofon 12 erfasst, wünschenswerter Weise ein Intervall ist, das berücksichtigt, in der Lage zu sein, dem Fahrer die Fahrunterstützung in einer frühen Stufe bereitzustellen, und in der Lage zu sein, eine akustische Analyse detaillierter auszuführen, beispielsweise mehrere 10 bis mehrere 100 ms.
  • Im Schritt S105 führt der Akustikverarbeitungsteil 24 die Akustikanalyse für das in Schritt S104 erfasste Fahrzeugumgebungs-Umweltgeräusch durch und die Verarbeitung rückt zu Schritt S106 fort.
  • Im Schritt S106 verwendet der Fahrzeugannäherungs-Bewertungsteil 25 das im Schritt S105 ermittelte akustische Analyseergebnis, um festzustellen, ob es eine Änderung beim Motorgeräusch eines anderen Fahrzeugs gibt oder nicht. Im Schritt S106, wenn festgestellt wird, dass es eine Änderung beim Motorgeräusch eines anderen Fahrzeugs gibt, rückt die Verarbeitung zu Schritt S107 vor, und wenn festgestellt wird, dass es keine Änderung beim Motorgeräusch eines anderen Fahrzeugs gibt, rückt die Verarbeitung zu Schritt S108 vor.
  • Spezifisch detektiert der Akustikverarbeitungsteil 24 die Zeitreihenänderung im Motorgeräusch eines anderen Fahrzeugs, das in dem aus dem Mikrofon 12 eingegebenen Fahrzeugumgebungs-Umweltgeräusch enthalten ist.
  • Der Fahrzeugannäherungs-Bewertungsteil 25 bestimmt, dass es eine Änderung beim Motorgeräusch eines anderen Fahrzeugs gibt, wenn es einen Anstieg bei der Anzahl von Motorgeräuschkomponenten gibt, wenn sie die Zeitreihe im Motorgeräusch eines anderen Fahrzeugs, das durch den Akustikverarbeitungsteil 24 analysiert ist, ändert, und stellt ansonsten fest, dass es keine Änderung beim Motorgeräusch eines anderen Fahrzeugs gibt.
  • Im Schritt S107 bestimmt der Fahrzeugannäherungs-Bewertungsteil 25, dass ein anderes Fahrzeug sich dem Fahrzeug nähert, und die Verarbeitung schreitet zu Schritt S109 fort.
  • Im Schritt S108 bestimmt der Fahrzeugannäherungs-Bewertungsteil 25, dass ein anderes Fahrzeug sich dem Fahrzeug nicht nähert, und die Verarbeitung kehrt zu Schritt S101 zurück.
  • Auf diese Weise bestimmt der Fahrzeugannäherungs-Detektionsabschnitt 21, ob sich ein anderes Fahrzeug dem Fahrzeug nähert oder nicht, basierend sowohl auf der Zeitreihenänderung bei der Luminanz der Straßenoberfläche als auch der Zeitreihenänderung beim Motorgeräusch eines anderen Fahrzeugs.
  • Die erste Ausführungsform wird beschrieben, indem ein beispielhafter Fall angenommen wird, der konfiguriert ist, zu bestimmen, ob sich ein anderes Fahrzeug dem Fahrzeug nähert oder nicht, basierend sowohl auf der Zeitreihenänderung bei der Luminanz der Straßenoberfläche als auch der Zeitreihenänderung beim Motorgeräusch eines anderen Fahrzeugs, aber die vorliegende Erfindung ist nicht darauf beschränkt. Das heißt, es wird festgestellt, ob ein anderes Fahrzeug sich dem Fahrzeug nähert oder nicht, basierend auf der Zeitreihenänderung bei der Luminanz der Straßenoberfläche oder/und der Zeitreihenänderung beim Motorgeräusch eines anderen Fahrzeugs.
  • Im Schritt S109 stellt der Fahrunterstützungssteuerteil 22 die Fahrunterstützung bereit und wird die Verarbeitung zu Ende gebracht.
  • Wie oben beschrieben, wird gemäß der ersten Ausführungsform das Fahrzeugumgebungsvideo zum Zeigen der beobachteten Fläche, die verwendet wird zum Beobachten des Bestrahlungslichts aus einem anderen Fahrzeug oder/und das Fahrzeugumgebungs-Umweltgeräusch als Fahrzeug-Außeninformation detektiert und es wird bestimmt, basierend auf einem Detektionsergebnis davon, ob ein anderes Fahrzeug sich dem Fahrzeug nähert oder nicht. Bei dieser Konfiguration ist es möglich, eine Annäherung eines anderen Fahrzeugs ohne Installation einer dedizierten Vorrichtung auf einer Straße zu detektieren.
  • Weiterhin werden in der oben erwähnten Konfiguration sowohl das Fahrzeugumgebungsvideo als auch das Fahrzeugumgebungs-Umweltgeräusch als die Fahrzeug-Außeninformation detektiert, um basierend auf einem Detektionsergebnis davon zu bestimmen, ob sich ein anderes Fahrzeug dem Fahrzeug nähert oder nicht, um dadurch in der Lage zu sein, die Zuverlässigkeit bei der Fahrzeugannäherungsbewertung weiter zu verbessern.
  • Weiter wird in der oben erwähnten Konfiguration sowohl das Fahrzeugumgebungsvideo als auch das Fahrzeugumgebungs-Umweltgeräusch als die Fahrzeug-Außeninformation detektiert, um basierend auf einem Detektionsergebnis davon festzustellen, ob sich ein anderes Fahrzeug dem Fahrzeug nähert oder nicht, um dadurch in der Lage zu sein, die Zuverlässigkeit bei der Fahrzeugannäherungsbewertung zu verbessern.
  • Weiter wird in der oben erwähnten Konfiguration die Fahrunterstützung für das Fahrzeug weiterhin bereitgestellt, wenn festgestellt wird, dass sich ein anderes Fahrzeug dem Fahrzeug nähert. Mit dieser Konfiguration ist es möglich, weiter die Sicherheit des Fahrers sicherzustellen. Beispielsweise ist es möglich, den Fahrer vor der Annäherung eines anderen Fahrzeugs zu warnen, wenn das Fahrzeug dabei ist, eine Kreuzung oder eine Kurve zu befahren, bei schlechter Sicht, während der Fahrer das Fahrzeug bei Nacht fährt.
  • Es ist anzumerken, dass die Luminanz der Straßenoberfläche aus mehreren Richtungen detektiert werden kann, beispielsweise nicht nur Änderung bei der Luminanz der Straßenoberfläche vor dem Fahrzeug, sondern auch eine Änderung bei der Luminanz der Straßenoberfläche auf der Rückseite, kann detektiert werden, wenn sich das Fahrzeug rückwärts bewegt, um dadurch basierend auf einem Detektionsergebnis davon zu bestimmen, ob sich ein anderes Fahrzeug dem Fahrzeug nähert oder nicht. Weiter kann die Änderung bei der Luminanz der Straßenoberfläche und die Änderung beim Motorgeräusch eines anderen Fahrzeugs detektiert werden, um ein einem Änderungsbetrag pro fester Zeitperiode entsprechendes Risiko vorherzusagen, und kann ein Startzeitpunkt sowohl der Warntonausgabesteuerung als auch der Automatikbremssteuerung basierend auf dem vorhergesagten Risiko geändert werden. Weiter kann ein Steuerbetrag sowohl der Warntonausgabesteuerung als auch der Automatikbremssteuerung basierend auf dem vorhergesagten Risiko geändert werden.
  • Zweite Ausführungsform
  • In einer zweiten Ausführungsform der vorliegenden Erfindung wird eine Beschreibung einer Fahrzeugannäherungs-Detektionsvorrichtung gegeben, die konfiguriert ist, die beobachtete Fläche zu ändern, basierend auf Wandoberflächen-Information um das Fahrzeug herum, zusätzlich zur Konfiguration der ersten Ausführungsform. Es ist anzumerken, dass in der zweiten Ausführungsform die Beschreibung derselben Punkte wie in der ersten Ausführungsform weggelassen wird, und hauptsächlich sich von der ersten Ausführungsform unterscheidende Punkte beschrieben werden.
  • 4 ist ein Blockdiagramm zum Illustrieren einer Konfiguration einer Fahrzeugannäherungs-Detektionsvorrichtung gemäß der zweiten Ausführungsform der vorliegenden Erfindung. Zusätzlich zu den Komponenten von 1 beinhaltet die Fahrzeugannäherungs-Detektionsvorrichtung von 4 weiter ein am Fahrzeug montiertes Radar und einen in der Elektroniksteuereinheit 2 enthaltenen Wandoberflächen-Detektionsteil 26.
  • Das Radar 6 ist konfiguriert, Informationen über ein Hindernis um das Fahrzeug herum als Radarinformation zu detektieren und die detektierte Radarinformation an den Wandoberflächen-Detektionsteil 26 auszugeben. Die Radarinformation beinhaltet Information, die Anwesenheit oder Abwesenheit einer Wandoberfläche um das Fahrzeug herum angibt, und Information, die eine Positionsbeziehung der Wandoberfläche anzeigt.
  • Der Wandoberflächen-Detektionsteil 26 ist konfiguriert, abzuschätzen, wie die Wandoberfläche um das Fahrzeug herum existiert, aus der vom Radar 6 eingegebenen Radarinformation, und die Wandoberflächeninformation zu erzeugen, durch Ausdrücken eines Schätzergebnisses in Form einer Karte. Mit anderen Worten ist der Wandoberflächen-Detektionsteil 26 konfiguriert, Information über die Wandoberfläche um das Fahrzeug herum als die Wandoberflächeninformation aus der Radarinformation zu erzeugen. Weiter ist der Wandoberflächen-Detektionsteil 26 konfiguriert, basierend auf der erzeugten Wandoberflächeninformation Anwesenheit oder Abwesenheit einer ersten Zielwandoberfläche zu bestimmen, die so lokalisiert ist, dass sie der Fahrtrichtung des Fahrzeugs gegenüberliegt, und die beobachtete Fläche auf entweder die erste Zielwandoberfläche oder die Straßenoberfläche einzustellen, basierend auf einem Bestimmungsergebnis davon.
  • Als Nächstes wird eine Reihe von Schritten einer Fahrzeugannäherungs-Bewertungsoperation der Fahrzeugannäherungs-Detektionsvorrichtung gemäß der zweiten Ausführungsform unter Bezugnahme auf 5 und 6 beschrieben. 5 und 6 sind ein Flussdiagramm zum Illustrieren der Reihe von Schritten der Fahrzeugannäherungs-Bewertungsoperation der Fahrzeugannäherungs-Detektionsvorrichtung gemäß der zweiten Ausführungsform der vorliegenden Erfindung. 5 und 6 werden durch Unterteilen eines Flussdiagramms in zwei Illustrationen erhalten, und dem in 5 illustrierten Teil folgt der in 6 illustrierte Teil.
  • In Schritt S201 erfasst der Wandoberflächen-Detektionsteil 26 die Radarinformation aus dem Radar 6 und schreitet die Verarbeitung zu Schritt S202 fort.
  • Im Schritt S202 erzeugt der Wandoberflächen-Detektionsteil 26 die Wandoberflächeninformation aus der im Schritt S201 erfassten Radarinformation und die Verarbeitung schreitet zu Schritt S203 fort.
  • Im Schritt S203 bestimmt der Wandoberflächen-Detektionsteil 26, ob die erste Zielwandoberfläche existiert oder nicht, basierend auf der im Schritt S202 erzeugten Wandoberflächeninformation. Im Schritt S203, wenn festgestellt wird, dass die erste Zielwandoberfläche existiert, rückt die Verarbeitung zu Schritt S204 fort, und wenn festgestellt wird, dass die erste Zielwandoberfläche nicht existiert, rückt die Verarbeitung zu Schritt S205 fort.
  • In Schritt S204 stellt der Wandoberflächen-Detektionsteil 26 die beobachtete Fläche auf die erste Zielwandoberfläche ein und die Verarbeitung rückt zu Schritt S206 fort.
  • Im Schritt S205 stellt der Wandoberflächen-Detektionsteil 26 die beobachtete Fläche auf die Straßenoberfläche ein und die Verarbeitung rückt zu Schritt S206 fort.
  • Nunmehr wird ein beispielhafter Fall, bei dem die beobachtete Fläche auf die erste Zielwandoberfläche eingestellt ist, unter Bezugnahme auf 7 und wird ein beispielhafter Fall, bei dem die beobachtete Fläche auf die Straßenoberfläche eingestellt ist, unter Bezugnahme auf 8 beschrieben. 7 ist ein erläuterndes Diagramm zum Illustrieren eines Beispiels einer Szene, welche die beobachtete Fläche involviert, die auf die erste Zielwandoberfläche durch den Wandoberflächen-Detektionsteil 26 eingestellt ist, von 4. 8 ist ein erläuterndes Diagramm zum Illustrieren eines Beispiels einer Szene, welche die auf die Straßenoberfläche durch den Wandoberflächen-Detektionsteil 26 von 4 eingestellte beobachtete Fläche involviert.
  • In 7 geben dicke Linienteile Wandoberflächen 105 und 107 um das Fahrzeug herum an, welche durch das Radar 6 detektiert werden, und geben unterbrochene Linienteile Straßenränder 106 an, welche durch das Radar 6 nicht detektiert werden. Bei Sicht aus dem eigenen Fahrzeug 101 ist die Wandoberfläche 107 so lokalisiert, dass sie der Fahrtrichtung des eigenen Fahrzeugs 101 gegenüberliegt, und damit der ersten Zielwandoberfläche entspricht, und sind die Wandoberflächen 105 längs der Fahrtrichtung des eigenen Fahrzeugs 101 lokalisiert, um dadurch einer zweiten Zielwandoberfläche zu entsprechen.
  • Im Falle der in 7 illustrierten Situation bestimmt der Wandoberflächen-Detektionsteil 26, dass die erste Zielwandoberfläche existiert und stellt daher die beobachtete Fläche auf die erste Zielwandoberfläche ein. In diesem Fall erfasst die Kamera 11 das Fahrzeugumgebungsvideo, um die erste Zielwandoberfläche als die beobachtete Fläche zu zeigen. Weiter bestimmt der Fahrzeugannäherungs-Detektionsabschnitt 21 die Anwesenheit oder Abwesenheit der Änderung bei der Luminanz der ersten Zielwandoberfläche, basierend auf dem durch die Kamera 11 erfassten Fahrzeugumgebungsbild im selben Verfahren wie das der ersten Ausführungsform und bestimmt, basierend auf dem Bestimmungsergebnis davon, ob sich ein anderes Fahrzeug dem Fahrzeug nähert oder nicht.
  • 8 ist eine Illustration einer Situation, in welcher die Wandoberfläche 107 nicht existiert, verglichen mit der in 7 illustrierten Situation. Im Falle der in 8 illustrierten Situation bestimmt der Wandoberflächen-Detektionsteil 26, dass die erste Zielwandoberfläche nicht existiert und stellt daher die beobachtete Fläche auf die Straßenoberfläche ein. In diesem Fall erfasst die Kamera 11 das Fahrzeugumgebungsvideo, um die Straßenoberfläche als die beobachtete Fläche zu zeigen. Weiter bestimmt der Fahrzeugannäherungs-Detektionsabschnitt 21 Anwesenheit oder Abwesenheit der Änderung der Luminanz der Straßenoberfläche, basierend auf dem durch die Kamera 11 im selben Verfahren wie demjenigen der ersten Ausführungsform erfassten Fahrzeugumgebungsbild, und bestimmt, basierend auf einem Bestimmungsergebnis davon, ob sich ein anderes Fahrzeug dem Fahrzeug nähert oder nicht.
  • Rückkehrend zu der unter Bezugnahme auf 6 gemachten Beschreibung führt im Schritt S206 bis Schritt S214 die Fahrzeugannäherungs-Detektionsvorrichtung dieselbe Verarbeitung wie die Verarbeitung von Schritt S101 bis Schritt S109 von 2 aus, und wird Fahrunterstützung im Schritt S214 bereitgestellt. Danach wird die Verarbeitung zu einem Ende gebracht.
  • Auf diese Weise bestimmt der Wandoberflächen-Detektionsteil 26 die Anwesenheit oder Abwesenheit der ersten Zielwandoberfläche, basierend auf der aus der Radarinformation erzeugten Wandoberflächeninformation und stellt die beobachtete Fläche auf entweder die erste Zielwandoberfläche oder die Straßenoberfläche ein, basierend auf einem Bestimmungsergebnis davon. Weiter bestimmt der Fahrzeugannäherungs-Detektionsabschnitt 21, ob sich ein anderes Fahrzeug dem Fahrzeug nähert oder nicht, basierend auf der Zeitreihenänderung bei der Luminanz der beobachteten Fläche, die in dem aus der Kammer 11 eingegebenen Fahrzeugumgebungsvideo gezeigt wird.
  • Wie oben beschrieben, gemäß der zweiten Ausführungsform, zusätzlich zur Konfiguration der ersten Ausführungsform, wird die Anwesenheit oder Abwesenheit der ersten Zielwandoberfläche basierend auf der aus der Radarinformation erzeugten Wandoberflächeninformation bestimmt, und wird die beobachtete Fläche auf entweder die erste Zielwandoberfläche oder die Straßenoberfläche eingestellt, basierend auf einem Bestimmungsergebnis davon. Mit dieser Konfiguration wird die beobachtete Fläche basierend auf Anwesenheit oder Abwesenheit der ersten Zielwandoberfläche um das Fahrzeug herum geändert, und daher ist es möglich, eine Änderung bei der Luminanz der beobachteten Fläche mit höherer Genauigkeit zu bestimmen. Als Ergebnis ist es möglich, die Zuverlässigkeit bei der Fahrzeugannäherungsbewertung zu verbessern.
  • Dritte Ausführungsform
  • In einer dritten Ausführungsform der vorliegenden Erfindung wird eine Beschreibung einer Fahrzeugannäherungs-Detektionsvorrichtung, die konfiguriert ist, zu bestimmen, ob sich ein anderes Fahrzeug dem Fahrzeug nähert oder nicht, basierend auf der Anwesenheit oder Abwesenheit einer Symbolmarke, die als Bestrahlungslicht aus einem anderen Fahrzeug projiziert ist, zusätzlich zur Konfiguration der zweiten Ausführungsform, gegeben. Es ist anzumerken, dass in der dritten Ausführungsform die Beschreibung derselben Punkte wie jene der ersten und zweiten Ausführungsform weggelassen wird und hauptsächlich sich von jenen der ersten und zweiten Ausführungsform unterscheidende Punkte beschrieben werden.
  • 9 ist ein Blockdiagramm zum Illustrieren einer Konfiguration einer Fahrzeugannäherungs-Detektionsvorrichtung gemäß der dritten Ausführungsform der vorliegenden Erfindung. Zusätzlich zu den Komponenten der 4 beinhaltet die Fahrzeugannäherungs-Detektionsvorrichtung von 9 weiter einen Symbolmarkenprojektor 7, der am Fahrzeug montiert ist.
  • Die Fahrzeugannäherungs-Detektionsvorrichtung gemäß der dritten Ausführungsform ist weiter konfiguriert, eine Symbolmarkenprojektion zusätzlich zu der in der zweiten Ausführungsform beschriebenen Fahrzeugannäherungsbewertungsoperation auszuführen.
  • Der Wandoberflächen-Detektionsteil 26 ist konfiguriert, Anwesenheit oder Abwesenheit der zweiten Zielwandoberfläche zu bestimmen, die lokalisiert ist längs der Fahrrichtung des Fahrzeugs, basierend auf der erzeugten Wandoberflächeninformation, und basierend auf einem Bestimmungsergebnis davon, eine beleuchtete Fläche eines Symbolmarkenprojektors 7 auf entweder die zweite Zielwandoberfläche oder die Straßenoberfläche einzustellen.
  • Der Symbolmarkenprojektor 7 ist konfiguriert, eine spezifische Symbolmarke auf die beleuchtete Fläche zu projizieren, welche durch den Wandoberflächen-Detektionsteil 26 eingestellt ist, um dadurch die Symbolmarke in der beleuchteten Fläche anzuzeigen. Beispielsweise ist der Symbolmarkenprojektor 7 konfiguriert, in der Lage zu sein, die Symbolmarke auf die beleuchtete Fläche zu projizieren, durch Emittieren von Licht in einem solchen Muster, dass sich die Symbolmarke bildet.
  • Als Nächstes wird eine Reihe von Schritten einer Symbolmarkenprojektion der Fahrzeugannäherungs-Detektionsvorrichtung gemäß der dritten Ausführungsform unter Bezugnahme auf 10 beschrieben. 10 ist ein Flussdiagramm zum Erläutern der Reihe von Schritten der Symbolmarkenprojektion der Fahrzeugannäherungs-Detektionsvorrichtung gemäß der dritten Ausführungsform der vorliegenden Erfindung.
  • In Schritt S301 und Schritt S302 führt die Fahrzeugannäherungs-Detektionsvorrichtung dieselbe Verarbeitung wie die Verarbeitung von Schritt S201 und Schritt S202 von 5 aus, und rückt die Verarbeitung zu Schritt S303 vor.
  • Im Schritt S303 bestimmt der Wandoberflächen-Detektionsteil 26, ob die zweite Zielwandoberfläche existiert oder nicht, basierend auf der im Schritt S302 erzeugten Wandoberflächeninformation. Im Schritt S303, wenn festgestellt wird, dass die zweite Zielwandoberfläche existiert, rückt die Verarbeitung zu Schritt S304 vor, und wenn festgestellt wird, dass die zweite Zielwandoberfläche nicht existiert, rückt die Verarbeitung zu Schritt S305 vor.
  • Im Schritt S304 stellt der Wandoberflächen-Detektionsteil 26 die beleuchtete Fläche auf die zweite Zielwandoberfläche ein und die Verarbeitung rückt zu Schritt S306 vor.
  • Im Schritt S305 stellt der Wandoberflächen-Detektionsteil 26 die beleuchtete Fläche auf die Straßenoberfläche ein und rückt die Verarbeitung zu Schritt S306 vor.
  • Im Schritt S306 projiziert der Symbolmarkenprojektor 7 die Symbolmarke auf die beleuchtete Fläche, welche durch den Wandoberflächen-Detektionsteil 26 eingestellt ist, und wird die Verarbeitung zu einem Ende gebracht.
  • Als Nächstes wird eine Reihe von Schritten einer Fahrzeugannäherungsbewertungsoperation der Fahrzeugannäherungs-Detektionsvorrichtung gemäß der dritten Ausführungsform unter Bezugnahme auf 11 und 12 beschrieben. 11 und 12 sind ein Flussdiagramm zum Illustrieren der Reihe von Schritten der Fahrzeugannäherungsbewertungsoperation der Fahrzeugannäherungs-Detektionsvorrichtung gemäß der dritten Ausführungsform der vorliegenden Erfindung. 11 und 12 werden ermittelt durch Unterteilen eines Flussdiagramms in zwei Illustrationen und dem in 11 illustrierten Teil folgt der in 12 illustrierte Teil.
  • In Schritt S401 bis Schritt S406 führt die Fahrzeugannäherungs-Detektionsvorrichtung dieselbe Verarbeitung wie die Verarbeitung von Schritt S201 bis Schritt S206 von 5 aus, und rückt die Verarbeitung zu Schritt S407 fort.
  • Im Schritt S407 führt der Bildverarbeitungsteil 23 eine Analyse für das im Schritt S406 umfasste Fahrzeugumgebungsvideo aus und die Verarbeitung rückt zu Schritt S408 vor.
  • Im Schritt S408 verwendet der Fahrzeugannäherungs-Bewertungsteil 25 ein im Schritt S407 ermitteltes Bildanalyseergebnis, um zu bestimmen, ob eine aus einem anderen Fahrzeug projizierte Symbolmarke existiert oder nicht. Im Schritt S408, wenn festgestellt wird, dass die Symbolmarke existiert, schreitet die Verarbeitung zu vor zu Schritt S409, und wenn festgestellt wird, dass die Symbolmarke nicht existiert, rückt die Verarbeitung zu Schritt S413 vor.
  • Spezifisch führt der Bildverarbeitungsteil 23 Bilderkennungs-Verarbeitung durch, um dadurch die Symbolmarke aus dem aus der Kamera 11 eingegebenen Fahrzeugumgebungsvideo zu detektieren. Der Fahrzeugannäherungs-Bewertungsteil 25 bestimmt die Anwesenheit oder Abwesenheit der aus einem anderen Fahrzeug projizierten Symbolmarke basierend auf der Anwesenheit oder Abwesenheit der durch den Bildverarbeitungsteil 23 detektierten Symbolmarke.
  • Nun wird ein exemplarischer Fall, bei dem die beobachtete Fläche auf die erste Zielwandoberfläche eingestellt wird, unter Bezugnahme auf 13 beschrieben und wird ein beispielhafter Fall, bei dem die beobachtete Fläche auf die Straßenoberfläche eingestellt ist, unter Bezugnahme auf 14 beschrieben. 13 ist ein erläuterndes Diagramm zum Illustrieren eines Beispiels einer Szene, welche die auf die erste Zielwandoberfläche durch den Wandoberflächen-Detektionsteil 26 von 9 eingestellten beobachteten Fläche involviert. 14 ist ein erläuterndes Diagramm zum Illustrieren eines Beispiels einer Szene, welche die auf die Straßenoberfläche durch den Wandoberflächen-Detektionsteil 26 von 9 eingestellte beobachtete Fläche involviert.
  • Es wird hier angenommen, dass die Fahrzeugannäherungs-Detektionsvorrichtung an sowohl dem eigenen Fahrzeug 101 als auch dem anderen Fahrzeug 102 montiert ist. Um zwischen den jeweiligen Fahrzeugannäherungs-Detektionsvorrichtungen des eigenen Fahrzeugs 101 und des anderen Fahrzeugs 102 zu unterscheiden, wird "_A" an die Bezugszeichen der Komponenten der am eigenen Fahrzeug 101 montierten Fahrzeugannäherungs-Detektionsvorrichtung angehängt und wird "_B" an die Bezugszeichen der Komponenten der im anderen Fahrzeug 102 montierten Fahrzeugannäherungs-Detektionsvorrichtung angehängt.
  • In 13 ist, bei Sicht aus dem eigenen Fahrzeug 101, die Wandoberfläche 107 so lokalisiert, dass sie zur Fahrtrichtung des eigenen Fahrzeugs 101 entgegengesetzt ist, um dadurch mit der ersten Zielwandoberfläche zu korrespondieren, und sind die Wandoberflächen 105 längs der Fahrtrichtung des eigenen Fahrzeugs 101 lokalisiert, um dadurch zur zweiten Zielwandoberfläche zu korrespondieren. Derweil, bei Sicht aus dem anderen Fahrzeug 102, ist die Wandoberfläche 107 längs der Fahrtrichtung des anderen Fahrzeugs 102 lokalisiert, um dadurch zur zweiten Zielwandoberfläche zu korrespondieren.
  • In dem Fall der in 13 illustrierten Situation bestimmt ein Wandoberflächen-Detektionsteil 26_B, dass die zweite Zielwandoberfläche existiert und stellt daher die beleuchtete Fläche auf die zweite Zielwandoberfläche ein. In diesem Fall projiziert in Symbolmarkenprojektor 7_B eine Symbolmarke 108 auf die zweite Zielwandoberfläche.
  • Weiter bestimmt ein Wandoberflächen-Detektionsteil 26_A, dass die erste Zielwandoberfläche existiert und stellt daher die beobachtete Fläche auf die erste Zielwandoberfläche ein. In diesem Fall erfasst eine Kamera 11_A das Fahrzeugumgebungsvideo, um die erste Zielwandoberfläche als die beobachtete Fläche zu zeigen.
  • Andererseits bestimmt im Fall der in 14 illustrierten Situation der Wandoberflächen-Detektionsteil 26_B, dass die zweite Zielwandoberfläche nicht existiert und stellt daher die beleuchtete Fläche auf die Straßenoberfläche ein. In diesem Fall projiziert der Symbolmarkenprojektor 7_B die Symbolmarke 108 auf die Straßenoberfläche.
  • Weiter bestimmt der Wandoberflächen-Detektionsteil 26_A, dass die erste Zielwandoberfläche nicht existiert und stellt daher die beobachtete Fläche auf die Straßenoberfläche ein. In diesem Fall erfasst die Kamera 11_A das Fahrzeugumgebungsvideo, um die Straßenoberfläche als die beobachtete Fläche zu zeigen.
  • Rückkehrend zur Beschreibung, die unter Bezugnahme auf 12 gemacht wird, führt in Schritt S409 bis Schritt S4141 die Fahrzeugannäherungs-Detektionsvorrichtung dieselbe Verarbeitung wie die Verarbeitung von Schritt S209 bis Schritt S214 von 6 aus und wird die Fahrunterstützung im Schritt S214 bereitgestellt. Danach wird die Verarbeitung zu Ende gebracht.
  • Auf diese Weise bestimmt der Wandoberflächen-Detektionsteil 26 Anwesenheit oder Abwesenheit der ersten Zielwandoberfläche, basierend auf der aus der Radarinformation erzeugten Wandoberflächeninformation und stellt die beobachtete Fläche auf entweder die erste Zielwandoberfläche oder die Straßenoberfläche ein, basierend auf einem Bestimmungsergebnis davon. Weiter bestimmt der Wandoberflächen-Detektionsteil 26 die Anwesenheit oder Abwesenheit einer zweiten Zielwandoberfläche, basierend auf der aus der Radarinformation erzeugten Wandoberflächeninformation und stellt die beleuchtete Fläche auf entweder die zweite Zielwandoberfläche oder die Straßenoberfläche ein, basierend auf einem Bestimmungsergebnis davon. Zusätzlich bestimmt der Fahrzeugannäherungs-Detektionsabschnitt 21 die Anwesenheit oder Abwesenheit der Symbolmarke, basierend auf dem Fahrzeugumgebungsvideo zum Zeigen der beobachteten Fläche, das aus der Kamera eingegeben worden ist, und bestimmt basierend auf einem Bestimmungsergebnis davon, ob sich ein anderes Fahrzeug dem Fahrzeug nähert oder nicht.
  • Wie oben beschrieben, gemäß der dritten Ausführungsform, zusätzlich zur Konfiguration der zweiten Ausführungsform, wird Anwesenheit oder Abwesenheit der als das Bestrahlungslicht aus einem anderen Fahrzeug projizierten Symbolmarke bestimmt, basierend auf dem aus der Kamera eingegebenen Fahrzeugumgebungsvideo und es wird basierend auf einem Bestimmungsergebnis davon festgestellt, ob ein anderes Fahrzeug sich dem Fahrzeug nähert oder nicht. Mit dieser Konfiguration ist es möglich, die Zuverlässigkeit bei der Fahrzeugannäherungsbewertung weiter zu verbessern, als im Falle des Ausführens der Fahrzeugannäherungsbewertung, die auf der Änderung der Luminanz der beobachteten Fläche basiert.
  • Annehmend, dass die beleuchtete Fläche für die Symbolmarke, die als das Bestrahlungslicht aus einem anderen Fahrzeug projiziert wird, konstant auf die Straßenoberfläche eingestellt ist, zusätzlich zur Konfiguration der ersten Ausführungsform, kann die Anwesenheit oder Abwesenheit der Symbolmarke basierend auf dem aus der Kamera eingegebenen Fahrzeugumgebungsvideo bestimmt werden, und es kann basierend auf einem Bestimmungsergebnis davon bestimmt werden, ob sich ein anderes Fahrzeug dem Fahrzeug nähert oder nicht.
  • Vierte Ausführungsform
  • In einer vierten Ausführungsform der vorliegenden Erfindung wird eine Beschreibung einer Fahrzeugannäherungs-Detektionsvorrichtung gegeben, die konfiguriert ist, ein Starten der Vorrichtung zu einem angemessenen Zeitpunkt zu steuern, zusätzlich zu den Konfigurationen der ersten bis dritten Ausführungsformen. Es ist anzumerken, dass in der vierten Ausführungsform die Beschreibung derselben Punkte wie jenen der ersten bis dritten Ausführungsformen weggelassen werden und hauptsächlich sich von jenen der ersten bis dritten Ausführungsformen unterscheidende Punkte beschrieben werden. Weiter wird die vierte Ausführungsform beschrieben, indem ein beispielhafter Fall genommen wird, konfiguriert zu sein, den Start der Vorrichtung zu einem angemessenen Zeitpunkt zu steuern, zusätzlich zur Konfiguration der ersten Ausführungsform.
  • 15 ist ein Blockdiagramm zum Illustrieren einer Konfiguration der Fahrzeugannäherungs-Detektionsvorrichtung gemäß der vierten Ausführungsform der vorliegenden Erfindung. Zusätzlich zu den Komponenten von 1 beinhaltet die Fahrzeugannäherungs-Detektionsvorrichtung von 15 weiter einen Photosensor 8, eine Autonavigationsvorrichtung 9 und einen Fahrzeug-CAN-Bus 10, die am Fahrzeug montiert sind, und einen Startsteuerteil 27, der in der Elektroniksteuereinheit 2 enthalten ist.
  • Der Startsteuerteil 27 ist konfiguriert, eine Luminanz einer Umgebungsumwelt des Fahrzeugs aus dem Photosensor 8 zu erfassen, der konfiguriert ist, die Luminanz der Umgebungsumwelt zu detektieren. Weiter ist der Startsteuerteil 27 konfiguriert, aktuelle Ortsinformation über das Fahrzeug aus der Autonavigationsvorrichtung 9 zu erfassen. Zusätzlich ist der Startsteuerteil 27 konfiguriert, ein Fahrzeugsignal, spezifisch Lichtemissions-Information, welche einen Emissionsstatus von Licht des Fahrzeugs angibt, aus dem Fahrzeug-CAN-Bus 10 zu ermitteln.
  • Auf diese Weise erfasst der Startsteuerteil 27 die Luminanz der Umgebungsumwelt des Fahrzeugs, der aktuellen Ortsinformation über das Fahrzeug und der Lichtemissions-Information über das Fahrzeug als Startinformation zum Steuern des Startens der Vorrichtung.
  • Als Nächstes wird eine Reihe von Schritten einer Fahrzeugannäherungsbewertungsoperation der Fahrzeugannäherungs-Detektionsvorrichtung gemäß der vierten Ausführungsform der vorliegenden Erfindung unter Bezugnahme auf 16 und 17 beschrieben. 16 und 17 sind ein Flussdiagramm zum Illustrieren der Reihe von Schritten der Fahrzeugannäherungsbewertungsoperation der Fahrzeugannäherungs-Detektionsvorrichtung gemäß der vierten Ausführungsform der vorliegenden Erfindung. 16 und 17 werden erhalten, indem ein Flussdiagramm in zwei Illustrationen unterteilt wird, und dem in 16 illustrierten Teil folgt der in 17 illustrierte Teil.
  • Im Schritt S501 umfasst der Startsteuerteil 27 die Luminanz der Umgebungsumwelt aus dem Photosensor 8, und die Verarbeitung rückt zu Schritt S502 fort.
  • Im Schritt S502 bestimmt der Startsteuerteil 27, ob die Umgebungsumwelt dunkel ist oder nicht, basierend auf der Luminanz der im Schritt S501 erfassten Umgebungsumwelt. Im Schritt S502, wenn festgestellt wird, dass die Umgebungsumwelt dunkel ist, schreitet die Verarbeitung zu Schritt S503 fort, und wenn festgestellt wird, dass die Umgebungsumwelt nicht dunkel ist, kehrt die Verarbeitung zu Schritt S501 zurück.
  • Spezifisch bestimmt beispielsweise der Startsteuerteil 27, dass die Umgebungsumwelt dunkel ist, wenn die erfasste Luminanz der Umgebungsumwelt einen kleineren Wert als einen Einstellwert aufweist, und bestimmt, dass die Umgebungsumwelt nicht dunkel ist, wenn die Luminanz einen Wert gleich oder größer dem Einstellwert aufweist. Es ist anzumerken, dass bestimmt werden kann, ob die Umgebungsumwelt dunkel ist oder nicht, basierend auf dem durch die Kamera erfassten Video, statt der Verwendung des Photosensors 8.
  • Im Schritt S503 erfasst der Startsteuerteil 27 die aktuelle Ortsinformation aus der Autonavigationsvorrichtung 9 und rückt die Verarbeitung zu Schritt S504 vor.
  • Im Schritt S504 bestimmt der Startsteuerteil 27, ob das Fahrzeug durch einen Punkt mit schlechter Sicht fährt oder nicht, basierend auf der im Schritt S503 erfassten aktuellen Ortsinformation. Wenn im Schritt S504 festgestellt wird, dass das Fahrzeug durch einen Punkt mit schlechter Sicht fährt, rückt die Verarbeitung zu Schritt S505 vor, und wenn festgestellt wird, dass das Fahrzeug nicht durch einen Punkt schwacher Sicht fährt, kehrt die Verarbeitung zu Schritt S501 zurück. Beispiele des Punkts mit schwacher Sicht beinhalten einen Punkt, bei dem das Fahrzeug dabei ist, eine Kreuzung mit schlechter Sicht zu befahren, und einen Punkt, bei dem das Fahrzeug dabei ist, eine Kurve zu befahren.
  • Im Schritt S505 erfasst der Startsteuerteil 27 die Lichtemissions-Information aus dem Fahrzeug-CAN-Bus 10 und rückt die Verarbeitung zu Schritt S506 vor.
  • Im Schritt S506 bestimmt der Startsteuerteil 27, ob das Licht des Fahrzeugs eingeschaltet ist oder nicht, basierend auf der im Schritt S505 erfassten Lichtemissions-Information. Im Schritt S506, wenn festgestellt wird, dass das Licht des Fahrzeugs eingeschaltet ist, schreitet die Verarbeitung zu Schritt S507 vor, und wenn festgestellt wird, dass das Licht nicht eingeschaltet ist, kehrt die Verarbeitung zu Schritt S501 zurück.
  • Auf diese Weise bestimmt der Startsteuerteil 27, ob die Verarbeitung von Schritt S507 und der nachfolgenden Schritte auszuführen ist oder nicht, das heißt, ob die Vorrichtung zu starten ist oder nicht, basierend auf der erfassten Startinformation. Mit anderen Worten wird der Start der Vorrichtung basierend auf der Luminanz der Umgebungsumwelt, der aktuellen Ortsinformation und der Lichtemissions-Information gesteuert, um dadurch in der Lage zu sein, die Vorrichtung nur in einem Fall, der als notwendig angenommen wird, zu betreiben.
  • Es ist anzumerken, dass, obwohl der Fall, bei dem die gesamte Luminanz der Umgebungsumwelt des Fahrzeugs, die aktuelle Ortsinformation über das Fahrzeug und die Lichtemissions-Information über das Fahrzeug verwendet werden, um das Starten der Vorrichtung zu steuern, exemplifiziert ist, das Starten der Vorrichtung durch Verwendung zumindest eines jener Teile von Information gesteuert werden kann.
  • Im Schritt S507 bis Schritt S215 führt die Fahrzeugannäherungs-Detektionsvorrichtung dieselbe Verarbeitung wie die Verarbeitung von Schritt S101 bis Schritt S109 von 2 durch, und wird die Fahrunterstützung in Schritt S515 bereitgestellt. Danach wird die Verarbeitung zu Ende gebracht.
  • Wie oben beschrieben, gemäß der vierten Ausführungsform, zusätzlich zu den Konfigurationen der ersten bis dritten Ausführungsformen, wird zumindest eines von Luminanz der Umgebungsumwelt des Fahrzeugs, aktuelle Ortsinformation über das Fahrzeug und Lichtemissions-Information über das Fahrzeug als Startinformation erfasst, und wird das Starten der Vorrichtung basierend auf der Startinformation gesteuert. Mit dieser Konfiguration ist es möglich, das Starten der Vorrichtung zu einem angemessenen Zeitpunkt zu steuern.
  • Es ist anzumerken, dass Beschreibungen der ersten bis vierten Ausführungsformen individuell gegeben werden, aber die jeweils in der ersten bis vierten Ausführungsformen beschriebenen Konfigurationsbeispiele beliebig kombiniert werden können.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 03-119300 [0003, 0004]

Claims (11)

  1. Fahrzeugannäherungs-Detektionsvorrichtung, die in einem Fahrzeug montiert ist, umfassend: einen Fahrzeug-Außeninformations-Detektor (1), der konfiguriert ist, ein Fahrzeugumgebungsvideo zum Zeigen einer beobachteten Fläche, die verwendet wird, um Einstrahlungslicht aus einem anderen Fahrzeug zu beobachten, oder/und ein Fahrzeugumgebungs-Umweltgeräusch als Fahrzeug-Außeninformation zu detektieren, um dadurch die detektierte Fahrzeug-Außeninformation auszugeben; und eine Elektroniksteuereinheit (2), die eine Fahrzeugannäherungs-Detektionseinheit (21) umfasst, die konfiguriert ist, zu bestimmen, ob das andere Fahrzeug sich dem Fahrzeug nähert oder nicht, basierend auf der aus dem Fahrzeug-Außeninformationsdetektor (1) eingegebenen Fahrzeug-Außeninformation.
  2. Fahrzeugannäherungs-Detektionsvorrichtung gemäß Anspruch 1, wobei der Fahrzeug-Außeninformations-Detektor (1) eine Kamera (11) umfasst, die konfiguriert ist, das Fahrzeugumgebungsvideo zu erfassen, zum Zeigen einer Straßenoberfläche, als die beobachtete Fläche, um das erfasste Fahrzeugumgebungsvideo als die Fahrzeug-Außeninformation auszugeben; und die Fahrzeugannäherungs-Detektionseinheit (21) konfiguriert ist, festzustellen, ob sich das andere Fahrzeug dem Fahrzeug nähert oder nicht, basierend auf einer Zeitreihenänderung bei der Luminanz der in dem aus der Kamera (11) eingegebenen Fahrzeugumgebungsvideo gezeigten, beobachteten Fläche.
  3. Fahrzeugannäherungs-Detektionsvorrichtung gemäß Anspruch 1, weiter umfassend ein Radar (6), das konfiguriert ist, Information zu einem Hindernis um das Fahrzeug herum als Radarinformation zu detektieren, um die detektierte Radarinformation auszugeben, wobei: die Elektroniksteuereinheit (2) weiter eine Wandoberflächen-Detektionseinheit (26) umfasst, die konfiguriert ist, Information über eine Wandoberfläche um das Fahrzeug herum als Wandoberflächeninformation aus der aus dem Radar (6) eingegebenen Radarinformation zu erzeugen, entweder Anwesenheit oder Abwesenheit einer ersten Zielwandoberfläche, die so lokalisiert ist, dass sie einer Fahrtrichtung des Fahrzeugs entgegengesetzt ist, zu bestimmen, basierend auf der erzeugten Wandoberflächeninformation, und die beobachtete Fläche auf die erste Zielwandoberfläche oder die Straßenoberfläche einzustellen, basierend auf einem Bestimmungsergebnis davon; der Fahrzeug-Außeninformations-Detektor (1) eine Kamera (11) umfasst, die konfiguriert ist, das Fahrzeugumgebungsvideo zu erfassen, um die durch die Wandoberflächen-Detektionseinheit (26) eingestellte beobachtete Fläche zu zeigen, um das erfasste Fahrzeugumgebungsvideo als die Fahrzeug-Außeninformation auszugeben; und die Fahrzeugannäherungs-Detektionseinheit (21) konfiguriert ist, zu bestimmen, ob sich ein anderes Fahrzeug dem Fahrzeug nähert oder nicht, basierend auf einer Zeitreihenänderung bei der Luminanz der in dem aus der Kamera (11) eingegebenen Fahrzeugumgebungsvideo gezeigten, beobachteten Fläche.
  4. Fahrzeugannäherungs-Detektionsvorrichtung gemäß Anspruch 1, wobei: der Fahrzeug-Außeninformations-Detektor (1) eine Kamera (11) umfasst, die konfiguriert ist, das Fahrzeugumgebungsvideo zu erfassen, um eine Straßenoberfläche als die beobachtete Fläche zu zeigen, um das erfasste Fahrzeugumgebungsvideo als die Fahrzeug-Außeninformation auszugeben; und die Fahrzeugannäherungs-Detektionseinheit (21) konfiguriert ist, entweder Anwesenheit oder Abwesenheit einer Symbolmarke zu bestimmen, die als Bestrahlungslicht aus dem anderen Fahrzeug projiziert wird, basierend auf dem aus der Kamera (11) eingegebenen Fahrzeugumgebungsvideo, und basierend auf einem Bestimmungsergebnis davon festzustellen, ob das andere Fahrzeug sich dem Fahrzeug nähert oder nicht.
  5. Fahrzeugannäherungs-Detektionsvorrichtung gemäß Anspruch 1, weiter umfassend: ein Radar (6), das konfiguriert ist, Information über ein Hindernis um das Fahrzeug herum als Radarinformation zu detektieren, um die detektierte Radarinformation auszugeben; und ein Symbolmarkenprojektor (7), der konfiguriert ist, eine Symbolmarke auf eine beleuchtete Fläche zu projizieren, wobei: die Elektroniksteuereinheit (2) konfiguriert ist, Information über eine Wandoberfläche um das Fahrzeug herum als Wandoberflächeninformation aus der, aus dem Radar (6) eingegebenen Radarinformation zu erzeugen, entweder Anwesenheit oder Abwesenheit einer ersten Zielwandoberfläche zu bestimmen, die so lokalisiert ist, dass sie einer Fahrtrichtung des Fahrzeugs entgegengesetzt ist, basierend auf der erzeugten Wandoberflächeninformation, die beobachtete Fläche auf entweder die erste Zielwandoberfläche oder eine Straßenoberfläche einzustellen, basierend auf einem Bestimmungsergebnis davon, entweder Anwesenheit oder Abwesenheit einer zweiten Zielwandoberfläche zu bestimmen, die längs der Fahrtrichtung des Fahrzeugs lokalisiert ist, basierend auf der erzeugten Wandoberflächeninformation, und weiter die beleuchtete Fläche auf entweder die zweite Zielwandoberfläche oder die Straßenoberfläche einzustellen, basierend auf einem Bestimmungsergebnis davon; der Fahrzeug-Außeninformations-Detektor (1) eine Kamera (11) umfasst, die konfiguriert ist, das Fahrzeugumgebungsvideo zu erfassen, um die beobachtete Fläche, die durch die Wandoberflächen-Detektionseinheit (26) eingestellt ist, zu zeigen, um das erfasste Fahrzeugumgebungsvideo als die Fahrzeug-Außeninformation auszugeben; der Symbolmarkenprojektor (7) konfiguriert ist, die Symbolmarke auf die beleuchtete Fläche zu projizieren, welche durch die Wandoberflächen-Detektionsteil (26) eingestellt wird; und die Fahrzeugannäherungs-Detektionseinheit (21) konfiguriert ist, entweder Anwesenheit oder Abwesenheit der als das Bestrahlungslicht aus dem anderen Fahrzeug projizierten Symbolmarke zu bestimmen, basierend auf dem aus der Kamera (11) eingegebenen Fahrzeugumgebungsvideo, und basierend auf einem Bestimmungsergebnis davon zu bestimmen, ob das andere Fahrzeug sich dem Fahrzeug nähert oder nicht.
  6. Fahrzeugannäherungs-Detektionsvorrichtung gemäß einem der Ansprüche 1 bis 5, wobei: der Fahrzeug-Außeninformations-Detektor (1) ein Mikrofon (12) umfasst, das konfiguriert ist, das Fahrzeugumgebungs-Umweltgeräusch zu erfassen, um das erfasste Fahrzeugumgebungs-Umweltgeräusch auszugeben; und die Fahrzeugannäherungs-Detektionseinheit (21) konfiguriert ist, zu bestimmen, ob sich ein anderes Fahrzeug dem Fahrzeug nähert oder nicht, basierend auf einer Zeitreihenänderung bei einem Motorgeräusch des anderen Fahrzeugs, das in dem aus dem Mikrofon (12) eingegebenen Fahrzeugumgebungs-Umweltgeräusch enthalten ist.
  7. Fahrzeugannäherungs-Detektionsvorrichtung gemäß einem der Ansprüche 1 bis 6, wobei die Elektroniksteuereinheit (2) weiter eine Startsteuereinheit (27) umfasst, die konfiguriert ist, eine Luminanz einer Umgebungsumwelt des Fahrzeugs, aktuelle Ortsinformation über das Fahrzeug oder/und Lichtemissions-Information über das Fahrzeug als Startinformation zu erfassen, und den Start der Fahrzeugannäherungs-Detektionsvorrichtung basierend auf der erfassten Startinformation zu steuern.
  8. Fahrzeugannäherungs-Detektionsvorrichtung gemäß einem der Ansprüche 1 bis 7, wobei die Elektroniksteuereinheit (2) weiter eine Fahrunterstützungssteuereinheit (22) umfasst, die konfiguriert ist, dem Fahrzeug Fahrunterstützung bereitzustellen, wenn die Fahrzeugannäherungs-Detektionseinheit (21) feststellt, dass sich das andere Fahrzeug dem Fahrzeug nähert.
  9. Fahrzeugannäherungs-Detektionsvorrichtung gemäß Anspruch 8, wobei die Fahrunterstützungssteuerteil (22) konfiguriert ist, einen Fahrer des Fahrzeugs zu warnen, dass sich ein anderes Fahrzeug dem Fahrzeug nähert, als die Fahrunterstützung.
  10. Fahrzeugannäherungs-Detektionsvorrichtung gemäß Anspruch 8 oder 9, wobei die Fahrunterstützungssteuereinheit (22) konfiguriert ist, eine Geschwindigkeit des Fahrzeugs als die Fahrunterstützung zu reduzieren.
  11. Fahrzeugannäherungs-Detektionsverfahren, das durch eine an einem Fahrzeug montierte Elektroniksteuereinheit (2) auszuführen ist, umfassend: Erfassen von Fahrzeug-Außeninformation aus einem Fahrzeug-Außeninformations-Detektor (1), der konfiguriert ist, ein Fahrzeugumgebungs-Video zum Zeigen einer beobachteten Fläche, die verwendet wird, um Einstrahlungslicht aus einem anderen Fahrzeug zu beobachten, oder/und ein Fahrzeugumgebungs-Umweltgeräusch als Fahrzeug-Außeninformation zu detektieren, um dadurch die detektierte Fahrzeug-Außeninformation auszugeben; und Bestimmen, ob sich das andere Fahrzeug dem Fahrzeug nähert oder nicht, basierend auf der erfassten Fahrzeug-Außeninformation.
DE102016216000.1A 2016-02-03 2016-08-25 Fahrzeugannäherungs-Detektionsvorrichtung und Fahrzeugannäherungs-Detektionsverfahren Active DE102016216000B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-018770 2016-02-03
JP2016018770A JP6211113B2 (ja) 2016-02-03 2016-02-03 車両接近検出装置

Publications (2)

Publication Number Publication Date
DE102016216000A1 true DE102016216000A1 (de) 2017-08-03
DE102016216000B4 DE102016216000B4 (de) 2023-04-20

Family

ID=59327477

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016216000.1A Active DE102016216000B4 (de) 2016-02-03 2016-08-25 Fahrzeugannäherungs-Detektionsvorrichtung und Fahrzeugannäherungs-Detektionsverfahren

Country Status (3)

Country Link
US (1) US9925984B2 (de)
JP (1) JP6211113B2 (de)
DE (1) DE102016216000B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024051990A1 (de) * 2022-09-09 2024-03-14 Mercedes-Benz Group AG Verfahren und vorrichtung zum betrieb einer kollisionsvermeidungsvorrichtung eines fahrzeuges und fahrzeug

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102450656B1 (ko) * 2017-12-05 2022-10-07 현대자동차주식회사 차량 및 그 제어방법
JP2019124513A (ja) * 2018-01-15 2019-07-25 パイオニア株式会社 特定装置
CN111556835A (zh) * 2018-01-22 2020-08-18 日产自动车株式会社 车辆控制方法及车辆控制装置
JP6708237B2 (ja) * 2018-09-13 2020-06-10 株式会社Jvcケンウッド 映像記録制御装置、映像記録システム、映像記録方法、および映像記録制御プログラム
JP7185872B2 (ja) 2018-10-16 2022-12-08 ナブテスコ株式会社 変位センサ
JP7133155B2 (ja) * 2019-03-04 2022-09-08 トヨタ自動車株式会社 運転支援システム
WO2021090668A1 (ja) * 2019-11-06 2021-05-14 株式会社小糸製作所 車両運転支援システム、路面描画装置および道路
JP2022037448A (ja) 2020-08-25 2022-03-09 スズキ株式会社 運転支援装置
US11364910B1 (en) * 2021-08-26 2022-06-21 Motional Ad Llc Emergency vehicle detection system and method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03119300A (ja) 1989-10-02 1991-05-21 Tokyu Constr Co Ltd 大空間を有する地下構造物の構築方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03119300U (de) 1990-03-19 1991-12-09
DE19847688C2 (de) * 1998-10-15 2000-10-26 Hilti Ag Verfahren und Anwendung desselben in einem elektromagnetischen Sensor zur Entdeckung von Fremdkörpern in einem Medium mittels Radar
JP3822154B2 (ja) * 2002-09-12 2006-09-13 本田技研工業株式会社 車両検出装置
JP4258385B2 (ja) * 2004-01-14 2009-04-30 株式会社デンソー 路面反射検出装置
JP4940767B2 (ja) * 2006-06-05 2012-05-30 マツダ株式会社 車両周辺情報報知装置
JP2008164302A (ja) * 2006-12-26 2008-07-17 Yamaha Corp 車間距離測定システム
JP4999788B2 (ja) * 2008-06-26 2012-08-15 三菱電機株式会社 移動目標検出装置及びコンピュータプログラム及び移動目標検出方法
JP4770946B2 (ja) * 2009-02-27 2011-09-14 トヨタ自動車株式会社 車載表示システム
JP5272041B2 (ja) * 2011-05-12 2013-08-28 富士重工業株式会社 環境認識装置および環境認識方法
JP5632811B2 (ja) * 2011-09-13 2014-11-26 本田技研工業株式会社 車両の運転支援装置
US9412273B2 (en) * 2012-03-14 2016-08-09 Autoconnect Holdings Llc Radar sensing and emergency response vehicle detection
CN104335263B (zh) * 2012-05-25 2016-08-31 丰田自动车株式会社 接近车辆检测装置及驾驶辅助***
US20150127191A1 (en) * 2013-11-06 2015-05-07 Saswat Misra Vehicular network
US20210133871A1 (en) * 2014-05-20 2021-05-06 State Farm Mutual Automobile Insurance Company Autonomous vehicle operation feature usage recommendations
US20160217689A1 (en) * 2015-01-26 2016-07-28 Autoliv Asp, Inc. Supplemental automotive safety method and system
US20170213459A1 (en) * 2016-01-22 2017-07-27 Flex Ltd. System and method of identifying a vehicle and determining the location and the velocity of the vehicle by sound

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03119300A (ja) 1989-10-02 1991-05-21 Tokyu Constr Co Ltd 大空間を有する地下構造物の構築方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024051990A1 (de) * 2022-09-09 2024-03-14 Mercedes-Benz Group AG Verfahren und vorrichtung zum betrieb einer kollisionsvermeidungsvorrichtung eines fahrzeuges und fahrzeug

Also Published As

Publication number Publication date
JP2017138766A (ja) 2017-08-10
US20170217440A1 (en) 2017-08-03
JP6211113B2 (ja) 2017-10-11
US9925984B2 (en) 2018-03-27
DE102016216000B4 (de) 2023-04-20

Similar Documents

Publication Publication Date Title
DE102016216000B4 (de) Fahrzeugannäherungs-Detektionsvorrichtung und Fahrzeugannäherungs-Detektionsverfahren
DE112014007205B4 (de) Fahrunterstützungsvorrichtung und Fahrunterstützungsverfahren
DE102008046038B4 (de) Anzeigevorrichtung und Verfahren zum Anzeigen eines Bildes
DE102016204096B4 (de) Verfahren zum Betreiben des Fahrerassistenzsystems und Fahrerassistenzsystem
DE112011100180B4 (de) Spurhalteunterstützungsvorrichtung, Verfahren zum Anzeigen einer Spurgrenzlinie und Programm
DE112014005398B4 (de) Fahrunterstützungsvorrichtung
DE102004058037B4 (de) Fahrunterstützungsvorrichtung zum Verhindern einer Fahrzeugkollision
DE112014006255B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE102018111265A1 (de) Fahrzeugumgebungs-abbildungssysteme und -verfahren
DE102016216883A1 (de) Fahrunterstützungsvorrichtung und Fahrunterstützungsverfahren
EP1580588A1 (de) Vorrichtung zur visuellen Darstellung einer Information
DE202010018439U1 (de) Vorrichtung zum Unterstützen eines Fahrers beim Steuern eines Fahrzeugs entlang einer Engstelle
EP2882612A1 (de) Ansteuern einer innenraumbeleuchtungsvorrichtung zum warnen eines nutzers eines kraftfahrzeugs vor einer kollisionsgefahr
DE102013019550B3 (de) Verfahren zur Fahrerunterstützung bezüglich einer Ampelschaltung
DE102019132803A1 (de) Steuervorrichtung, Steuersystem und Steuerprogramm für Fahrzeug
DE102016001692A1 (de) Fahrerassistenzsystem zur Steuerung einer Lichtabstrahlung einer fahrzeugseitigen Scheinwerfereinrichtung
WO2019063341A1 (de) Verfahren zum erfassen einer fahrbahnbeschaffenheit einer fahrbahn für ein kraftfahrzeug, fahrerassistenzsystem sowie kraftfahrzeug
DE102019108610A1 (de) Verbesserung des fahrzeugverhaltens unter verwendung von informationen aus anderen fahrzeugleuchten
DE102016007014A1 (de) Verfahren zum Betrieb einer Kommunikationseinrichtung eines Kraftfahrzeugs und Kraftfahrzeug
EP1516301A1 (de) Verfahren und vorrichtung zur fahrerinformation bzw. zur reaktion bei verlassen der fahrspur
DE102012111933A1 (de) Verfahren und vorrichtung zum automatischen erkennen und interpretieren von lichtsignalanlagen
DE102009011866A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Sichtweite für ein Fahrzeug
DE102015108944A1 (de) Rundsichtsystem und Betriebsverfahren davon
DE10053315A1 (de) Verfahren zum Detektieren von Verkehrszeichen und Vorrichtung zu dessen Ausführung
AT519839B1 (de) Fahrzeugscheinwerfer sowie verfahren zur unterstützung eines einparkvorganges

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R084 Declaration of willingness to licence
R020 Patent grant now final