DE112016006982B4 - Fahrassistenzvorrichtung, fahrassistenzverfahren und fahrassistenzprogramm - Google Patents

Fahrassistenzvorrichtung, fahrassistenzverfahren und fahrassistenzprogramm Download PDF

Info

Publication number
DE112016006982B4
DE112016006982B4 DE112016006982.0T DE112016006982T DE112016006982B4 DE 112016006982 B4 DE112016006982 B4 DE 112016006982B4 DE 112016006982 T DE112016006982 T DE 112016006982T DE 112016006982 B4 DE112016006982 B4 DE 112016006982B4
Authority
DE
Germany
Prior art keywords
prediction
time
collision
error
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE112016006982.0T
Other languages
English (en)
Other versions
DE112016006982T5 (de
Inventor
Takehiko Hanada
Takafumi Kasuga
Michinori Yoshida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112016006982T5 publication Critical patent/DE112016006982T5/de
Application granted granted Critical
Publication of DE112016006982B4 publication Critical patent/DE112016006982B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/008Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

Fahrassistenzvorrichtung (10) umfassend:eine Bewegungsvorhersageeinheit (23) zum Vorhersagen einer Bewegung eines um einen beweglichen Körper vorhandenen Objekts;eine Fehlererfassungseinheit (24) zum Erfassen eines Fehlers in einer Vorhersage der Bewegung durch die Bewegungsvorhersageeinheit (23), wenn ein Abstand zwischen einer von der Bewegungsvorhersageeinheit (23) zum Zeitpunkt k vorhergesagten Position des Objekts zum Zeitpunkt k+j und einer von der Bewegungsvorhersageeinheit (23) zum vom Zeitpunkt k verschiedenen Zeitpunkt k' vorhergesagten Position des Objekts zum Zeitpunkt k+j einen Schwellenwert überschreitet;eine Blickermittlungseinheit (25) zum Ermitteln, ob ein Fahrer des beweglichen Körpers auf das Objekt geblickt hat oder nicht;eine Kollisionsvorhersageeinheit (26) zum Vorhersagen einer Kollision zwischen dem beweglichen Körper und dem Objekt auf der Basis der Vorhersage der Bewegung; undeine Benachrichtigungsermittlungseinheit (27) zum Ermitteln, ob eine Benachrichtigung, dass die Kollisionsvorhersageeinheit (26) die Kollision zwischen dem beweglichen Körper und dem Objekt vorhergesagt hat, an den Fahrer zu melden ist oder nicht, auf der Basis dessen, ob die Fehlererfassungseinheit (24) den Fehler in der Vorhersage erfasst hat oder nicht und ob die Blickermittlungseinheit (25) einen Blick auf das Objekt ermittelt hat oder nicht.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft ein Verfahren zur Benachrichtigung eines Kollisionsrisikos zwischen einem beweglichen Körper und einem benachbarten Objekt.
  • Bisheriger Stand der Technik
  • Die Hälfte von tödlichen Verkehrsunfällen oder mehr wird durch schläfriges Fahren, unbedachtes Fahren u. Ä. durch Fahrer auf der Fahrzeugseite verursacht. Die Patentliteratur 1 offenbart die Berechnung eines Abstands zwischen Fahrzeugen in der Zeit vom vorderen Ausstrahlen eines Laserstrahls bis zum Zurückkehren des reflektierten Strahls und das Alarmieren, wenn der resultierende Abstand zwischen Fahrzeugen unter einem Standard eines sicheren Abstands zwischen Fahrzeugen, der auf der Basis eines Bremswegs und eines Bremsreaktionswegs eines Fahrzeugs ermittelt wird, liegt.
  • Solch ein Alarmieren kann aber je nach Situation des Fahrers oder Inhalt des Alarms den Fahrer stören. Die Patentliteratur 2 offenbart die Steuerung einer Stärke eines Alarms auf der Basis einer Richtung und einer Blickhäufigkeit eines Fahrers. US 2012/ 0 307 059 A1 offenbart eine Diagnosevorrichtung und ein Diagnoseverfahren zur Diagnose des Erkennungsgrads von Objekten in der Umgebung eines Fahrzeugs durch einen Fahrer.
    US 2014/ 0 219505 A1 offenbart eine Vorrichtung zur Vorhersage des Fußgängerverhaltens und ein Verfahren zur Vorhersage des Fußgängerverhaltens.
    DE 10 2012 214 852 A1 offenbart ein Verfahren zum Ergänzen einer, einem Objekt zugeordneten Objektinformation sowie ein Verfahren zum Selektieren von Objekten in einem Umfeld eines Fahrzeugs.
    DE 10 2007 011 135 A1 offenbart ein Betriebsassistenzsystem, das einem Fahrer an einem Ort, wie beispielsweise einer Kreuzung, an welchem der Fahrer besonders aufmerksam sein sollte, assistiert.
    WO 2015 / 155 874 A1 offenbart eine Routenvorausberechnungseinrichtung, welche ein Beobachtungsmittel einsetzt, welches aus Sensoren besteht, beispielsweise ein Radar und GPS, die Position von einem interessierenden bewegten Objekt, beispielsweise einem Flugzeug, Schiff und Kraftfahrzeug, beobachtet, und eine Route zum Verhindern einer Kollision des interessierenden Objekts mit einer Vielzahl von Umgebungsobjekten in der Nähe des interessierenden Objekts vorausberechnet.
  • Liste der Zitate
  • Patentliteratur
    • Patentliteratur 1: JP H05- 225 499 A
    • Patentliteratur 2: JP H07- 167 668 A
  • Zusammenfassung der Erfindung
  • Technische Aufgabe
  • Wenn die Stärke des Alarms auf der Basis der Richtung und Blickhäufigkeit des Fahrers gesteuert wird wie in Patentliteratur 2 dargestellt, besteht eine Möglichkeit, dass ein erforderliche Alarm nicht an den Fahrer ausgegeben werden kann, selbst wenn eine Änderung in der Situation ein erneutes Ausgeben eines Alarms an den Fahrer erfordert.
  • In einem spezifischen Beispiel wird, wenn ein vorausfahrendes Fahrzeug erfasst wird und ein Alarm auf der Basis einer Vorhersage zu einer Kollision mit dem vorausfahrenden Fahrzeug ausgegeben wird, die Ausgabe des Alarms beschränkt, sobald der Fahrer zum vorausfahrenden Fahrzeug blickt. Wenn eine Änderung im Verhalten des vorausfahrenden Fahrzeugs einen Unterschied zwischen einer Wahrnehmung des Fahrers und einer Realität bewirkt, kann aber der Alarm gegebenenfalls nicht erneut ausgegeben oder verzögert werden.
  • Die vorliegende Erfindung betrifft im Wesentlichen eine geeignete Benachrichtigung zu einem Kollisionsrisiko zwischen einem beweglichen Körper und einem benachbarten Objekt.
  • Technische Lösung
  • Die oben genannte Aufgabe wird durch eine Fahrassistenzvorrichtung nach Anspruch 1, ein Fahrassistenzverfahren nach Anspruch 7, ein Fahrassistenzprogram nach Anspruch 8 und eine Fahrassistenzvorrichtung nach Anspruch 9 gelöst.
  • Vorteilhafte Wirkungen der Erfindung
  • In der Erfindung wird bestimmt, ob die Benachrichtigung, dass die Kollision vorhergesagt wurde, an den Fahrer zu melden ist oder nicht, unter Berücksichtigung dessen, ob der Fehler in der Vorhersage erfasst wurde oder nicht. Somit kann eine geeignete Benachrichtigung zu einem Kollisionsrisiko zwischen dem beweglichen Körper und einem benachbarten Objekt erfolgen.
  • Kurze Beschreibung der Zeichnungen
    • 1 zeigt ein Konfigurationsdiagramm zur Darstellung einer Fahrassistenzvorrichtung 10 gemäß Ausführungsform 1.
    • 2 zeigt eine Darstellung einer von einem Überwachungssensor 31 erfassten Information gemäß Ausführungsform 1 und von Objekten 41 in Draufsicht.
    • 3 zeigt eine Darstellung einer vom Überwachungssensor 31 erfassten Information gemäß Ausführungsform 1 und der Objekte 41 von einer Seite eines beweglichen Körpers 100 aus gesehen.
    • 4 zeigt ein Fließbild zur Darstellung des Gesamtbetriebsablaufs der Fahrassistenzvorrichtung 10 gemäß Ausführungsform 1.
    • 5 zeigt ein Fließbild zur Darstellung eines Objekterfassungsprozesses gemäß Ausführungsform 1.
    • 6 zeigt eine Darstellung einer Objektinformation 42 gemäß Ausführungsform 1.
    • 7 zeigt ein Konfigurationsdiagramm zur Darstellung der Fahrassistenzvorrichtung 10 gemäß Modifikation 2.
  • Beschreibung der Ausführungsformen
  • Ausführungsform 1
  • *** Beschreibung zu Konfigurationen ***
  • In Bezug auf 1 wird eine Konfiguration einer Fahrassistenzvorrichtung 10 gemäß Ausführungsform 1 beschrieben.
  • Die Fahrassistenzvorrichtung 10 ist ein an einem beweglichen Körper 100 installierter Computer. In Ausführungsform 1 ist der bewegliche Körper 100 ein Fahrzeug. Der bewegliche Körper 100 ist aber nicht auf ein Fahrzeug beschränkt und kann eine andere Ausführung aufweisen, beispielsweise ein Schiff sein.
  • Die Fahrassistenzvorrichtung 10 kann in einer mit dem beweglichen Körper 100 oder einer anderen dargestellten Komponente integrierten Form oder nicht abnehmbar von diesen implementiert sein oder kann in einer vom beweglichen Körper 100 oder von einer anderen dargestellten Komponente demontierbaren oder abnehmbaren Form implementiert sein.
  • Die Fahrassistenzvorrichtung 10 umfasst einen Prozessor 11, eine Speichervorrichtung 12, eine Sensorschnittstelle 13 und eine Ausgabeschnittstelle 14 als Hardware. Der Prozessor 11 ist über Signalleitungen mit anderer Hardware zum Steuern der anderen Hardware verbunden.
  • Der Prozessor 11 ist ein integrierter Schaltkreis (IC), der die Verarbeitung durchführt. Der Prozessor 11 ist eine Zentralverarbeitungseinheit (CPU), ein digitaler Signalprozessor (DSP) oder eine Grafikverarbeitungseinheit (GPU) als ein spezifisches Beispiel.
  • Die Speichervorrichtung 12 umfasst einen Speicher 121 und einen Speicher 122. Der Speicher 121 ist ein Random Access Memory (RAM) als ein spezifisches Beispiel. Der Speicher 122 ist eine Festplatte (HDD) als ein spezifisches Beispiel. Der Speicher 122 kann ein tragbares Speichermedium wie etwa eine Secure-Digital-(SD-)Speicherkarte, ein CompactFlash-(CF-)Speicher, ein NAND-Flash-Speicher, eine Diskette, eine optische Platte, eine Compact Disc, eine Blu-ray Disc (eingetragene Marke) oder eine Digital Versatile Disc (DVD) sein.
  • Die Sensorschnittstelle 13 ist eine Vorrichtung, mit der Sensoren wie etwa ein am beweglichen Körper 100 installierter Überwachungssensor 31 verbunden sind. Die Sensorschnittstelle 13 ist ein Anschluss für einen Universal Serial Bus (USB), IEEE1394, einen Controller-Area-Network-(CAN-)Bus oder Ethernet als ein spezifisches Beispiel.
  • In Ausführungsform 1 ist der Überwachungssensor 31 ein Sensor wie ein Laser Imaging Detection and Ranging (LIDAR). Der LIDAR führt einen Prozess des Messens eines Abstands zu einem Objekt auf der Basis der für einen ausgestrahlten und vom Objekt reflektierten Laserstrahl erforderlichen Zeit zum Zurückkehren und der Lichtgeschwindigkeit während des horizontalen Drehens durch. Somit erfasst der LIDAR eine Abstandsinformation zum Abstand zum Objekt in der Umgebung. In der Abstandsinformation ist ein Punkt auf einer Oberfläche des Objekts durch einen Azimutwinkel und einen Höhenwinkel dargestellt, die eine Strahlungsrichtung des Lasers und den erfassten Abstand angeben. Wenn sich Objekte 41A bis 41C in der Umgebung des beweglichen Körpers 100 befinden wie in 2 dargestellt, wird die Abstandsinformation zu Koordinaten dargestellt durch schwarze Punkte als Teile von Formen der Objekte 41A bis 41C erfasst. Je nach Typ des LIDARs kann ein ähnlicher Prozess für vertikal verschiedene Winkel durchgeführt werden wie in 3 dargestellt.
  • Der Überwachungssensor 31 kann ein Millimeterwellenradar sein. Der Millimeterwellenradar ist ein Sensor, durch den ein Abstand zu einem Objekt auf der Basis der für eine ausgestrahlte und vom Objekt reflektierten Funkwelle zum Zurückkehren erforderlichen Zeit und der Lichtgeschwindigkeit gemessen wird und durch den die Abstandsinformation zu Objekten in einem fächerförmigen Bereich mit dem Sensor in der Mitte erfasst werden kann. Der Überwachungssensor 31 kann eine Stereokamera sein. Bei jeder Ausführung des Überwachungssensors 31 können Sensordaten bestehend aus einer Liste der Abstandsinformationen erfasst werden.
  • Die Ausgabeschnittstelle 14 ist eine Vorrichtung, mit der Ausgabevorrichtungen wie etwa eine am beweglichen Körper 100 installierte Alarmeinheit 32 verbunden sind. Die Ausgabeschnittstelle 14 ist ein Anschluss für USB oder High-Definition Multimedia Interface (HDMI; eingetragene Marke) als ein spezifisches Beispiel.
  • Die Alarmeinheit 32 ist eine Vorrichtung, die einen Summer auslöst oder eine Sprachführung mit der Ansage „Es besteht Kollisionsgefahr mit einem Objekt“ o. Ä. ausführt. Die Alarmeinheit 32 kann eine Vorrichtung sein, die eine Anzeige mit Zeichen oder Graphiken ausführt.
  • Die Fahrassistenzvorrichtung 10 umfasst eine Datenerfassungseinheit 21, eine Objekterfassungseinheit 22, eine Bewegungsvorhersageeinheit 23, eine Fehlererfassungseinheit 24, eine Blickermittlungseinheit 25, eine Kollisionsvorhersageeinheit 26 und eine Benachrichtigungsermittlungseinheit 27 als funktionale Komponenten. Die Funktionen der Datenerfassungseinheit 21, der Objekterfassungseinheit 22, der Bewegungsvorhersageeinheit 23, der Fehlererfassungseinheit 24, der Blickermittlungseinheit 25, der Kollisionsvorhersageeinheit 26 und der Benachrichtigungsermittlungseinheit 27 werden durch Software ausgeführt.
  • Programme, welche die Funktionen der Einheiten der Fahrassistenzvorrichtung 10 ausführen, sind im Speicher 122 der Speichervorrichtung 12 gespeichert. Die Programme werden vom Prozessor 11 in den Speicher 121 gelesen und vom Prozessor 11 ausgeführt. Somit werden die Funktionen der Einheiten der Fahrassistenzvorrichtung 10 ausgeführt.
  • Informationen, Daten, Signalwerte und Variablenwerte, die Ergebnisse von Prozessen in den Funktionen der Einheiten, die vom Prozessor 11 ausgeführt werden, angeben, werden im Speicher 121 oder in einem Register oder Cachespeicher im Prozessor 11 gespeichert. In der folgenden Beschreibung sind die Informationen, Daten, Signalwerte und Variablenwerte, welche die Ergebnisse der Prozesse in den Funktionen der Einheiten angeben, die vom Prozessor 11 ausgeführt werden, als im Speicher 121 gespeichert beschrieben.
  • Bei den Programmen, welche die Funktionen ausführen, die vom Prozessor 11 ausgeführt werden, wird angenommen, dass diese in der Speichervorrichtung 12 gespeichert werden. Die Programme können aber auch auf einem tragbaren Speichermedium wie einer Magnetplatte, einer Diskette, einer optischen Platte, einer Compact Disc, einer Blu-ray Disc (eingetragene Marke) oder einer DVD gespeichert werden.
  • In 1 ist nur ein Prozessor 11 dargestellt. Die Fahrassistenzvorrichtung 10 kann aber eine Vielzahl von Prozessoren umfassen, die den Prozessor 11 ersetzen. Das Ausführen der Programme, welche die Funktionen der Einheiten der Fahrassistenzvorrichtung 10 ausführen, ist auf die Vielzahl von Prozessoren verteilt. Jeder der Prozessoren ist ein integrierter Schaltkreis IC, der die Verarbeitung wie mit dem Prozessor 11 durchführt.
  • *** Beschreibung der Betriebsabläufe ***
  • Nachfolgend sind in Bezug auf 4 bis 6 die Betriebsabläufe der Fahrassistenzvorrichtung 10 gemäß Ausführungsform 1 beschrieben.
  • Die Betriebsabläufe der Fahrassistenzvorrichtung 10 gemäß Ausführungsform 1 entsprechen einem Fahrassistenzverfahren gemäß Ausführungsform 1. Die Betriebsabläufe der Fahrassistenzvorrichtung 10 gemäß Ausführungsform 1 entsprechen ebenfalls Prozessen eines Fahrassistenzprogramms gemäß Ausführungsform 1.
  • Nachfolgend sind in Bezug auf 4 Gesamtbetriebsabläufe der Fahrassistenzvorrichtung 10 gemäß Ausführungsform 1 beschrieben.
  • Die Fahrassistenzvorrichtung 10 führt periodisch die in 4 dargestellten Prozesse durch.
  • (Schritt S1: Datenerfassungsprozess)
  • Die Datenerfassungseinheit 21 erfasst die vom Überwachungssensor 31 ermittelten Sensordaten durch die Sensorschnittstelle 13. Wie zuvor beschrieben bestehen die Sensordaten aus der Liste der Abstandsinformationen, welche die Punkte auf Oberflächen der um den beweglichen Körper 100 vorhandenen Objekte darstellen. Die Datenerfassungseinheit 21 schreibt die erfassten Sensordaten in den Speicher 121.
  • (Schritt S2: Objekterfassungsprozess)
  • Die Objekterfassungseinheit 22 liest aus dem Speicher 121 die in Schritt S1 erfassten Sensordaten aus und erfasst die um den beweglichen Körper 100 vorhandenen Objekte auf der Basis der ausgelesenen Sensordaten.
  • Nachfolgend sind in Bezug auf 5 Objekterfassungsprozesse gemäß Ausführungsform 1 spezifisch beschrieben.
  • Prozesse von Schritt S21 bis Schritt S22 werden mit aufeinander folgender Verwendung von jedem Punkt, angegeben durch die in den Sensordaten enthaltenen Abstandsinformationen, als ein Zielpunkt durchgeführt. In Schritt S21 identifiziert die Objekterfassungseinheit 22 einen Punkt nahe dem Zielpunkt im Höhenwinkel und Azimutwinkel als einen benachbarten Punkt. Der Ausdruck „nahe im Höhenwinkel und Azimutwinkel“ bedeutet, dass der Höhenwinkel kleiner gleich einem Referenzhöhenwinkel ist und dass der Azimutwinkel kleiner gleich einem Referenzazimutwinkel ist. Anschließend wird der Prozess von Schritt S22 unter Verwendung von jedem in Schritt S21 identifizierten benachbarten Punkt als ein Zielnachbarpunkt durchgeführt. In Schritt S22 verbindet die Objekterfassungseinheit 22 einen benachbarten Punkt angrenzend an den Zielnachbarpunkt mit dem Zielnachbarpunkt.
  • Durch die vorhergehenden Prozesse werden die von den in den Sensordaten für jedes um den beweglichen Körper 100 vorhandene Objekt angegebenen Punkte verbunden, um eine Linie oder eine Ebene zu bilden wie in 6 dargestellt. Somit wird jedes um den beweglichen Körper 100 vorhandene Objekt identifiziert und eine Kontur und eine Position einer Fläche von jedem Objekt an einer Seite des beweglichen Körpers 100 werden identifiziert.
  • Die Objekterfassungseinheit 22 schreibt Objektinformationen 42 zur Angabe der Kontur und der ungefähren Position von jedem Objekt in den Speicher 121. In einem Beispiel von 6 werden Objektinformationen 42A bis 42C jeweils in Bezug auf die Objekte 41A bis 41C in den Speicher 121 geschrieben.
  • Prozesse von Schritt S3 bis Schritt S6 werden unter Verwendung von jedem in Schritt S2 identifizierten und um den beweglichen Körper 100 vorhandenen Objekt als ein Zielobjekt durchgeführt.
  • (Schritt S3: Bewegungsvorhersageprozess)
  • Die Bewegungsvorhersageeinheit 23 sagt eine Position des Zielobjekts in der nahen Zukunft voraus und schreibt zusätzlich die vorhergesagte Position in die im Speicher 121 gespeicherte Objektinformation 42 zum Zielobjekt.
  • In Ausführungsform 1 sagt die Bewegungsvorhersageeinheit 23 die Position des Zielobjekts in der nahen Zukunft unter Verwendung eines Kalman-Filters voraus. Die Bewegungsvorhersageeinheit 23 gibt die Position des in Schritt S2 identifizierten Zielobjekts als einen beobachteten Wert für den Kalman-Filter im Kalman-Filter ein und ermittelt einen resultierenden vorhergehenden vorhergesagten Wert eines Zustands als die Position des Zielobjekts in der Zukunft. Neben der Position des Zielobjekts in der nahen Zukunft erfasst die Bewegungsvorhersageeinheit 23 anschließend eine Fehlerkovarianzmatrix, die eine Verteilung einer Wahrscheinlichkeit des Vorhandenseins des Zielobjekts an jeder Position in Bezug auf die vorhergesagte Position als eine Mitte darstellt. Es wird angenommen, dass Informationen zum Kalman-Filter im Speicher 121 gespeichert werden, so dass diese in den Objektinformationen 42 zum Zielobjekt enthalten sind.
  • Eine Betriebsdauer der in 4 dargestellten Prozesse wird mit F Sekunden angenommen. Eine Ganzzahl o wird als eine Identifikationszahl zur Identifikation von Objekten nummeriert als N verwendet. Bei Verwendung einer Ganzzahl i, die 0 ≤ i ≤ I erfüllt, werden vorhergesagte Positionen eines Objekts o vom aktuellen Zeitpunkt k bis F·i Sekunden später als o,ixk ausgedrückt und eine nachfolgende Vorhersagefehlermatrix wird als oSk ausgedrückt.
  • Anschließend ist die vorhergesagte Position o,0xk gleich einem Zustand des Kalman-Filters, das heißt ein nachfolgender vorhergesagter Wert oxk der Position des Objekts o und der vorhergesagten Position o,1xk ist gleich einem vorhergehenden vorhergesagten Wert ox- k+1 zu einem nachfolgenden Zeitpunkt (F Sekunden nach dem aktuellen Zeitpunkt k). Die vorhergesagten Positionen o,ixk für die Ganzzahl i, die 0 ≤ i ≤ I erfüllt, werden durch Extrapolation auf der Basis des Wechsels vom nachfolgenden vorhergesagten Wert oxk zum vorhergehenden vorhergesagten Wert ox- k+1 berechnet. Das heißt eine Berechnung wie in Formel 1 wird durchgeführt. x o , i k = x o k + ( x o k + 1 x o k ) i
    Figure DE112016006982B4_0001
  • Die Bewegungsvorhersageeinheit 23 verknüpft das Objekt o, das bis zum vorhergehenden Zeitpunkt k-1 vorhergesagt wurde, und ein Objekt o', das zum aktuellen Zeitpunkt k erfasst wird, durch ein folgendes Verfahren.
  • Die Bewegungsvorhersageeinheit 23 verwendet eine Position o'x des Objekts o', das zum aktuellen Zeitpunkt k erfasst wird und noch nicht verknüpft wurde, und eine Wahrscheinlichkeitsverteilungsfunktion o,i+1Pk-1(x) für die vorhergesagte Position von jedem Objekt zum Zeitpunkt k, vorhergesagt zum vorhergehenden Zeitpunkt k-1, und verknüpft dadurch das Objekt o, das die höchste Wahrscheinlichkeit des Vorhandenseins o,i+1Pk-1(o'x) an der Position o'x aufweist, mit dem Objekt o'. Die Bewegungsvorhersageeinheit 23 gibt die Position o'x des Objekts o' als beobachteten Wert für das Kalman-Filter, enthalten in der Objektinformation 42 zum verknüpften Objekt o, ein und sagt dadurch die Position des Objekts o' in der Zukunft voraus. Die Bewegungsvorhersageeinheit 23 schreibt die Information zum Kalman-Filter, enthalten in der Objektinformation 42 zum verknüpften Objekt o, und die erfasste Information zum Kalman-Filter für das Objekt o' in den Speicher 121.
  • Wenn das Objekt o mit der Wahrscheinlichkeit des Vorhandenseins o,i+1Pk-1(o'x) an der Position o'x höher als eine Referenzwahrscheinlichkeit nicht vorhanden ist, verknüpft die Bewegungsvorhersageeinheit 23 das Objekt o' nicht mit dem Objekt o.
  • Wenn eine Vielzahl von Objekten o mit dem einzelnen Objekt o' verknüpft ist, wird die Position des Objekts o' in der Zukunft durch Eingabe der Position o'x als beobachteter Wert für das Kalman-Filter für jedes Objekt o vorhergesagt. Wenn das einzelne Objekt o mit einer Vielzahl von Objekten o' verknüpft ist, wird die Objektinformation 42 zum Objekt o unter einer Annahme dupliziert, dass das Objekt o aufgeteilt wurde, und die Position von jedem Objekt o' in der Zukunft wird durch Eingabe von jeder Position o'x im Kalman-Filter für jeden Teil der Objektinformation 42 vorhergesagt. Für das Objekt o', das nicht mit dem Objekt o verknüpft ist, wird angenommen, dass das Objekt neu aufgetreten ist, und die Position des Objekts o' in der Zukunft wird mit Bereitstellung der neuen Objektinformation 42 umfassend das Kalman-Filter mit o'x als ein Ausgangswert vorhergesagt. Für das Objekt o, das nicht mit einem Objekt o' verknüpft ist, wird angenommen, dass das Objekt o verschwunden ist, und die Objektinformation 42 zum Objekt o wird verworfen.
  • Ohne Beschränkung des Vorhersageprozesses unter Verwendung des Kalman-Filters kann die Bewegungsvorhersageeinheit 23 die Wahrscheinlichkeit des Vorhandenseins des Zielobjekts an jeder Position des Zielobjekts durch einen anderen Vorhersageprozess berechnen.
  • (Schritt S4: Fehlererfassungsprozess)
  • Die Fehlererfassungseinheit 24 erfasst einen Fehler in einer Vorhersage der Bewegung durch die Bewegungsvorhersageeinheit 23.
  • In Ausführungsform 1 erfasst die Fehlererfassungseinheit 24 einen Fehler in einem zum vorhergehenden Zeitpunkt in Schritt S3 vorhergesagten Ergebnis. Hier umfassen die in Schritt S3 zum Zeitpunkt k erfasste vorhergesagte Position o,jxk und die in Schritt S3 zum vorhergehenden Zeitpunkt k-1 erfasste vorhergesagte Position o,(j+1)xk-1 beide eine vorhergesagte Position zum Zeitpunkt k+j für jede Ganzzahl j, die 0 ≤ j ≤ I-1 erfüllt, obgleich sich der Zeitpunkt der Vorhersage unterscheidet. Die Fehlererfassungseinheit 24 erfasst den Fehler in der Vorhersage, wenn ein euklidischer Abstand zwischen der vorhergesagten Position o,jxk und der vorhergesagten Position o,(j+1)xk-1 eine Schwelle überschreitet. Alternativ kann die Fehlererfassungseinheit 24 den Fehler in der Vorhersage erfassen, wenn ein verallgemeinerter Mahalanobis-Abstand, berechnet unter Verwendung einer nachfolgenden oder vorhergehenden Kovarianzmatrix der vorhergesagten Position o,jxk und der vorhergesagten Position o,(j+1)xk-1, eine Schwelle überschreitet.
  • Die Fehlererfassungseinheit 24 schreibt zusätzlich eine Fehlerinformation zur Angabe, ob der Fehler in der Vorhersage erfasst wurde oder nicht, in die Objektinformation 42 zum Zielobjekt. Statt des dauerhaften Speicherns der Fehlerinformation kann ein Ringpuffer, der die letzten vorhergehenden Teile der Fehlerinformation nummeriert als h behält, in der Objektinformation 42 ausgebildet sein. Hier ist h eine beliebige positive Ganzzahl.
  • (Schritt S5: Blickermittlungsprozess)
  • Die Blickermittlungseinheit 25 ermittelt, ob ein Fahrer des beweglichen Körpers 100 zum Zielobjekt geblickt hat oder nicht.
  • In Ausführungsform 1 ermittelt die Blickermittlungseinheit 25, ob der Fahrer zum Zielobjekt geblickt hat oder nicht, durch Identifikation eines Sichtvektors des Fahrers und durch Kollisionsermittlung mit dem Zielobjekt. Insbesondere ermittelt die Blickermittlungseinheit 25 das Vorhandensein oder Fehlen eines geometrischen Schnittpunkts des identifizierten Sichtvektors und die durch Verbinden der durch die Abstandsinformation zum Zielobjekt in Schritt S22 identifizierten Punkte gebildete Linie oder Ebene. Der Sichtvektor kann durch Erfassung einer Ausrichtung eines Gesichts mit einer in einem Fahrzeug montierten Kamera und Erfassung einer Ausrichtung von Augen mit einer mit Kamera ausgestatteten Brille identifiziert werden. Ein Sensor und ein Algorithmus zur Identifikation des Sichtvektors können eine beliebige Ausführung aufweisen.
  • Die Blickermittlungseinheit 25 schreibt zusätzlich ein Blickermittlungsergebnis, ob der Fahrer zum Zielobjekt geblickt hat oder nicht, in die Objektinformation 42 zum Zielobjekt. Statt des dauerhaften Speicherns des Blickermittlungsergebnisses kann ein Ringpuffer, der die Blickermittlungsergebnisse der neuesten vorhergehenden nummeriert als h behält, in der Objektinformation 42 ausgebildet sein.
  • In Ausführungsform 1 ermittelt die Blickermittlungseinheit 25, dass der Fahrer zum Zielobjekt geblickt hat, wenn eine Zahl von Ergebnissen mit dem Vorhandensein eines Blicks nach dem Zeitpunkt des letzten Fehlers in der Vorhersage aus den Ergebnissen der letzten vorhergehenden nummeriert als h H überschreitet, das eine Schwelle ist. Die Blickermittlungseinheit 25 liefert ein Blick-Flag in der Objektinformation 42, und wenn ermittelt wird, dass der Fahrer zum Zielobjekt geblickt hat, legt sie einen Wert von 1 zur Angabe des Vorhandenseins des Blicks im Blick-Flag fest. Wenn hingegen kein Blick ermittelt wird, legt die Blickermittlungseinheit 25 einen Wert von 0 zur Angabe des Fehlens des Blicks im Blick-Flag fest. Somit bewirkt der Fehler in der Vorhersage ein Nichtsetzen des Blick-Flags für das Zielobjekt, selbst wenn der Fahrer zum Zielobjekt geblickt hat. In Ausführungsform 1 wird eine Prämisse gesetzt, dass der Blick zum Zielobjekt ermittelt wird, wenn der Blick auf das Zielobjekt für F·H Sekunden oder länger insgesamt innerhalb von F·h Sekunden der letzten vorhergehenden fokussiert war, und die Werte von h und H werden aufgrund dieser Prämisse ermittelt.
  • (Schritt S6: Kollisionsvorhersageprozess)
  • Die Kollisionsvorhersageeinheit 26 berechnet eine Wahrscheinlichkeit der Kollision zwischen dem beweglichen Körper 100 und dem Zielobjekt. In Ausführungsform 1 berechnet die Kollisionsvorhersageeinheit 26 eine Wahrscheinlichkeit, dass das Zielobjekt an einer Position des beweglichen Körpers 100 zu einem Zeitpunkt in der Zukunft vorhanden sein wird, als die Wahrscheinlichkeit einer Kollision zwischen dem beweglichen Körper 100 und dem Zielobjekt.
  • Als eine Prämisse wird angenommen, dass die Position des beweglichen Körpers 100 in der nahen Zukunft vorhergesagt wird. Die Position des beweglichen Körpers 100 in der nahen Zukunft kann mit dem Kalman-Filter wie beim Prozess zum Vorhersagen der Position des Zielobjekts in der nahen Zukunft in Schritt S3 vorhergesagt werden. Die Position des beweglichen Körpers 100 in der nahen Zukunft kann durch ein Verfahren verschieden von einem Verfahren für die Position des Zielobjekts in der nahen Zukunft unter Berücksichtigung von anderen Arten von Information wie Geschwindigkeitsinformationen, Beschleunigungsinformationen und Lenkwinkelinformationen zum beweglichen Körper 100 vorhergesagt werden.
  • Zum Zeitpunkt k wird eine Wahrscheinlichkeit o,iPk(x), dass das Objekt o an einer Position x F·i Sekunden nach dem Zeitpunkt k vorhanden ist, durch Formel 2 ausgedrückt. P o , i k ( x ) = 1 2 π | S o k | e x p ( 1 2 ( x x o , i k ) T S o k 1 ( x x o , i k ) )
    Figure DE112016006982B4_0002
  • Vorausgesetzt, dass eine vorhergesagte Position des beweglichen Körpers 100 bei F·i Sekunden nach dem Zeitpunkt k als ix^k ausgedrückt wird, wird eine Wahrscheinlichkeit, dass der bewegliche Körper 100 und das Objekt o an der gleichen Position sein werden, das heißt die Wahrscheinlichkeit einer Kollision zwischen dem beweglichen Körper 100 und dem Objekt o, als eine Wahrscheinlichkeit o,iPk(ix^k) ausgedrückt.
  • (Schritt S7: Benachrichtigungsermittlungsprozess)
  • Die Benachrichtigungsermittlungseinheit 27 verwendet nur ein Objekt, mit dem Wert 0 festgelegt im Blick-Flag in Schritt S5, als ein Objekt der Ermittlung und ermittelt, ob die Wahrscheinlichkeit iP~ k(ix^k) einer Kollision zwischen dem beweglichen Körper 100 und dem Objekt der Ermittlung höher ist ein Referenzwert iT oder nicht. Die Benachrichtigungsermittlungseinheit 27 fährt in den Prozessen mit Schritt S8 fort, wenn die Wahrscheinlichkeit iP~ k(ix^k) einer Kollision höher ist als der Referenzwert iT, oder kehrt andernfalls in den Prozessen zu Schritt S1 zurück.
  • In Ausführungsform 1 ist die Wahrscheinlichkeit o,iP~ k(ix^k) der Kollision zwischen dem beweglichen Körper 100 und dem Objekt der Ermittlung wie in Formel 3 ausgedrückt. In Formel 3 wird die Wahrscheinlichkeit einer Kollision für das Objekt mit dem Wert 1 im Blick-Flag festgelegt mit Null angesetzt, damit ausschließlich die Objekte mit dem Wert 0 im Blick-Flag festgelegt als die Objekte der Ermittlung verwendet werden können. P o , i k ( x i k ) = { 0 ( Blick-Flag 1 ) P o , i k ( x i k ) ( Blick-Flag 0 )
    Figure DE112016006982B4_0003
  • Die Wahrscheinlichkeit iP~ k(ix^k) der Kollision zwischen dem beweglichen Körper 100 und allen Objekten mit dem Wert 0, die im Blick-Flag festgelegt ist, ist als Formel 4 ausgedrückt. P i k ( x ) = 1 o = 1 N ( 1 P o , i k ( x ) )
    Figure DE112016006982B4_0004
  • Unter der Voraussetzung, dass die Benachrichtigung dann erfolgt, wenn die Wahrscheinlichkeit einer Kollision einen vorgegebenen Wert überschreitet, ungeachtet der Ganzzahl i zur Identifikation der seit dem Zeitpunkt k verstrichenen Zeit, wird der vorgegebene Wert als Referenzwert iT festgelegt. Unter der Voraussetzung, dass die Benachrichtigung dann erfolgt, wenn die Wahrscheinlichkeit einer Kollision ungeachtet der Ganzzahl i 50 % überschreitet, ist der Referenzwert iT als ein spezifisches Beispiel gleich 0,5. Unter der Voraussetzung, dass die Benachrichtigung dann erfolgt, wenn die Wahrscheinlichkeit einer Kollision schrittweise zunimmt, wird der Referenzwert iT so festgelegt, dass i1T < i2T für i1 < i2 zutrifft.
  • Das heißt die Benachrichtigungsermittlungseinheit 27 ermittelt, ob die Benachrichtigung, dass die Kollisionsvorhersageeinheit 26 eine Kollision zwischen dem beweglichen Körper 100 und dem Objekt vorhergesagt hat, an den Fahrer zu melden ist oder nicht, auf der Basis des Zeitpunkts, zu dem die Fehlererfassungseinheit 24 den Fehler in der Vorhersage erfasst hat, und des Zeitpunkts, zu dem die Blickermittlungseinheit 25 den Blick zum Objekt ermittelt hat. Insbesondere ermittelt die Benachrichtigungsermittlungseinheit 27, dass die Benachrichtigung nicht zu melden ist, wenn der Zeitpunkt, zu dem die Blickermittlungseinheit 25 den Blick zum Objekt ermittelt hat, nach dem Zeitpunkt liegt, zu dem die Fehlererfassungseinheit 24 den Fehler in der Vorhersage erfasst hat. Die Benachrichtigungsermittlungseinheit 27 ermittelt hingegen, dass die Benachrichtigung zu melden ist, wenn der Zeitpunkt, zu dem die Blickermittlungseinheit 25 den Blick zum Objekt ermittelt hat, vor dem Zeitpunkt liegt, zu dem die Fehlererfassungseinheit 24 den Fehler in der Vorhersage erfasst hat.
  • Die Benachrichtigungsermittlungseinheit 27 fährt in den Prozessen mit Schritt S8 bei einem Ermitteln, dass die Benachrichtigung zu melden ist, fort oder kehrt andernfalls in den Prozessen zum Schritt S1 zurück.
  • (Schritt S8: Benachrichtigungsprozess)
  • Die Benachrichtigungsermittlungseinheit 27 gibt eine Anweisungsinformation zur Anweisung für die Benachrichtigung durch die Ausgabeschnittstelle 14 an die Alarmeinheit 32 aus. Anschließend gibt die Alarmeinheit 32 einen Alarm durch ein Verfahren wie das Ertönen eines Summers oder das Ausführen einer Sprachführung aus und benachrichtigt den Fahrer, dass eine Kollision zwischen dem beweglichen Körper 100 und einem um den beweglichen Körper 100 vorhandenen Objekt vorhergesagt wurde. Die Alarmeinheit 32 kann den Alarm mit Zeichen oder Graphiken ausgeben.
  • *** Wirkungen von Ausführungsform 1 ***
  • Wie zuvor beschrieben ermittelt die Fahrassistenzvorrichtung 10 gemäß der Ausführungsform 1, ob die Benachrichtigung, dass die Kollision vorhergesagt wurde, an den Fahrer zu melden ist oder nicht, unter Berücksichtigung dessen, ob der Fehler in der Vorhersage erfasst wurde oder nicht. Insbesondere umfasst die Fahrassistenzvorrichtung 10 ein Objekt, das bereits erblickt wurde, um vom Fahrer erkannt zu werden, und für das die Bewegungsvorhersage fehlgeschlagen ist, in den Zielen und ermittelt anschließend, ob die Benachrichtigung an den Fahrer zu melden ist oder nicht. Somit kann die geeignete Benachrichtigung zu einem Kollisionsrisiko zwischen dem beweglichen Körper und einem benachbarten Objekt erfolgen.
  • *** Weitere Konfigurationen ***
  • <Modifikation 1>
  • In Ausführungsform 1 wird, ob die Benachrichtigung zu melden ist oder nicht, unter Verwendung der Wahrscheinlichkeit iP~ k(ix^k) der Kollision mit allen Objekten mit dem Wert 0 festgelegt im Blick-Flag in Schritt S7 ermittelt. Als Modifikation 1 wird, ob die Benachrichtigung zu melden ist oder nicht, unter Verwendung der Wahrscheinlichkeit o,iP k(ix^k) der Kollision mit jedem Objekt mit dem Wert 0 festgelegt im Blick-Flag in Schritt S7 ermittelt.
  • Das heißt die Benachrichtigungsermittlungseinheit 27 kann ermitteln, ob die Wahrscheinlichkeit o,iPk(ix^k) einer Kollision höher ist als der Referenzwert iT oder nicht für jedes Objekt mit dem Wert 0 im Blick-Flag festgelegt, und kann ermitteln, dass die Benachrichtigung zu melden ist, wenn wenigstens eine Wahrscheinlichkeit o,iP~ k(ix^k) einer Kollision höher ist als der Referenzwert iT. Das heißt die Benachrichtigungsermittlungseinheit 27 ermittelt, dass die Benachrichtigung nicht an den Fahrer zu melden ist, für ein Objekt, für das der Blick durch die Blickermittlungseinheit 25 nach dem Erfassen des Fehlers in der Vorhersage durch die Fehlererfassungseinheit 24 ermittelt wird, und ermittelt, dass die Benachrichtigung an den Fahrer zu melden ist, für ein Objekt, für das der Blick durch die Blickermittlungseinheit 25 nur vor dem Erfassen des Fehlers in der Vorhersage durch die Fehlererfassungseinheit 24 ermittelt wird.
  • <Modifikation 2>
  • In Ausführungsform 1 werden die Funktionen der Einheiten der Fahrassistenzvorrichtung 10 durch Software ausgeführt. Als Modifikation 2 können die Funktionen der Einheiten der Fahrassistenzvorrichtung 10 durch Hardware ausgeführt werden. Unterschiede von Ausführungsform 1 in Modifikation 2 sind anschließend beschrieben.
  • Nachfolgend ist in Bezug auf 7 eine Konfiguration der Fahrassistenzvorrichtung 10 gemäß Modifikation 2 beschrieben.
  • Wenn die Funktionen der Einheiten durch Hardware ausgeführt werden, umfasst die Fahrassistenzvorrichtung 10 eine Verarbeitungsschaltung 15 statt des Prozessors 11 und der Speichervorrichtung 12. Die Verarbeitungsschaltung 15 ist eine spezielle elektronische Schaltung, welche die Funktionen der Einheiten der Fahrassistenzvorrichtung 10 und Funktionen der Speichervorrichtung 12 erfüllt.
  • Als Verarbeitungsschaltung 15 kann eine einzelne Schaltung, eine kombinierte Schaltung, ein programmierter Prozessor, ein parallel programmierter Prozessor, ein integrierter Logikschaltkreis IC, ein Gate Array (GA), ein anwendungsspezifischer Schaltkreis (Application Specific Integrated Circuit, ASIC) oder ein Field Programmable Gate Array (FPGA) angenommen werden.
  • Die Funktionen der Einheiten können durch eine Verarbeitungsschaltung 15 ausgeführt werden oder können durch eine Vielzahl von Verarbeitungsschaltungen 15 ausgeführt werden.
  • <Modifikation 3>
  • Als Modifikation 3 können einige der Funktionen durch Hardware ausgeführt sein und die anderen der Funktionen können durch Software ausgeführt sein. Das heißt einige der Funktionen der Einheiten der Fahrassistenzvorrichtung 10 können durch Hardware ausgeführt sein und die anderen der Funktionen der Einheiten können durch Software ausgeführt sein.
  • Der Prozessor 11, die Speichervorrichtung 12 und die Verarbeitungsschaltung 15 werden gemeinsam als „Verarbeitungsschaltungsanordnung“ bezeichnet. Das heißt die Funktionen der Einheiten werden durch die Verarbeitungsschaltungsanordnung ausgeführt.
  • Bezugszeichenliste
  • 10: Fahrassistenzvorrichtung 11: Prozessor 12: Speichervorrichtung 121: Speicher 122: Speicher 13: Sensorschnittstelle 14: Ausgabeschnittstelle 15: Verarbeitungsschaltung 21: Datenerfassungseinheit 22: Objekterfassungseinheit 23: Bewegungsvorhersageeinheit 24: Fehlervorhersageeinheit 25: Blickermittlungseinheit 26: Kollisionsvorhersageeinheit 27: Benachrichtigungsermittlungseinheit 31: Überwachungssensor 32: Alarmeinheit 41: Objekt 42: Objektinformation

Claims (9)

  1. Fahrassistenzvorrichtung (10) umfassend: eine Bewegungsvorhersageeinheit (23) zum Vorhersagen einer Bewegung eines um einen beweglichen Körper vorhandenen Objekts; eine Fehlererfassungseinheit (24) zum Erfassen eines Fehlers in einer Vorhersage der Bewegung durch die Bewegungsvorhersageeinheit (23), wenn ein Abstand zwischen einer von der Bewegungsvorhersageeinheit (23) zum Zeitpunkt k vorhergesagten Position des Objekts zum Zeitpunkt k+j und einer von der Bewegungsvorhersageeinheit (23) zum vom Zeitpunkt k verschiedenen Zeitpunkt k' vorhergesagten Position des Objekts zum Zeitpunkt k+j einen Schwellenwert überschreitet; eine Blickermittlungseinheit (25) zum Ermitteln, ob ein Fahrer des beweglichen Körpers auf das Objekt geblickt hat oder nicht; eine Kollisionsvorhersageeinheit (26) zum Vorhersagen einer Kollision zwischen dem beweglichen Körper und dem Objekt auf der Basis der Vorhersage der Bewegung; und eine Benachrichtigungsermittlungseinheit (27) zum Ermitteln, ob eine Benachrichtigung, dass die Kollisionsvorhersageeinheit (26) die Kollision zwischen dem beweglichen Körper und dem Objekt vorhergesagt hat, an den Fahrer zu melden ist oder nicht, auf der Basis dessen, ob die Fehlererfassungseinheit (24) den Fehler in der Vorhersage erfasst hat oder nicht und ob die Blickermittlungseinheit (25) einen Blick auf das Objekt ermittelt hat oder nicht.
  2. Fahrassistenzvorrichtung (10) nach Anspruch 1, wobei die Benachrichtigungsermittlungseinheit (27) ermittelt, ob die Benachrichtigung zu melden ist oder nicht, auf der Basis eines Zeitpunkts, zu dem die Fehlererfassungseinheit (24) den Fehler in der Vorhersage erfasst hat, und des Zeitpunkts, zu dem die Blickermittlungseinheit (25) den Blick auf das Objekt ermittelt hat.
  3. Fahrassistenzvorrichtung (10) nach Anspruch 2, wobei die Benachrichtigungsermittlungseinheit (27) ermittelt, dass die Benachrichtigung nicht zu melden ist, wenn der Zeitpunkt, zu dem die Blickermittlungseinheit (25) den Blick auf das Objekt ermittelt hat, nach dem Zeitpunkt liegt, zu dem die Fehlererfassungseinheit (24) den Fehler in der Vorhersage erfasst hat.
  4. Fahrassistenzvorrichtung (10) nach Anspruch 2 oder 3, wobei die Benachrichtigungsermittlungseinheit (27) ermittelt, dass die Benachrichtigung zu melden ist, wenn der Zeitpunkt, zu dem die Blickermittlungseinheit (25) den Blick auf das Objekt ermittelt hat, vor dem Zeitpunkt liegt, zu dem die Fehlererfassungseinheit (24) den Fehler in der Vorhersage erfasst hat.
  5. Fahrassistenzvorrichtung (10) nach einem der Ansprüche 1 bis 4, wobei der Abstand ein euklidischer Abstand ist.
  6. Fahrassistenzvorrichtung (10) nach einem der Ansprüche 1 bis 4, wobei der Abstand ein verallgemeinerter Mahalanobis-Abstand ist.
  7. Fahrassistenzverfahren umfassend: Vorhersagen, durch einen Computer, der Bewegung eines um einen beweglichen Körper vorhandenen Objekts; Erfassen, durch den Computer, eines Fehlers in einer Vorhersage der Bewegung, wenn ein Abstand zwischen einer zum Zeitpunkt k vorhergesagten Position des Objekts zum Zeitpunkt k+j und einer zum vom Zeitpunkt k verschiedenen Zeitpunkt k' vorhergesagten Position des Objekts zum Zeitpunkt k+j eine Schwelle überschreitet; Ermitteln, durch den Computer, ob ein Fahrer des beweglichen Körpers auf das Objekt geblickt hat oder nicht; Vorhersagen, durch den Computer, einer Kollision zwischen dem beweglichen Körper und dem Objekt auf der Basis der Vorhersage der Bewegung; und Ermitteln, durch den Computer, ob eine Benachrichtigung, dass die Kollision zwischen dem beweglichen Körper und dem Objekt vorhergesagt wurde, an den Fahrer zu melden ist oder nicht, auf der Basis dessen, ob der Fehler in der Vorhersage der Bewegung erfasst wurde oder nicht und ob ein Blick auf das Objekt ermittelt wurde oder nicht.
  8. Fahrassistenzprogramm, das einen Computer veranlasst zum Ausführen: eines Bewegungsvorhersageprozesses des Vorhersagens einer Bewegung eines um einen beweglichen Körper vorhandenen Objekts; eines Fehlererfassungsprozesses des Erfassens eines Fehlers in einer Vorhersage der Bewegung im Bewegungsvorhersageprozess, wenn ein Abstand zwischen einer vom Bewegungsvorhersageprozess zum Zeitpunkt k vorhergesagten Position des Objekts zum Zeitpunkt k+j und einer vom Bewegungsvorhersageprozess zum vom Zeitpunkt k verschiedenen Zeitpunkt k' vorhergesagten Position des Objekts zum Zeitpunkt k+j einen Schwellenwert überschreitet; eines Blickermittlungsprozesses des Ermittelns, ob ein Fahrer des beweglichen Körpers auf das Objekt geblickt hat oder nicht; eines Kollisionsvorhersageprozesses des Vorhersagens einer Kollision zwischen dem beweglichen Körper und dem Objekt auf der Basis der Vorhersage der Bewegung; und eines Benachrichtigungsermittlungsprozesses des Ermittelns, ob eine Benachrichtigung, dass die Kollision zwischen dem beweglichen Körper und dem Objekt im Kollisionsvorhersageprozess vorhergesagt wurde, an den Fahrer zu geben ist oder nicht, auf der Basis dessen, ob der Fehler in der Vorhersage im Fehlervorhersageprozess erfasst wurde oder nicht und ob ein Blick auf das Objekt im Blickermittlungsprozess ermittelt wurde oder nicht.
  9. Fahrassistenzvorrichtung (10) umfassend: eine Bewegungsvorhersageeinheit (23) zum Vorhersagen der Bewegung eines um einen beweglichen Körper vorhandenen Objekts; eine Fehlererfassungseinheit (24) zum Erfassen eines Fehlers in einer Vorhersage der Bewegung durch die Bewegungsvorhersageeinheit (23); eine Blickermittlungseinheit (25) zum Ermitteln, ob ein Fahrer des beweglichen Körpers auf das Objekt geblickt hat oder nicht; eine Kollisionsvorhersageeinheit (26) zum Vorhersagen einer Kollision zwischen dem beweglichen Körper und dem Objekt auf der Basis der Vorhersage der Bewegung; und eine Benachrichtigungsermittlungseinheit (27) zum Ermitteln, ob die Benachrichtigung, dass die Kollisionsvorhersageeinheit (26) die Kollision zwischen dem beweglichen Körper und dem Objekt vorhergesagt hat, an den Fahrer zu melden ist oder nicht, auf der Basis des Zeitpunkts, zu dem die Fehlererfassungseinheit (24) den Fehler in der Vorhersage erfasst hat, und des Zeitpunkts, zum dem die Blickermittlungseinheit (25) einen Blick auf das Objekt ermittelt hat.
DE112016006982.0T 2016-07-22 2016-07-22 Fahrassistenzvorrichtung, fahrassistenzverfahren und fahrassistenzprogramm Active DE112016006982B4 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/071576 WO2018016075A1 (ja) 2016-07-22 2016-07-22 運転支援装置、運転支援方法及び運転支援プログラム

Publications (2)

Publication Number Publication Date
DE112016006982T5 DE112016006982T5 (de) 2019-03-07
DE112016006982B4 true DE112016006982B4 (de) 2024-05-23

Family

ID=58704716

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112016006982.0T Active DE112016006982B4 (de) 2016-07-22 2016-07-22 Fahrassistenzvorrichtung, fahrassistenzverfahren und fahrassistenzprogramm

Country Status (5)

Country Link
US (1) US20190213885A1 (de)
JP (1) JP6125135B1 (de)
CN (1) CN109478369A (de)
DE (1) DE112016006982B4 (de)
WO (1) WO2018016075A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019069720A (ja) * 2017-10-10 2019-05-09 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング 鞍乗り型車両用情報処理装置、及び、鞍乗り型車両用情報処理方法
KR102636740B1 (ko) * 2018-12-17 2024-02-15 현대자동차주식회사 차량 및 그 제어방법
JP7116699B2 (ja) * 2019-03-19 2022-08-10 株式会社デンソー 行動予測装置、行動予測方法およびプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05225499A (ja) 1992-02-14 1993-09-03 Mitsubishi Motors Corp 車間距離検知・警報装置
JPH07167668A (ja) 1993-12-14 1995-07-04 Nissan Motor Co Ltd 走行情報提供装置
DE102007011135A1 (de) 2006-03-09 2007-11-08 Denso Corp., Kariya Betriebsassistenzsystem, Sendevorrichtung und Empfangsvorrichtung
US20120307059A1 (en) 2009-11-30 2012-12-06 Fujitsu Limited Diagnosis apparatus and diagnosis method
DE102012214852A1 (de) 2012-08-21 2014-02-27 Robert Bosch Gmbh Verfahren zum Ergänzen einer, einem Objekt zugeordneten Objektinformation und Verfahren zum Selektieren von Objekten in einem Umfeld eines Fahrzeugs
US20140219505A1 (en) 2011-09-20 2014-08-07 Toyota Jidosha Kabushiki Kaisha Pedestrian behavior predicting device and pedestrian behavior predicting method
WO2015155874A1 (ja) 2014-04-10 2015-10-15 三菱電機株式会社 経路予測装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005098777A1 (en) * 2004-03-22 2005-10-20 Volvo Technology Corporation Method and system for perceptual suitability test of a driver
JPWO2006112172A1 (ja) * 2005-03-31 2008-12-04 パイオニア株式会社 ナビゲーション装置
JP4644590B2 (ja) * 2005-12-05 2011-03-02 アルパイン株式会社 周辺車両位置検出装置および周辺車両位置検出方法
JP5098584B2 (ja) * 2007-11-09 2012-12-12 日産自動車株式会社 車両用運転支援装置
JP2011145922A (ja) * 2010-01-15 2011-07-28 Toyota Motor Corp 車速制御装置
JP5742201B2 (ja) * 2010-12-15 2015-07-01 富士通株式会社 運転支援装置、運転支援方法及び運転支援プログラム
JP2012226635A (ja) * 2011-04-21 2012-11-15 Renesas Electronics Corp 車両の衝突予防安全装置
JP5573780B2 (ja) * 2011-06-09 2014-08-20 トヨタ自動車株式会社 進路評価装置及び進路評価方法
GB2494414A (en) * 2011-09-06 2013-03-13 Land Rover Uk Ltd Terrain visualisation for vehicle using combined colour camera and time of flight (ToF) camera images for augmented display

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05225499A (ja) 1992-02-14 1993-09-03 Mitsubishi Motors Corp 車間距離検知・警報装置
JPH07167668A (ja) 1993-12-14 1995-07-04 Nissan Motor Co Ltd 走行情報提供装置
DE102007011135A1 (de) 2006-03-09 2007-11-08 Denso Corp., Kariya Betriebsassistenzsystem, Sendevorrichtung und Empfangsvorrichtung
US20120307059A1 (en) 2009-11-30 2012-12-06 Fujitsu Limited Diagnosis apparatus and diagnosis method
US20140219505A1 (en) 2011-09-20 2014-08-07 Toyota Jidosha Kabushiki Kaisha Pedestrian behavior predicting device and pedestrian behavior predicting method
DE102012214852A1 (de) 2012-08-21 2014-02-27 Robert Bosch Gmbh Verfahren zum Ergänzen einer, einem Objekt zugeordneten Objektinformation und Verfahren zum Selektieren von Objekten in einem Umfeld eines Fahrzeugs
WO2015155874A1 (ja) 2014-04-10 2015-10-15 三菱電機株式会社 経路予測装置

Also Published As

Publication number Publication date
DE112016006982T5 (de) 2019-03-07
JPWO2018016075A1 (ja) 2018-07-19
WO2018016075A1 (ja) 2018-01-25
CN109478369A (zh) 2019-03-15
US20190213885A1 (en) 2019-07-11
JP6125135B1 (ja) 2017-05-10

Similar Documents

Publication Publication Date Title
DE102013014106B4 (de) Auf V2V-Kommunikation basierende Fahrzeugidentifizierungsvorrichtung und Identifizierungsverfahren für diese
DE102013113619B4 (de) Probabilistische Zielauswahl und Gefahrbewertungsverfahren und Anwendung auf ein Kreuzungs-Kollisonswarnsystem
DE102017207968B4 (de) Vorrichtung zum Vorbeugen gegen einen Fußgängerkollisionsunfall, System mit derselben, und Verfahren hierzu
DE102010061922B4 (de) Mit einer Blickrichtung eines Fahrers gekoppeltes System und Verfahren zum Alarmieren einer Frontalaufprallgefahr und ein dasselbe verwendendes Fahrzeug
DE102018100469A1 (de) Generierten von simulierten sensordaten zum trainieren und überprüfen von erkennungsmodellen
EP3250943B1 (de) Verfahren zum erfassen eines objekts in einem umgebungsbereich eines kraftfahrzeugs durch überprüfen einer räumlichen abweichung von messpunkten, steuereinrichtung, fahrerassistenzsystem sowie kraftfahrzeug
DE102012200347B4 (de) Parkraumdetektionssystem und Verfahren unter Verwendung von Netztraumanalyse
DE102015210069A1 (de) Fahrunterstützungsvorrichtung
DE102013205875A1 (de) Fahrbahnmarkierungs-Erkennungsvorrichtung und -Verfahren
DE10220837A1 (de) Vorrichtung zur Parklückensuche mittels Radar
CN103042922A (zh) 确定基于车辆驾驶状态信息的驾驶集中度的***和方法
DE102015206752A1 (de) Einparkhilfe für ein Fahrzeug
DE112016006982B4 (de) Fahrassistenzvorrichtung, fahrassistenzverfahren und fahrassistenzprogramm
DE102008043200A1 (de) Warnmeldungsanlage zum Warnen eines Fahrers vor dem Vorhandensein von Gegenständen
EP3714286B1 (de) Verfahren und vorrichtung zur ermittlung eines installationswinkels zwischen einer fahrbahn, auf der ein fahrzeug fährt, und einer erfassungsrichtung eines mess- bzw. radarsensors
DE112016006386T5 (de) Fahrzeugseitige vorrichtung, warnungsausgabeverfahren und warnungsausgabeprogramm
DE112016005947B4 (de) Fahrzeugbestimmungsvorrichtung, Fahrzeugbestimmungsverfahren und Fahrzeugbestimmungsprogramm
Lethaus et al. Using pattern recognition to predict driver intent
DE112018007487T5 (de) Fahrzeugkommunikationsvorrichtung
DE112016006323T5 (de) Unfallwahrscheinlichkeitsrechner, Unfallwahrscheinlichkeitsberechnungsverfahren und Unfallwahrscheinlichkeitsberechnungsprogramm
DE102021102898A1 (de) Verbesserte objekterfassung mit clustering
DE112015006601T5 (de) Verbesserte Kollisionsabwendung
DE102012000813A1 (de) Verfahren und Vorrichtung zur Überwachung einer Fahrzeugumgebung
DE102013214631A1 (de) Effizientes Bereitstellen von Belegungsinformationen für das Umfeld eines Fahrzeugs
DE102017205245A1 (de) Freibereichsfusion für Fahrerassistenzsysteme

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R084 Declaration of willingness to licence
R016 Response to examination communication
R018 Grant decision by examination section/examining division