DE112020001707T5 - Herunterfallendes-Objekt-Bestimmungsvorrichtung, Fahrunterstützungssystem, und Herunterfallendes-Objekt-Bestimmungsverfahren - Google Patents

Herunterfallendes-Objekt-Bestimmungsvorrichtung, Fahrunterstützungssystem, und Herunterfallendes-Objekt-Bestimmungsverfahren Download PDF

Info

Publication number
DE112020001707T5
DE112020001707T5 DE112020001707.9T DE112020001707T DE112020001707T5 DE 112020001707 T5 DE112020001707 T5 DE 112020001707T5 DE 112020001707 T DE112020001707 T DE 112020001707T DE 112020001707 T5 DE112020001707 T5 DE 112020001707T5
Authority
DE
Germany
Prior art keywords
truck bed
vehicle
falling
bed
object near
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112020001707.9T
Other languages
English (en)
Inventor
Takahisa Yokoyama
Noriyuki Ido
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of DE112020001707T5 publication Critical patent/DE112020001707T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/862Combination of radar systems with sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • G01S13/878Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2400/00Indexing codes relating to detected, measured or calculated conditions or factors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93272Sensor installation details in the back of the vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

Eine Herunterfallendes-Objekt-Bestimmungsvorrichtung (100), die konfiguriert ist, an einem eigenen Fahrzeug (500) montiert zu sein, ist vorgesehen. Die Herunterfallendes-Objekt-Bestimmungsvorrichtung (100) enthält eine Bezugseinheit (103), die konfiguriert ist, um als ein erstes Erfassungssignal Informationen zu beziehen, die eine Verlagerung eines Objekts nahe einer Ladefläche eines nahegelegenen Fahrzeugs, das nahe des eigenen Fahrzeugs fährt, angeben; und eine Steuereinheit (101), die konfiguriert ist, um zumindest einen der Faktoren, eine Schwingungsfrequenz, eine Amplitude und eine Größe des Objekts nahe der Ladefläche durch Verwendung des ersten Erfassungssignals zu berechnen, und eine Bestimmung durchführt, ob das Objekt nahe der Ladefläche ein Objekt ist, das wahrscheinlich von der Ladefläche herunterfallen wird, oder ein Objekt, das von der Ladefläche herunterfällt, in Übereinstimmung mit einem Berechnungsergebnis.

Description

  • Verweis zu in Beziehung stehender Anmeldung
  • Die vorliegende Anmeldung beansprucht die Priorität der japanischen Patentanmeldung Nr. 2019-71687 , eingereicht am 4. April 2019; auf den dortigen Offenbarungsgehalt wird hier vollinhaltlich Bezug genommen.
  • Technisches Gebiet
  • Die vorliegende Offenbarung betrifft eine Herunterfallendes-Objekt-Bestimmungsvorrichtung, ein Fahrunterstützungssystem und ein Herunterfallendes-Objekt-Bestimmungsverfahren.
  • Stand der Technik
  • Als Fahrunterstützung ist zum Beispiel eine Technologie zum Vergleichen eines von einer Kamera aufgenommenen Bildes und vorab vorbereiteten Schablonen zum Bestimmen eines Fußgängers auf einer Straße und zum Vermeiden einer Kollision bekannt, wie in JP 2008-15770 A offenbart.
  • Es war bisher jedoch schwierig, ein Objekt zu erfassen, das wahrscheinlich von oder ein Objekt, das gegenwärtig von einer Ladefläche eines nahegelegenen Fahrzeugs herunterfällt, das nahe eines eigenen Fahrzeugs fährt. Außerdem war es bisher schwierig, Schablonen für diese Objekte vorzubereiten, und daher war es bisher unmöglich, diese Objekte zu bestimmen. Somit besteht der Wunsch nach einer Technologie, die in der Lage ist, ein Objekt zu bestimmen, das wahrscheinlich herunterfällt, oder ein Objekt, das gegenwärtig herunterfällt.
  • Zusammenfassung der Erfindung
  • Gemäß einem Aspekt der vorliegenden Offenbarung ist eine Herunterfallendes-Objekt-Bestimmungsvorrichtung vorgesehen, die konfiguriert ist, um an einem Fahrzeug montiert zu sein. Die Herunterfallendes-Objekt-Bestimmungsvorrichtung enthält eine Bezugseinheit, die konfiguriert ist, um als ein erstes Erfassungssignal Informationen zu beziehen, die eine Verlagerung eines Objekts nahe einer Ladefläche eines nahegelegenen Fahrzeugs, das nahe des eigenen Fahrzeugs fährt, angeben; und eine Steuereinheit, die konfiguriert ist, um zumindest einen der Faktoren, eine Schwingungsfrequenz, eine Amplitude und eine Größe des Objekts nahe der Ladefläche durch Verwendung des ersten Erfassungssignals zu berechnen, und eine Bestimmung durchführt, ob das Objekt nahe der Ladefläche ein Objekt ist, das wahrscheinlich von der Ladefläche herunterfallen wird, oder ein Objekt, das von der Ladefläche herunterfällt, in Übereinstimmung mit einem Berechnungsergebnis.
  • Gemäß der Herunterfallendes-Objekt-Bestimmungsvorrichtung wird zumindest einer der Faktoren, die Schwingungsfrequenz, die Amplitude und die Größe des Objekts nahe der Ladefläche durch Verwendung des ersten Erfassungssignals berechnet, und es wird bestimmt, ob das Objekt nahe der Ladefläche ein Objekt ist, das wahrscheinlich von der Ladefläche herunterfallen wird, oder ein Objekt, das von der Ladefläche herunterfällt, in Übereinstimmung mit einem Berechnungsergebnis. Es ist daher möglich, ein Objekt, das wahrscheinlich herunterfällt, und ein gegenwärtig herunterfallendes Objekt, zu bestimmen. Es sei angemerkt, dass die vorliegende Offenbarung als ein Herunterfallendes-Objekt-Bestimmungsverfahren implementiert werden kann.
  • Figurenliste
    • 1 ist ein erläuterndes Diagramm, das ein Beispiel eines Fahrzeugs darstellt, an dem eine Herunterfallendes-Objekt-Bestimmungsvorrichtung montiert ist;
    • 2 ist ein Blockschaltbild, das eine funktionale Konfiguration der Herunterfallendes-Objekt-Bestimmungsvorrichtung darstellt;
    • 3 ist ein Ablaufdiagramm, das ein Beispiel einer Fahrunterstützungsverarbeitung darstellt;
    • 4 ist ein Ablaufdiagramm, das ein Beispiel einer Ladeflächen-nahegelegenes-Objekt-Erfassungsverarbeitung darstellt; und
    • 5 ist ein Ablaufdiagramm, das ein Beispiel einer Herunterfallendes-Objekt-Bestimmungsverarbeitung darstellt.
  • Beschreibung der Ausführungsbeispiele
  • A. Erstes Ausführungsbeispiel:
  • Wie in 1 dargestellt, wird eine Herunterfallendes-Objekt-Bestimmungsvorrichtung 100 für ein Fahrzeug gemäß einem ersten Ausführungsbeispiel in einem Zustand verwendet, in dem die Herunterfallendes-Objekt-Bestimmungsvorrichtung 100 an einem Fahrzeug 500 montiert ist. Die Herunterfallendes-Objekt-Bestimmungsvorrichtung 100 muss nur zumindest eine Steuereinheit und eine Bezugseinheit aufweisen, und ein Fahrunterstützungssystem 10 weist eine Radar-ECU 21 als einen Detektor, ein Millimeterwellenradar211, eine Kamera-ECU 22, eine Kamera 221, eine Ereigniskamera-ECU 26, eine Ereigniskamera 261 und eine Fahrunterstützungs-Ausführungsvorrichtung 31 zusätzlich zu der Herunterfallendes-Objekt-Bestimmungsvorrichtung 100 auf. Das Fahrzeug 500 in dem ersten Ausführungsbeispiel weist des Weiteren einen Drehwinkelsensor 23, einen Raddrehzahlsensor 24 und einen Gierratensensor 25 auf. Das Fahrzeug 500 weist des Weiteren Räder 501, Bremsvorrichtungen 502, eine Bremsleitung 503, ein Lenkrad 504, eine Windschutzscheibe 510, einen vorderen Stoßfänger 520 und einen hinteren Stoßfänger 521 auf. Das Fahrzeug 500 weist zumindest einen der Motoren, Verbrennungsmotor und Elektromotor, als eine Antriebskraftquelle 505 zum Fahren des Fahrzeugs auf.
  • Die Radar-ECU 21 ist mit dem Millimeterwellenradar 211 verbunden, das Funkwellen aussendet und reflektierte Wellen von einem Ziel erfasst, und die Radar-ECU 21 erzeugt und gibt ein zweites Erfassungssignal aus, welches das Ziel mit Erfassungspunkten darstellt, d.h. Reflexionspunkte, indem sie die von dem Millimeterwellenradar 211 erfassten reflektierten Wellen verwendet. Die Kamera-ECU 22 ist mit einer monokularen Kamera 221 verbunden, spezifiziert eine Position einer Ladefläche eines nahegelegenen Fahrzeugs, das nahe dem Fahrzeug 500 fährt, aus einem von der Kamera 221 bezogenen aufgenommenen Bild und erzeugt und gibt ein zweites Erfassungssignal aus, das angibt, ob sich ein Objekt nahe der Ladefläche des nahegelegenen Fahrzeugs befindet (im Folgenden als „Objekt nahe einer Ladefläche“ bezeichnet), das durch eine Mustervergleichsverarbeitung durch Verwendung eines vorab vorbereiteten Formmusters eines Objekts bestimmt wird. Das „Objekt nahe einer Ladefläche“ ist ein Objekt, das zumindest teilweise auf der Ladefläche vorhanden ist. Zum Beispiel beinhaltet das Objekt nahe einer Ladefläche ein längliches Objekt, von dem ein Teil von der Ladefläche vorsteht, ein Objekt, von dem ein Teil von der Ladefläche hängt, und ein Objekt, das in einer vertikalen Richtung schwingt, um dadurch von der Ladung abzuheben. Während das nahegelegene Fahrzeug zum Beispiel ein Fahrzeug 500 ist, das vor dem Fahrzeug 500 fährt, ist das nahegelegene Fahrzeug nicht auf das vorausfahrende Fahrzeug beschränkt und kann ein Fahrzeug sein, das Seite an Seite mit dem Fahrzeug 500 fährt, oder ein Fahrzeug, das auf einer Gegenfahrbahn des Fahrzeugs 500 hinter dem Fahrzeug 500 fährt. Die Position der Ladefläche des nahegelegenen Fahrzeugs wird zum Beispiel durch semantische Segmentierung mittels maschinellem Lernen spezifiziert. Zum Beispiel werden Pixelwertinformationen (R, G, B) und Koordinateninformationen als Positionsinformationen Pixeln zugeordnet, die in jedem Frame des aufgenommenen Bildes enthalten sind.
  • Die Ereigniskamera-ECU 26 ist mit der Ereigniskamera 261 verbunden, die eine Änderung von Helligkeitswerten eines Objekts in Verbindung mit einer Verlagerung des Objekts in Einheiten von mehreren Mikrosekunden erfassen kann, Informationen über geänderte Pixel erzeugt, für die eine Änderung der Helligkeitswerte in Übereinstimmung mit der Verlagerung des Objekts gleich oder größer als ein vorgegebener Schwellenwert ist, und die Informationen als ein erstes Erfassungssignal ausgibt. Die Ereigniskamera-ECU 26 und die Ereigniskamera 261 entsprechen einem ersten Detektor, der Informationen bezüglich der geänderten Pixel bezieht, deren Werte in Übereinstimmung mit der Verlagerung des Objekts geändert werden, und die Informationen als das erste Erfassungssignal ausgibt.
  • Jede der ECUs 21, 22 und 26 ist ein Mikroprozessor mit einer Recheneinheit, einer Speichereinheit und einer Eingabe/Ausgabe-Einheit. Es sei angemerkt, dass die Radar-ECU 21 und das Millimeterwellenradar 211, die einem Detektor zum typischen Messen eines Abstandes zwischen einem eigenen Fahrzeug und einem Ziel durch Aussenden von Erfassungswellen und Erfassen reflektierter Wellen und Reflexionspunkte entsprechen, einen Abstand, relative Geschwindigkeit und einen Winkel des Ziels in Bezug auf das Fahrzeug 500 erfassen. Als dieser Detektor kann zusätzlich zum Millimeterwellenradar 211 ein Laserradar (Lidar) oder ein Ultraschalldetektor verwendet werden, der Schallwellen aussendet und reflektierte Wellen der Schallwellen erfasst. Die Kamera-ECU 22 und die Kamera 221 sind Detektoren, die eine Form des Ziels auf dreidimensionale Weise erkennen können und einer Abbildungsvorrichtung entsprechen. Als die Abbildungsvorrichtung kann zusätzlich zu der Kamera 221 ein 3D-Lidar verwendet werden. Die Kamera 221 kann eine Stereokamera oder eine Multikamera sein, die aus zwei oder mehr Kameras besteht. Als die Ereigniskamera 261 kann eine Abbildungsvorrichtung, die ein Erfassungssignal bestehend aus einer Bildgruppe mit einer hohen Bildrate, zum Beispiel mit 1000 fps, ausgeben kann, bei der die Schwingung des Objekts nahe der Ladefläche berechnet werden kann, zusätzlich zu einem Bildsensor verwendet werden, der kein Erfassungssignal ausgibt, das aus einer Bildgruppe besteht.
  • Das Fahrzeug 500 weist die Bremsvorrichtungen 502 zum Implementieren des Bremsens des Fahrzeugs 500 und das Lenkrad 504 zum Implementieren des Lenkens des Fahrzeugs 500 auf. Jede Bremsvorrichtung 502 ist an dem entsprechenden der Räder 501 vorgesehen. Jede Bremsvorrichtung 502 ist zum Beispiel eine Scheibenbremse oder eine Trommelbremse, die das Bremsen des Fahrzeugs 500 durch Bremsen jedes Rads 501 mit Bremskraft in Übereinstimmung mit einem Bremsflüssigkeitsdruck implementiert, der über die Bremsleitung 503 in Übereinstimmung mit der Bremspedalbetätigung eines Fahrers zugeführt wird. Die Bremsleitung 503 weist einen Bremskolben, der einen Bremsflüssigkeitsdruck in Übereinstimmung mit der Bremspedalbetätigung erzeugt, und eine Bremsflüssigkeitsleitung auf. Es sei angemerkt, dass es als die Bremsleitung 503 auch möglich ist, eine Konfiguration zu verwenden, bei der Aktuatoren, die an den jeweiligen Bremsvorrichtungen 502 vorgesehen sind, durch Verwendung einer Steuersignalleitung anstelle der Bremsflüssigkeitsleitung aktiviert werden. Das Lenkrad 504 ist mit Rädern 501 an einer Vorderseite über eine Lenkvorrichtung 42 verbunden, die eine Lenkstange, einen Lenkmechanismus und eine Lenkwelle 44 aufweist.
  • Wie in 2 dargestellt, weist die Herunterfallendes-Objekt-Bestimmungsvorrichtung 100 eine Zentralverarbeitungseinheit (CPU) 101 als eine Steuereinheit, einen Speicher 102, eine Eingabe/Ausgabe-Schnittstelle 103 als eine Bezugseinheit und einen Bus 104 auf. Die CPU 101, der Speicher 102 und die Eingabe/Ausgabe-Schnittstelle 103 sind über den Bus 104 verbunden, um in der Lage zu sein, eine bidirektionale Kommunikation durchzuführen. Der Speicher 102 weist einen ersten Speicher, zum Beispiel einen ROM, und einen zweiten Speicher auf, zum Beispiel einen RAM. Der erste Speicher speichert in einer nichtflüchtigen und schreibgeschützten Weise ein Fahrunterstützungsprogramm Pr1 zum Ausführen einer Fahrunterstützung des eigenen Fahrzeugs, ein Ladeflächen-nahegelegenes-Objekt-Erfassungsprogramm Pr2 zum Erfassen eines Objekts nahe einer Ladefläche durch Verwendung eines Erfassungsergebnisses der Ereigniskamera 261, und ein Herunterfallendes-Objekt-Bestimmungsprogramm Pr3 zum Bestimmen, ob ein Objekt nahe einer Ladefläche ein Objekt ist, das wahrscheinlich herunterfällt, oder ein gegenwärtig von der Ladefläche herunterfallendes Objekt ist. Der zweite Speicher ermöglicht das Lesen und Schreiben durch die CPU 101 und hat einen Fallendes-Objekt-Bestimmungskennzeichen-Speicherbereich 102a. Ein „herunterfallendes Objekt“ ist ein Objekt, dessen Kollision mit einem Fahrzeug nicht zugelassen werden kann, und ist ein Objekt, das ein Objekt, das wahrscheinlich herunterfällt, und ein gegenwärtig herunterfallendes Objekt, enthält. Ein „Objekt, dessen Kollision mit einem Fahrzeug nicht zugelassen werden kann“ ist ein Objekt, das ein Fahrproblem des Fahrzeugs 500 in einem Fall verursacht, in dem das Fahrzeug 500 mit dem Objekt kollidiert. Die CPU 101 implementiert Funktionen als eine Steuereinheit, indem sie das Fahrunterstützungsprogramm Pr1, das Ladeflächen-nahegelegenes-Objekt-Erfassungsprogramm Pr2 und das Herunterfallendes-Objekt-Bestimmungsprogramm Pr3, die in dem Speicher 102 gespeichert sind, in einen Schreib-Lese-Speicher lädt und die Programme ausführt. Es sei angemerkt, dass die CPU 101 eine einzelne CPU oder eine Mehrzahl von CPUs sein kann, die die jeweiligen Programme ausführen, oder eine CPU vom Mehrkerntyp sein kann, die eine Mehrzahl von Programmen gleichzeitig ausführen kann.
  • Die Radar-ECU 21, die Kamera-ECU 22, die Ereigniskamera-ECU 26, der Drehwinkelsensor 23, der Raddrehzahlsensor 24, der Gierratensensor 25 und eine Fahrunterstützungs-Ausführungsvorrichtung 31 sind jeweils mit der Eingabe/Ausgabe-Schnittstelle 103 über eine Steuersignalleitung verbunden. Erfassungssignale werden von der Radar-ECU 21, der Kamera-ECU 22, der Ereigniskamera-ECU 26, dem Drehwinkelsensor 23, dem Raddrehzahlsensor 24 und dem Gierratensensor 25 eingegeben. Ein Steuersignal, das eine Anweisung der Antriebskraft in Übereinstimmung mit dem angeforderten Drehmoment gibt, ein Steuersignal, das eine Anweisung eines Bremsniveaus gibt, und ein Steuersignal, das eine Anweisung eines Lenkwinkels gibt, werden an die Fahrunterstützungs-Ausführungsvorrichtung 31 ausgegeben. Somit fungiert die Eingabe/Ausgabe-Schnittstelle 103 als eine Bezugseinheit zum Beziehen von Erfassungssignalen, die von verschiedenen Arten von Sensoren erfasst werden, einschließlich des ersten Erfassungssignals und des zweiten Erfassungssignals.
  • Das Millimeterwellenradar 211 ist ein Sensor, der Millimeterwellen aussendet und reflektierte Wellen empfängt, die von einem Ziel reflektiert werden. In dem vorliegenden Ausführungsbeispiel sind die Millimeterwellenradarvorrichtungen 211 an dem vorderen Stoßfänger 520 und dem hinteren Stoßfänger 521 angeordnet. Ein unverarbeitetes Erfassungssignal, das von dem Millimeterwellenradar 211 ausgegeben wird, wird an der Radar-ECU 21 verarbeitet und in die Herunterfallendes-Objekt-Bestimmungsvorrichtung 100 als ein Erfassungssignal eingegeben, das einen Erfassungspunkt oder eine Erfassungspunktsequenz beinhaltet, die eine oder eine Mehrzahl repräsentativer Positionen des Ziels angibt. Alternativ kann ein Signal, das eine unverarbeitete empfangene Welle angibt, von dem Millimeterwellenradar 211 als das Erfassungssignal in die Herunterfallendes-Objekt-Bestimmungsvorrichtung 100 eingegeben werden, ohne dass die Radar-ECU 21 vorgesehen ist. In einem Fall, in dem eine unverarbeitete empfangene Welle als das Erfassungssignal verwendet wird, führt die Herunterfallendes-Objekt-Bestimmungsvorrichtung 100 eine Signalverarbeitung zum Spezifizieren einer Position und eines Abstandes des Ziels aus.
  • Die Kamera 221, die eine Abbildungsvorrichtung ist, die ein Abbildungselement wie beispielsweise eine CCD oder eine Abbildungselementanordnung enthält, ist ein Sensor, der Konturinformationen oder Forminformationen eines Objekts als Bilddaten ausgibt, die ein Erfassungsergebnis durch Empfangen von sichtbarem Licht sind. Die von der Kamera 221 aufgenommenen Bilddaten werden der zuvor beschriebenen Verarbeitung durch die Kamera-ECU 22 unterzogen, und das zweite Erfassungssignal, das angibt, ob sich ein Objekt nahe der Ladefläche befindet, wird erzeugt. In dem vorliegenden Ausführungsbeispiel ist die Kamera 221 in der Mitte eines oberen Teils der Windschutzscheibe 510 angeordnet. Die von der Kamera 221 ausgegebenen Bilddaten können monochrome Bilddaten sein. In diesem Fall werden Helligkeitswerte zur Segmentierung verwendet.
  • Die Ereigniskamera 261 ist eine Abbildungsvorrichtung eines Ereigniserfassungstyps, die eine Mehrzahl von Pixeln aufweist, die mit einem Signalabbildungselement gebildet werden, und die ein Ereignis einer Änderung von Helligkeitswerten eines Objekts erfassen kann, das in Verbindung mit einer Verlagerung des Objekts in Einheiten von mehreren Mikrosekunden auftritt. Die Ereigniskamera 261 gibt als ein Erfassungsergebnis Informationen aus, zum Beispiel empfangene Lichtintensität und Koordinaten von Pixeln bezüglich geänderter Pixel, die Positionen entsprechen, an denen die Helligkeitswerte in dem Objekt geändert werden, anstatt ein Erfassungsergebnis in einer Bildeinheit auszugeben, das durch Abtasten aller der Mehrzahl von Pixeln erhalten wurde. Somit kann eine Verlagerung des Objekts nahe der Ladefläche durch Verwendung des Erfassungsergebnisses der Ereigniskamera 261 erfasst werden. In dem vorliegenden Ausführungsbeispiel erzeugt die Ereigniskamera-ECU 26 Informationen einschließlich Positionskoordinaten und Helligkeitswerten bezüglich der geänderten Pixel, für die eine Änderung der erfassten Helligkeitswerte gleich oder größer als ein vorgegebener Schwellenwert ist, d.h. Informationen, die eine Verlagerung des Objekts nahe der Ladefläche angeben, und gibt die Informationen als erstes Erfassungssignal aus. Die Ereigniskamera 261 erfordert lediglich die Ausgabe von Informationen bezüglich der geänderten Pixel, deren Werte in Übereinstimmung der Verlagerung des Objekts geändert werden, und es kann eine Abbildungsvorrichtung, die zum Beispiel ein Erfassungssignal bestehend aus einer Bildgruppe mit einer hohen Bildrate ausgeben kann, zum Beispiel bei 1000 fps, bei denen die Schwingung des Objekts nahe der Ladefläche berechnet werden kann, zusätzlich zu einem Bildsensor verwendet werden, der kein Erfassungssignal ausgibt, das aus einer Bildgruppe besteht.
  • Der Drehwinkelsensor 23, der ein Drehmomentsensor ist, der einen Verdrehungsbetrag erfasst, der an der Lenkstange durch Lenken des Lenkrads 504 auftritt, d.h. das Lenkdrehmoment, als ein Spannungswert proportional zum Verdrehungsbetrag erfasst, erfasst einen Lenkwinkel des Lenkrads 504. In dem vorliegenden Ausführungsbeispiel ist der Drehwinkelsensor 23 an der Lenkstange vorgesehen, die das Lenkrad 504 und den Lenkmechanismus verbindet.
  • Der Raddrehzahlsensor 24, der ein Sensor ist, der die Drehzahl des Rads 501 erfasst, ist an jedem Rad 501 vorgesehen. Ein von dem Raddrehzahlsensor 24 ausgegebenes Erfassungssignal ist ein Spannungswert proportional zu der Raddrehzahl oder eine Pulswelle, die ein Intervall in Übereinstimmung mit der Radgeschwindigkeit angibt. Informationen wie beispielsweise die Fahrzeuggeschwindigkeit und eine Fahrstrecke des Fahrzeugs können durch Verwendung des Erfassungssignals von dem Raddrehzahlsensor 24 erhalten werden.
  • Der Gierratensensor 25 ist ein Sensor, der die Drehwinkelgeschwindigkeit des Fahrzeugs 500 erfasst. Der Gierratensensor 25 ist ein Sensor, der zum Beispiel an einem zentralen Abschnitt des Fahrzeugs angeordnet ist. Ein von dem Gierratensensor 25 ausgegebenes Erfassungssignal ist ein Spannungswert proportional zu einer Drehrichtung und Winkelgeschwindigkeit.
  • Die Fahrunterstützungs-Ausführungsvorrichtung 31 steuert die Erhöhung und Verringerung der Ausgabe der Antriebskraftquelle 505 in Übereinstimmung mit der Gaspedalbetätigung durch den Fahrer oder ungeachtet der Gaspedalbetätigung durch den Fahrer, implementiert das Bremsen durch die Bremsvorrichtungen 502 ungeachtet der Bremspedalbetätigung durch den Fahrer oder implementiert das Lenken durch die Lenkvorrichtung 42 ungeachtet der Betätigung des Lenkrads 504 durch den Fahrer.
  • Eine Fahrunterstützungsverarbeitung, die von der Herunterfallendes-Objekt-Bestimmungsvorrichtung 100 gemäß dem ersten Ausführungsbeispiel auszuführen ist, wird beschrieben. Die in 3 dargestellte Verarbeitungsroutine wird wiederholt in vorgegebenen Zeitintervallen ausgeführt, zum Beispiel in Intervallen von mehreren Millisekunden, zum Beispiel vom Starten eines Steuersystems des Fahrzeugs bis zum Stoppen des Steuersystems oder ab dem Zeitpunkt, an dem ein Startschalter eingeschaltet wird, bis zu dem Zeitpunkt, an dem der Startschalter ausgeschaltet wird. Die in 3 dargestellte Fahrunterstützungsverarbeitung wird von der CPU 101 durch Ausführen des Fahrunterstützungsprogramms Pr1 ausgeführt. Es sei angemerkt, dass die in 3 dargestellte Fahrunterstützungsverarbeitung eine Verarbeitung zum Bestimmen ist, ob das Objekt nahe der Ladefläche ein Objekt ist, das wahrscheinlich von der Ladefläche herunterfällt (im Folgenden als „Objekt, das wahrscheinlich herunterfällt“ bezeichnet), oder ein Objekt, das gegenwärtig von der Ladefläche herunterfällt (im Folgenden als ein „herunterfallendes Objekt“ bezeichnet), und Bestimmen eines auszuführenden Aspekts der Fahrunterstützung.
  • Die CPU 101 bezieht Umgebungsinformationen, d.h. das zweite Erfassungssignal über die Eingabe/Ausgabe-Schnittstelle 103 (Schritt S100). Die Umgebungsinformationen beinhalten zum Beispiel Informationen bezüglich einer Position der Ladefläche des nahegelegenen Fahrzeugs, die durch das Millimeterwellenradar 211 und die Kamera 221 erfasst wird, und eine Größe des Objekts nahe der Ladefläche.
  • Die CPU 101 bestimmt, ob das Objekt nahe der Ladefläche des Fahrzeugs, das nahe des eigenen Fahrzeugs fährt, das heißt, das Objekt nahe der Ladefläche, durch Verwendung der bezogenen Umgebungsinformationen erfasst wird (Schritt S110). Die CPU 101 bestimmt, dass das Objekt nahe der Ladefläche in einem Fall existiert, in dem ein Ziel, das dem Objekt nahe der Ladefläche entspricht, in einem von der Kamera 221 aufgenommenen Bild erfasst wird. Insbesondere erfasst die CPU 101 zum Beispiel einen vorgegebenen Bereich auf einem Nummernschild des nahegelegenen Fahrzeugs als die Position der Ladefläche und erfasst, ob zumindest ein Teil des Objekts auf der Ladefläche vorhanden ist. Die CPU 101 führt durch Verwendung des Erfassungsergebnisses der Ereigniskamera 261, die später beschrieben wird, parallel zu der Fahrunterstützungsverarbeitung eine Ladeflächen-nahegelegenes-Objekt-Erfassungsverarbeitung aus und bestimmt, ob sich ein Objekt nahe der Ladefläche befindet, indem sie die Ladeflächen-nahegelegenes-Objekt-Erfassungsinformationen verwendet, die durch die Ladeflächen-nahegelegenes-Objekt-Erfassungsverarbeitung und die Umgebungsinformationen erhalten werden, die in der vorliegenden Verarbeitungsroutine erfasst werden.
  • In einem Fall, in dem das Objekt nahe der Ladefläche erfasst wird (Schritt S110: Ja), bestimmt die CPU 101, ob das Objekt nahe der Ladefläche ein herunterfallendes Objekt ist (Schritt S120). In dem vorliegenden Ausführungsbeispiel wird in einem Fall, in dem das Objekt nahe der Ladefläche gegebenenfalls herunterfallen kann, das Objekt nahe der Ladefläche als das Objekt bestimmt, das wahrscheinlich herunterfällt, und insbesondere wird ein Herunterfallendes-Objekt-Bestimmungskennzeichen Fe auf Fe = 1 festgelegt. Des Weiteren wird in einem Fall, in dem das Objekt nahe der Ladefläche herunterfällt, das Objekt nahe der Ladefläche als das Objekt bestimmt, das herunterfällt, und insbesondere wird das Herunterfallendes-Objekt-Bestimmungskennzeichen Fe auf Fe = 2 festgelegt. Die Herunterfallendes-Objekt-Bestimmungsverarbeitung wird später im Detail beschrieben. Dagegen beendet, in einem Fall, in dem das Objekt nahe der Ladefläche nicht erfasst wird (Schritt S110: Nein), die CPU 101 die Fahrunterstützungsverarbeitung.
  • Die CPU 101 bestimmt, ob das Objekt nahe der Ladefläche ein herunterfallendes Objekt ist (Schritt S130). Insbesondere bestimmt die CPU 101, ob das Herunterfallendes-Objekt-Bestimmungskennzeichen Fe gleich 2 ist. In einem Fall, in dem das Objekt nahe der Ladefläche ein herunterfallendes Objekt ist (Schritt S130: Ja), bestimmt die CPU 101 den Aspekt der Fahrunterstützung als einen ersten Fahrunterstützungsaspekt (Schritt S150). Der erste Fahrunterstützungsaspekt ist zum Beispiel ein Aspekt, bei dem ein plötzliches Bremsen durchgeführt wird, oder ein Aspekt, bei dem Beschleunigung/Verlangsamung oder Lenken in Übereinstimmung mit einer Fallrichtung des herunterfallenden Objekts gesteuert werden, um dem herunterfallenden Objekt auszuweichen. Des Weiteren kann der erste Fahrunterstützungsaspekt ein Aspekt sein, bei dem der Fahrer benachrichtigt wird, dass ein herunterfallendes Objekt vorhanden ist. In einem Fall, in dem das Objekt nahe der Ladefläche kein herunterfallendes Objekt ist (Schritt S130: Nein), bestimmt die CPU 101, ob das Objekt nahe der Ladefläche ein Objekt ist, das wahrscheinlich herunterfällt (Schritt S140). Insbesondere bestimmt die CPU 101, ob das Fallendes-Objekt-Bestimmungskennzeichen Fe gleich 1 ist. In einem Fall, in dem das Objekt nahe der Ladefläche ein Objekt ist, das wahrscheinlich herunterfällt (Schritt S140: Ja), bestimmt die CPU 101 den Aspekt der Fahrunterstützung als einen zweiten Fahrunterstützungsaspekt, für den ein Unterstützungsgrad niedriger ist als ein Unterstützungsgrad in dem ersten Fahrunterstützungsaspekt (Schritt S155). Der zweite Fahrunterstützungsaspekt ist zum Beispiel ein präventiver Aspekt, bei dem eine Beschleunigung/Verlangsamung zum Vergrößern eines Abstands zwischen dem eigenen Fahrzeug und dem nahegelegenen Fahrzeug oder eine Lenksteuerung für einen Spurwechsel oder ein Überholen des nahegelegenen Fahrzeugs gesteuert wird, um zu vermeiden, dass das eigene Fahrzeug nahe dem nahegelegenen Fahrzeug fährt. Des Weiteren kann der zweite Fahrunterstützungsaspekt ein Aspekt sein, bei dem der Fahrer benachrichtigt wird, dass es ein Objekt gibt, das wahrscheinlich herunterfällt. Zwischenzeitlich wird in einem Fall, in dem das Objekt nahe der Ladefläche kein Objekt ist, das wahrscheinlich herunterfällt (Schritt S140: Nein), die Fahrunterstützungsverarbeitung beendet.
  • Die von der Herunterfallendes-Objekt-Bestimmungsvorrichtung 100 auszuführende Ladeflächen-nahegelegenes-Objekt-Erfassungsverarbeitung gemäß dem ersten Ausführungsbeispiel wird beschrieben. Die in 4 dargestellte Verarbeitungsroutine wird wiederholt in vorgegebenen Intervallen ausgeführt, zum Beispiel in Intervallen von mehreren Mikrosekunden, zum Beispiel vom Start des Steuersystems des Fahrzeugs bis zum Stoppen des Steuersystems oder vom Einschalten des Startschalters bis zum Ausschalten des Startschalters. Die in 4 dargestellte Ladeflächen-nahegelegenes-Objekt-Erfassungsverarbeitung wird von der CPU 101 ausgeführt, indem das Ladeflächen-nahegelegenes-Objekt-Erfassungsprogramm Pr2 ausgeführt wird. Mit anderen Worten, die in 3 dargestellte Fahrunterstützungsverarbeitung und die in 4 dargestellte Bewegtes-Objekt-Erfassungsverarbeitung werden parallel ausgeführt, und ein Erfassungsergebnis eines sich bewegenden Objekts in der Bewegtes-Objekt-Erfassungsverarbeitung wird in der Fahrunterstützungsverarbeitung verwendet.
  • Die CPU 101 bezieht ein Ereigniskamera-Erfassungssignal (Schritt S200). Insbesondere empfängt die CPU 101 das erste Erfassungssignal, das von der Ereigniskamera-ECU 26 über die Zeit ausgegeben wird, und bezieht Informationen bezüglich eines oder einer Mehrzahl geänderter Pixel, für die Helligkeitswerte geändert werden, erfasst durch die Ereigniskamera 261. In einem Fall, in dem sich ein Objekt wie beispielsweise ein Mensch, ein Fahrrad oder ein Fahrzeug verlagert, d.h. sich bewegt, enthält das erste Erfassungssignal Informationen bezüglich einer Mehrzahl geänderter Pixelgruppen, welche die Kontur des Objekts angeben. Die CPU 101 führt eine Verarbeitung zur Eigenbewegungs-Entfernungs-Verarbeitung an den bezogenen Informationen bezüglich der geänderten Pixel aus (Schritt S210). Eigenbewegung bzw. Egomotion bedeutet das Verhalten eines Messsystems selbst im dreidimensionalen Raum und im Fall der am Fahrzeug montierten Ereigniskamera 261 das Verhalten des Fahrzeugs. Die Eigenbewegung wird erhalten, indem eine Bewegung des eigenen Fahrzeugs in vertikaler Richtung und in horizontaler Richtung durch Verwendung der durch den Raddrehzahlsensor 24 bezogenen Fahrzeuggeschwindigkeit und einer durch den Gierratensensor 25 bezogenen Gierrate erhalten wird. Die Eigenbewegungsverarbeitung ist eine Verarbeitung zum Extrahieren einer Verlagerung des Objekts selbst durch Entfernen geänderter Pixel, die eine relative Verlagerung des Objekts angeben, für das Helligkeitswerte aufgrund des Verhaltens des eigenen Fahrzeugs unter den erfassten geänderten Pixeln geändert werden.
  • Die CPU 101 führt eine Gruppierungs-Verarbeitung durch Verwendung von Informationen bezüglich der geänderten Pixel aus, die der Eigenbewegungs-Entfernungs-Verarbeitung unterzogen wurden (Schritt S220). Die Gruppierungs-Verarbeitung ist eine Verarbeitung zum Extrahieren eines Objekts aus einer Mehrzahl geänderter Pixeln und eine Verarbeitung zum Assoziieren geänderter Pixel, die ein Objekt ausbilden. Die Gruppierungs-Verarbeitung in dem vorliegenden Ausführungsbeispiel wird zum Beispiel durch Assoziieren geänderter Pixel ausgeführt, die sich über die Zeit in dieselbe Richtung bewegen, wie Gruppen geänderten Pixeln, die ein Objekt ausbilden. Anders als zuvor kann die Gruppierungs-Verarbeitung durch Assoziieren geänderter Pixel ausgeführt werden, zwischen denen ein Abstand kürzer als ein vorgegebener Abstand ist, als eine Pixelgruppe, die dasselbe Objekt angibt, indem Positionskoordinaten der geänderten Pixel verwendet werden, oder durch Assoziieren geänderter Pixel, deren Helligkeitswerte sich einander annähern, als eine Pixelgruppe, die dasselbe Objekt angibt, indem die Helligkeitswerte der geänderten Pixel verwendet werden. Ein Objekt, das durch die geänderte Pixelgruppe ausgebildet wird, kann durch die Gruppierungs-Verarbeitung erhalten werden, und ein Abgleich zwischen dem Objekt und einem Modellmuster, das ein Bestimmungsmodell ist, kann durchgeführt werden.
  • Die CPU 101 bestimmt, ob sich das extrahierte Objekt auf der Ladefläche befindet (Schritt S230). Insbesondere bestimmt die CPU 101, ob sich das extrahierte Objekt auf der Ladefläche des nahegelegenen Fahrzeugs befindet, durch Verwendung von Positionskoordinaten der geänderten Pixelgruppe, die das extrahierte Objekt ausbilden. In einem Fall, in dem die CPU 101 bestimmt, dass sich das extrahierte Objekt auf der Ladefläche befindet (Schritt S230: Ja), gibt die CPU 101 Informationen aus, die angeben, dass das Objekt nahe der Ladefläche erfasst wird, und Ladeflächen-nahegelegenes-Objekt-Erfassungsinformationen aus, die Verlagerungsinformationen des Objekts nahe der Ladefläche angeben (Schritt S240) und beendet die gegenwärtige Verarbeitungsroutine. Wie zuvor beschrieben, werden die Ladeflächen-nahegelegenes-Objekt-Erfassungsinformationen in der in 3 dargestellten Fahrunterstützungsverarbeitung verwendet. In einem Fall, in dem die CPU 101 bestimmt, dass sich das extrahierte Objekt nicht auf der Ladefläche befindet (Schritt S230: Nein), beendet die CPU 101 die gegenwärtige Verarbeitungsroutine.
  • Die in 5 dargestellte Herunterfallendes-Objekt-Bestimmungsverarbeitung ist eine Reihe von Verarbeitungen, die von der CPU 101 durchgeführt werden, um in Schritt S120 in 3 zu bestimmen, ob das Objekt nahe der Ladefläche ein Objekt ist, das wahrscheinlich herunterfällt, oder ein herunterfallendes Objekt ist. Zuerst bestimmt die CPU 101, ob das Objekt nahe der Ladefläche sich noch auf der Ladefläche befindet (Schritt S300).
  • In einem Fall, in dem sich das Objekt nahe der Ladefläche auf der Ladefläche befindet (Schritt S300: Ja), berechnet die CPU 101 in dem vorliegenden Ausführungsbeispiel eine Schwingungsfrequenz f1 und eine Amplitude a1 des Objekts nahe der Ladefläche durch Verwendung des ersten Erfassungssignals, insbesondere, Ladeflächen-nahegelegenes-Objekt-Erfassungsinformationen, die aus dem ersten Erfassungssignal erhalten werden können (Schritt S310). Anschließend bestimmt die CPU 101, ob die berechnete Schwingungsfrequenz f1 gleich oder höher als eine Schwellenfrequenz fth ist (Schritt S320). Die Schwellenfrequenz fth ist eine Frequenz, bei der geschätzt wird, dass das Objekt nahe der Ladefläche eine solche Härte aufweist, dass eine Kollision mit dem Fahrzeug nicht zugelassen werden kann, und kann zum Beispiel durch vorheriges Durchführen von Simulationen oder Experimenten durch Verwendung von Stahl und Kunststoff bestimmt werden. In einem Fall, in dem die Schwingungsfrequenz f1 niedriger als die Schwellenfrequenz fth ist (Schritt S320: Nein), d.h. in einem Fall, in dem geschätzt wird, dass das Objekt nahe der Ladefläche eine solche Härte aufweist, dass eine Kollision mit dem Fahrzeug zugelassen werden kann, beendet die CPU 101 die Herunterfallendes-Objekt-Bestimmungsverarbeitung.
  • Dagegen bestimmt in einem Fall, in dem die Schwingungsfrequenz f1 gleich oder höher als die Schwellenfrequenz fth ist (Schritt S320: Ja), d.h. in einem Fall, in dem geschätzt wird, dass das Objekt nahe der Ladefläche eine solche Härte aufweist, dass eine Kollision mit dem Fahrzeug 500 nicht zugelassen werden kann, die CPU 101, ob die Amplitude a1 gleich oder größer als eine Schwellenamplitude ath ist (Schritt S330). Wenn die Amplitude a1 größer ist, nimmt die Höhe zu, in der das Objekt nahe der Ladefläche von der Ladefläche abhebt, und das Objekt nahe der Ladefläche wird aufgrund der Bewegung des nahegelegenen Fahrzeugs auf der Ladefläche relativ verlagert, wodurch das Objekt nahe der Ladefläche mit einer höheren Wahrscheinlichkeit herunterfällt. Die Schwellenamplitude ath ist eine Amplitude, bei der geschätzt wird, dass das Objekt nahe der Ladefläche mit hoher Wahrscheinlichkeit von der Ladefläche herunterfällt, und kann durch vorheriges Durchführen von Simulationen oder Experimenten bestimmt werden. Die Schwellenamplitude ath ist zum Beispiel gleich oder größer als 10% einer Größe (Höhe) des Objekts nahe der Ladefläche. In einem Fall, in dem die Amplitude a1 kleiner als die Schwellenamplitude ath ist (Schritt S330: Nein), d.h. in einem Fall, in dem das Objekt nahe der Ladefläche weniger wahrscheinlich von der Ladefläche herunterfällt, beendet die CPU 101 die Herunterfallendes-Objekt-Bestimmungsverarbeitung.
  • Dagegen bestimmt in einem Fall, in dem die Amplitude a1 gleich oder größer als die Schwellenamplitude ath ist (Schritt S330: Ja), d.h. in einem Fall, in dem das Objekt nahe der Ladefläche mit hoher Wahrscheinlichkeit von der Ladefläche herunterfällt, die CPU 101, ob die Amplitude a1 zunimmt (Schritt S340).
  • In einem Fall, in dem die Amplitude a1 nicht zunimmt (Schritt S340: Nein), beendet die CPU 101 die Herunterfallendes-Objekt-Bestimmungsverarbeitung. Dagegen bestimmt in einem Fall, in dem die Amplitude a1 zunimmt (Schritt S340: Ja), die CPU 101, dass das Objekt nahe der Ladefläche ein Objekt ist, das wahrscheinlich herunterfällt (Schritt S350). Insbesondere legt die CPU 101 das Fallendes-Objekt-Bestimmungskennzeichen Fe auf Fe = 1 fest.
  • In einem Fall, in dem sich das Objekt nahe der Ladefläche nicht auf der Ladefläche befindet (Schritt S300: Nein), bestimmt die CPU 101 in dem vorliegenden Ausführungsbeispiel, ob das Objekt nahe der Ladefläche auf einer Straße vorhanden ist (Schritt S325). Die CPU 101 kann bestimmen, ob das Objekt nahe der Ladefläche auf einer Straße vorhanden ist, zum Beispiel durch Bestimmen, ob sich ein Absolutwert eines Betrags der Verlagerung in einer vertikalen Richtung, der aus der Bewegungsbahn des Objekts nahe der Ladefläche durch Verwendung des ersten Erfassungssignals erhalten wurde, einem Abstand von der Ladefläche zu der Straße annähert. In einem Fall, in dem sich das Objekt nahe der Ladefläche auf der Straße befindet (Schritt S325: Ja), d.h. wenn das Objekt nahe der Ladefläche nicht gegenwärtig herunterfällt, aber heruntergefallen ist, beendet die CPU 101 die Herunterfallendes-Objekt-Bestimmungsverarbeitung.
  • Dagegen berechnet die CPU 101 in einem Fall, in dem sich das Objekt nahe der Ladefläche nicht auf der Straße befindet (Schritt S325: Nein), das heißt, in einem Fall, in dem das Objekt nahe der Ladefläche gegenwärtig herunterfällt, eine Größe s1 des Objekts nahe der Ladefläche (Schritt S335). Die CPU 101 kann die Größe s1 des Objekts nahe der Ladefläche durch Verwendung der Ladeflächen-nahegelegenes-Objekt-Erfassungsinformationen oder der Umgebungsinformationen beziehen. Die Größe s1 ist zum Beispiel eine Höhe, eine Breite, eine Fläche und ein Volumen des Objekts nahe der Ladefläche. Anschließend bestimmt die CPU 101, ob die Größe s1 gleich oder größer als ein Schwellenwert sth ist (Schritt S345). Der Schwellenwert sth ist eine solche Größe, dass eine Kollision zwischen dem Objekt nahe der Ladefläche und dem Fahrzeug 500 nicht zugelassen werden kann und kann durch vorheriges Durchführen von Simulationen oder Experimenten bestimmt werden.
  • In einem Fall, in dem die Größe s1 kleiner als der Schwellenwert sth ist (Schritt S345: Nein), d.h. in einem Fall, in dem das Objekt nahe der Ladefläche eine solche Größe aufweist, dass eine Kollision mit dem Fahrzeug 500 zugelassen werden kann, beendet die CPU 101 die Herunterfallendes-Objekt-Bestimmungsverarbeitung. Dagegen bestimmt in einem Fall, in dem die Größe s1 gleich oder größer als der Schwellenwert sth ist (Schritt S345: Ja), d.h. in einem Fall, in dem das Objekt nahe der Ladefläche eine solche Größe aufweist, dass eine Kollision mit dem Fahrzeug 500 nicht zugelassen werden kann, die CPU 101, dass das Objekt nahe der Ladefläche ein herunterfallendes Objekt ist (S355). Insbesondere legt die CPU 101 das Herunterfallendes-Objekt-Bestimmungskennzeichen Fe auf Fe = 2 fest.
  • Gemäß der Herunterfallendes-Objekt-Bestimmungsvorrichtung 100 gemäß dem zuvor beschriebenen ersten Ausführungsbeispiel wird zumindest einer der Parameter, Schwingungsfrequenz f1, Amplitude a1, und Größe s1, des Objekts nahe der Ladefläche durch Verwendung des ersten Erfassungssignals berechnet, und in einem Fall, in dem eine Kollision zwischen dem Objekt nahe der Ladefläche und dem Fahrzeug 500 in Übereinstimmung mit dem Berechnungsergebnis nicht zugelassen werden kann, wird bestimmt, dass das Objekt nahe der Ladefläche ein Objekt ist, das wahrscheinlich herunterfällt, oder ein herunterfallendes Objekt ist. Somit können ein Objekt, das wahrscheinlich herunterfällt, und ein herunterfallendes Objekt bestimmt werden. Des Weiteren bestimmt Herunterfallendes-Objekt-Bestimmungsvorrichtung 100 ein herunterfallendes Objekt in einem Fall, in dem das Objekt nahe der Ladefläche ein Objekt ist, dessen Kollision mit dem Fahrzeug 500 nicht zugelassen werden kann, so dass es möglich ist, eine übermäßige Fahrunterstützung zu verhindern, die ein Objekt vermeidet, dessen Kollision mit dem Fahrzeug 500 zugelassen werden kann, und eine übermäßige Fahrunterstützung zu verhindern, die verhindert, dass das Fahrzeug nahe eines Fahrzeugs fährt, auf dem das Objekt geladen ist. Des Weiteren bestimmt die Herunterfallendes-Objekt-Bestimmungsvorrichtung 100 den Aspekt der Fahrunterstützung in einem Fall, in dem das Objekt nahe der Ladefläche ein herunterfallendes Objekt ist, als den ersten Fahrunterstützungsaspekt und bestimmt den Aspekt der Fahrunterstützung in einem Fall, in dem das Objekt nahe der Ladefläche ein Objekt ist, das wahrscheinlich herunterfällt, als den zweiten Fahrunterstützungsaspekt, so dass es möglich ist, den Aspekt der Fahrunterstützung gemäß einer Art des Objekts nahe der Ladefläche zu bestimmen.
  • B. Weitere Ausführungsbeispiele:
    1. (1) Während in dem zuvor beschriebenen Ausführungsbeispiel eine Steuereinheit, welche die Fahrunterstützungsverarbeitung und die Bewegtes-Objekt-Erfassungsverarbeitung ausführt, mit Software durch die CPU 101 implementiert wird, die das Fahrunterstützungsprogramm Pr1 und das Herunterfallendes-Objekt-Bestimmungsprogramm Pr3 ausführt, kann die Steuereinheit mit Hardware durch eine integrierte Schaltung oder eine im Voraus programmierte diskrete Schaltung implementiert werden. Mit anderen Worten können die Steuereinheit und das Verfahren in dem zuvor beschriebenen Ausführungsbeispiel mit einem dedizierten Computer implementiert werden, der aus einem Prozessor und einem Speicher gebildet ist, die programmiert sind, um eine oder eine Mehrzahl von Funktionen auszuführen, die durch ein Computerprogramm verkörpert sind. Alternativ können die Steuereinheit und das Verfahren, die in der vorliegenden Offenbarung beschrieben sind, durch einen dedizierten Computer implementiert werden, der bereitgestellt wird, indem ein Prozessor mit einer oder mehreren dedizierten Hardware-Logikschaltungen gebildet wird. Alternativ können die Steuereinheit und das Verfahren, die in der vorliegenden Offenbarung beschrieben sind, durch einen oder mehrere dedizierte Computer, die mit einer Kombination aus einem Prozessor und einem Speicher gebildet sind, die programmiert sind, um eine oder eine Mehrzahl von Funktionen auszuführen, und einem Prozessor implementiert werden, der mit einer oder mehreren Hardware-Logikschaltungen gebildet ist. Des Weiteren kann das Computerprogramm in einem computerlesbaren, nicht-übertragbaren, materiellen Aufzeichnungsmedium als ein vom Computer auszuführender Befehl gespeichert sein.
    2. (2) In dem zuvor beschriebenen Ausführungsbeispiel bestimmt die CPU 101, ob das Objekt nahe der Ladefläche ein herunterfallendes Objekt ist, in einem Fall, in dem das Objekt nahe der Ladefläche ein Objekt ist, dessen Kollision mit dem Fahrzeug nicht zugelassen werden kann. Stattdessen kann die CPU 101 bestimmen, ob das Objekt nahe der Ladefläche ein herunterfallendes Objekt ist, ungeachtet dessen, ob das Objekt nahe der Ladefläche ein Objekt ist, dessen Kollision mit dem Fahrzeug 500 nicht zugelassen werden kann. Insbesondere kann zum Beispiel die Verarbeitung in den Schritten S320, S335 und S345 in der zuvor beschriebenen Herunterfallendes-Objekt-Bestimmungsverarbeitung weggelassen werden. Auf diese Weise ist es möglich, mit einer Mehrzahl von herunterfallenden Objekten umzugehen.
    3. (3) In dem zuvor beschriebenen Ausführungsbeispiel bestimmt die CPU 101 in einem Fall, in dem sich das Objekt nahe der Ladefläche auf der Ladefläche befindet (Schritt S300: Ja), ob eine Kollision zwischen dem Objekt nahe der Ladefläche und dem Fahrzeug 500 in Übereinstimmung mit der Schwingungsfrequenz des Objekts nahe der Ladefläche in der Herunterfallendes-Objekt-Bestimmungsverarbeitung zugelassen werden kann. Stattdessen oder zusätzlich dazu kann die CPU 101 bestimmen, ob eine Kollision zwischen dem Objekt nahe der Ladefläche und dem Fahrzeug 500 in Übereinstimmung mit der Größe des Objekts nahe der Ladefläche zugelassen werden kann. Des Weiteren kann die Verarbeitung in Schritt S330 und Schritt S340 in der Herunterfallendes-Objekt-Bestimmungsverarbeitung weggelassen werden. In diesem Fall wird in einem Fall, in dem eine Kollision zwischen dem Objekt nahe der Ladefläche und dem Fahrzeug 500 nicht zugelassen werden kann, bestimmt, dass das Objekt nahe der Ladefläche ein Objekt ist, das wahrscheinlich herunterfällt. Des Weiteren kann die Verarbeitung in Schritt S320 in der Herunterfallendes-Objekt-Bestimmungsverarbeitung weggelassen werden. In diesem Fall wird die Schwellenamplitude ath auf eine Amplitude festgelegt, bei der das Objekt nahe der Ladefläche als ein Objekt eingeschätzt wird, dessen Kollision mit dem Fahrzeug 500 nicht zugelassen werden kann.
    4. (4) In dem zuvor beschriebenen Ausführungsbeispiel bestimmt die CPU 101 in einem Fall, in dem sich das Objekt nahe der Ladefläche weder auf der Ladefläche noch auf einer Straße befindet (Schritt S325: Nein), in der Herunterfallendes-Objekt-Bestimmungsverarbeitung, ob eine Kollision zwischen dem Objekt nahe der Ladefläche und dem Fahrzeug 500 in Übereinstimmung mit der Größe des Objekts nahe der Ladefläche zugelassen werden und bestimmt, ob das Objekt nahe der Ladefläche ein herunterfallendes Objekt ist. Mit anderen Worten bestimmt die CPU 101, dass das Objekt auf der Ladefläche ein herunterfallendes Objekt ist, in einem Fall, in dem die Größe des Objekts auf der Ladefläche gleich oder größer als eine vorgegebene Größe ist und das Objekt auf der Ladefläche weder ein Objekt ist, das wahrscheinlich herunterfällt, noch ein Objekt, das sich auf der Straße befindet. Stattdessen oder zusätzlich dazu kann die CPU 101 die Fallgeschwindigkeit des Objekts nahe der Ladefläche berechnen und bestimmen, ob eine Kollision zwischen dem Objekt nahe der Ladefläche und dem Fahrzeug 500 in Übereinstimmung mit der Fallgeschwindigkeit zugelassen werden kann, und bestimmen, ob das Objekt nahe der Ladefläche ein herunterfallendes Objekt ist. In zum Beispiel einem Fall, in dem die Fallgeschwindigkeit langsam ist, bestimmt die CPU 101, dass das Objekt nahe der Ladefläche ein Objekt aus etwa Stoff oder Vinyl ist, so dass eine Kollision mit dem Fahrzeug 500 zugelassen werden kann. Des Weiteren kann die CPU 101 die Schwingungsfrequenz des herunterfallenden Objekts nahe der Ladefläche berechnen und bestimmen, ob eine Kollision zwischen dem Objekt nahe der Ladefläche und dem Fahrzeug 500 in Übereinstimmung mit der Schwingungsfrequenz nicht zugelassen werden kann, und bestimmen, ob das Objekt nahe der Ladefläche ein herunterfallendes Objekt ist. Insbesondere kann die CPU 101 bestimmen, dass das Objekt nahe der Ladefläche ein herunterfallendes Objekt ist, in einem Fall, in dem die Schwingungsfrequenz des herunterfallenden Objekts nahe der Ladefläche gleich oder niedriger als ein im Voraus bestimmter erster Schwellenwert ist und gleich oder größer als ein zweiter Schwellenwert ist, der niedriger als der erste Schwellenwert ist. Zum Beispiel bestimmt die CPU 101, dass das Objekt nahe der Ladefläche ein Objekt aus etwa Stoff oder Vinyl ist, so dass eine Kollision mit dem Fahrzeug 500 in einem Fall zugelassen werden kann, in dem die Schwingungsfrequenz eine niedrige Frequenz gleich oder höher als 1 Hz ist, was der erste Schwellenwert ist, und bestimmt, dass das Objekt nahe der Ladefläche ein Objekt aus etwa Metall ist, so dass eine Kollision mit dem Fahrzeug 500 in einem Fall nicht zugelassen werden kann, in dem die Schwingungsfrequenz ungefähr 0 Hz beträgt, was der zweite Schwellenwert ist.
  • Während die vorliegende Offenbarung zuvor auf der Basis der Ausführungsbeispiele und abgewandelten Beispiele beschrieben wurde, sind die zuvor beschriebenen Ausführungsbeispiele vorgesehen, um das Verständnis der vorliegenden Offenbarung zu erleichtern und die vorliegende Offenbarung nicht einzuschränken. Die vorliegende Offenbarung kann geändert oder abgewandelt werden, ohne vom Kern und Umfang der Ansprüche abzuweichen, und die vorliegende Offenbarung umfasst Äquivalente davon. Zum Beispiel können technische Merkmale in den Ausführungsbeispielen und abgewandelten Beispielen, die technischen Merkmalen in jeweiligen Ausführungsbeispielen entsprechen, die in der Zusammenfassung der Erfindung beschrieben sind, nach Bedarf ersetzt oder kombiniert werden, um einen Teil oder alle der zuvor beschriebenen Probleme zu lösen oder einen Teil oder alle der zuvor beschriebenen Effekte zu erzielen. Des Weiteren können die technischen Merkmale, die in der vorliegenden Beschreibung nicht als wesentliche Merkmale beschrieben sind, bei Bedarf gestrichen werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 201971687 [0001]
    • JP 2008015770 A [0003]

Claims (11)

  1. Herunterfallendes-Objekt-Bestimmungsvorrichtung (100), die dazu konfiguriert ist, an einem eigenen Fahrzeug (500) montiert zu sein, mit: einer Bezugseinheit (103), die konfiguriert ist, um als ein erstes Erfassungssignal Informationen zu beziehen, die eine Verlagerung eines Objekts nahe einer Ladefläche eines nahegelegenen Fahrzeugs, das nahe des eigenen Fahrzeugs fährt, angeben; und einer Steuereinheit (101), die konfiguriert ist, um zumindest einen der Faktoren, eine Schwingungsfrequenz, eine Amplitude und eine Größe des Objekts nahe der Ladefläche durch Verwendung des ersten Erfassungssignals zu berechnen, und eine Bestimmung durchführt, ob das Objekt nahe der Ladefläche ein Objekt ist, das wahrscheinlich von der Ladefläche herunterfallen wird, oder ein Objekt, das von der Ladefläche herunterfällt, in Übereinstimmung mit einem Berechnungsergebnis.
  2. Herunterfallendes-Objekt-Bestimmungsvorrichtung nach Anspruch 1, wobei die Steuereinheit konfiguriert ist, um die Bestimmung als Antwort auf die Bestimmung durchzuführen, dass eine Kollision zwischen dem Objekt nahe der Ladefläche und dem eigenen Fahrzeug nicht zugelassen werden kann, in Übereinstimmung mit dem Berechnungsergebnis.
  3. Herunterfallendes-Objekt-Bestimmungsvorrichtung nach Anspruch 1 oder 2, wobei die Steuereinheit konfiguriert ist, um zu bestimmen, dass das Objekt nahe der Ladefläche das Objekt ist, das wahrscheinlich von der Ladefläche herunterfallen wird, als Antwort darauf, dass die Schwingungsfrequenz gleich oder größer als ein vorgegebener Schwellenwert ist.
  4. Herunterfallendes-Objekt-Bestimmungsvorrichtung nach einem der Ansprüche 1 bis 3, wobei die Steuereinheit konfiguriert ist, um zu bestimmen, dass das Objekt nahe der Ladefläche das Objekt ist, das wahrscheinlich von der Ladefläche herunterfallen wird, als Antwort darauf, dass die Amplitude gleich oder größer als ein vorgegebener Schwellenwert ist.
  5. Herunterfallendes-Objekt-Bestimmungsvorrichtung nach einem der Ansprüche 1 bis 4, wobei die Steuereinheit konfiguriert ist, um zu bestimmen, dass eine Kollision zwischen dem Objekt nahe der Ladefläche und dem eigenen Fahrzeug nicht zugelassen werden kann, als Antwort darauf, dass die Größe des Objekts nahe der Ladefläche gleich oder größer als eine vorgegebene Größe ist; und zu bestimmen, dass das Objekt nahe der Ladefläche das Objekt ist, das von der Ladefläche herunterfällt, als Antwort darauf, dass das Objekt weder das Objekt ist, das wahrscheinlich als Antwort herunterfällt, noch auf einer Straße lokalisiert ist.
  6. Herunterfallendes-Objekt-Bestimmungsvorrichtung nach Anspruch 5, wobei die Steuereinheit konfiguriert ist, um zu bestimmen, dass das Objekt nahe der Ladefläche das Objekt ist, das von der Ladefläche herunterfällt, als Antwort darauf, dass die Schwingungsfrequenz gleich oder niedriger als ein vorgegebener erster Schwellenwert ist und die Schwingungsfrequenz gleich oder größer als ein zweiter Schwellenwert ist, der niedriger als der erste Schwellenwert ist.
  7. Herunterfallendes-Objekt-Bestimmungsvorrichtung nach einem der Ansprüche 1 bis 6, wobei die Steuereinheit konfiguriert ist, um einen Aspekt der Fahrunterstützung an eine Fahrunterstützungs-Ausführungsvorrichtung, die an dem eigenen Fahrzeug vorgesehen ist und die die Fahrunterstützung des eigenen Fahrzeugs ausführt, anzuweisen, den Aspekt der Fahrunterstützung als einen ersten Fahrunterstützungsaspekt als Antwort darauf zu bestimmen, dass das Objekt nahe der Ladefläche das Objekt ist, das von der Ladefläche herunterfällt, und den Aspekt der Fahrunterstützung als einen zweiten Fahrunterstützungsaspekt als Antwort darauf zu bestimmen, dass das Objekt nahe der Ladefläche das Objekt ist, das wahrscheinlich von der Ladefläche herunterfallen wird, wobei ein Grad der Unterstützung in dem zweiten Fahrunterstützungsaspekt niedriger ist als ein Grad der Unterstützung in dem ersten Fahrunterstützungsaspekt ist.
  8. Herunterfallendes-Objekt-Bestimmungsvorrichtung nach Anspruch 7, wobei der erste Fahrunterstützungsaspekt ein Aspekt ist, bei dem eine Unterstützung durchgeführt wird, um zu vermeiden, dass das eigene Fahrzeug mit dem Objekt nahe der Ladefläche kollidiert.
  9. Herunterfallendes-Objekt-Bestimmungsvorrichtung nach Anspruch 7 oder 8, wobei der zweite Fahrunterstützungsaspekt ein Aspekt ist, bei dem eine Unterstützung durchgeführt wird, um einen Abstand zwischen dem eigenen Fahrzeug und dem nahegelegenen Fahrzeug zu vergrößern.
  10. Fahrunterstützungssystem (10), das konfiguriert ist, um an einem Fahrzeug montiert zu sein, mit: der Herunterfallendes-Objekt-Bestimmungsvorrichtung nach einem der Ansprüche 7 bis 9; einem ersten Detektor (26, 261), der konfiguriert ist, um das erste Erfassungssignal auszugeben; und einer Fahrunterstützungs-Ausführungsvorrichtung (31), die konfiguriert ist, um den Aspekt der Fahrunterstützung auszuführen, der von der Steuereinheit bestimmt wird.
  11. Herunterfallendes-Objekt-Bestimmungsverfahren mit: Beziehen von Informationen als ein erstes Erfassungssignal, die eine Verlagerung eines Objekts nahe einer Ladefläche eines nahegelegenen Fahrzeugs angeben, das nahe eines Fahrzeugs fährt; und Berechnen zumindest einen der Faktoren, eine Schwingungsfrequenz, eine Amplitude und eine Größe des Objekts nahe der Ladefläche durch Verwendung des ersten Erfassungssignals, und Bestimmen, ob das Objekt nahe der Ladefläche ein Objekt ist, das wahrscheinlich von der Ladefläche herunterfallen wird, oder ein Objekt, das von der Ladefläche herunterfällt, in Übereinstimmung mit einem Berechnungsergebnis.
DE112020001707.9T 2019-04-04 2020-03-31 Herunterfallendes-Objekt-Bestimmungsvorrichtung, Fahrunterstützungssystem, und Herunterfallendes-Objekt-Bestimmungsverfahren Pending DE112020001707T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019-071687 2019-04-04
JP2019071687A JP7192627B2 (ja) 2019-04-04 2019-04-04 落下物判別装置、運転支援システムおよび落下物判別方法
PCT/JP2020/014835 WO2020204035A1 (ja) 2019-04-04 2020-03-31 落下物判別装置、運転支援システムおよび落下物判別方法

Publications (1)

Publication Number Publication Date
DE112020001707T5 true DE112020001707T5 (de) 2022-01-20

Family

ID=72669011

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112020001707.9T Pending DE112020001707T5 (de) 2019-04-04 2020-03-31 Herunterfallendes-Objekt-Bestimmungsvorrichtung, Fahrunterstützungssystem, und Herunterfallendes-Objekt-Bestimmungsverfahren

Country Status (5)

Country Link
US (1) US11834039B2 (de)
JP (1) JP7192627B2 (de)
CN (1) CN113661533B (de)
DE (1) DE112020001707T5 (de)
WO (1) WO2020204035A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019128814B4 (de) * 2019-10-25 2021-05-20 Sick Ag Kamera zur Erfassung eines Objektstroms und Verfahren zur Bestimmung der Höhe von Objekten
CN112666550B (zh) * 2020-12-25 2024-01-16 北京灵汐科技有限公司 运动物体检测方法及装置、融合处理单元、介质
CN112800868B (zh) * 2021-01-13 2022-10-25 华南理工大学 一种基于事件相机采集分析装置的高空抛物监测方法
FR3136421A1 (fr) * 2022-06-08 2023-12-15 Psa Automobiles Sa Procédé et dispositif de contrôle d’ouverture d’une porte de coffre d’un véhicule pour prévenir la chute d’un objet

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008015770A (ja) 2006-07-05 2008-01-24 Fujitsu Ten Ltd 画像認識装置および画像認識方法
JP2019071687A (ja) 2019-02-07 2019-05-09 グリー株式会社 ランキング作成方法、制御プログラム及びコンピュータ

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080008355A1 (en) 2006-07-05 2008-01-10 Fujitsu Ten Limited Image recognition apparatus, image recognition method, and vehicle control apparatus
JP2010108371A (ja) 2008-10-31 2010-05-13 Toyota Motor Corp 車両用落下物検出装置
JP5516343B2 (ja) 2010-11-10 2014-06-11 サクサ株式会社 通行車両監視システム
CN104698085B (zh) * 2015-02-01 2017-09-29 山东科技大学 基于常时微动技术的危岩落石调查方法
JP2016203836A (ja) * 2015-04-24 2016-12-08 日立建機株式会社 車両及び鉱山用運搬車両の運用システム
JP6699230B2 (ja) * 2016-02-25 2020-05-27 住友電気工業株式会社 道路異常警告システム及び車載機
JP2017182139A (ja) 2016-03-28 2017-10-05 パナソニックIpマネジメント株式会社 判定装置、判定方法、および判定プログラム
CN205788673U (zh) * 2016-05-11 2016-12-07 中铁武汉勘察设计研究院有限公司 一种铁路沿线崩塌落石监测报警***
DE102016210056A1 (de) 2016-06-08 2017-12-14 Robert Bosch Gmbh Kameraanordnung zur Bestimmung des optischen Flusses, Fahrassistenzsystem und Überwachungskamera mit der Kameraanordnung
CN106184093B (zh) * 2016-07-13 2018-06-26 百度在线网络技术(北京)有限公司 一种高空坠物防护方法和装置
JP6834522B2 (ja) 2017-01-23 2021-02-24 スズキ株式会社 運転支援装置
CN107063339B (zh) * 2017-02-06 2019-04-16 中国科学院、水利部成都山地灾害与环境研究所 铁道沿线落石与行车信号分类分级判断识别方法
US10475343B2 (en) * 2017-05-18 2019-11-12 Ford Global Technologies, Llc Vehicle ice strike prediction
US20200133308A1 (en) * 2018-10-18 2020-04-30 Cartica Ai Ltd Vehicle to vehicle (v2v) communication less truck platooning
US20200231160A1 (en) * 2019-04-09 2020-07-23 Ron Zass Controlling Vehicles in Response to Two-Wheeler Vehicles

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008015770A (ja) 2006-07-05 2008-01-24 Fujitsu Ten Ltd 画像認識装置および画像認識方法
JP2019071687A (ja) 2019-02-07 2019-05-09 グリー株式会社 ランキング作成方法、制御プログラム及びコンピュータ

Also Published As

Publication number Publication date
JP2020170370A (ja) 2020-10-15
WO2020204035A1 (ja) 2020-10-08
US20220017085A1 (en) 2022-01-20
US11834039B2 (en) 2023-12-05
CN113661533A (zh) 2021-11-16
CN113661533B (zh) 2023-07-14
JP7192627B2 (ja) 2022-12-20

Similar Documents

Publication Publication Date Title
DE112020001707T5 (de) Herunterfallendes-Objekt-Bestimmungsvorrichtung, Fahrunterstützungssystem, und Herunterfallendes-Objekt-Bestimmungsverfahren
DE112012006868B4 (de) Kollisionsbestimmungsvorrichtung und Kollisionsbestimmungsverfahren
DE102014105722A1 (de) Kollisionserfassungsvorrichtung und Kollisionsabschwächungsvorrichtung
DE102018114233B4 (de) Vor-kollision-steuerungsvorrichtung
DE112019003421B4 (de) Fahrunterstützungssteuerungsvorrichtung für ein Fahrzeug, Fahrunterstützungssteuerungssystem für ein Fahrzeug, und Fahrunterstützungssteuerverfahren für ein Fahrzeug
DE112017004333B4 (de) Umgebungsüberwachvorrichtung und Umgebungsüberwachverfahren
DE102016007016A1 (de) Adaptives Geschwindigkeitsregelungssystem in einem Fahrzeug und Verfahren davon
DE112015004817B4 (de) Hinderniswarnvorrichtung
DE112018006738B4 (de) Vorrichtung zur detektion fallender objekte, fahrzeuginternes system, fahrzeug und programm zur detektion fallender objekte
DE112018006009T5 (de) Bremsunterstützungsvorrichtung, steuerungsvorrichtung und bremsunterstützungsverfahren für ein fahrzeug
DE102015118211A1 (de) Parkassistenzsystem und parkassistenzverfahren
DE112017001351T5 (de) Fahrassistenzvorrichtung
DE112019000801T5 (de) Fahrunterstützungsvorrichtung und Fahrunterstützungsverfahren
DE102014209585A1 (de) Kollisionsminderungsvorrichtung
DE102017218366A1 (de) Verfahren und system zur fussgängererfassung in einem fahrzeug
DE112016001512T5 (de) Fahrzeugsteuerungsvorrichtung in einem fahrzeugsteuerungsverfahren
DE102014217233A1 (de) Kollisionswahrscheinlichkeitsbestimmungsvorrichtung und Programm
DE112016002750T5 (de) Fahrzeugsteuerungsvorrichtung und fahrzeugsteuerungsverfahren
DE112016004471T5 (de) Fahrunterstützungsvorrichtung
DE112012007157T5 (de) Fahrunterstützungsvorrichtung und Fahrunterstützungsverfahren
DE102015208782A1 (de) Objekterfassungsvorrichtung, Fahrunterstützungsvorrichtung, Objekterfassungsverfahren und Objekterfassungsprogramm
DE112020001535T5 (de) Fahrbahnoberflächenzustands-bestimmungsvorrichtung für fahrzeuge, fahrassistenzsystem und fahrbahnoberflächenzustands-bestimmungsverfahren
DE102007019491A1 (de) Fahrzeugumgebungs-Überwachungsvorrichtung, Fahrzeug, Fahrzeugumgebungs-Überwachungsverfahren und Fahrzeugumgebungs-Überwachungsprogramm
DE102014112797A1 (de) Fahrzeugaußenumgebungerkennungsvorrichtung
DE112016000423T5 (de) Abschnittslinienerkennungsvorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed