DE112009005424T5 - Objektdetektionsvorrichtung u nd Objektdetektionsverfahren - Google Patents

Objektdetektionsvorrichtung u nd Objektdetektionsverfahren Download PDF

Info

Publication number
DE112009005424T5
DE112009005424T5 DE112009005424T DE112009005424T DE112009005424T5 DE 112009005424 T5 DE112009005424 T5 DE 112009005424T5 DE 112009005424 T DE112009005424 T DE 112009005424T DE 112009005424 T DE112009005424 T DE 112009005424T DE 112009005424 T5 DE112009005424 T5 DE 112009005424T5
Authority
DE
Germany
Prior art keywords
edge
target
detected
edges
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112009005424T
Other languages
English (en)
Other versions
DE112009005424T8 (de
DE112009005424B4 (de
Inventor
Masayuki Katoh
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of DE112009005424T5 publication Critical patent/DE112009005424T5/de
Publication of DE112009005424T8 publication Critical patent/DE112009005424T8/de
Application granted granted Critical
Publication of DE112009005424B4 publication Critical patent/DE112009005424B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Es ist eine der vorliegenden Erfindung zugrundeliegende Aufgabe, die Detektionsgenauigkeit einer lateralen Position eines Ziels in einer Objektdetektionsvorrichtung zum Detektieren eines Objektes durch Verwendung eines Radars und eines monokularen Bildsensors weiter zu verbessern. In der vorliegenden Erfindung wird ein Ziel, das einem Ziel entspricht, das durch das Radar erkannt wird, extrahiert, und ein rechter Rand und ein linker Rand des Ziels werden anhand eines Bildes erfasst, das durch den monokularen Bildsensor aufgenommen wurde. Zudem werden Näherungslinien für einen geometrischen Ort, bei denen es sich um Geraden oder vorbestimmte gekrümmte Linien handelt, für die beiden Ränder hergeleitet. Der Rand, der eine größere Anzahl von Rändern aufweist, die auf der Näherungslinie des geometrischen Ortes existieren, wird von dem rechten und des linken Rand als ein echter Rand des Ziels ausgewählt. Die laterale Position des Ziels wird auf Basis der Position des ausgewählten Randes hergeleitet.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft eine Objektdetektionsvorrichtung und ein Objektdetektionsverfahren, in dem ein Objekt auf Basis von Informationen detektiert wird, die durch ein Radar und einen Bildsensor erfasst werden.
  • Technischer Hintergrund
  • In den letzten Jahren sind Sicherheitssysteme, wie z. B. PCS (Pre-Crash Safety Systems bzw. Radargestützte Systeme mit automatischer Notbremsung), und dergleichen zum Verhindern einer Kollision oder zur Begrenzung der durch die Kollision hervorgerufenen Schäden entwickelt worden. Um ein derartiges Sicherheitssystem vorzugsweise zu realisieren, muss z. B. die Position und die Größe eines Hindernisses, z. B. eines Fußgängers und eines anderen Fahrzeugs als dem Subjektfahrzeug, sowie der Abstand zwischen dem Hindernis und dem Subjektfahrzeug korrekt erfasst werden. Wie vorstehend beschrieben ist eine Objektdetektionsvorrichtung, die auf der Verwendung eines Radars und eines Stereobildsensors basiert, als technische Einrichtung zum Erfassen z. B. der Position, der Größe und des Abstands bekannt.
  • Bei Verwendung eines Radars kann ein Ziel bzw. Target (Objekt, das als eine Detektionszielvorgabe vorgesehen ist) als Reflexionspunkt der elektromagnetischen Welle erkannt werden. Auf diese Art und Weise kann die Position des Ziels bzw. Target erfasst bzw. erhalten werden. Schwierig dabei ist jedoch, mit Hilfe der Radartechnik den Rand des Ziels korrekt zu erfassen. Andererseits kann der Rand des Ziels anhand eines durch den Stereobildsensor aufgenommenen oder fotografierten Bildes exakt erfasst werden. So bewirkt die vorstehend beschriebene Objektdetektionsvorrichtung einen Zusammenschluss der Zielinformationen, die durch das Radar erfasst werden, mit den Zielinformationen, die anhand des durch den Stereobildsensor aufgenommenen Bildes erfasst wurden. Demnach ist eine Verbesserung der Objektdetektionsfähigkeit der Objektdetektionsvorrichtung möglich.
  • Wird jedoch der Stereobildsensor als der Bildsensor verwendet, ist sicherzustellen, dass für die Installation des Stereobildsensors relativ viel Platz vorhanden ist. Zudem ist auch der Kostenaufwand zur Realisierung der Objektdetektionsvorrichtung relativ hoch. Daher besteht die Notwendigkeit, durch Verwendung eines monokularen Bildsensors anstatt des Stereobildsensors eine in Funktion und Leistung dem Stereobildsensor entsprechende Objektdetektionsvorrichtung zu schaffen.
  • Patentschrift 1 offenbart eine Fahrzeughindernis-Erkennungsvorrichtung, die ein Millimeterradar und eine monokulare Kamera verwendet. Die Fahrzeughindernis-Erkennungsvorrichtung weist eine Objektinformations-Berechnungseinrichtung, eine Bildverarbeitungseinrichtung und eine Fahrzeuginformations-Erfassungseinrichtung auf. Die Objektinformations-Berechnungseinrichtung berechnet anhand der Ausgabe des Millimeterwellenradars die Objektinformationen, die z. B. die relative seitliche bzw. laterale Position und den relativen Abstand bezogen auf das Detektionsobjekt beinhalten. Die Bildverarbeitungseinrichtung verarbeitet ein durch die monokulare Kamera aufgenommenes oder fotografiertes Bild auf Basis des Berechnungsergebnisses, das durch die Objektinformations-Berechnungseinrichtung erhalten wurde. Die Fahrzeughindernis-Erkennungsvorrrichtung beurteilt auf Basis der Ausgaben von zumindest der Objektinformations-Berechnungseinrichtung und der Fahrzeuginformations-Erfassungseinrichtung die Möglichkeit bzw. Fähigkeit des Detektionsobjekts, sich wie ein Hindernis zu verhalten. Zudem wird auf Basis des Berechnungsergebnisses, das durch die Objektinformations-Berechnungseinrichtung erhalten wird, beurteilt, ob die Ausgabe der Bildverarbeitungseinrichtung zur Beurteilung des Hindernisses effektiv bzw. von Nutzen ist. Nur wenn die Ausgabe der Bildverarbeitungseinrichtung effektiv bzw. von Nutzen ist, wird die Ausgabe der Bildverarbeitungseinrichtung ebenfalls zur Beurteilung des Hindernisses verwendet.
  • Patentschrift 2 offenbart eine Objektdetektionsvorrichtung zum Erfassen von Bildinformationen und Abstandsinformationen von einer Kamera und einem Radar. In der Objektdetektionsvorrichtung werden der Richtungsvektor des Randes, die Richtungsvektorvarianz bzw. -abweichung des Randes, die Randintensität und die Randintensitätsvarianz bzw. -abweichung anhand der Bildinformationen berechnet. Um welche Art einer Zielvorgabe es sich handelt, wird auf Basis von zumindest einer der genannten Größen und des Abstands bezogen auf die Detektionszielvorgabe beurteilt.
  • Patentschriften des Stands der Technik
    • Patentschrift 1: Japanische Patenanmeldungs-Offenlegungsschrift: 2008-276689
    • Patentschrift 2: Japanische Patentanmeldungs-Offenlegungsschrift: 2007-288460
  • Offenbarung der Erfindung
  • Aufgabenstellung der Erfindung
  • Wenn in der Objektdetektionsvorrichtung der monokulare Bildsensor als der Bildsensor verwendet wird, sind sowohl Platz- als auch Kostenersparnis möglich. Dennoch ist es schwierig, anhand des durch den monokularen Bildsensor aufgenommenen Bildes korrekte Informationen in der distalen Richtung oder Tiefenrichtung zu erhalten. Wenn daher der linke und der rechte Rand eines Ziels anhand eines Bildes detektiert werden, das durch den monokularen Bildsensor aufgenommen worden ist, wird ein Rand eines Objekts oder Musters, das im Vergleich zum Ziel aus Sicht des Subjektfahrzeugs tatsächlich existiert, in einigen Fällen fälschlicherweise als der Rand des Ziels detektiert. Wenn die Position in der seitlichen bzw. lateralen Richtung des Ziels (seitlichen bzw. lateralen Position) auf Basis des wie vorstehend beschrieben fälschlicherweise bzw. falsch detektierten Rands hergeleitet wird, steht zu befürchten, dass die laterale Position des Ziels ebenfalls fehlerhaft detektiert werden könnte.
  • Die vorstehende Erfindung ist im Hinblick auf das vorstehend angeführte Problem entwickelt worden, und es ist deren Aufgabe, eine Technik zu schaffen, die eine weitere Verbesserung der Detektionsgenauigkeit der lateralen Position eines Ziels in einer Objektdetektionsvorrichtung zum Detektieren eines Objekts auf Basis von Zielinformationen, die durch ein Radar erfasst werden, und Zielinformationen, die von einem Bild erfasst werden, das durch einen monokularen Bildsensor aufgenommen wurde, ermöglicht.
  • Mittel zur Lösung der Aufgabe
  • In der vorliegenden Erfindung werden ein rechter Rand und ein linker Rand eines Ziels anhand eines Bildes erfasst oder erhalten, das durch einen monokularen Bildsensor aufgenommen oder fotografiert worden ist. Zudem werden für die beiden Ränder Näherungslinien eines geometrischen Ortes hergeleitet, bei denen es sich um Geraden oder vorbestimmte gekrümmte Linien handelt, die zum Nähern der geometrischen Örter des rechten Rands und des linken Rands dienen. Der Rand, der in dem rechten Rand und dem linken Rand beinhaltet ist und der die größere Anzahl von Rändern aufweist, die auf der Näherungslinie des geometrischen Ortes existieren, wird als der echte Rand des Ziels ausgewählt. Die laterale Position des Ziels wird auf Basis der Position des ausgewählten Rands hergeleitet.
  • Insbesondere befindet sich die Objektdetektionsvorrichtung gemäß einer ersten Ausführungsform in einer Objektdetektionsvorrichtung zum Detektieren eines Objekts auf Basis von Zielinformationen, die durch ein Radar erfasst werden, und Zielinformationen, die anhand eines Bildes erfasst werden, das durch einen monokularen Bildsensor aufgenommen worden ist, wobei die Objektdetektionsvorrichtung aufweist:
    eine Randerfassungseinrichtung, die ein Ziel, das einem Ziel entspricht, das durch das Radar erfasst wird, aus dem Bild extrahiert, das durch den monokularen Bildsensor aufgenommen wurde, und die einen rechten Rand und einen linken Rand des extrahierten Ziels erfasst;
    eine Einrichtung zum Herleiten einer Näherungslinie eines geometrischen Ortes, die für die beiden Ränder Näherungslinien des geometrischen Ortes als Geraden oder vorbestimmte gekrümmte Linien zum Nähern von geometrischen Örtern des rechten Randes und des linken Randes, die durch die Randerfassungseinrichtung erfasst wurden, herleitet;
    eine Auswähleinrichtung, die als einen echten Rand des Ziels, den Rand mit einer größeren Anzahl von Rändern, die auf der Näherungslinie des geometrischen Ortes existieren, von dem rechten Rand und dem linken Rand, die durch die Randerfassungseinrichtung erfasst werden, auswählt; und
    eine Einrichtung zum Herleiten einer lateralen Position, die eine laterale Position des Ziels auf Basis einer Position des Randes herleitet, der durch die Auswähleinrichtung als der echte Rand ausgewählt wird.
  • Gemäß der vorliegenden Erfindung wird der Rand, der die größere Wichtigkeit bzw. Zuverlässigkeit aufweist und von dem rechten Rand und dem linken Rand des Ziels, das anhand des durch den monokularen Bildsensor aufgenommenen Bildes erfasst wurde, als der echte Rand des Ziels ausgewählt. Die laterale Position des Ziels wird auf Basis der Position des Randes mit der größeren Wichtigkeit bzw. höheren Zuverlässigkeit hergeleitet. Auf diese Art und Weise kann die Detektionsgenauigkeit der lateralen Position des Ziels weiter verbessert werden.
  • Die Objektdetektionsvorrichtung gemäß der vorliegenden Erfindung kann zudem eine Gewichtungsbeimessungseinrichtung aufweisen, die dem rechten Rand und dem linken Rad, die durch die Randerfassungseinrichtung erfasst werden, Wichtigkeits- bzw. Zuverlässigkeitsgewichtungen beimisst. In diesem Fall misst die Gewichtungsbeimessungseinrichtung dem rechten Rand und dem linken Rand die Gewichtungen so bei, dass der Rand, der näher an einer Position des Ziels angeordnet ist, das durch das Radar erkannt wurde, eine größere Wichtigkeit bzw. höhere Zuverlässigkeit aufweist. Zudem kann die Objektdetektionsvorrichtung gemäß der vorliegenden Erfindung eine Zuverlässigkeitsgesamtwert-Berechnungseinrichtung aufweisen, die eine Mehrzahl von Wichtigkeiten bzw. Zuverlässigkeiten zusammenrechnet, wobei die Gewichtungen jeweils dem rechten und dem linken Rand durch die Gewichtungsbeimessungseinrichtung beigemessen werden, um dadurch den Gesamtwert der Zuverlässigkeiten für die beiden Ränder zu berechnen.
  • In der vorliegenden Erfindung ist in einigen Fällen die Anzahl der auf der Näherungslinie des geometrischen Ortes existierenden Ränder zwischen dem rechten und dem linken Rand identisch. In so einem Fall kann die Auswähleinrichtung von dem linken und dem rechten Rand den Rand als den echten Rand des Zieles auswählen, der den größeren Gesamtwert von Zuverlässigkeiten aufweist, die durch die Zuverlässigkeitsgesamtwert-Berechnungseinrichtung berechnet wurden.
  • Dementsprechend kann auch der Rand, der die höhere Zuverlässigkeit aufweist und der von dem rechten Rand und dem linken Rand des Ziels ausgewählt wird, als der echte Rand des Ziels ausgewählt werden.
  • In der vorliegenden Erfindung kann die Einrichtung zum Herleiten einer lateralen Position eine Einrichtung zum Prognostizieren eines geometrischen Ortes und eine Einrichtung zum Prognostizieren einer Kollisionsposition beinhalten. Die Einrichtung zum Prognostizieren des geometrischen Ortes prognostiziert einen zukünftigen geometrischen Ort des durch die Auswähleinrichtung als echter Rand ausgewählten Rands. Die Einrichtung zum Prognostizieren der Kollisionsposition prognostiziert auf Basis des zukünftigen geometrischen Ortes des Randes, der durch die Einrichtung zum Prognostizieren des geometrischen Ortes prognostiziert wird, eine Kollisionsposition zwischen dem Ziel und einem Fahrzeug als eine Position, wo ein Abstand zwischen dem Rand und dem Fahrzeug in der von vorne nach hinten verlaufenden Richtung null beträgt. In diesem Fall kann eine laterale Position eines Mittelpunkts in einer lateralen Richtung des Ziels (der nachstehend als „Zielmittelpunkt” bezeichnet wird), die an der Kollisionsposition bereitgestellt werden soll, durch die Einrichtung zum Herleiten der lateralen Position auf Basis einer Position des durch die Auswähleinrichtung als echter Rand ausgewählten Rands an der Kollisionsposition hergeleitet werden, die durch die Einrichtung zum Prognostizieren der Kollisionsposition prognostiziert wird.
  • Dementsprechend kann die laterale Position des Zielmittelpunkts an der Kollisionsposition zwischen dem Ziel und dem Fahrzeug erfasst werden.
  • In der Objekterfassungsvorrichtung gemäß der vorliegenden Erfindung kann die Einrichtung zum Herleiten der lateralen Position eine Einrichtung zum Schätzen einer lateralen Breite beinhalten, die eine laterale Breite des Ziels schätzt. In diesem Fall kann eine Position, die zu dem jeweils anderen Rand um die Hälfte der lateralen Breite des Ziels, die durch die Einrichtung zum Schätzen der lateralen Breite anhand der Position des Randes geschätzt wird, der durch die Auswähleinrichtung als der echte Rand ausgewählt wurde, abweicht, durch die Einrichtung zum Herleiten der lateralen Position als eine laterale Position des Zielmittelpunkts hergeleitet werden.
  • Demzufolge ist eine hochgenaue Erfassung der lateralen Position des Zielmittelpunkts möglich.
  • Das Objekterfassungsverfahren gemäß einer zweiten Ausführungsform ist Teil eines Objekterfassungsverfahrens zum Erfassen eines Objekts auf Basis von Zielinformationen, die durch ein Radar erfasst werden, und Zielinformationen, die anhand eines Bildes erfasst werden, das durch einen monokularen Bildsensor aufgenommen wurde, wobei das Objekterfassungsverfahren beinhaltet:
    einen Randerfassungsschritt, in dem ein Ziel, das einem durch das Radar erkannten Ziel entspricht, aus dem Bild, das durch den monokularen Bildsensor aufgenommen wurde, extrahiert wird und ein rechter Rand und ein linker Rand des extrahierten Ziels erfasst wird;
    einen Schritt zum Herleiten einer Näherungslinie für einen geometrischen Ort, in dem, für die beiden Ränder, Näherungslinien des geometrischen Ortes als Geraden oder vorbestimmte gekrümmte Linien zum Nähern des geometrischen Ortes des rechten Randes und des linken Randes, die in dem Randerfassungsschritt erfasst wurden, hergeleitet werden;
    einen Auswählschritt, in dem als einer echter Rand des Ziels der Rand, der die größere Anzahl von auf der Näherungslinie des geometrischen Ortes existierenden Ränder aufweist, von dem rechten Rand und dem linken Rand ausgewählt wird, die in dem Randerfassungsschritt erfasst wurden; und
    einen Schritt zum Herleiten einer lateralen Position, in dem eine laterale Position des Ziels auf Basis einer Position des Randes hergeleitet wird, der in dem Auswählschritt als echter Rand ausgewählt wurde.
  • In der vorliegenden Erfindung wird die laterale Position des Ziels ebenfalls auf Basis der Position des die größer Wichtigkeit bzw. Nähere Zuverlässigkeit aufweisenden Randes hergeleitet. Dementsprechend kann die Detektionsgenauigkeit der lateralen Position des Ziels weiter verbessert werden.
  • Das Objektdetektionsverfahren gemäß der vorliegenden Erfindung kann ferner einen Gewichtungsbeimessungsschritt aufweisen, in dem dem rechten Rand und dem linken Rand, die in dem Randerfassungsschritt erfasst wurden, Zuverlässigkeitsgewichtungen beigemessen werden. In diesem Fall werden dem rechten Rand und dem linken Rad die Gewichtungen in dem Gewichtungsbeimessungsschritt so beigemessen, dass der Rand, der näher an einer Position des durch das Radar erkannten Ziels angeordnet ist, eine höhere Zuverlässigkeit aufweist. Zudem kann das Objektdetektionsverfahren gemäß der vorliegenden Erfindung einen Schritt zum Berechnen eines Zuverlässigkeitsgesamtwerts beinhalten, in dem eine Mehrzahl von Zuverlässigkeiten zusammengerechnet wird, wobei jeweils dem rechten und dem linken Schritt in dem Gewichtungsbeimessungsschritt Gewichtungen beigemessen werden, um dadurch die Gesamtwerte der Zuverlässigkeiten für die beiden Ränder zu berechnen.
  • In der vorliegenden Erfindung kann der Rand, der den größeren Gesamtwert an Zuverlässigkeiten aufweist, die in dem Schritt zum Berechnen des Zuverlässigkeitsgesamtwerts berechnet wurden, in dem Auswählschritt als der echte Rand des Ziels ausgewählt werden, wenn die Anzahl der auf der Näherungslinie des geometrischen Orts existierenden Ränder zwischen dem rechten Rand und dem linken Rand identisch ist.
  • Dementsprechend kann der Rand, der die höhere Zuverlässigkeit aufweist und der von dem rechten und dem linken Rand des Ziels ausgewählt wird, als der echte Rand des Ziels ausgewählt werden.
  • Gemäß der ersten und der zweiten Ausführungsform ist unter dem Begriff „auf der Näherungslinie des geometrischen Ortes existierender Rand” nicht nur der Rand zu verstehen, der an der Position existiert, die völlig mit der Näherungslinie des geometrischen Ortes übereinstimmt, sondern auch der Rand, der innerhalb eines vorbestimmten zulässigen Bereichs von der Näherungslinie des geometrischen Ortes positioniert ist.
  • Vorteilhafter Effekt der Erfindung
  • Gemäß der vorliegenden Erfindung ist eine weitere Verbesserung der Detektionsgenauigkeit der lateralen Position des Ziels in der Objektdetektionsvorrichtung zum Detektieren des Objekts auf Basis der Zielinformationen, die durch das Radar erfasst wurden, und der Zielinformationen, die von dem durch den monokularen Bildsensor aufgenommenen Bild erfasst wurden, möglich.
  • Kurzbeschreibung der Zeichnung
  • 1 zeigt ein Blockdiagramm, das eine schematische Anordnung einer Kollisionsprognosevorrichtung gemäß einer ersten Ausführungsform darstellt.
  • 2 zeigt Blockdiagramme, die eine schematische Anordnung eines Objektdetektierungsabschnitts gemäß der ersten Ausführungsform darstellen.
  • 3 zeigt eine Millimeterwellen-Detektionsposition und monokulare Bilddetektionsränder in Beziehung zu einem Bild, das durch einen monokularen Bildsensor aufgenommen wurde.
  • 4 zeigt ein Detektionsergebnis, das erhalten wird, wenn ein Hindernis durch Verwendung eines Millimeterwellenradars und eines Stereobildsensor detektiert wird.
  • 5 zeigt ein Detektionsergebnis, das erhalten wird, wenn ein Hindernis durch Verwendung eines Millimeterwellenradars und des monokularen Bildsensors detektiert wird.
  • 6 zeigt Näherungslinien für den geometrischen Ort von einem rechten und einem linken Rand, die für die Ränder der monokularen Bilddetektion gemäß der ersten Ausführungsform hergeleitet werden.
  • 7 zeigt die Beziehung zwischen den Näherungslinien des geometrischen Orts des ausgewählten Randes, des prognostizieren zukünftigen geometrischen Ortes, der Kollisionsposition und der lateralen Position des Zielmittelpunkts gemäß der ersten Ausführungsform.
  • 8 zeigt ein Flussdiagramm, das einen Teil eines Kollisionsbeurteilungsflusses gemäß der ersten Ausführungsform darstellt.
  • 9 zeigt ein Flussdiagramm, das einen Teil des Kollisionsbeurteilungsflusses gemäß der ersten Ausführungsform darstellt.
  • 10 zeigt ein Blockdiagramm, das eine schematische Anordnung eines Objektdetektionsbereichs gemäß einer zweiten Ausführungsform darstellt.
  • 11 zeigt ein Detektionsergebnis, das erhalten wird, wenn ein Hindernis durch Verwendung eines Millimeterwellenradars und eines monokularen Bildsensors erfasst wird.
  • 12 zeigt Näherungslinien des geometrischen Ortes des rechten und des linken Randes, die für die Ränder der monokularen Bilddetektion hergeleitet werden, gemäß der zweiten Ausführungsform.
  • 13 zeigt die Beziehung zwischen der Näherungslinie des geometrischen Ortes des ausgewählten Randes, des prognostizierten zukünftigen geometrischen Ortes, der Kollisionsposition und der lateralen Position des Zielmittelpunktes gemäß der zweiten Ausführungsform.
  • 14 zeigt ein Flussdiagramm, das einen Teil einer Kollisionsbeurteilungsflusses gemäß der zweiten Ausführungsform darstellt.
  • Art und Weise des Ausführens der Erfindung
  • Nachstehend erfolgt unter Bezugnahme auf die Zeichnung eine Erläuterung bestimmter Ausführungsformen der vorliegenden Erfindung. Es sollen aber beispielsweise Größe, Material, Form und relative Anordnung eines beliebigen Bestandteils, der für die Ausführungsform der vorliegenden Erfindung beschrieben wird, den technischen Schutzbereich der Erfindung nicht ausschließlich darauf beschränken, sofern nicht ausdrücklich anderes angegeben ist.
  • <Erste Ausführungsform>
  • Eine Erläuterung der ersten Ausführungsform der vorliegenden Erfindung geschieht unter Bezugnahme auf 1 bis 9.
  • (Schematische Anordnung)
  • In diesem Abschnitt erfolgt eine Erläuterung eines Falles, in dem die vorliegende Erfindung auf einen Kollisionsprognosevorrichtung angewendet wird. 1 und 2 zeigen Blockdiagramme, die eine schematische Anordnung der Kollisionsprognosevorrichtung gemäß dieser Ausführungsform darstellen. Die Kollisionsprognosevorrichtung 200 wird auf einem Fahrzeug 100 mitgeführt, wobei es sich dabei um eine Vorrichtung zum Prognostizieren der Kollision zwischen einem Subjektfahrzeug 100 und einem Hindernis handelt, das z. B. ein weiteres Fahrzeug (Objektfahrzeug), ein Fußgänger oder Spaziergänger sein kann. Eine Warnvorrichtung 8 und ein Kollisionsschutz-/Kollisionsschadensbegrenzungssystem 9, die betätigt werden, wenn die Kollision mit dem Hindernis prognostiziert wird, werden neben der Kollisionsprognosevorrichtung 200 in dem Fahrzeug 100 mitgeführt.
  • Die Kollisionsprognosevorrichtung 200 weist einen Millimeterwellenradar 1, einen monokularen Bildsensor 2, einen Lenkwinkelsensor 3, einen Gierratensensor 4, einen Radpulssensor 5 und eine ECU 10 auf. Der Millimeterwellenradar 1 ist an einem vorderen mittleren Bereich des Fahrzeugs 100 angebracht. Das Millimeterwellenradar 1 führt den Abtastvorgang bzw. den Scanvorgang in der horizontalen Richtung mit einer elektromagnetischen Welle in einem Millimeterwellenband für alles aus, was sich in der Vorwärtsrichtung und der Schrägvorwärtsrichtung des Fahrzeugs 100 befindet. Zudem empfängt das Millimeterwellenradar 1 die elektromagnetische Welle, die durch eine Oberfläche eines außerhalb des Fahrzeugs befindlichen Objekts reflektiert wird. Dementsprechend erkennt das Millimeterwellenradar 1 ein Ziel als einen Reflexionspunkt der elektromagnetischen Welle. Die Zielinformationen (z. B. die relative Position des Ziels in Bezug auf das Subjektfahrzeug 100), die von den Sende-/Empfangsdaten der Millimeterwelle erfasst oder erhalten werden, werden in die ECU 10 eingegeben.
  • Der monokulare Bildsensor 2 ist an einem vorderen mittleren Bereich des Fahrzeugs 100 angebracht. Der monokulare Bildsensor 2 fotografiert oder nimmt das Bild in der Vorwärtsrichtung und der Schrägvorwärtsrichtung des Fahrzeugs 100 auf. Das aufgenommene Bild wird als ein Bildsignal in die ECU 10 eingegeben.
  • Der Lenkwinkelsensor 3 ist z. B. an einer Lenkstange des Fahrzeugs 100 angebracht. Der Lenkwinkelsensor 3 erfasst den Lenkwinkel des durch einen Fahrer gesteuerten Lenkrads. Der Gierratensensor 4 ist an einer mittleren Position der Karosserie des Fahrzeugs 100 vorgesehen. Der Gierratensensor 4 erfasst die auf die Karosserie einwirkende Gierrate. Der Radpulssensor 5 ist an einem Bereich des Rads des Fahrzeugs 100 angebracht. Der Radpulssensor 5 erfasst die Radgeschwindigkeit des Fahrzeugs. Die Ausgangssignale der Sensoren werden in die ECU 10 eingegeben.
  • Die ECU 10 weist einen Objektdetektierungsabschnitt 6 und einen Kollisionsbeurteilungsabschnitt 7 auf. Der Objektdetektierungsabschnitt 6 detektiert das Hindernis auf Basis der Zielinformationen, die durch das Millimeterwellenradar 1 erfasst wurden, und der Zielinformationen, die von dem Bild erfasst wurden, das durch den monokularen Bildsensor 2 aufgenommen wurde. Der Kollisionsbeurteilungsabschnitt 7 beurteilt, ob das durch den Objektdetektierungsabschnitt 6 detektierte Hindernis und das Subjektfahrzeug 100 miteinander kollidieren. Einzelheiten über das Objektdetektierungsverfahren, das in dem Objektdetektierungsabschnitt 6 ausgeführt wird, sowie das Kollisionsbeurteilungsverfahren, das in dem Kollisionsbeurteilungsabschnitt 7 ausgeführt wird, werden an späterer Stelle angeführt.
  • 2 zeigt Blockdiagramme, die eine schematische Anordnung des Objektdetektierungsabschnitts 6 gemäß dieser Ausführungsform darstellen. Wie in 2(a) gezeigt ist, weist der Objektdetektierungsabschnitt 6 einen Randdetektierungsabschnitt 61, einen Abschnitt 62 zum Herleiten einer Näherungslinie des geometrischen Ortes, einen Auswählabschnitt 63 und einen Abschnitt 64 zum Herleiten einer lateralen Position auf. Wie in 2(b) gezeigt ist, weist der Abschnitt 64 zum Herleiten der lateralen Position einen Abschnitt 641 zum Prognostizieren des geometrischen Ortes, einen Abschnitt 642 zum Prognostizieren einer Kollisionsposition, einen Abschnitt 643 zum Schätzen einer lateralen Breite und einen Abschnitt 644 zum Herleiten einer lateralen Position des Zielmittelpunkts auf. Einzelheiten über die jeweiligen Abschnitte 61 bis 64 und 641 bis 644 sind der Beschreibung an späterer Stelle zu entnehmen.
  • Die ECU 10 weist ferner Berechnungsabschnitte zum Berechnen verschiedener Parameter auf, die erforderlich sind, um die Kollision in dem Kollisionsbeurteilungsabschnitt zu beurteilen, wobei diese Abschnitte beispielsweise einen Abschnitt zum Berechnen eines geschätzten Kurvenradius, einen Abschnitt zum Berechnen einer Geschwindigkeit des Subjektfahrzeugs, einen Abschnitt zum Berechnen des Fahrbahnverlaufs bzw. des Orbits des Subjektfahrzeugs, einen Abschnitt zum Berechnen der Geschwindigkeit des Hindernisses und einen Abschnitt zum Berechnen einer durch das Hindernis zurückgelegten Entfernung (nicht gezeigt) beinhaltet. Der Abschnitt zum Berechnen des geschätzten Kurvenradius berechnet z. B. den geschätzten Kurvenradius des Subjektfahrzeugs 100 auf Basis des Lenkwinkelsignals, das von dem Lenkwinkelsensor 3 eingegeben wird, des Gierratensignals, das von dem Gierratensensor 4 eingegeben wird. Der Subjektfahrzeugs-Geschwindigkeitsberechnungsabschnitt berechnet die Fahrzeuggeschwindigkeit des Subjektfahrzeugs 100 auf Basis des Radgeschwindigkeitssignals, das von dem Radpulssensor 5 eingegeben wird. Der Abschnitt zum Berechnen des Fahrbahnverlaufs des Subjektfahrzeugs berechnet den Fahrbahnverlauf des Subjektfahrzeugs 100 auf Basis des geschätzten Kurvenradiussignals, das von dem Abschnitt zum Berechnen des geschätzten Kurvenradius eingegeben wird. Der Abschnitt zum Berechnen der Hindernisgeschwindigkeit berechnet die Bewegungsgeschwindigkeit des Hindernisses, das durch den Objektdetektierungsabschnitt 6 auf Basis der Zielinformationen detektiert wird. Der Abschnitt zum Berechnen der durch das Hindernis zurückgelegten Entfernung berechnet die zurückgelegte Strecke nach der Detektierung des durch den Objektdetektierungsabschnitt 6 auf Basis der Zielinformationen detektierten Hindernisses.
  • Wenn durch den Kollisionsbeurteilungsabschnitt 7 beurteilt wird, dass das Subjektfahrzeug mit dem Hindernis kollidieren wird, wird das EIN-Signal von der ECU 10 an die Warnvorrichtung 8 und das Kollisionsschutz-/Kollisionsschadensbegrenzungssystem 9 übertragen. Wenn die Warnvorrichtung 8 das EIN-Signal empfängt, wird der Fahrer durch die Warnvorrichtung 8 mittels Sprache und/oder Hinweis auf einer Monitoranzeige gewarnt. Wenn das Kollisionsschutz-/Kollisionsschadensbegrenzungssystem das EIN-Signal empfängt, führt das Kollisionsschutz-/Kollisionsschadensbegrenzungssystem 8 die Kollisionsschutzsteuerung und/oder die Kollisionsschadensbegrenzungssteuerung aus. Als Beispiele für das Kollisionsschutz-/Kollisionsschadensbegrenzungssystem sind ein automatisches Lenksystem, ein Sicherheitsgurt-Regelungssystem, ein Sitzpositions-Regelungssystem, ein Bremsregelungssystem und ein Airbag-Steuerungssystem zu nennen.
  • (Verfahren zum Herleiten einer lateralen Position)
  • Der Objektdetektierungsabschnitt 6 der ECU 10 der Kollisionsprognosevorrichtung 200 leitet die laterale Position des Hindernisses her, um die laterale Position zur Beurteilung der Kollision in dem Kollisionsbeurteilungsabschnitt 7 heranzuziehen. Nachstehend erfolgt unter Bezugnahme auf 3 und 7 eine Erläuterung eines Verfahrens zum Herleiten der lateralen Position des Hindernisses gemäß dieser Ausführungsform.
  • Wie vorstehend beschrieben detektiert der Objektdetektierungsabschnitt 6 das Hindernis auf Basis der Zielinformationen, die durch das Millimeterwellenradar 1 erfasst werden, und der Zielinformationen, die von dem durch den monokularen Bildsensor 2 aufgenommenen Bild erfasst werden. Wenn das Millimeterwellenradar 1 verwendet wird, kann die relative Position des Ziels in Bezug auf das Subjektfahrzeug 100 detektiert werden. Für das Millimeterwellenradar 1 ist es jedoch schwierig, den Rand des Ziels hoch genau zu detektieren. Im Hinblick darauf wird in dieser Ausführungsform der Rand des Ziels durch Verwendung des Bildes detektiert, das durch den monokularen Bildsensor 2 aufgenommen wurde.
  • Insbesondere dient der Randdetektierungsabschnitt 61 des Objektdetektierungsabschnitts 6 dazu, das Ziel entsprechend dem Ziel zu extrahieren, das durch das Millimeterwellenradar 1 erkannt wurde, d. h. dem Ziel, das an der Position des Ziels existiert, das durch den Millimeterwellenradar 1 anhand des Bildes, das durch den monokularen Bildsensor 2 aufgenommen wurde, detektiert wird (wobei diese Position nachstehend gelegentlich als „Millimeterwellendetektions-Position” bezeichnet wird). Zudem werden der rechte Rand und der linke Rand des Ziels anhand des Bildes des extrahierten Ziels detektiert (wobei der Rand nachstehend gelegentlich als ein „Monokularbilddetektionsrand” bezeichnet wird).
  • Dennoch ist es jedoch schwierig, von dem Bild, das durch den monokularen Bildsensor 2 aufgenommen wurde, korrekte Informationen (Abstand) in der distalen Richtung zu erfassen. Wenn daher der linke und der rechte Rand des Ziels von dem Bild detektiert werden, das durch den monokularen Bildsensor 2 aufgenommen wurde, wird ein beliebiger Rand eines Objekts oder einer Struktur, das bzw. die aus Sicht des Subjektfahrzeugs 100 tatsächlich entfernt bzw. distal von dem Ziel existiert, in manchen Fällen fälschlicherweise als der Rand des Ziels detektiert.
  • 3 zeigt eine Millimeterwellen-Detektionsposition und Monokularbilddetektionsränder in Bezug auf ein Bild, das durch den Monokularbildsensor aufgenommen oder fotografiert wurde. 3(a) zeigt einen Fall, in dem die Ränder des Ziels normal detektiert werden, und 3(b) zeigt einen Fall, in dem der Rand des Ziel falsch detektiert wird. In 3(a) und 3(b) handelt es sich bei dem Ziel um den „proximalen Strommasten”. Wie in 3(b) gezeigt ist, wird der Rand des „distalen Strommastens” gelegentlich fälschlicherweise als der Rand des „proximalen Strommastens” detektiert, wenn die Ränder anhand des Bildes detektiert werden, das durch den monokularen Bildsensor aufgenommen wurde.
  • Unter Bezugnahme auf 4 wird nun ein Detektionsergebnis erläutert, das erhalten wird, wenn im Gegensatz zu der Ausführungsform der vorliegenden Erfindung das Hindernis durch Verwendung des Millimeterwellenradars und eines Stereobildsensors detektiert wird. Auch in diesem Fall wird das Ziel, das an der Millimeterwellen-Detektionsposition existiert, aus einem Bild extrahiert, das durch den Stereobildsensor aufgenommen oder fotografiert wurde. Der rechte Rand und der linke Rand des Ziels werden anhand des Bildes des extrahierten Ziels detektiert (wobei die Ränder gelegentlich als „Stereobilddetektionsränder” bezeichnet werden). 4 zeigt die zeitabhängige Positionsveränderung der Millimeterwellendetektions-Position und des Stereobilddetektions-Randes in Bezug auf das Subjektfahrzeug, wenn der „proximale Strommast” das Ziel ist. In 4 zeigt die Zeichnung, in der t = n + 1 gegeben ist, die Situation, die 50 ms nach der Situation erhalten wird, die in der Zeichnung gezeigt ist, in der t = n gegeben ist. In der Zeichnung, in der t = 4 gegeben ist, zeigt der weiße Pfeil den geometrischen Ort des Ziels an, das auf Basis der Millimeterwellendetektions-Position und des Stereobilddetektions-Randes hergeleitet wird.
  • Die Erfassung korrekter Informationen in der distalen Richtung ist aber anhand des Bildes, das durch den Stereobildsensor aufgenommen wurde, möglich. Wenn somit der Rand von dem Bild detektiert wird, das durch den monokularen Bildsensor aufgenommen wurde, dann wird, selbst wenn der „distale Strommast” im Vergleich zu dem „proximalen Strommast” in der Ferne bzw. distal existiert, der Rand des „distalen Strommastens” nicht fälschlicherweise als der Rand des „proximalen Strommastens” detektiert, wie in 4 gezeigt ist.
  • Daher kann die laterale Position des Zielmittelpunkts auf Basis des Stereobilddetektions-Randes hoch genau hergeleitet werden. Wie in der Zeichnung gezeigt ist, in der t = 4 gegeben ist, kann daher der geometrische Ort des Ziels auf Basis der Millimeterwellendetektions-Position und der Stereobilddetektions-Ränder hoch genau hergeleitet werden. Dabei ist eine hoch genaue Prognose des zukünftigen geometrischen Ortes des Ziels ebenfalls möglich.
  • Unter Bezugnahme auf 5 wird demgegenüber das Detektionsergebnis erläutert, das erhalten wird, wenn das Hindernis durch Verwendung des Millimeterwellenradars und des monokularen Bildsensors detektiert wird, wie es in dieser Ausführungsform der Fall ist. 5 zeigt die zeitabhängige Positionsveränderung der Millimeterwellendetektions-Position und des Monokularbilddetektions-Randes in Bezug auf das Subjektfahrzeug, wenn es sich bei dem Ziel um den „proximalen Strommasten” handelt. Genauso wie in 4 zeigt die Zeichnung nach 5, in der t = n + 1 gegeben ist, die Situation, die 50 ms nach der Situation vorliegt, die in der Zeichnung dargestellt ist, in der t = n gegeben ist. In der Zeichnung, in der t = 5 gegeben ist, zeigt der weiße Pfeil den geometrischen Ort des Ziels an, das auf Basis der Millimeterwellendetektions-Position und des Monokularbilddetektions-Randes hergeleitet wurde.
  • Wenn der Rand wie vorstehend beschrieben anhand des Bildes detektiert wird, das durch den monokularen Bildsensor aufgenommen wurde, wird der Rand des „distalen Strommastens” in manchen Fällen fälschlicherweise als der Rand des „proximalen Strommastens” detektiert. Dementsprechend ist eine hochgenaue Herleitung der lateralen Position des Zielmittelpunkts Basis des Monokularbilddetektions-Randes schwierig. Wenn daher der geometrische Ort des Ziels auf Basis der Millimeterwellendetektions-Positionen und der Monokularbilddetektions-Ränder hergeleitet wird, wird der geometrische Ort in manchen Fällen wie in der Zeichnung dargestellt, in der t = 5 gegeben ist, fehlerhaft hergeleitet. In so einer Situation ist zudem auch eine hochgenaue Prognose des zukünftigen geometrischen Ortes des Zieles schwierig.
  • Wenn die Kollision zwischen dem Subjektfahrzeug 100 und dem Ziel in dem Kollisionsbeurteilungsabschnitt 7 auf Basis des falsch prognostizierten geometrischen Ortes des Ziels beurteilt wird, steht zu befürchten, dass es zu einer fehlerhaften Beurteilung kommt. Dementsprechend erfolgt in dieser Ausführungsform der anschließende Vorgang zum Herleiten der lateralen Position für das Bild, das durch den monokularen Bildsensor 2 aufgenommen wurde, um die laterale Position des Ziels herzuleiten, die für die Kollisionsbeurteilung in dem Kollisionsbeurteilungsabschnitt 7 verwendet werden soll. 6 und 7 zeigen Bilder des Vorgangs zum Herleiten der lateralen Position gemäß dieser Ausführungsform.
  • Wie in 6 gezeigt ist, werden in dem Vorgang zum Herleiten der lateralen Position gemäß dieser Ausführungsform die Näherungslinien des geometrischen Ortes, bei denen es sich um Geraden oder vorbestimmte gekrümmte Linien zum Nähern der geometrischen Örter des rechten Randes bzw. des linken Randes handelt, für die Mehrzahl der monokularen Bilddetektionsränder, die durch den Randdetektierungsabschnitt 61 jedes Mal detektiert werden, wenn eine vorbestimmte Zeitspanne verstrichen ist (jedes Mal, wenn in dieser Ausführungsform 50 ms verstrichen sind) in dem Abschnitt 62 zu Herleiten der Näherungslinien des geometrischen Ortes hergeleitet. 6(a) und 6(b) zeigen jeweils die in 5 detektierten Monokularbilddetektions-Ränder. Eine abwechselnd kurz und lang gezogene Linie in 6(a) zeigt die Näherungslinie des geometrischen Ortes an, die für die linken Ränder hergeleitet wurde. Eine abwechselnd lang und kurz gezogene Link, die in 6(b) gezeigt ist, zeigt die Näherungslinie des geometrischen Ortes, die für die rechten Ränder hergeleitet wurde. Im Vorfeld wurde dazu ein Verfahren zum Herleiten der Näherungslinie des geometrischen Ortes festgelegt bzw. bestimmt. In diesem Fall ist die Verwendung eines bekannten Verfahrens zulässig, wie beispielsweise die Methode der kleinsten Quadrate und die Spline-Interpolation. Unter der „vorbestimmten Kurve” ist die Kurve zu verstehen, die gemäß dem zuvor festgelegten Näherungsverfahren hergeleitet wurde.
  • Wie in 6(a) gezeigt ist, ist zu beachten, dass alle linken Ränder normal detektiert werden. Daher existieren alle fünf Ränder auf der Näherungslinie des geometrischen Ortes. Wie hingegen in 6(b) zu sehen ist, gehören die Ränder, die falsch detektiert wurden, zu den rechten Rändern. Somit existieren nur die drei der fünf Ränder auf der Näherungslinie des geometrischen Ortes. Bei dieser Vorgehensweise wird der Rand, der innerhalb eines vorbestimmten zulässigen Bereichs von der Näherungslinie des geometrischen Ortes existiert, unter der Annahme mitgezählt, dass der Rand auf der Näherungslinie des geometrischen Ortes existiert, auch wenn der Rand sich nicht an der Position befindet, die mit der Näherungslinie des geometrischen Ortes vollständig übereinstimmt. In 6(a) und 6(b) markieren die eingekreisten Ränder die „Ränder, die auf der Näherungslinie des geometrischen Ortes existieren”.
  • In anderen Worten kann bestimmt werden, dass der Rand, der die größere Anzahl von Rändern aufweist, die auf der Näherungslinie des geometrischen Ortes existieren, im Vergleich zu dem Rand, der die kleinere Anzahl von Rändern aufweist, die auf der Näherungslinie des geometrischen Ortes existieren, die höhere Zuverlässigkeit bzw. größere Wichtigkeit aufweist. Demzufolge werden die Wichtigkeiten bzw. Zuverlässigkeiten des rechten Randes und des linken Randes auf Basis der Anzahl der Ränder, die auf den Näherungslinien des geometrischen Ortes existieren, in dem Auswählabschnitt 63 berechnet. Der Rand, der von dem rechten Rand und dem linken Rand ausgewählt wird und die höhere Zuverlässigkeit aufweist (d. h. der Rand, der die größere Anzahl von Rändern aufweist, die auf der Näherungslinie des geometrischen Ortes existieren (linker Rand in 6)), wird als der echte Rand des Ziels ausgewählt.
  • In dem Abschnitt 64 zum Herleiten der lateralen Position wird die laterale Position des Ziels anhand der Position des Randes hergeleitet (der nachstehend gelegentlich als „ausgewählter Rand” bezeichnet wird), der als der echte Rand des Ziels in dem Auswählabschnitt 63 ausgewählt wird. Wie in 7 gezeigt ist, wird insbesondere der zukünftige geometrische Ort des ausgewählten Randes (linker Rand in 7) zunächst auf Basis der bisherigen Näherungslinie des geometrischen Ortes in dem Abschnitt 641 zum Prognostizieren des geometrischen Ortes prognostiziert. In 7 stellt den Pfeil, der durch die abwechselnd lang und kurz gezogenen Linie angezeigt wird, die bisherige Näherungslinie des geometrischen Ortes und den prognostizierten zukünftigen geometrischen Ort des ausgewählten Randes dar.
  • Anschließend wird in dem Kollisionspositions-Prognoseabschnitt 642 die Kollisionsposition zwischen dem Ziel und dem Subjektfahrzeug 100 als die Position, an der der Abstand in der von vorne nach hinten verlaufenden Richtung zwischen dem ausgewählten Rand und dem Subjektfahrzeug 100 null beträgt, auf Basis des zukünftigen geometrischen Ortes des ausgewählten Randes, der in dem Abschnitt 641 zum Prognostizieren des geometrischen Ortes prognostiziert wurde, und des Fahrbahnverlaufs des Subjektfahrzeugs 100, der in dem Abschnitt der ECU 10 zum Berechnen des Fahrbahnverlaufs des Subjektfahrzeugs berechnet wurde, prognostiziert. In 7 wird die Kollisionsposition durch eine gestrichelte Linie angezeigt.
  • Zudem wird in dem Abschnitt 64 zum Herleiten der lateralen Position die laterale Breite Wt des Ziels in dem Abschnitt 643 zum Schätzen der lateralen Breite geschätzt. In diesem Fall kann jedes bekannte Verfahren als Verfahren zum Schätzen der lateralen Breite verwendet werden. Als Beispiel dafür ist ein Verfahren zu nennen, in dem der durchschnittliche Wert der lateralen Breiten des Ziels, das von den Monokularbilddetektions-Rändern hergeleitet wird, als die laterale Breite Wt des Ziels berechnet wird, sowie ein Verfahren, in dem die laterale Breite Wt des Ziels auf Basis der Art des Zieles hergeleitet wird, das anhand der Intensität bzw. Stärke der empfangenen Welle in dem Millimeterwellenradar 1 geschätzt wird.
  • In dem Abschnitt 644 zum Herleiten der lateralen Position des Zielmittelpunkts wird die laterale Position des Zielmittelpunkts hergeleitet, die sich an der Kollisionsposition befindet, die in dem Abschnitt 642 zum Prognostizieren der Kollisionsposition prognostiziert wird. Insbesondere wird die Position, die zu dem anderen Rand (rechten Rand in 7) um ½ der lateralen Breite Wt des Ziels abweicht, die in dem Abschnitt 643 zum Schätzen der lateralen Breite anhand der Position des ausgewählten Randes an der Kollisionsposition geschätzt wird, als die laterale Position des Zielmittelpunkts an der Kollisionsposition hergeleitet. In 7 stellt die Position, die durch das weiße Dreieck angezeigt wird, die laterale Position des Zielmittelpunkts an der Kollisionsposition dar.
  • Gemäß des vorstehend beschriebenen Verfahrens zum Herleiten der lateralen Position wird der Rand, der in dem rechten Rand und dem linken Rand der Monokularbilddetektions-Ränder beinhaltet ist und die höhere Zuverlässigkeit aufweist, als der echte Rand des Ziels ausgewählt. Zudem wird die laterale Position des Zielmittelpunkts an der Kollisionsposition auf Basis der Position des Randes mit der höheren Zuverlässigkeit hergeleitet. Auch wenn somit als Bildsensor der monokulare Bildsensor verwendet wird, kann die laterale Position des Zielmittelpunkts an der Kollisionsposition hochgenau hergeleitet werden.
  • Im Abschnitt 7 zum Beurteilen der Kollision wird die Kollisionsbeurteilung auf Basis der lateralen Position des Zielmittelpunkts an der Kollisionsposition ausgeführt, die in dem Objektdetektionsabschnitt 6 hergeleitet wurde. Dementsprechend kann mit noch höherer Genauigkeit genauer beurteilt werden, ob das Subjektfahrzeug 100 und das Hindernis mit einander kollidieren.
  • (Kollisionsbeurteilungsfluss)
  • Unter Bezugnahme auf das in 8 und 9 gezeigte Flussdiagramm erfolgt eine Erläuterung eines Flusses der Kollisionsbeurteilung für das Subjektfahrzeug und das Hindernis gemäß dieser Ausführungsform. Dieser Fluss wird durch die ECU 10 in vorbestimmten Intervallen immer wieder ausgeführt.
  • In diesem Fluss wird zunächst in Schritt S101 das Ziel, das an der Millimeterwellendetektions-Position existiert, aus dem Bild extrahiert, das durch den monokularen Bildsensor 2 aufgenommen wurde.
  • Anschließend werden in Schritt S102 der rechte Rand und der linke Rand von dem Bild des Ziels detektiert, das in Schritt S101 extrahiert wurde. Die Vorgänge in Schritt S101 und S102 werden durch den Randdetektierungsabschnitt 61 ausgeführt.
  • Anschließend werden in Schritt S103 die Näherungslinien des geometrischen Ortes für jeweils den rechten Rand und den linken Rand in Beziehung zu der Mehrzahl der Monokularbilddetektions-Ränder hergeleitet, die in Schritt S102 detektiert werden. Der Vorgang in Schritt S103 wird durch den Abschnitt 62 zum Herleiten der Näherungslinie des geometrischen Ortes ausgeführt.
  • Anschließend werden in Schritt S104 die Zuverlässigkeiten des rechten Randes und des linken Randes anhand der Anzahl der Ränder berechnet, die auf den Näherungslinien des geometrischen Ortes existieren, die in Schritt S103 hergeleitet wurden.
  • Anschließend wird in Schritt S105 der Rand, bei dem es sich entweder um den rechten Rand oder den linken Rand handelt und der die höhere Zuverlässigkeit aufweist, die in Schritt S104 berechnet wrude, als der echte Rand des Ziels ausgewählt. Die Vorgänge in den Schritten S104 und S105 werden durch den Auswählabschnitt 63 ausgeführt.
  • Anschließend wird in Schritt S106 der zukünftige geometrische Ort des ausgewählten Randes prognostiziert, der in Schritt S105 ausgewählt wurde. Der Vorgang in Schritt S106 wird durch den Abschnitt 641 zum Prognostizieren des geometrischen Ortes ausgeführt.
  • Anschließend wird in Schritt S107 die Kollisionsposition zwischen dem Ziel und dem Subjektfahrzeug 100 auf Basis des zukünftigen geometrischen Ortes des ausgewählten Randes, der in Schritt S106 prognostiziert wurde, und des Fahrbahnverlaufs des Subjektfahrzeuges 100, der in dem Abschnitt zum Berechnen des Fahrbahnverlaufs des Subjektfahrzeugs berechnet wurde, prognostiziert. Der Vorgang in Schritt S107 wird durch den Abschnitt 642 zum Prognostizieren der Kollisionsposition ausgeführt.
  • Anschließend wird in Schritt S108 die laterale Breite Wt des Ziels geschätzt. Der Vorgang in Schritt S108 wird durch den Abschnitt 643 zum Schätzen der lateralen Breite ausgeführt.
  • Anschließend wird in Schritt S109 die Position, die zu dem anderen Rand um ½ der lateralen Breite Wt des Ziels abweicht, die in Schritt S108 geschätzt wurde, als die laterale Position des Zielmittelpunkts an der Kollisionsposition anhand der Position des ausgewählten Randes an der Kollisionsposition, die in Schritt S107 prognostiziert wurde, hergeleitet. Der Vorgang in Schritt S109 wird durch den Abschnitt 644 zum Herleiten der lateralen Position des Zielmittelpunkts ausgeführt.
  • Anschließend wird in Schritt S110 die Kollisionswahrscheinlichkeit Pc zwischen dem Ziel und dem Subjektfahrzeug 100 auf Basis der lateralen Position des Zielmittelpunkts an der Kollisionsposition berechnet, die in Schritt S109 hergeleitet wurde.
  • Anschließend wird in Schritt S111 beurteilt, ob die Kollisionswahrscheinlichkeit Pc, die in Schritt S110 berechnet wird, geringer als die Referenzwahrscheinlichkeit Pcbase ist oder nicht. In diesem Fall handelt es sich bei der Referenzwahrscheinlichkeit Pcbase um den Wert, der als der Schwellwert voreingestellt wird, bei dem beurteilt werden soll, ob das Ziel und das Subjektfahrzeug 100 miteinander kollidieren.
  • Wenn in Schritt S111 eine positive Beurteilung erfolgt, wird anschließend in Schritt S112 beurteilt, dass das Ziel und das Subjektfahrzeug 100 miteinander kollidieren. Wenn hingegen in Schritt S111 eine negative Beurteilung erfolgt, wird anschließend in Schritt S113 beurteilt, dass das Ziel und das Subjektfahrzeug 100 nicht miteinander kollidieren. Die Vorgänge in Schritt S110 und S113 werden durch den Kollisionsbeurteilungsabschnitt 7 ausgeführt. Wenn in Schritt S112 beurteilt wird, dass das Ziel und das Subjektfahrzeug 100 miteinander kollidieren, sendet der Kollisionsbeurteilungsabschnitt 7 das EIN-Signal an die Warnvorrichtung 8 und das Kollisionsschutz-/Kollisionsschadensbegrenzungssystem 9.
  • (Zusammenhang zwischen den wesentlichen Elementen dieser Ausführungsform und den grundlegenden Anforderungen der vorliegenden Erfindung)
  • In dieser Ausführungsform entspricht der Objektdetektionsabschnitt 6 der Objektdetektionsvorrichtung gemäß der vorliegenden Erfindung. Die Beziehung bzw. der Zusammenhang zwischen den wesentlichen Elementen des Objektdetektionsabschnitts 6 gemäß dieser Ausführungsform und den grundlegenden Anforderungen der vorliegenden Erfindung gestaltet sich folgendermaßen. Gemäß der vorliegenden Erfindung entspricht der Randdetektierungsabschnitt 61 der Randerfassungseinrichtung. Der Abschnitt 62 zum Herleiten der Näherungslinie des geometrischen Ortes entspricht der Einrichtung zum Herleiten der Näherungslinie des geometrischen Ortes gemäß der vorliegenden Erfindung. Der Auswählabschnitt 63 entspricht der Auswähleinrichtung gemäß der vorliegenden Erfindung. Der Abschnitt 64 zum Herleiten der lateralen Position entspricht der Einrichtung zum Herleiten der lateralen Position gemäß der vorliegenden Erfindung. Der Abschnitt 641 zum Prognostizieren des geometrischen Ortes entspricht der Einrichtung zum Prognostizieren des geometrischen Ortes gemäß der vorliegenden Erfindung. Der Abschnitt 642 zum Prognostizieren der Kollisionsposition entspricht der Einrichtung zum Prognostizieren der Kollisionsposition gemäß der vorliegenden Erfindung. Der Abschnitt 643 zum Schätzen der lateralen Breite entspricht der Einrichtung zum Schätzen der lateralen Breite gemäß der vorliegenden Erfindung.
  • In dieser Ausführungsform entsprechen die Schritte S101 und S102 in dem in 8 gezeigten Flussdiagramm dem Randerfassungsschritt gemäß der vorliegenden Erfindung. Schritt S103 in dem in 8 gezeigten Flussdiagramm entspricht dem Schritt zum Herleiten der Näherungslinie des geometrischen Ortes gemäß der vorliegenden Erfindung. Die Schritte S104 und S105 in dem in 8 gezeigten Flussdiagramm entsprechen dem Auswählschritt gemäß der vorliegenden Erfindung. Die Schritte S106 bis S109 in dem in 8 gezeigten Flussdiagramm entsprechen dem Schritt zum Herleiten der lateralen Position gemäß der vorliegenden Erfindung.
  • <Zweite Ausführungsform>
  • Eine erste Ausführungsform der vorliegenden Erfindung wird auf Basis von 10 bis 14 erläutert. In diesem Abschnitt werden nur jene Funkte oder Merkmale erläutert, die sich von denen der ersten Ausführungsform unterscheiden.
  • (Schematische Anordnung)
  • 10 zeigt ein Blockdiagramm, das eine schematische Anordnung eines Objektdetektierungsabschnitts 6 gemäß dieser Ausführungsform darstellt. Wie in 10 dargestellt ist, beinhaltet der Objektdetektierungsabschnitt 6 gemäß dieser Ausführungsform, neben dem Randdetektierungsabschnitt 61, dem Abschnitt 62 zum Herleiten der Näherungslinie des geometrischen Ortes, dem Auswählabschnitt 63 und dem Abschnitt 64 zum Herleiten der lateralen Position, einen Gewichtungsbeimessungsabschnitt 65 und einen Zuverlässigkeitsgesamtwert-Berechnungsabschnitt 66. Einzelheiten zu dem Gewichtungsbeimessungsabschnitt 65 und dem Zuverlässigkeitsgesamtwert-Berechnungsabschnitt 66 sind der Beschreibung an späterer Stelle zu entnehmen.
  • (Verfahren zum Herleiten der lateralen Position)
  • Unter Bezugnahme auf 11 bis 13 wird ein Verfahren zum Herleiten der lateralen Position eines Hindernisses gemäß dieser Ausführungsform wird erläutert. 11 zeigt ein Detektionsergebnis, das erhalten wird, wenn das Hindernis durch Verwendung eines Millimeterwellenradars und eines monokularen Bildsensors gemäß dieser Ausführungsform detektiert wird. 11 zeigt die zeitabhängige Positionsveränderung der Millimeterwellendetektions-Position und des monokularen Bilddetektionsrandes in Bezug auf das Subjektfahrzeug, wenn das Ziel genauso wie in 5 durch einen „proximalen Strommasten” dargestellt wird. In 11 stellt die Zeichnung, in der t = n + 1 gegeben ist, die Situation dar, die nach 50 ms nach der Situation eintritt, die in der Zeichnung dargestellt ist, in der t = n gegeben ist.
  • In dem Fall von 11 existiert im Vergleich zu dem „proximalen Strommasten”. distal bzw. in einiger Entfernung ein „sich fortbewegendes Fahrzeug”. Wenn in dieser Situation der Rand von einem Bild detektiert wird, das durch den monokularen Bildsensor aufgenommen oder fotografiert wurde, wird der Rand des ”sich fortbewegenden Fahrzeugs” in einigen Fällen fälschlicherweise als der Rand des „proximalen Strommasten” detektiert. In 11 wird der rechte Rand durchgehend falsch detektiert. Zu der vorstehend beschriebenen fehlerhaften Detektion kann es auch dann kommen, wenn ein feststehendes Objekt, wie z. B. der „distale Strommasten”, gegenüber dem als Ziel dienenden „proximalen Strommasten” distal existiert, wie dies in dem in 5 gezeigten Fall bewirkt wurde. Die fehlerhafte Detektion wird jedoch tendenziell häufiger verursacht, wenn es sich bei dem Objekt, das im Gegensatz zum Ziel distal existiert, um ein sich bewegendes Objekt, wie z. B. das „sich fortbewegende Fahrzeug”, handelt, das sich in Querrichtung oder lateraler Richtung bewegt.
  • In dieser Ausführungsform wird der nachstehend beschriebene Vorgang zum Herleiten der lateralen Position für das Bild, das durch den monokularen Bildsensor 2 in dem Abschnitt 6 zum Detektieren des Objekts aufgenommen wurde, ausgeführt, um die laterale Position des Ziels herzuleiten, die für die Kollisionsbeurteilung in dem Kollisionsbeurteilungsabschnitt 7 verwendet werden soll. 12 und 13 zeigen Bilder des Vorgangs zum Herleiten der lateralen Position gemäß dieser Ausführungsform.
  • Wie in 12 gezeigt, werden zudem in dem Vorgang zum Herleiten der lateralen Position gemäß dieser Ausführungsform die Näherungslinien für den geometrischen Ort, bei denen es sich um Geraden oder vorbestimmte gekrümmte Linien zum Nähern der geometrischen Örter von jeweils dem rechten Rand und dem linken Rand handelt, für die Mehrzahl der Monokularbilddetektions-Ränder, die durch den Randdetektierungsabschnitt 61 detektiert werden, jedes Mal, wenn eine vorbestimmte Zeitspanne verstrichen ist (jedes Mal, wenn in dieser Ausführungsform 50 ms verstrichen sind), in dem Abschnitt 62 zum Herleiten der Näherungslinie des geometrischen Ortes des Objektdetektionsabschnitts 6 hergeleitet. In 12(a) und 12(b) sind jeweils die Millimeterwellendetektions-Positionen und die Monokularbilddetektions-Ränder gezeigt, die in 11 detektiert wurden. Eine abwechselnd lang und kurz gezogene Linie, die in 12(a) gezeigt ist, zeigt die Näherungslinie des geometrischen Ortes an, die für die linken Ränder hergeleitet wurde. Eine abwechselnd lang und kurz gezogene Linie, die in 12(b) gezeigt ist, zeigt die Näherungslinie des geometrischen Ortes an, die für die rechten Ränder hergeleitet wurde. Ein Verfahren zum Herleiten der Näherungslinie des geometrischen Ortes ist mit jenem gemäß der ersten Ausführungsform identisch oder entspricht demselben.
  • Wenn der rechte Rand jedes Mal bzw. durchgehend, wie in 12(b) gezeigt ist, falsch detektiert wird, existieren selbst im Fall der fehlerhaften Detektion alle fünf Ränder auf der Näherungslinie des geometrischen Ortes genauso wie der normal detektierte linke Rand, der in 12(a) gezeigt ist. Auch in dieser Ausführungsform wird der Rand, der innerhalb eines vorbestimmten zulässigen Bereichs von der Näherungslinie des geometrischen Ortes liegt, selbst wenn der Rand sich nicht an der Position befindet, die mit der Näherungslinie des geometrischen Ortes völlig übereinstimmt, unter der Annahme mitgezählt, dass der Rand auf der Näherungslinie des geometrischen Ortes genauso existiert wie im Fall der ersten Ausführungsform. In 12(a) und 12(b) zeigen die eingekreisten Ränder die „Ränder, die auf der Näherungslinie des geometrischen Ortes existieren” an.
  • Wenn daher die Zuverlässigkeit des Rands auf Basis der Anzahl der Ränder berechnet wird, die auf der Näherungslinie des geometrischen Ortes existieren, entspricht die Zuverlässigkeit des Randes, der jedes Mal bzw. durchgehend normal detektiert wird, der Zuverlässigkeit des Randes, der jedes Mal falsch bzw. fehlerhaft detektiert wird. In einer solchen Situation gestaltet es sich schwierig, den echten Rand des Zieles mit Hilfe des Vorgangs zum Herleiten der lateralen Position gemäß der ersten Ausführungsform auszuwählen.
  • Im Hinblick auf die vorstehenden Angaben wird in dem Vorgang zum Herleiten der lateralen Position gemäß dieser Ausführungsform die Gewichtung der Zuverlässigkeit in dem Gewichtungsbeimessungsabschnitt 65 auf Basis des Abstands von der Millimeterwellendetektions-Position für jeweils den rechten und den linke Rand, die durch den Randdetektierungsabschnitt 61 detektiert wurden, beigemessen. Bei dieser Vorgehensweise ist die Wahrscheinlichkeit für den von der Millimeterwellendetektions-Position weit entfernten Rand so hoch, dass er im Vergleich zu dem Rand, der nahe der Millimeterwellendetektions-Position angeordnet ist, falsch detektiert wird. Der Gewichtungsbeimessungsabschnitt 65 misst daher dem rechten Rand und dem linken Rand die Gewichtung so bei, dass der Rand, der näher an der Millimeterwellendetektions-Position angeordnet ist, die höhere Zuverlässigkeit aufweist.
  • Zudem berechnet der Abschnitt 66 zum Berechnen des Zuverlässigkeitsgesamtwertes die Gesamtwerte der Zuverlässigkeiten in Beziehung zu den beiden Rändern, so dass die Mehrzahl der Zuverlässigkeiten, denen durch den Gewichtungsbeimessungsabschnitt 65 die Gewichtungen beigemessen werden, für jeweils den rechten und den linken Rand zusammengerechnet werden.
  • Liegt dann die Situation vor, die in 12 gezeigt ist, sind die linken Ränder im Vergleich zu den rechten Rändern in Bezug auf alle fünf Ränder näher an der Millimeterwellendetektions-Position angeordnet. Bei dieser Vorgehensweise wird angenommen, dass die Gewichtung, die jenen beigemessen wird, die näher an der Millimeterwellendetektions-Position angeordnet ist, 1,1 Punkte beträgt, und dass die Gewichtung, die jenen beigemessen wird, die von der Millimeterwellendetektions-Position weiter entfernt sind, 0,9 Punkte in Bezug auf die rechten und die linken Ränder beträgt. Unter dieser Annahme beträgt der Gesamtwert der Zuverlässigkeiten der linken Ränder 5,5 Punkte und der Gesamtwert der Zuverlässigkeiten der rechten Ränder 4,5 Punkte.
  • In dem Auswählabschnitt 63 wird der Rand (linke Rand in 12), der in dem rechten Rand und dem linken Rand beinhaltet ist und den größeren Gesamtwert der in dem Abschnitt 66 zum Berechnen des Zuverlässigkeitsgesamtwerts berechneten Zuverlässigkeiten aufweist, als der echte Rand des Ziels ausgewählt. Selbst wenn dementsprechend ein Rand durchgehend fehlerhaft bzw. falsch detektiert wird, wie in 11 gezeigt ist, kann der Rand, der die höhere Zuverlässigkeit aufweist, als von dem rechten und dem linken Rand in Bezug auf die Monokularbilddetektions-Ränder der echte Rand des Ziels ausgewählt werden.
  • In dieser Ausführungsform wird die laterale Position des Ziels gemäß dem gleichen oder einem ihm entsprechenden Verfahren wie jenem der ersten Ausführungsform auf Basis der Position des ausgewählten Randes, der wie oben beschrieben in dem Abschnitt 64 zum Herleiten der lateralen Position hergeleitet wurde. Das heißt, dass der zukünftige geometrische Ort des ausgewählten Randes, wie in 13 gezeigt ist, in dem Abschnitt 641 zum Prognostizieren des geometrischen Ortes prognostiziert wird. Anschließend wird die Kollisionsposition zwischen dem Ziel und dem Subjektfahrzeug 100 in dem Abschnitt 642 zum Prognostizieren der Kollisionsposition prognostiziert. Zudem wird die laterale Breite Wt des Ziels in dem Abschnitt 643 zum Schätzen der lateralen Breite geschätzt. Die laterale Position des Zielmittelpunkts an der Kollisionsposition wird in dem Abschnitt 644 zum Herleiten der lateralen Position des Zielmittelpunkts hergeleitet. In 13 stellt der Pfeil, der durch eine abwechselnd lang und kurz gezogene Linie angezeigt wird, die bisherige Näherungslinie des geometrischen Ortes und den prognostizierten zukünftigen geometrischen Ort des ausgewählten Randes dar, eine gestrichelte Linie stellt die Kollisionsposition dar, und die durch ein weißes Dreieck angezeigte Position stellt genauso wie in 7 die laterale Position des Zielmittelpunkts an der Kollisionsposition dar.
  • Die laterale Position des Zielmittelpunkts an der Kollisionsposition wird ebenfalls auf Basis der Position des Randes hergeleitet, der die höhere Zuverlässigkeit aufweist und von dem rechten Rand und dem linken Rand der Monokularbilddetektions-Ränder genauso wie in der ersten Ausführungsform mittels des vorstehend beschriebenen Verfahrens zum Herleiten der lateralen Position ausgewählt wurde. Selbst wenn somit als der Bildsensor der monokulare Bildsensor verwendet wird, kann die laterale Position des Zielmittelpunkts an der Kollisionsposition mit hoher Genauigkeit hergeleitet werden.
  • (Kollisionsbeurteilungsfluss)
  • Unter Bezugnahme auf das in 14 gezeigte Flussdiagramm wird ein Fluss der Kollisionsbeurteilung für das Subjektfahrzeug und das Hindernis gemäß dieser Ausführungsform erläutert. Dieser Fluss wird durch die ECU 10 wiederholt in vorbestimmten Intervallen ausgeführt. In diesem Fluss ist das in 8 gezeigte Flussdiagramm um die Schritte S201 bis S203 ergänzt worden, Dementsprechend werden nur die Schritt S201 bis S203 erläutert und auf eine Erläuterung der anderen Schritte dementsprechend verzichtet.
  • In diesem Fluss wird der Vorgang des Schrittes S201 im Anschluss an Schritt S104 ausgeführt. In Schritt S201 wird beurteilt, ob die Zuverlässigkeit des rechten Randes und die Zuverlässigkeit des linken Randes, die in Schritt S104 berechnet wurden, einander entsprechen bzw. gleich groß sind. Wenn bei dieser Vorgehensweise zwischen dem rechten Rand und dem linken Rand die Anzahl der Ränder, die auf der Näherungslinie des geometrischen Ortes existieren, identisch ist, wird beurteilt, dass die Zuverlässigkeiten der beiden Ränder einander entsprechen bzw. gleich groß sind. Wenn in Schritt S201 eine negative Beurteilung erfolgt, wird anschließend der Vorgang von Schritt S105 ausgeführt. Bei dieser Vorgehensweise sind die sich daran anschließenden Vorgänge bzw. Verfahrensschritte mit jenen aus der ersten Ausführungsform identisch. Wenn hingegen in Schritt S201 eine positive Beurteilung erfolgt, wird daran anschließend der Vorgang von Schritt S202 ausgeführt.
  • In Schritt S202 wird die Zuverlässigkeitsgewichtungsbeimessung in Bezug auf den rechten Rand und den linken Rand in Bezug auf die Mehrzahl der Monokularbilddetektions-Ränder ausgeführt, die in Schritt S102 detektiert wurden. Gemäß dieser Vorgehensweise erfolgt die Beimessung der Gewichtung wie oben beschrieben derart, dass der Rand, der näher an der Millimeterwellendetektions-Position angeordnet ist, die höher Zuverlässigkeit aufweist. Der Vorgang von Schritt S201 wird durch den Gewichtungsbeimessungsabschnitt 65 ausgeführt.
  • Anschließend wird in Schritt S203 die Mehrzahl der Zuverlässigkeiten der rechten Ränder und der linken Ränder, die der Gewichtungsbeimessung in Schritt S202 unterzogen worden sind, jeweils zusammengerechnet, um in Bezug auf beide Ränder die Gesamtwerte der Zuverlässigkeiten zu berechnen. Der Vorgang gemäß Schritt S203 wird durch den Abschnitt 66 zum Berechnen des Zuverlässigkeitsgesamtwerts ausgeführt.
  • Anschließend wird in Schritt S105 der echte Rand des Ziels ausgewählt. Gemäß dieser Vorgehensweise wird in Schritt S105 der Rand, der in dem rechten Rand und dem linken Rand beinhaltet ist und den größeren Gesamtwert an Zuverlässigkeiten aufweist, die in Schritt S203 berechnet wurden, als der echte Rand des Ziels ausgewählt. Die Vorgänge, die im Anschluss daran ausgeführt werden, sind mit jenen identisch, die in der ersten Ausführungsform ausgeführt wurden.
  • (Zusammenhang zwischen den wesentlichen Elementen dieser Ausführungsform und den grundlegenden Anforderungen der vorliegenden Erfindung)
  • Gemäß dieser Ausführungsform entspricht der Gewichtungsbeimessungsabschnitt 65 der Gewichtungsbeimessungseinrichtung gemäß der vorliegenden Erfindung, und der Abschnitt 66 zum Berechnen des Zuverlässigkeitsgesamtwerts entspricht der Zuverlässigkeitsgesamtwert-Berechnungseinrichtung gemäß der vorliegenden Erfindung.
  • In dieser Ausführungsform entspricht Schritt S202 in dem in 14 gezeigten Flussdiagramm dem Gewichtungsbeimessungsschritt gemäß der vorliegenden Erfindung, und Schritt S203 in dem Flussdiagramm entspricht dem Zuverlässigkeitsgesamtwert-Berechnungsschritt gemäß der vorliegenden Erfindung.
  • Bezugszeichenliste
  • 1
    Millimeterwellenradar
    2
    monokularer Bildsensor
    3
    Lenkwinkelsensor
    4
    Gierratensensor
    5
    Radpulssensor
    6
    Objektdetektierungsabschnitt
    7
    Kollisionsbeurteilungsabschnitt
    8
    Warnvorrichtung
    9
    Kollisionsschutz-/Kollisionsschadensbegrenzungssystem
    10
    ECU
    61
    Randdetektierungsabschnitt
    62
    Abschnitt zum Herleiten der Näherungslinie des geometrischen Ortes
    63
    Auswählabschnitt
    64
    Abschnitt zum Herleiten der lateralen Position
    65
    Gewichtungsbeimessungsabschnitt
    66
    Zuverlässigkeitsgesamtwert-Berechnungsabschnitt
    100
    Fahrzeug
    200
    Kollisionsprognosevorrichtung
    641
    Abschnitt zum Prognostizieren des geometrischen Ortes
    642
    Abschnitt zum Prognostizieren der Kollisionsposition
    643
    Abschnitt zum Schätzen der lateralen Breite
    644
    Abschnitt zum Herleiten der lateralen Position des Zielmittelpunkts
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2008-276689 [0007]
    • JP 2007-288460 [0007]

Claims (6)

  1. Objektdetektionsvorrichtung zum Detektieren eines Objekts auf Basis von Zielinformationen, die durch ein Radar erfasst werden, und Zielinformationen, die anhand eines Bildes erfasst wurden, die durch einen monokularen Bildsensor aufgenommen wurde, wobei die Objektdetektionsvorrichtung aufweist: eine Randerfassungsseinrichtung, die ein Ziel, das einem Ziel entspricht, das durch ein Radar erkannt wird, anhand des Bildes, das durch den monokularen Bildsensor aufgenommen wird, extrahiert und einen rechten Rand und einen linken Rand des extrahierten Zieles erfasst; eine Einrichtung zum Herleiten einer Näherungslinie eines geometrischen Ortes, die, für die beiden Ränder, Näherungslinien für einen geometrischen Ort als Geraden oder vorbestimmte gekrümmte Linien zum Nähern der geometrischen Örter des rechten Randes und des linken Randes, die durch die Randerfassungseinrichtung erfasst werden, herleitet; eine Auswähleinrichtung, die, als einen echten Rand des Ziels, den Rand mit einer gröberen Anzahl von Rändern, die auf der Näherungslinie des geometrischen Ortes existieren, von dem rechten und dem linken Rand, die von der Randerfassungseinrichtung erfasst werden, auswählt; und eine Einrichtung zum Herleiten einer lateralen Position, die eine laterale Position des Ziels auf Basis einer Position des Randes, der als der echte Rand durch die Auswähleinrichtung ausgewählt wird, herleitet.
  2. Objektdetektionsvorrichtung nach Anspruch 1, ferner aufweisend: eine Gewichtungsbeimessungseinrichtung, die dem rechten Rand und dem linken Rand, die durch die Randerfassungseinrichtung erfasst werden, Zuverlässigkeitsgewichtungen beimisst, so dass der Rand, der näher an einer Position des Ziels, das durch das Radar erkannt wird, angeordnet ist, eine höhere Zuverlässigkeit aufweist; und eine Zuverlässigkeits-Gesamtwert-Berechnungseinrichtung, die eine Mehrzahl von Zuverlässigkeiten zusammenrechnet, wobei die Gewichtungen durch die Gewichtungsbeimessungseinrichtung jeweils dem rechten Rand oder dem linken Rand beigemessen werden, um dadurch Gesamtwerte der Zuverlässigkeiten für die beiden Ränder zu berechnen, wobei: die Auswähleinrichtung, die, als den echten Rand des Ziels, den Rand, der den größeren Gesamtwert der Zuverlässigkeiten, der durch die Zuverlässigkeitsgesamtwert-Berechnungseinrichtung berechnet wird, aufweist, von dem rechten Rand und dem linken Rand auswählt, wenn die Anzahl der Ränder, die auf der Näherungslinie des geometrischen Ortes existieren, zwischen dem rechten Rand und dem linken Rand, die durch die Randerfassungseinrichtung erfasst werden, identisch ist.
  3. Objektdetektionsvorrichtung nach Anspruch 1 oder 2, wobei die Einrichtung zum Herleiten der lateralen Position aufweist: eine Einrichtung zum Prognostizieren des geometrischen Ortes, die einen zukünftigen geometrischen Ort des Randes, der durch die Auswähleinrichtung als der echte Rand ausgewählt wird, prognostiziert; und eine Einrichtung zum Prognostizieren einer Kollisionsposition, die eine Kollisionsposition zwischen dem Ziel und einem Fahrzeug als eine Position, an der ein Abstand zwischen dem Rand und dem Fahrzeug in der von vorne nach hinten verlaufenden Richtung null beträgt, auf Basis des zukünftigen geometrischen Ortes des Randes prognostiziert, der durch die Einrichtung zum Prognostizieren des geometrischen Ortes prognostiziert wird, wobei: eine laterale Position eines Mittelpunkts in einer lateralen Richtung des Ziels, die an der Kollisionsposition angeordnet sein soll, auf Basis einer Position an der Kollisionsposition des Randes hergeleitet wird, der als der echte Rand durch die Auswähleinrichtung ausgewählt wird,
  4. Objektdetektionsvorrichtung nach Anspruch 1 oder 2, wobei: die Einrichtung zum Herleiten der lateralen Position eine Einrichtung zum Schätzen der lateralen Breite beinhaltet, die eine laterale Breite des Ziels schätzt; und eine Position, die zu dem anderen Rand um ½ der lateralen Breite des Ziels, die durch die Einrichtung zum Schätzen der lateralen Breite anhand der Position des Randes geschätzt wird, der durch die Auswähleinrichtung als der echte Rand ausgewählt wird, als eine laterale Position eines Mittelpunktes in einer lateralen Richtung des Ziels hergeleitet wird.
  5. Objektdetektionsverfahren zum Detektieren eines Objektes auf Basis von Zielinformationen, die durch ein Radar erfasst werden, und Zielinformationen, die anhand eines Bildes erfasst wurden, das durch einen monokularen Bildsensor aufgenommen wurde, wobei das Objektdetektionsverfahren beinhaltet: einen Randerfassungsschritt zum Extrahieren eines Zieles, das einem Ziel entspricht, das durch das Radar erkannt wurde, aus dem Bild, das durch den monokularen Bildsensor aufgenommen wurde, und zum Erfassen eines rechten Randes und eines linken Randes des extrahierten Ziels erfasst; einen Schritt zum Herleiten einer Näherungslinie eines geometrischen Ortes, bei dem, für die beiden Ränder, Näherungslinien für einen geometrischen Ort als Geraden oder vorbestimmte gekrümmte Linien zum Nähern der geometrischen Örter des rechten Randes und des linken Randes, die durch die Randerfassungseinrichtung erfasst werden, hergeleitet werden; einen Auswählschritt, in dem, als ein echter Rand des Ziels, der Rand, der eine größere Anzahl von Rändern aufweist, die auf der Näherungslinie des geometrischen Ortes existieren, von dem rechten Rand und dem linken Rand, die von der Randerfassungseinrichtung erfasst werden, ausgewählt wird; und einen Schritt zum Herleiten einer lateralen Position, in dem eine laterale Position des Ziels auf Basis einer Position des Randes, der als der echte Rand in dem Auswählschritt ausgewählt wird, hergeleitet wird.
  6. Objektdetektionsverfahren nach Anspruch 5, ferner beinhaltend: einen Gewichtungsbeimessungsschritt, in dem dem rechten Rand und dem linken Rand, die durch den Randerfassungsschritt erfasst werden, Zuverlässigkeitsgewichtungen beigemessen werden, so dass der Rand, der näher an einer Position des Ziels angeordnet ist, die durch den Radar erkannt wird, eine höhere Zuverlässigkeit aufweist; und einen Zuverlässigkeits-Gesamtwert-Berechnungsschritt, in dem eine Mehrzahl von Zuverlässigkeiten zusammengerechnet wird, wobei in dem Gewichtungsbeimessungsschritt die Gewichtungen jeweils dem rechten Rand oder dem linken Rand beigemessen werden, tun dadurch die Gesamtwerte der Zuverlässigkeiten für die beiden Ränder zu berechnen, wobei der Rand, der den größeren Gesamtwert der Zuverlässigkeiten aufweist, der durch den Schritt zum Berechnen des Zuverlässigkeitsgesamtwertes berechnet wird, von dem rechten Rand und dem linken Rand in dem Auswählschritt als der echte Rand ausgewählt wird, wenn die Anzahl der Ränder, die auf der Näherungslinie des geometrischen Ortes existieren, zwischen dem rechten Rand und dem linken Rand, die durch den Randerfassungsschritt erfasst werden, identisch ist.
DE112009005424.2T 2009-12-08 2009-12-08 Objektdetektionsvorrichtung und Objektdetektionsverfahren Expired - Fee Related DE112009005424B4 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/070562 WO2011070650A1 (ja) 2009-12-08 2009-12-08 物体検出装置及び物体検出方法

Publications (3)

Publication Number Publication Date
DE112009005424T5 true DE112009005424T5 (de) 2012-12-06
DE112009005424T8 DE112009005424T8 (de) 2013-02-07
DE112009005424B4 DE112009005424B4 (de) 2015-12-24

Family

ID=44145222

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112009005424.2T Expired - Fee Related DE112009005424B4 (de) 2009-12-08 2009-12-08 Objektdetektionsvorrichtung und Objektdetektionsverfahren

Country Status (5)

Country Link
US (1) US8610620B2 (de)
JP (1) JP4883246B2 (de)
CN (1) CN102696060B (de)
DE (1) DE112009005424B4 (de)
WO (1) WO2011070650A1 (de)

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2639781A1 (de) * 2012-03-14 2013-09-18 Honda Motor Co., Ltd. Fahrzeug mit verbesserter Verkehrsobjektpositionserkennung
US10609335B2 (en) * 2012-03-23 2020-03-31 Magna Electronics Inc. Vehicle vision system with accelerated object confirmation
WO2014024284A1 (ja) * 2012-08-08 2014-02-13 トヨタ自動車株式会社 衝突予測装置
CN104584098B (zh) * 2012-09-03 2017-09-15 丰田自动车株式会社 碰撞判定装置和碰撞判定方法
CN104620297B (zh) * 2012-09-03 2017-03-22 丰田自动车株式会社 速度算出装置、速度算出方法以及碰撞判定装置
CN102945602B (zh) * 2012-10-19 2015-04-15 上海交通大学无锡研究院 一种用于交通事件检测的车辆轨迹分类方法
JP5812064B2 (ja) * 2012-11-22 2015-11-11 株式会社デンソー 物標検出装置
CN105324275B (zh) * 2013-05-31 2017-06-20 丰田自动车株式会社 移动轨迹预测装置和移动轨迹预测方法
JP5812061B2 (ja) * 2013-08-22 2015-11-11 株式会社デンソー 物標検出装置およびプログラム
JP5929870B2 (ja) * 2013-10-17 2016-06-08 株式会社デンソー 物標検出装置
EP2865576B1 (de) * 2013-10-22 2018-07-04 Honda Research Institute Europe GmbH Zusammengesetzte Vertrauensschätzung für prädiktive Fahrerunterstützungssysteme
JP5991332B2 (ja) * 2014-02-05 2016-09-14 トヨタ自動車株式会社 衝突回避制御装置
CN103927437B (zh) * 2014-04-04 2016-10-26 东南大学 在非直线路段测量车头间距的方法
JP6209797B2 (ja) * 2014-05-20 2017-10-11 本田技研工業株式会社 走行制御装置
CN107004360B (zh) * 2014-07-03 2020-08-07 通用汽车环球科技运作有限责任公司 车辆雷达方法和***
CN104269070B (zh) * 2014-08-20 2017-05-17 东风汽车公司 一种车辆主动安全预警方法和运用该方法的安全预警***
JP6380232B2 (ja) * 2015-05-19 2018-08-29 株式会社デンソー 物体検出装置、及び物体検出方法
JP6508337B2 (ja) * 2015-07-27 2019-05-15 日産自動車株式会社 物体検出方法及び物体検出装置
JP6027659B1 (ja) * 2015-08-27 2016-11-16 富士重工業株式会社 車両の走行制御装置
CN208093734U (zh) 2015-11-05 2018-11-13 日本电产株式会社 缝隙阵列天线以及雷达***
JP2018511951A (ja) 2015-11-05 2018-04-26 日本電産株式会社 スロットアンテナ
DE102016125419B4 (de) 2015-12-24 2022-10-20 Nidec Elesys Corporation Wellenleitervorrichtung, Schlitzantenne und Radar, Radarsystem sowie Drahtlos-Kommunikationssystem mit der Schlitzantenne
US10381741B2 (en) 2015-12-24 2019-08-13 Nidec Corporation Slot array antenna, and radar, radar system, and wireless communication system including the slot array antenna
CN106981710B (zh) 2016-01-15 2019-11-08 日本电产株式会社 波导装置、天线装置以及雷达
DE112017000573B4 (de) 2016-01-29 2024-01-18 Nidec Corporation Wellenleitervorrichtung und Antennenvorrichtung mit der Wellenleitervorrichtung
DE102017102284A1 (de) 2016-02-08 2017-08-10 Nidec Elesys Corporation Wellenleitervorrichtung und Antennenvorrichtung mit der Wellenleitervorrichtung
DE102017102559A1 (de) 2016-02-12 2017-08-17 Nidec Elesys Corporation Wellenleitervorrichtung und Antennenvorrichtung mit der Wellenleitervorrichtung
JP2019047141A (ja) 2016-03-29 2019-03-22 日本電産エレシス株式会社 マイクロ波ic導波路装置モジュール、レーダ装置およびレーダシステム
CN208093770U (zh) 2016-04-05 2018-11-13 日本电产株式会社 无线通信***
JP2019054315A (ja) 2016-04-28 2019-04-04 日本電産エレシス株式会社 実装基板、導波路モジュール、集積回路実装基板、マイクロ波モジュール、レーダ装置およびレーダシステム
DE102016211730A1 (de) * 2016-06-29 2018-01-04 Continental Teves Ag & Co. Ohg Verfahren zur Vorhersage eines Fahrbahnverlaufs einer Fahrbahn
JP6787102B2 (ja) * 2016-12-14 2020-11-18 株式会社デンソー 物体検出装置、物体検出方法
CN106740465B (zh) * 2016-12-30 2020-07-24 南通市台盈新材料科技有限公司 一种基于宽度探测的汽车避撞方法
JP2018112461A (ja) * 2017-01-11 2018-07-19 いすゞ自動車株式会社 確率算出装置及び確率算出方法
EP3364211B1 (de) * 2017-02-21 2022-08-17 Continental Autonomous Mobility Germany GmbH Verfahren und vorrichtung zur erfassen einer möglichen kollision und fahrzeug
JP2018164252A (ja) 2017-03-24 2018-10-18 日本電産株式会社 スロットアレーアンテナ、および当該スロットアレーアンテナを備えるレーダ
CN108695585B (zh) 2017-04-12 2021-03-16 日本电产株式会社 高频构件的制造方法
JP7020677B2 (ja) 2017-04-13 2022-02-16 日本電産エレシス株式会社 スロットアンテナ装置
JP2018182740A (ja) 2017-04-13 2018-11-15 日本電産株式会社 スロットアレーアンテナ
CN208093762U (zh) 2017-04-14 2018-11-13 日本电产株式会社 缝隙天线装置以及雷达装置
JP2020520180A (ja) 2017-05-11 2020-07-02 日本電産株式会社 導波路装置および当該導波路装置を備えるアンテナ装置
JP7129999B2 (ja) 2017-05-11 2022-09-02 日本電産株式会社 導波路装置および当該導波路装置を備えるアンテナ装置
US10547122B2 (en) 2017-06-26 2020-01-28 Nidec Corporation Method of producing a horn antenna array and antenna array
JP2019009779A (ja) 2017-06-26 2019-01-17 株式会社Wgr 伝送線路装置
JP7103860B2 (ja) 2017-06-26 2022-07-20 日本電産エレシス株式会社 ホーンアンテナアレイ
JP2019012999A (ja) 2017-06-30 2019-01-24 日本電産株式会社 導波路装置モジュール、マイクロ波モジュール、レーダ装置およびレーダシステム
JP7294608B2 (ja) 2017-08-18 2023-06-20 ニデックエレシス株式会社 アンテナアレイ
JP2019050568A (ja) 2017-09-07 2019-03-28 日本電産株式会社 方向性結合器
JP2019071607A (ja) 2017-10-10 2019-05-09 日本電産株式会社 導波装置
EP3518001B1 (de) * 2018-01-25 2020-09-16 Aptiv Technologies Limited Verfahren zur erhöhung der zuverlässigkeit der bestimmung der position eines fahrzeugs auf basis einer vielzahl von detektionspunkten
CN110443819B (zh) * 2018-05-03 2022-04-15 比亚迪股份有限公司 一种单轨列车的轨道检测方法和装置
JP7298808B2 (ja) 2018-06-14 2023-06-27 ニデックエレシス株式会社 スロットアレイアンテナ
JP6596804B1 (ja) * 2018-08-24 2019-10-30 独立行政法人日本スポーツ振興センター 位置追跡システム、及び位置追跡方法
CN109343041B (zh) * 2018-09-11 2023-02-14 昆山星际舟智能科技有限公司 用于高级智能辅助驾驶的单目测距方法
CN109254289B (zh) * 2018-11-01 2021-07-06 百度在线网络技术(北京)有限公司 道路护栏的检测方法和检测设备
CN111446530A (zh) 2019-01-16 2020-07-24 日本电产株式会社 波导装置、电磁波锁定装置、天线装置以及雷达装置
CN110636266B (zh) * 2019-10-10 2020-10-16 珠海格力电器股份有限公司 基于电器的安防监控方法及装置、存储介质
CN113093176B (zh) * 2019-12-23 2022-05-17 北京三快在线科技有限公司 线状障碍物检测方法、装置、电子设备和存储介质
CN112927509B (zh) * 2021-02-05 2022-12-23 长安大学 一种基于交通冲突技术的道路行车安全风险评估***

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007288460A (ja) 2006-04-17 2007-11-01 Nissan Motor Co Ltd 物体検出方法および物体検出装置
JP2008276689A (ja) 2007-05-07 2008-11-13 Mitsubishi Electric Corp 車両用障害物認識装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5168529A (en) * 1988-08-29 1992-12-01 Rayethon Company Confirmed boundary pattern matching
US5052045A (en) * 1988-08-29 1991-09-24 Raytheon Company Confirmed boundary pattern matching
US5018218A (en) * 1988-08-29 1991-05-21 Raytheon Company Confirmed boundary pattern matching
US5173949A (en) * 1988-08-29 1992-12-22 Raytheon Company Confirmed boundary pattern matching
US5168530A (en) * 1988-08-29 1992-12-01 Raytheon Company Confirmed boundary pattern matching
US5027422A (en) * 1988-08-29 1991-06-25 Raytheon Company Confirmed boundary pattern matching
JP3400875B2 (ja) 1994-10-20 2003-04-28 本田技研工業株式会社 移動体の検出装置
JP2001134772A (ja) * 1999-11-04 2001-05-18 Honda Motor Co Ltd 対象物認識装置
JP4205825B2 (ja) * 1999-11-04 2009-01-07 本田技研工業株式会社 対象物認識装置
CN1914060B (zh) * 2004-01-28 2013-05-29 丰田自动车株式会社 车辆行驶支持***
JP5088669B2 (ja) * 2007-03-23 2012-12-05 株式会社デンソー 車両周辺監視装置
JP5098563B2 (ja) * 2007-10-17 2012-12-12 トヨタ自動車株式会社 物体検出装置
JP5145986B2 (ja) * 2008-02-05 2013-02-20 日産自動車株式会社 物体検出装置及び測距方法
US8320615B2 (en) * 2008-02-27 2012-11-27 Honeywell International Inc. Systems and methods for recognizing a target from a moving platform
DE112009004346B4 (de) * 2009-01-29 2014-05-28 Toyota Jidosha Kabushiki Kaisha Objekterkennungsvorrichtung und Objekterkennungsverfahren

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007288460A (ja) 2006-04-17 2007-11-01 Nissan Motor Co Ltd 物体検出方法および物体検出装置
JP2008276689A (ja) 2007-05-07 2008-11-13 Mitsubishi Electric Corp 車両用障害物認識装置

Also Published As

Publication number Publication date
DE112009005424T8 (de) 2013-02-07
DE112009005424B4 (de) 2015-12-24
JPWO2011070650A1 (ja) 2013-04-22
JP4883246B2 (ja) 2012-02-22
US20120313806A1 (en) 2012-12-13
WO2011070650A1 (ja) 2011-06-16
CN102696060A (zh) 2012-09-26
CN102696060B (zh) 2015-01-07
US8610620B2 (en) 2013-12-17

Similar Documents

Publication Publication Date Title
DE112009005424B4 (de) Objektdetektionsvorrichtung und Objektdetektionsverfahren
DE102014103695B4 (de) Fahrzeuggestützte Kreuzungsbeurteilungsvorrichtung und -programm
DE112013007129B4 (de) Bewegungstrajektorienvorhersagevorrichtung und Bewegungstrajektorienvorhersageverfahren
DE102017116411B4 (de) Elektronischen Steuerungseinheit, Gatewayschaltung für eine elektronische Airbag-Steuerungseinheit, Sicherheitssystem für ein Fahrzeug und Umgebungssensorelement
EP2242674B1 (de) Verfahren und assistenzsystem zum erfassen von objekten im umfeld eines fahrzeugs
DE102009043458B4 (de) Fahrunterstützungssystem für Fahrzeuge
DE112010003874B4 (de) Fahrzeugsteuerung
DE112017003974B4 (de) Geschwindigkeitsregelungsvorrichtung
DE112017002743B4 (de) Parkunterstützungsvorrichtung und Parkunterstützungsverfahren
DE102014221144A1 (de) Zielerfassungsvorrichtung
DE102017209772A1 (de) Objekterkennungsverarbeitungsvorrichtung, Objekterkennungsverarbeitungsverfahren und autonomes Fahrsystem
DE112012006532B4 (de) Verfolgungssteuerungsvorrichtung
DE102012216386A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs
DE102018117561A1 (de) Verfahren zum automatisierten Vermeiden einer Kollision
DE112015005377T5 (de) Fahrzeugfahrtregelungsvorrichtung und fahrzeugfahrtregelungsverfahren
EP2200881B1 (de) Verfahren zur schätzung der relativbewegung von video-objekten und fahrerassistenzsystem für kraftfahrzeuge
DE102013112916A1 (de) Fahrzeugfahrtunterstützungssteuerungsvorrichtung
DE102013113163A1 (de) Fahrzeugfahrtunterstützungssteuerungsvorrichtung
DE112015005329T5 (de) Fahrzeuggeschwindigkeitsvorrichtung, Fahrzeuggeschwindigkeitsregelungsverfahren und Fahrzeuggeschwindigkeitsregelungsprogramm
EP2707862B1 (de) Abstandsbestimmung mittels eines kamerasensors
EP1731922A1 (de) Verfahren und Vorrichtung zum Bestimmen von Freiflächen in der Umgebung eines Kraftfahrzeuges
EP2704096A1 (de) Verfahren zum kalibrieren einer Bilderfassungseinrichtung
DE102017200562A1 (de) Objekterkennung-integrationsvorrichtung und objekterkennung-integrationsverfahren
DE102017117593A1 (de) Fahrzeugfahrassistenzvorrichtung
DE102020103503A1 (de) Adaptive steuerung des automatischen spurwechsels im fahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R084 Declaration of willingness to licence
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee