DE102004031437A1 - Hindernis-Erfassungsvorrichtung und Verfahren für ein Kraftfahrzeug - Google Patents

Hindernis-Erfassungsvorrichtung und Verfahren für ein Kraftfahrzeug Download PDF

Info

Publication number
DE102004031437A1
DE102004031437A1 DE102004031437A DE102004031437A DE102004031437A1 DE 102004031437 A1 DE102004031437 A1 DE 102004031437A1 DE 102004031437 A DE102004031437 A DE 102004031437A DE 102004031437 A DE102004031437 A DE 102004031437A DE 102004031437 A1 DE102004031437 A1 DE 102004031437A1
Authority
DE
Germany
Prior art keywords
image processing
technique
image
detection
motor vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102004031437A
Other languages
English (en)
Other versions
DE102004031437B4 (de
Inventor
Taku Yokosuka Takahama
Takeshi Yokohama Kimura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Publication of DE102004031437A1 publication Critical patent/DE102004031437A1/de
Application granted granted Critical
Publication of DE102004031437B4 publication Critical patent/DE102004031437B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Bei der Hindernis-Erfassungsvorrichtung und dem Hindernis-Erfassungsverfahren für ein Kraftfahrzeug ruft ein Bildabrufabschnitt eine Situation eines Vorwärtserfassungsbereichs in Form eines Bildes ab, ein Ausgabeabschnitt des erkennbaren Objekts gibt eine Positionsinformation eines für das Fahrzeug zu erkennenden Objekts aus, und ein Bildverarbeitungsabschnitt führt eine Bildverarbeitung für einen Bereich des Bildabrufabschnitts auf Grundlage einer Ausgabe des Ausgabeabschnitts des erkennbaren Objekts zum Erfassen des Objekts aus, wobei der Bildverarbeitungsabschnitt eine erste Technik, hauptsächlich zum Erfassen der Position des Objekts, und eine zweite Technik, hauptsächlich zum Nachführen des Objekts, umfasst, wobei die zweite Technik das Objekt erfasst, wenn die Objekterfassung mittels der ersten Technik nicht ermöglicht wird.

Description

  • Hintergrund der Erfindung
  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft eine Hindernis-Erfassungsvorrichtung und ein Verfahren für ein Kraftfahrzeug, welche eine Bildverarbeitung für ein fotografiertes Ergebnis ausführen mittels einer an einem Bilderfassungselement befestigten CCD-Kamera (CCD: Charge Coupled Device) bzw. einer CMOS-Kamera (CMOS: Complementary Monolithic Oxide Semiconductor) zum Erfassen einer Position von mindestens einem Objekt, welches in einer Vorwärtsrichtung bezüglich eines Trägerfahrzeugs vorhanden ist, in welchem die erfindungsgemäße Hindernis-Erfassungsvorrichtung befestigt ist.
  • Die japanische Patentanmeldung mit der Erstveröffentlichungs-Nr. 2002-117392, veröffentlicht am 19. April 2002, stellt beispielhaft eine erste zuvor vorgeschlagene Hindernis-Erfassungsvorrichtung für ein Kraftfahrzeug dar. Bei der ersten zuvor vorgeschlagenen Hindernis-Erfassungsvorrichtung wird eine Monokularkamera zusammen mit einem Laserradar verwendet zur Erfassung eines vorangehenden Fahrzeugs, welches vor dem Trägerfahrzeug in einem kurzen Abstand angeordnet ist, so dass ein stabiles Nachführen des vorangehenden Fahrzeugs ermöglicht wird, da eine Abstandsmessung über die kurze Distanz zum Laserradar nicht stabil ist. In ähnlicher Weise stellt die japanische Patentanmeldung mit der Erstveröffentlichungs-Nr. Heisei 11-44533, veröffentlicht am 16. Februar 1999, beispielhaft eine zweite zuvor vorgeschlagene Hindernis-Erfassungsvorrichtung dar. Bei der zweiten zuvor vorgeschlagenen Hindernis-Erfassungsvorrichtung wird ein Bildbereich entsprechend einer Position des durch das Laserradar erfassten Objekts als erstes Referenzmuster gespeichert, und ein weiterer Bereich mit dem höchsten Korrelationswert zwischen der erfassten Position des Radars und einem Kamerabild wird als zweites Referenzmuster gespeichert. Anschließend erfasst die zweite zuvor vorgeschlagene Hindernis-Erfassungsvorrichtung die Position des Objekts auf Grundlage einer Mittenkoordinate des zweiten Referenzmusters n einem Fall, in welchem das Radar das Objekt, welches eingefangen wird, verloren hat. Somit ist es möglich, das vorangehende Fahrzeug durch die Kamerabildverarbeitung einzufangen, selbst wenn das Radar das vorangehende Fahrzeug verloren hat.
  • Zusammenfassung der Erfindung
  • Jedoch handelt es sich sowohl bei der ersten als auch bei der zweiten zuvor vorgeschlagenen Hindernis-Erfassungsvorrichtung bei einem Sensor, bezüglich welchem die Referenz erfolgt, stets um das Laserradar. Somit ist es unmöglich, die Position des vorangehenden Fahrzeugs durch die Bildverarbeitung während des Einfangens des Objekts durch das Radar zu erfassen. Daher ist es nicht möglich, eine hochgenaue Erfassung des Objekts durch die Bildverarbeitung während der Erfassung des Objekts durch das Laserradar zu erfassen. Das heißt, bei keiner der zuvor vorgeschlagenen Hindernis-Erfassungsvorrichtungen kann eine Kompatibilität zwischen der Erfassung der Position und dem Nachführen des Objekts erreicht werden.
  • Es ist somit eine Aufgabe der vorliegenden Erfindung, eine Hindernis-Erfassungsvorrichtung und ein Verfahren für ein Kraftfahrzeug zu schaffen, welche die Kompatibilität zwischen der Positionserfassung des Objekts und dem Nachführen des Objekts erreichen kann.
  • Gemäß einem Aspekt der vorliegenden Erfindung ist eine Hindernis-Erfassungsvorrichtung für ein Kraftfahrzeug geschaffen, umfassend: einen Bildabrufabschnitt, welcher eine Situation eines Vorwärtserfassungsbereichs in Form eines Bildes abruft; einen Ausgabeabschnitt eines erkennbaren Objekts, welcher Positionsinformationen eines Objekts ausgibt, welches für das Fahrzeug erkennbar ist; einen Bildverarbeitungsabschnitt, welcher eine Bildverarbeitung ausführt für einen Bereich des Bildabrufabschnitts auf Grundlage eines einer Ausgabe des Ausgabeabschnitts des erkennbaren Objekts zum Erfassen des Objekts, wobei der Bildverarbeitungsabschnitt eine erste Technik umfasst, hauptsächlich zum Erfassen der Position des Objekts, sowie eine zweite Technik, hauptsächlich zum Nachführen des Objekts, wobei die zweite Technik das Objekt erfasst, wenn die Objekterfassung mittels der ersten Technik nicht ermöglicht wird.
  • Gemäß einem weiteren Aspekt der vorliegenden Erfindung ist ein Hindernis-Erfassungsverfahren für ein Kraftfahrzeug vorgesehen, umfassend: das Abrufen einer Situation eines Vorwärtserfassungsbereichs in Form eines Bildes; Ausgeben von Positionsinformationen eines Objekts, welches für das Fahrzeug erkennbar ist; und Ausführen einer Bildverarbeitung für einen Bereich des Bildabrufabschnitts auf Grundlage eines Ausgangssignals des Ausgabeabschnitts eines erkennbaren Objekts zum Erfassen des Objekts, wobei bei der Bildverarbeitung eine erste Technik hauptsächlich zum Erfassen der Position des Objekts und eine zweite Technik hauptsächlich zum Nachführen des Objekts integriert sind, wobei die zweite Technik das Objekt erfasst, wenn die Objekterfassung durch die erste Technik nicht ermöglicht wird.
  • Diese Zusammenfassung der Erfindung beschreibt nicht notwendigerweise sämtliche erforderlichen Merkmale, so dass die vorliegende Erfindung ferner eine Unterkombination dieser beschriebenen Merkmale sein kann.
  • Kurze Beschreibung der Zeichnung
  • 1 ist ein Blockschaltbild zur Erläuterung einer allgemeinen Konzeption einer erfindungsgemäßen Hindernis-Erfassungsvorrichtung.
  • 2 ist ein schematisches Blockschaltbild einer erfindungsgemäßen Hindernis-Erfassungsvorrichtung bei einem ersten bevorzugten Ausführungsbeispiel.
  • 3A und 3B sind zusammen ein Flussdiagramm, welches einen Fluss einer selektiven Steuerprozedur einer Bildverarbeitungstechnik darstellt, ausgeführt bei dem ersten bevorzugten Ausführungsbeispiel, dargestellt in 2.
  • 4 ist ein Teil des Flussdiagramms, welches den Fluss der selektiven Steuerprozedur einer Bildverarbeitungstechnik darstellt, ausgeführt bei dem ersten bevorzugten Ausführungsbeispiel, dargestellt in 2.
  • 5 ist ein detailliertes Flussdiagramm, welches eine selektive Steuerprozedur eines erkennbaren Objekts an einem Schritt 203 darstellt, dargestellt in 3A.
  • 6 ist eine Kennfeldansicht, welche eine Kennlinie einer Funktion func darstellt.
  • 7A und 7B sind zusammen ein Flussdiagramm, welches den Fluss der selektiven Steuerprozedur einer Bildverarbeitungstechnik darstellt, ausgeführt bei einem erfindungsgemäßen zweiten bevorzugten Ausführungsbeispiel.
  • 8 ist ein Teil des Flussdiagramms, welches den Fluss der selektiven Steuerprozedur einer Bildverarbeitungstechnik darstellt, ausgeführt bei einem erfindungsgemäßen zweiten bevorzugten Ausführungsbeispiel.
  • 9 ist ein Teil des Flussdiagramms, welches den Fluss der selektiven Steuerprozedur einer Bildverarbeitungstechnik darstellt, ausgeführt bei einem erfindungsgemäßen zweiten bevorzugten Ausführungsbeispiel.
  • 10A, 10B und 10C sind Teile des Flussdiagramms, ausgeführt bei einem dritten bevorzugten Ausführungsbeispiel der erfindungsgemäßen Hindernis-Erfassungsvorrichtung.
  • 11 ist ein Teil des Flussdiagramms, ausgeführt bei einem vierten bevorzugten Ausführungsbeispiel der erfindungsgemäßen Hindernis-Erfassungsvorrichtung.
  • Genaue Beschreibung der bevorzugten Ausführungsbeispiele
  • Es folgt eine Bezugnahme auf die Zeichnung im Sinne einer Vereinfachung eines besseren Verständnisses der vorliegenden Erfindung.
  • 1 zeigt ein Blockschaltbild einer erfindungsgemäßen Hindernis-Erfassungsvorrichtung für ein Kraftfahrzeug, welches eine allgemeine Konzeption darstellt. In 1 besteht die Hindernis-Erfassungsvorrichtung aus einem Bildabrufabschnitt 101, welcher ein Bild in einem Vorwärtsfotografierbereich eines Trägerfahrzeugs fotografiert, in welchem die Hindernis-Erfassungsvorrichtung befestigt ist, einem Ausgabeabschnitt 102 einer Position eines erkennbaren Objekts, welcher Positionsinformationen eines erkennbaren Objekts ausgibt, und einem Bildverarbeitungsabschnitt 103, welcher ein Bild verarbeitet, welches erhalten wird von einem Bildabrufabschnitt 101 zum Erfassen des Vorhandenseins des Objekts auf Grundlage eines Bildbereichs des erkennbaren Objekts, ausgegeben durch einen Ausgabeabschnitt 102 des erkennbaren Objekts. Der Bildverarbeitungsabschnitt 103 umfasst eine erste Technik zum Erfassen einer Position eines Objekts sowie eine zweite Technik zum Ausführen eines Nachführens in bezug auf das Objekt.
  • Bei der Hindernis-Erfassungsvorrichtung kann bei einem System, in welchem ein (erkennbares) Objekt, welches erkennenswert ist, ausgewählt wird aus einer Objektgruppe, erfasst durch das Laserradar, und bei welchem das ausgewählte Objekt redundant nachgeführt wird nicht nur durch das Laserradar, sondern ebenso durch die Bildverarbeitung, ein stabiles Nachführen des ausgewählten Objekts mit hoher Genauigkeit durch die Bildverarbeitung erzielt werden unabhängig von einer Erfassungssituation des Radars.
  • (Erstes Ausführungsbeispiel)
  • 2 zeigt eine Hardware-Struktur der erfindungsgemäßen Hindernis-Erfassungsvorrichtung bei einem ersten Ausführungsbeispiel. Eine Radarverarbeitungseinheit 2 zum Extrahieren eines Hinderniskandidaten aus einem Abtastergebnis mittels eines Laserradar 1 des Abtasttyps wird verbunden mit einer Hindernis-Erfassungsvorrichtung 5. Diese Radarverarbeitungseinheit 2 führt eine Berechnung zweidimensionaler Koordinatenwerte (eine Richtung auf einem Inter-Fahrzeugabstand und eine Fahrzeugbreitenrichtung) aus, mit dem Fahrzeug (ein Trägerfahrzeug, in welchem die Hindernis-Erfassungsvorrichtung bei dem ersten Ausführungsbeispiel befestigt ist) als Ursprung für einen Hinderniskandidaten bzw. eine Vielzahl von Hinderniskandidaten und einer Breite (einer Größe) jedes Hinderniskandidaten.
  • Es ist eine CCD-Kamera des progressiven Abtasttyps (Bildabrufabschnitt) welche eine Situation eines Fahrzeugvorwärts-Fotografierbereichs mit hoher Geschwindigkeit erfasst, in dem Fahrzeug befestigt. Ein Fotografierergebnis wird an eine Bildverarbeitungseinheit 4 geliefert. Die Bildverarbeitungseinheit 4 speichert die Bilddaten in der Nähe von Koordinaten von Hinderniskandidaten, eingefangen mittels der Radarverarbeitungseinheit 2, und führt ein derartigen Vorgang aus, dass die Bildverarbeitung ein Erfassen des verlorenen Objekts bewirkt in einem Fall, in welchem das radarerfasste Objekt verloren geht infolge einer Abstandsveränderung einer Trägerfahrzeugkarosserie. Ausgänge der Radarverarbeitungseinheit 2 und der Bildverarbeitungseinheit 4 werden mit einer Hindernis-Erfassungsvorrichtung 5 verbunden. Eine Fahrzeuggeschwindigkeits-Erfassungsvorrichtung 6 zum Erfassen der Geschwindigkeiten nicht angetriebener linker und rechter Straßenräder und eine Lenkwinkel-Erfassungsvorrichtung 7A zum Erfassen eines Vorderstraßenrad-Drehwinkels sind mit einer Hindernis-Erfassungsvorrichtung 5 verbunden, um Zustandsvariablen des Trägerfahrzeuges zu schätzen. Es sei darauf hingewiesen, dass eine Gierraten-Erfassungsvorrichtung 7B zum Erfassen einer Fahrzeuggierrate mit der Hindernis-Erfassungsvorrichtung 5 verbunden ist. Aus einer derartigen Hardware-Struktur wie oben beschrieben führt die Hindernis-Erfassungsvorrichtung 5 ein hohes Ausmaß eines Hindernis-Erfassungssystems für das Kraftfahrzeug aus durch Berechnen und Verarbeiten (Ausführen) der entsprechenden Funktionen.
  • Die Hindernis-Erfassungsvorrichtung 5 wählt jede Objektposition, erfasst mittels der Radarverarbeitungseinheit 2, sowie die Position des sich unter einem Nachführvorgang befindlichen Objekts aus, um zu bestimmen, ob das erfasste Objekt ein Hindernis für das Trägerfahrzeug darstellt, und liefert ein Ergebnis der Bestimmung an eine automatische Bremssteuervorrichtung 8. Ein Unterdruck-Bremskraftverstärker 9 zum Erzielen einer beliebigen Bremskraft ist verbunden mit vorderen und hinteren Straßenrädern. Eine Bremskraft-Befehlsspannung von der automatischen Bremssteuervorrichtung 8 des Trägerfahrzeugs wird an ein Solenoidventil des Unterdruck-Bremskraftverstärkers 9 geliefert. Die Radarverarbeitungseinheit 2 und die automatische Bremssteuervorrichtung 8 sind gebildet durch Mikrocomputer, deren Peripherieelemente und verschiedene Arten von Aktuatoren (Treiber- bzw. Ansteuerschaltungen) und liefern und empfangen Informationen über zwischengeschaltete Datenübertragungsleitungen.
  • Es folgt eine Beschreibung der Wirkungsweise der Hindernis-Erfassungsvorrichtung bei dem ersten Ausführungsbeispiel unter Bezugnahme auf in 3A bis 5 dargestellte Flussdiagramme.
  • (Selektive Steuerungsverarbeitung durch eine Bildverarbeitungstechnik)
  • 3A, 3B und 4 zeigen zusammen einen Fluss eines selektiven Steuerungsvorgangs durch eine Bildverarbeitungstechnik, ausgeführt bei dem ersten Ausführungsbeispiel, beispielsweise 33 Millisekunden.
  • In einem Schritt 201 liest die Hindernis-Erfassungsvorrichtung 5 Positionen jeweiliger Objekte, welche durch das Laserradar 1 des Abtasttyps erfasst werden, in Form von R (Px_zo[i] Py_zo[i]). Es sei darauf hingewiesen, dass ein Index x eine Position jedes Objekts in einer Seitenrichtung (einer Fahrzeugbreitenrichtung) bezeichnet und ein Index y eine Position jedes Objekts in einer Längsrichtung (einer Fahrzeugzwischenfahrzeugrichtung) bezeichnet. Ferner bezeichnet ein Index i eine ganze Zahl, welche eine ID-Nummer (Kenn-Nummer) jedes erfassten Objekts darstellt, und welche gleich Null bzw. größer als Null ist, zo bezeichnet einen aktuellen Wert, z1 bezeichnet einen vergangenen Wert einer Abtastzeitspanne (33 Millisekunden) vor einem aktuellen Wert und zn bezeichnet den vergangenen Wert n Abtastperioden vor dem aktuellen Wert.
  • In einem Schritt 202 ruft die Hindernis-Erfassungsvorrichtung 5 ein Fotografierergebnis (ein Bild) zu der aktuellen Abtastzeitspanne von der CCD-Kamera 3 ab. In einem Schritt 203 wählt die Hindernis-Erfassungsvorrichtung 5 ein am besten erkennbares Objekt aus den jeweiligen in Schritt 201 erfassten Objekten (jede ID-Nummer) aus. Ein spezifischer Fluss davon wird unter Bezugnahme auf ein detailliertes Flussdiagramm von 5 beschrieben.
  • Das heißt, in einem Schritt 203-1 liest eine Hindernis-Erfassungsvorrichtung 5 eine Fahrzeuggeschwindigkeit Vsp des Trägerfahrzeugs, eine Lenkwinkelverschiebung Str des Trägerfahrzeugs und eine Gierrate dψ/dt des Trägerfahrzeugs, wobei diese Werte aus der aktuellen Abtastzeitspanne stammen.
  • In einem Schritt 203-2 sagt die Hindernis-Erfassungsvorrichtung 5 eine zukünftige Bewegungsbahn (Bahn) des Trägerfahrzeugs vorher gemäß der folgenden Gleichung (1) als Kurvenradius R des Fahrzeugs unter Verwendung der Fahrzeuggeschwindigkeit Vsp, der Lenkwinkelverschiebung und der Gierrate, bestimmt in Schritt 203-1. R = Vsp/(dψ/dt) (in dem Fall, in welchem Vsp > 30 km/h) R = (lf + lr)/Str (in dem Fall, in welchem Vsp ≤ 30 km/h) (1)
  • In den Gleichungen (1) bezeichnet lf einen Abstand von einer Vorderstraßenradachse des Trägerfahrzeugs hin zu einem Gewichtsschwerpunkt, und lr bezeichnet einen Abstand von einer Hinterstraßenradachse davon hin zu einem Gewichtsschwerpunkt.
  • In einem Schritt 203-3 führt die Hindernis-Erfassungsvorrichtung 5 jeweils eine Ableitung einer Richtung eines Relativgeschwindigkeitsvektors mit der höchsten Möglichkeit eines in Kontaktgelangens des eingefangenen Objekts mit dem Trägerfahrzeug aus den Positionen der erfassten Objekte, gelesen an Schritt 201, gemäß der folgenden Gleichung (2) sowie einer Richtung eines Relativgeschwindigkeitsvektors aus in einem Fall, in welchem das erfasste Objekt sehr leicht mit dem Trägerfahrzeug in Kontakt gelangt gemäß der folgenden Gleichung (3) aus den Positionen der erfassten Objekte, gelesen an Schritt 201. direction_C[i] = atan(Px_zo[i]/Py_zo[i]) (2)und direction_L[i] = atan((Px_zo[i] + W_zo[i]/2 + w/2)/(Py_zo[i])) (3)
  • In der Gleichung (3) bezeichnet w eine Breite des Trägerfahrzeugs.
  • Anschließend berechnet die Hindernis-Erfassungsvorrichtung 5 eine Richtung eines Relativgeschwindigkeitsvektors eines Hinderniskandidaten hin zum Trägerfahrzeug aus der folgenden Gleichung (4) und berechnet eine Möglichkeit, dass das erfasste Objekt ein Hindernis für das Trägerfahrzeug darstellen kann, aus der folgenden Gleichung (5). direction[i] = atan(rVx_zo[i]/rVy_zo[i] (4) Recog_rVxy[i] = (–0,2/fabs(direction_L[i] – direction_C[i])) × fabs(direction_C[i] – direction[i]) + 1,0 (5)
  • In der Gleichung (5) nimmt Recog_rVxy einen Bereich von 0,8 bis 1 an, wenn in bezug auf das erfasste Objekt i die Möglichkeit eines in Kontaktgelangens des Objekts mit dem Trägerfahrzeug besteht, und nimmt mit geringer werdender Möglichkeit einen kleineren Wert an.
  • In Schritt 203-4 bestimmt die Hindernis-Erfassungsvorrichtung 5 eine Möglichkeit eines in Kontaktgelangens des erfassten Objekts i mit dem Trägerfahrzeug aus der folgenden Gleichung (6) anhand der zukünftigen Bewegungsbahn R des Fahrzeugs, berechnet in der Gleichung (1). Recog_Dist[i] = (–0,2/w/2) × abs(hypot(Py_zo[I], (Px_zo[I] – R)) – R) + 1,0 (6)
  • In der Gleichung (6) bezeichnet hypot (p1, p2) ein Argument (einen Parameter) zu einer Rückkehr (p1 × p1 + p2 × p2)0,5, und Regoc_Dist[i] nimmt einen Bereich von 0,8 bis 1 an, wenn die Möglichkeit eines in Kontaktgelangens des erfassten Objekts mit dem Trägerfahrzeug besteht, und nimmt mit geringer werdender Möglichkeit einen kleineren Wert an.
  • In einem Schritt 203-5 integriert die Hindernis-Erfassungsvorrichtung 5 zwei Kontaktmöglichkeiten, berechnet durch die Gleichungen (5) und (6), zu einer Kontaktmöglichkeit. Rprob[i] = func(Th_rVy_L, Th_rVy_H, rVy_zo[i], Recog_rVxy[i], Recog_Dist[i] (7)
  • In der Gleichung 7 bezeichnen Th_rVy_L und Th_rVy_H geeignete Schwellenwerte zum Bestimmen eines Gewichts eines Hindernisbestimmungsverfahrens. In Gleichung (z) func (a1, a2, a3, a4, a5) eine Funktion mit einer in 6 dargestellten Kennlinie. Wird eine relative Längsgeschwindigkeit gering, so wird einem Rechenergebnis aus der Gleichung (6) mehr Bedeutung beigemessen. Wird die relative Längsgeschwindigkeit groß, so wird einem Rechenergebnis aus der Gleichung (5) mehr Bedeutung beigemessen.
  • Nach einer Berechnung der Kontaktmöglichkeit Rprob[i] in bezug auf das Trägerfahrzeug für jedes der erfassten Objekte wählt die Hindernis-Erfassungsvorrichtung 5 lediglich ein Objekt der höchsten Objekte aus den Objekten aus, welche den Rechenergebnissen aus Rprob[i] entsprechen, für alle erfassten Objekte, welche gleich einem vorbestimmten Wert bzw. größer als ein vorbestimmter Wert sind, wobei das ausgewählte Objekt die ID-Nummer aufweist, welche einem Flag slct zugewiesen ist. Ist kein Rprob[i] gleich dem vorbestimmten Wert bzw. größer als der vorbestimmte Wert, das heißt, ist kein Hindernis vorhanden, so wird das Flag slct auf –1 (slct = –1) gesetzt. Es sei darauf hingewiesen, dass, wenn die Hindernis-Erfassungsvorrichtung 5 bestimmt, dass das Objekt kleiner ist als eine vorbestimmte Größe und dass das Objekt ein gestopptes Objekt ist anhand der Größe des durch das Laserradar 1 des Abtasttyps erfassten Objekts, die Hindernis-Erfassungsvorrichtung 5 das Objekt nicht als das erkennbarste Objekt auswählt. Somit kann aufgrund der Tatsache, dass das Laserradar 1 den Hintergrund von dem Objekt bzw. den Objekten vor einer Ausführung der Bildverarbeitung trennt, die Hindernis-Erfassungsvorrichtung 5 eine fehlerhafte Bildnachführung eines (unnötigen) Objekts, wie beispielsweise eine Umgebung (bzw. Hintergrund) sicherer verhindern.
  • Unter erneuter Bezugnahme auf 3A bestimmt an Schritt 204 die Hindernis-Erfassungsvorrichtung 5 einen Status eines Bildnachführungsflags IP_Tracking. Dieses Flag IP_Tracking wird auf "1" gesetzt, falls die Objektnachführung (bzw. die Objektverfolgung) durch die Bildverarbeitung ausgeführt wird, und wird auf "0" rückgesetzt, falls keine Objektnachführung durch die Bildverarbeitung ausgeführt wird. Ist IP_Tracking Null (IP_Tracking = 0) (nein) an Schritt 204, so fährt die Routine mit Schritt 205 fort. Ist IP_Tracking eins (IP_Tracking = 1) (ja) an Schritt 204, so fährt die Routine mit Schritt S211 fort. An Schritt 205 bestimmt die Hindernis-Erfassungsvorrichtung 5, ob das Flag slct kleiner als Null ist (slct < 0) als Ergebnis aus Schritt S203 (das erkennbare Objekt war nicht vorhanden). Falls slct < 0 (nein) an Schritt 205, so fährt die Routine mit einem Schritt 224 fort. Falls slct ≤ 0 (ja), so fährt die Routine mit einem Schritt 206 fort. An Schritt 206 legt die Hindernis-Erfassungsvorrichtung 5 einen Bildverarbeitungsbereich fest auf Grundlage der Position des an Schritt 203 ausgewählten Objekts: R(Px_zo[slct], Py_zo[slct]) disp_obj_YA = yo + (focusV × CAM_h2/Py_zo[slct]) (8) disp_obj_YB = yo + (focusV × CAM h/Py_zo[slct]) (9) disp_obj_XL = xo + (focusH/Py_zo[slct] × Px_zo[slct]) – (focusH × wide/Py_zo[slct]) (10) disp_obj_XR = xo + (focusH/Py_zo[slct] × Px_zo[slct] + (focusH × wide/Py_zo[slct] (11)
  • In den Gleichungen (8) bis (11) bezeichnet disp_obj_** Koordinatenwerte von Enden eines rechtwinkligen Bereichs, in welchem die Bildverarbeitung ausgeführt wird, disp_obj_YA bezeichnet Bildverarbeitungswerte oberer Enden des rechtwinkligen Bereichs, disp_obj_YB bezeichnet Bildverarbeitungswerte unterer Enden des rechtwinkligen Bereichs, disp_obj_XL bezeichnet Bildverarbeitungswerte linksseitiger Enden des rechtwinkligen Bereichs, und disp_obj_XR bezeichnet Bildverarbeitungswerte rechtsseitiger Enden des rechtwinkligen Bereichs. Ferner bezeichnet y0 eine Längskoordinaten (pix) eines Fluchtpunkts, und x0 bezeichnet eine Seitenkoordinate (pix) des Fluchtpunkts (Parameter werden bestimmt gemäß einer Befestigungsposition und einer Richtung der Kamera), focusV bezeichnet eine Brennweite (pix) einer Vertikalrichtung der Kamera mit erfolgter Pixelkonvertierung, focusH bezeichnet eine Brennweite (pix) einer Horizontalrichtung der Kamera mit erfolgter Pixelkonvertierung, und, falls eine Lichtaufnahmefläche ein quadratisches ist, so ist focusV = focusH (focusV und focusH sind Parameter, welche bestimmt sind gemäß einem winkligen Sichtfeld der Kamera und eine Auflösung von Lichtaufnahmeelementen). Ferner bezeichnet CAM_h eine Befestigungshöhe der Kamera (Einheit ist ein Meter), CAM_h2 ist ein Subtraktionswert einer Höhe (obj_H) des Objekts, welches als Hinderniskandidat anzusehen ist, von CAM_h, wobei wide (= breit) aus der folgenden Gleichung (12) abgeleitet werden kann. wide = focusH/Py_zo × {(Rw[slct] + Rx_vari + Rw_vari)/2} (12)
  • In der Gleichung (12) bezeichnet Rw[i] eine Breite des Objekts, dessen ID-Nummer in der durch das Laserradar 1 erfassten Objektgruppe I ist, Rx_vari bezeichnet eine Erfassungsgenauigkeit an einer Seitenposition des Laserradars 1 (eine Standardabweichung [m]), und Rw_vari bezeichnet eine Erfassungsgenauigkeit an einer Breite des Laserradars 1 (Standardabweichung [m]). Es sei darauf hingewiesen, dass bei dem ersten Ausführungsbeispiel das Laserradar 1 des Abtasttyps verwendet wird, so dass die Breite des erfassten Objekts erhalten werden kann. Jedoch kann im Falle eines Millimeterwellenradars, welches bei schlechtem Wetter stabil ist, bzw. im Falle eines äußerst kostengünstigen Laserradars des Mehrstrahltyps die Breite des erfassten Objekts nicht erhalten werden. In diesem Fall kann ein Wert (pix) der Hälfte der Breite [m] bestimmt werden gemäß einer Summe aus der Erfassungsgenauigkeit (Standardabweichung [m]) auf der Seitenposition des Laserradars und einer Maximalbreite des Objekts, welches als das Hindernis anzusehen ist, wobei eine Pixelkonvertierung erfolgte, anstelle der oben beschriebenen Gleichung (12) verwendet werden.
  • Im nachfolgenden Schritt 207 leitet die Hindernis-Erfassungsvorrichtung 5 ein Kantenbild gemäß einer Sobelfilterberechnung für den Bildverarbeitungsbereich, festgelegt in Schritt 206, ab (das Sobelfilter-Verfahren ist eine Rechenmethode zum Bewirken einer Veränderung des Gradienten zwischen angrenzenden Pixeln und kann dort lediglich Teile sammeln, wo die Veränderung des Gradienten groß ist, wie beispielsweise Grenzen zwischen einer Straße und dem Fahrzeug im Bild) (diese Kantenbildableitung entspricht der ersten Technik).
  • In Schritt 208 sucht die Hindernis-Erfassungsvorrichtung eine Seitenkante, welche zwischen einem Längskantenpaar (eine sogenannte H-förmige Kante) angeordnet ist, anhand des Kantenbilds in Schritt 207. Ist eine H-förmige Kante in Schritt 208 vorhanden (ja), so fährt die Routine mit Schritt 209 fort. Ist keine H-förmige Kante in Schritt 208 vorhanden (nein), so fährt die Routine mit einem Schritt 210 fort. In Schritt 209 berechnet die Hindernis-Erfassungsvorrichtung 5 eine Breite Iw (Einheit ist Meter) eines durch das Bild erfassten Objekts gemäß der folgenden Gleichung (13) auf Grundlage eines Intervalls des Längskantenpaares (einer linksseitigen Längskante und einer rechtsseitigen Längskante der H-förmigen Kante) und des Abstands des mittels Laserradar erfassten Objekts. Anschließend fährt die Routine mit einem Schritt 217 fort. Iw = EdgeWidth × Py_zo[slsct]/focusH (13)
  • In der Gleichung (13) bezeichnet EdgeWidth ein Pixelintervall des Längskantenpaares der H-förmigen Kante. Somit wird die Verbindung zwischen dem Längskantenpaar und der Radarposition derart gestaltet, dass die Monokularkamera den Abstand berechnen kann.
  • In Schritt 210 bleibt die Hindernis-Erfassungsvorrichtung 5 von dem IP_Tracking Flag = 0 (verloren gegangen) unverändert, und die Routine fährt mit Schritt 224 fort. In Schritt 211 bestimmt die Hindernis-Erfassungsvorrichtung 5 einen Status eines Bildverarbeitungsflags IP_State. Wird die aktuelle Bildnachführverarbeitung durch die Kantenerfassungsverarbeitung ausgeführt (das heißt IP_State = 1), so fährt die Routine mit einem Schritt 212 fort. Wird die Bildnachführverarbeitung durch einen Musterabgleich ausgeführt (das heißt IP_State = 0) (ja) in Schritt 211, so fährt die Routine mit einem Schritt 213 fort.
  • In Schritt 212 legt die Hindernis-Erfassungsvorrichtung 5 den Bereich fest, in welchem die Bildverarbeitung zu der aktuellen Abtastperiode ausgeführt wird, welcher gemäß den Gleichungen (14) bis (17) eher schmaler ist, da die Bildverarbeitung bei der vorherigen Abtastung mit hoher Genauigkeit durch die Kantenerfassung ausgeführt wurde. disp_obj_YA = yo + (focusV × CAN h2/iPy_z1) (14) disp_obj_YB = yo + (focusV × CAM h/iPy_z1) (15) disp_obj_XL = xo + (focusH/iPy_z1 × iPx_z1) – wide2 (16) disp_obj_XR = xo + (focusH/iPy_zl × iPx_z1) + wide2 (17)
  • In den Gleichungen (14) bis (17) stellen iPy_z1 und iPx_z1 die Längsposition [m] und die Seitenposition [m] des durch die Bildverarbeitung zu erfassenden Objekts bei dem vorherigen Abtastvorgang dar, und wide2 entspricht der Hälfte (pix) der Breite in dem Bildverarbeitungsbereich, bestimmt anhand der folgenden Gleichung (18). wide2 = iW_z1/2 + w_narrow (18)
  • In der Gleichung (18) bezeichnet iW_z1 einen Pixelwert der Objektbreite, erfasst durch die Bildverarbeitung zu der vorherigen Abtastperiode (ein Intervall des Längskantenpaares), und w_narrow bezeichnet einen Maximalwert der Position des Objekts, welcher bezüglich einer Abtastperiode variiert.
  • In Schritt 213 legt die Hindernis-Erfassungsvorrichtung 5 den Bereich, in welchem die Bildverarbeitung bei der aktuellen Abtastung ausgeführt wird, gemäß den folgenden Gleichungen (19) bis (22) eher breit fest, da die Bildverarbeitung zu der vorherigen Abtastperiode durch den Musterabgleich erfolgte. disp_obj_YA = yo + (focusV × CAM_h2/iPy_z1) (19) displ_obj_YB = yo + (focusV × CAM_h/iPy_z1) (20) displ_obj_XL = xo + (focusH/iPy_zl × iPx_z1) – wide3 (21) displ_obj_XR = xo + (focusH/iPy_z1) + wide3 (22)
  • In den Gleichungen (19) bis (22) bezeichnet wide3 die Hälfte (pix) der Breite in dem Bildverarbeitungsbereich, welcher gemäß der folgenden Gleichung (23) bestimmt wird. wide3 = iW_z1/2 + w_narrow + w_PM_err (23)
  • In der Gleichung (23) bezeichnet w_PM_err einen Wert eines angenommenen Wertes eines Positionsfehlers, wobei die Erfassungsgenauigkeit des Objekts gemäß dem Musterabgleich berücksichtigt wird und eine Pixelkonvertierung erfolgte.
  • In Schritt 214 berechnet die Hindernis-Erfassungsvorrichtung das Kantenbild mittels einer Sobelfilter-Berechnung für den Bildverarbeitungsbereich, festgelegt in Schritt 212 bzw. in Schritt 213. In Schritt 215 sammelt die Hindernis-Erfassungsvorrichtung 5 Kandidaten des Längskantenpaars anhand des Kantenbilds, festgelegt in Schritt 214. Ist irgendein Kandidat des Längskantenpaars vorhanden (ja), so fährt die Routine mit einem Schritt 216 fort. Ist kein Kandidat des Längskantenpaars in Schritt 215 vorhanden (nein), so fährt die Routine mit einem Schritt 219 fort.
  • Anschließend wählt in Schritt 216 die Hindernis-Erfassungsvorrichtung 5 ein Paar des Längskantenpaars an einer niedrigsten Position des Bildes aus, falls das Längskantenpaar mehrfach vorhanden ist, wobei das Sammeln in Schritt 215 erfolgt (in einem Fall, in welchem lediglich ein Längskantenpaar vorhanden ist, wird dieses Paar verwendet). Anschließend berechnet die Hindernis-Erfassungsvorrichtung 5 die Position bezüglich des erfassten Objekts gemäß den folgenden Gleichungen (24) und (25). iPy_zo = (focusV × Iw)/EdgeWidth (24) iPx_zo = (((SideEdge_P + SideEdge_L)/2) – xo) × iPy_zo/focusH (25)
  • In Gleichung (25) bezeichnet SideEdge_R eine Seitenposition der rechtsseitigen Längskante an dem Längskantenpaar, SideEdge_L bezeichnet eine Seitenposition der linksseitigen Längskante bei dem Längskantenpaar, und die folgende Beziehung ergibt sich als EdgeWidth = SideEdge_R – SideEdge_L.
  • In Schritt 217 speichert die Hindernis-Erfassungsvorrichtung 5 den Bildbereich basierend auf der Position des Längskantenpaars als Referenzmuster. In einem Schritt 218 setzt die Hindernis-Erfassungsvorrichtung das Bildnachführflag wie folgt; IP_Tracking = 1, und setzt das Bildverarbeitungsflag wie folgt: IP_State = 1, und die Routine fährt mit einem Schritt 224 fort.
  • In Schritt 219 hingegen führt die Hindernis-Erfassungsvorrichtung 5 den Musterabgleich aus unter Verwendung des letzten gespeicherten Referenzmusters für einen Bereich mit einer Größe gleich dem Bildverarbeitungsbereich bzw. größer als der Bildverarbeitungsbereich, festgelegt in Schritt 213 (dies entspricht der zweiten Technik). Die Größe des Bildverarbeitungsbereichs kann mit groß werdender Gierrate des Trägerfahrzeugs bzw. mit groß werdender Beschleunigung/Verzögerung des Trägerfahrzeugs (erfassbar mittels eines Längsschwerkraftsensors (Längs-G-Sensor) einer Karosserie des Trägerfahrzeugs) verbreitert werden.
  • In Schritt 208 geht die Hindernis-Erfassungsvorrichtung 5 zu einem Schritt 221 über, falls der Musterabgleich erfolgreich verlaufen ist. Wenn nicht erfolgreich verlaufen (nein), so fährt die Routine mit einem Schritt 223 fort. Der erfolgreiche Verlauf des Musterabgleichs besteht darin, dass ein Korrelationswert des Bildverarbeitungsbereichs bezüglich eines Referenztemplates größer ist als ein vorbestimmter Wert.
  • In Schritt 221 vollführt die Hindernis-Erfassungsvorrichtung 5 eine Ableitung einer Mittenkoordinate (Längsrichtung; TmplMat_Row und Seitenrichtung; TmplMat_Column) des Bereichs, an welchem der korrelierte Wert maximal wird durch den Musterabgleich in Schritt 220, und berechnet die Position bezüglich des erfassten Objekts gemäß den Gleichungen (26) und (27), wie nachfolgend beschrieben: iPy_zo = (focusV × CAM_h) (TemplMat_Row – yo) (26) iPx_zo = (TmplMat_Column – xo) × iPy_zo/focusH (27)
  • In Schritt 222 setzt die Hindernis-Erfassungsvorrichtung 5 das Bildnachführflag als IP_Tracking = 1 und setzt das Bildverarbeitungsflag auf Null als IP_State = 0 und die Routine fährt mit Schritt 224 fort. Hingegen vollführt in Schritt 223 die Hindernis-Erfassungsvorrichtung 5 ein Rücksetzen des Bildnachführflags IP_Tracking auf "0" (IP_Tracking = 0) und die Routine fährt mit Schritt 224 fort. In Schritt 224 aktualisiert die Hindernis-Erfassungsvorrichtung 5 den vergangenen Wert bezüglich der Position des Objekts, und im Anschluss daran ist die aktuelle Routine beendet.
  • Das heißt, die Hindernis-Erfassungsvorrichtung des ersten Ausführungsbeispiels ermöglicht das stabile Nachführen des gleichen Objekts durch die Bildverarbeitung mit der hohen Genauigkeit selbst dann, wenn das Radar das Objekt einfängt mittels Schalten einer Kombination zwischen der Kantenerfassung und dem Musterabgleich je nach Situation. Mittels einer Verschmelzung kann ein Hindernis-Erfassungssystem hohen Niveaus erzielt werden.
  • (Selektive Steuerbetätigung der Bildverarbeitungstechnik)
  • Wie in Zusammenfassung der Erfindung beschrieben, handelt es sich bei zuvor vorgeschlagenen Hindernis-Erfassungsvorrichtungen, offenbart in den japanischen Patentanmeldungs-Erstveröffentlichungen Nrn. 2002-117392 und Heisei 11-44533 bei einem Sensor des Systems, auf welchen verwiesen wird, stets um das Laserradar.
  • Genauer erfolgt während des Einfangens durch das Radar eine Wiederauffindung einer entsprechenden Beziehung zwischen der radarerfassten Position und einem ein vorangehendes Fahrzeug charakterisierenden Bereich, fotografiert auf dem Bild, und dem charakterisierenden Bereich, wiederhergestellt als Referenzmuster. Daher kann während des Radareinfangens (aufgrund der Tatsache, dass der Prozess in der Monokularkamera derart abläuft, dass lediglich die Vorbereitung bezüglich des im Radar verloren gegangenen Objekts erfolgt) die Position des vorangehenden Fahrzeugs durch die Bildverarbeitung nicht erfasst werden. Das heißt, dass eine genauere Positionserfassung durch die Bildverarbeitung während der Erfassung des Radars nicht erreicht werden kann. Ferner ist aufgrund der Tatsache, dass in einem kurzen (engen) Abstand (10 Meter oder weniger) „Objekt innerhalb des Radarwinkelsichtfelds ≒ Objekt, welches vor dem Trägerfahrzeug angeordnet ist," gilt, die Erfassungsgenauigkeit in der Lateralposition nicht wichtig. Daher wird ein Fehler in der Seitenposition des Radars nicht in Betracht gezogen. Dann wird die Seitenposition durch die Bildverarbeitung nicht genau erfasst. Jedoch ist in einem weiten (langen) Abstand (10 Meter oder länger) die Erfassungsgenauigkeit an der Seitenposition außerordentlich wichtig zum Erhalten einer Möglichkeit, dass das erfasste Objekt ein Hindernis für das Fahrzeug darstellt. Das heißt, selbst in dem Fall, dass der Seitenpositionsfehler des lasererfassten Objekts vorliegt, ist es erforderlich in der Lage zu sein, die Lateralposition des Objekts genau anhand der Bildverarbeitung zu erfassen und, ferner, das Objekt weiterhin nachzuführen mittels der Kamera, selbst während eines Einfangens durch das Radar. Es folgt eine Beschreibung von Problemfällen in bezug auf jede der oben beschriebenen zuvor vorgeschlagenen Objekterkennungsvorrichtungen.
  • p1)
  • Keine der zuvor vorgeschlagenen Hindernis-Erfassungsvorrichtungen berücksichtigt einen Effekt eines Abstandsmessfehlers (Entfernungsmessfehler) des Radars auf die Bildverarbeitung. Genauer tritt aufgrund der Tatsache, dass in bezug auf die erfasste Position des Radars der Fehler allgemein leicht in der Seitenrichtung (Fahrzeugbreitenrichtung) auftritt, die Möglichkeit ein, dass der Hintergrund in das Bezugsmuster integriert wird, falls das Bezugsmuster des vorangehenden Fahrzeugs vorbereitet wird anhand des Bildbereichs, welcher der radarerfassten Position entspricht. In diesem Fall besteht aufgrund der Tatsache, dass die Korrelation in bezug auf den Hintergrund, nicht auf das vorangehende Fahrzeug, am höchsten wird, die Möglichkeit, dass irrtümlicherweise der Hintergrund nachgeführt wird, zieht man in Betracht, dass der Hintergrund für das vorangehende Fahrzeug gehalten wird.
  • p2)
  • In einem Fall, in welchem das Objekt nach außen in bezug auf das Winkelsichtfeld des Radars bewegt wird, verbleibt ein letzter Zustand des Radars über eine lange Zeitspanne, bis das Objekt nach innen in bezug auf das Winkelsichtfeld rückgeführt wird. Da während dieser Zeitspanne das Referenzmuster nicht aktualisiert wird, ändert sich eine Betrachtungsweise des Objekts während der Fahrt des Trägerfahrzeugs infolge einer Veränderung einer Relativposition des Objekts bezüglich des Trägerfahrzeugs, einer Beleuchtungsänderung usw., so dass die Korrelation bezüglich des Referenzmusters gering wird und die Möglichkeit besteht, dass das vorangehende Fahrzeug nicht nachgeführt werden kann.
  • p3)
  • Während des Radareinfangens wird das Referenzmuster aktualisiert, so dass die Bildkoordinaten in Beziehung zu der radarerfassten Position stehen. Daher überragt in einem Fall, in welchem das Radar das Objekt erfasst, eine Positionsgenauigkeit des durch die Bildverarbeitung erfassen Objekts die Positionsgenauigkeit des durch das Radar erfassten Objekts nicht.
  • p4)
  • Selbst bei in bezug auf die Radarnachführung verloren gegangenem Objekt wird bei dem Musterabgleich der Bereich mit hohem Korrelationswert als neues Referenzmuster aktualisiert, so dass davon ausgegangen werden kann, dass eine Verbesserung der Nachführleistung des vorangehenden Fahrzeugs erfolgt. In diesem Fall besteht die Möglichkeit, dass ein geringer Betrag des Hintergrunds in das Referenzmuster bei Aktualisierung des Referenzmusters integriert wird. Anschließend wird dies wiederholt, so dass eine große Größe des Hintergrunds allmählich in das Referenzmuster integriert wird. Somit besteht die Möglichkeit, dass der Hintergrund irrtümlicherweise als das vorangehende Fahrzeug nachgeführt wird.
  • Bei dem ersten Ausführungsbeispiel hingegen wird
    • i) 1) in einem Fall, in welchem das Bildnachführflag (IP_Tracking) sich nicht unter Nachführung befindet (das heißt, das Objekt wird nicht eingefangen (bzw. erfasst)), in dem Flussdiagramm der 3A, 3B und 4, ein derartiger Fluss wie Schritt 201 → Schritt 202 → Schritt 203 → Schritt 204 Schritt 205 → Schritt 206 → Schritt 207 ausgeführt. Das heißt, in Schritt 206 nimmt die Hindernis-Erfassungsvorrichtung 5 den Kamerabildbereich entsprechend der Position des Objekts, welches durch das Trägerfahrzeug zu erkennen ist aus den erfassten Objekten durch das Radars, als erkennbaren Bereich an und erfasst (extrahiert) in Schritt 207 das Objekt durch die Kantenerfassung die Position des Objekts, welches genau erfasst werden kann, das heißt, die Technik des schwer zu integrierenden Hintergrunds). i) 2) In einem Fall, in welchem sich das Bildnachführflag unter Nachführung befindet (in einem Fall, in welchem das Objekt sich unter Nachführung befindet), in dem Flussdiagramm, dargestellt in 3A, 3B und 4, wird ein Fluss wie Schritt 201 → Schritt 202 → Schritt 203 → Schritt 204 → Schritt 211 Schritt 212 (bzw. Schritt 213) → Schritt 213 → Schritt 214 ausgeführt. Das heißt, in Schritt 212 (213) nimmt die Hindernis-Erfassungsvorrichtung 5 den Kamerabildbereich entsprechend der Position des Objekts, welches durch das Trägerfahrzeug aus den erfassten Objekten mittels des Radars zu erkennen ist, als erkennbaren Bereich an und erfasst (extrahiert) in Schritt 214 das Objekt durch die Kantenerfassung (die Position des Objekts, welche genau erfasst werden kann, das heißt, die Technik des schwer zu integrierenden Hintergrunds).
    • ii) In einem Fall, in welchem das Objekt mittels der Kantenerfassung erfasst wurde, wird ein Fluss wie Schritt 201 Schritt 202 → Schritt 203 → Schritt 204 → Schritt 211 Schritt 212 (213) → Schritt 213 → Schritt 214 → Schritt 215 Schritt 216 → Schritt 217 → Schritt 218 ausgeführt. Das heißt, in Schritt 217 speichert die Hindernis-Erfassungsvorrichtung 5 den erfassten Bereich als Referenzmuster. In Schritt 218 jedoch ist das Bildverarbeitungsflag die Kantenerfassung, und der Musterabgleich wird nicht ausgeführt.
    • iii) In einem Fall, in welchem das Objekt nicht durch die Kantenerfassung erfasst werden kann, erfolgt Schritt 201 → Schritt 203 → Schritt 204 → Schritt 211 → Schritt 212 (213) → Schritt 213 → Schritt 214 → Schritt 215 → Schritt 219 → Schritt 220. Das heißt, in Schritt 219 dient der Musterabgleich der Erfassung der Position des Objekt auf Grundlage der Korrelation zwischen dem zuletzt gespeicherten Referenzmuster und dem von der CCD-Kamera 3 eingegebenen Bild. Jedoch wird das Referenzmuster nicht aktualisiert.
  • Die oben beschriebenen Punkte i) → ii) → iii) → i) → ii) → werden wiederholt. Bei dem Musterabgleich an Punkt iii) ist die Rate des im Referenzmuster aufgenommenen Hintergrunds äußerst gering, so dass ein stabileres Nachführen ausgeführt werden kann und das Problem aus Punkt p1) gelöst werden kann.
  • In dem Fall von Punkt ii) wird ein Referenztemplate in dem Fall aktualisiert, in welchem die Position des Objekts korrekt erfasst werden konnte. Somit kann ein Fehler bei der Nachführung des vorangehenden Fahrzeugs infolge der Änderung der Betrachtungsweise des Objekts während der Fahrt des Fahrzeugs, das heißt, das Problem von p2), gelöst werden.
  • In einem Fall, in welchem die Erfassung des Objekts mittels der Kantenerfassung, beschrieben in i) 2), vollendet ist, kann das Objekt lediglich durch die Bildverarbeitung unabhängig von den Radarinformationen erfasst werden. Somit kann in einem Fall, in welchem das Radar und die Bildverarbeitung das gleiche Objekt einfangen, die Bildverarbeitung die Position (insbesondere die Position in der Seitenrichtung) des Objekts mit größerer Genauigkeit erfassen als das Radar, so dass das Problem aus Punkt p3) gelöst werden kann.
  • Die Erfassung des Objekts durch den Musterabgleich wird gemeinsam mit der Objekterfassung durch die Kantenerfassung ausgeführt und wird fortgeführt, bis die Erfassung des Objekts mittels der Kantenerfassung beendet ist, ohne das Referenzmuster zu aktualisieren. (iii) → i)-2) → (i) → (iii).
  • Somit kann das irrtümliche Nachführen in bezug auf den Hintergrund infolge der allmählichen Integration des Hintergrunds in das Referenzmuster, das heißt, das Problem p4), gelöst werden. Es folgt eine Beschreibung der Vorteile, welche die Hindernis-Erfassungsvorrichtung liefert.
  • Lediglich in dem Fall, in welchem die Objekterfassung durch die Kantenerfassung versagte und die Objekterfassung durch den Musterabgleich ausgeführt wird, wird eine Kompatibilität zwischen der Verbesserung der Positionsgenauigkeit der Objekterfassung und einer Stabilität bei der Objektnachführung (Verfolgung) möglich. Da in einem Fall, in welchem die Kantenerfassung eine Erfassung des Objekts ermöglicht, das Referenzmuster, welches bei dem Musterabgleich verwendet wird, aktualisiert wird, kann das Versagen bei der Nachführung des vorangehenden Fahrzeugs infolge der Veränderung bei der Betrachtung während der Fahrzeugfahrt sowie die irrtümliche Nachführung zum Hintergrund infolge der graduellen Integration des Hintergrunds in das Referenzmuster gelöst werden. Ferner kann aufgrund der Tatsache, dass das Referenzmuster aktualisiert wird, der Musterabgleich jedoch nicht ausgeführt wird, eine Hochgeschwindigkeits-Bildverarbeitung erzielt werden.
  • In einem Fall, in welchem das Objekt durch den Musterabgleich eingefangen wird, wird die Objekterfassung durch die Kantenerfassung gemeinsam mit dem Musterabgleich angewandt, und die Objekterfassung wird durch den Musterabgleich fortgeführt, ohne das Referenzmuster zu aktualisieren, bis die Objekterfassung durch die Kantenerfassung erfolgreich verlaufen ist. Somit kann die irrtümliche Nachführung zum Hintergrund infolge einer fehlenden Aktualisierung des Musters und infolge der graduellen Integration des Hintergrunds in das Referenzmuster verhindert werden. Nach einem Ausführen der Objektnachführung durch den Musterabgleich wird ein Suchbereich des Objekts bei der Objekterfassung durch die Kantenerfassung über einen breiteren Bereich gesucht als bei einem gewöhnlichen Fall (wobei das Objekt kontinuierlich gemäß einer Objekterfassung durch die Kantenerfassung erfasst wird). Der Musterabgleich wird ausgeführt, nachdem die Objekterfassung durch die Kantenerfassung versagte. Somit besteht, selbst wenn versucht wird, das Objekt von dem Bereich der gleichen Größe zu einem Zeitpunkt zu erfassen, zu welchem die Objekterfassung durch die Kantenerfassung kontinuierlich erfolgreich verlaufen ist, die Möglichkeit, dass das Objekt aus dem Suchbereich herausgedrängt wird. Auf diese Weise wird, selbst wenn die Objekterfassung durch die Kantenerfassung versagte, der Suchbereich erweitert, so dass das erkennbare Objekt innerhalb des Suchbereichs liegt. Somit ist ein Extrahieren des Objekts durch die Kantenextraktion einfach. Während einer kontinuierlichen Erfassung des Objekts durch die Kantenerfassung wird die niedrigst positionierte Kenngröße ausgewählt, falls die zu extrahierende Kenngröße mehrfach vorhanden ist. Dies verhindert die irrtümliche Erfassung beispielsweise in einem Fall, in welchem dieselbe Kenngröße aus dem Hintergrund gebildet wird. Ferner kann, als weiteres Beispiel, in einem Fall, in welchem ein weiteres vorangehendes Fahrzeug, welches vor dem vorangehenden Fahrzeug fährt, eine größere Größe aufweist als das vorangehende Fahrzeug, ein Einfangen des anderen vorangehenden Fahrzeugs infolge eines deutlicheren Auftretens der Kenngröße als beim vorangehenden Fahrzeug anstelle des Einfangens des vorangehenden Fahrzeugs verhindert werden.
  • (Zweites Ausführungsbeispiel)
  • Es folgt eine Beschreibung eines zweiten bevorzugten Ausführungsbeispiels der erfindungsgemäßen Objekterkennungsvorrichtung. Bei dem ersten Ausführungsbeispiel besteht ein Grundkonzept darin, dass eine hochgenaue und stabile Nachführung durch die Bildverarbeitung während der Objekterfassung durch das Radar ausgeführt wird. Bei dem zweiten Ausführungsbeispiel jedoch ist die Bildverarbeitung dahingehend verbessert, dass diese ferner ein praktisches Bildverarbeitungssystem bildet. Es sei darauf hingewiesen, dass aufgrund der Tatsache, dass der Aufbau des zweiten Ausführungsbeispiels allgemein der gleiche ist wie derjenige, welcher in 2 dargestellt ist, auf eine genaue Beschreibung hierin verzichtet wird. Es folgt eine Beschreibung der Wirkungsweise des zweiten Ausführungsbeispiels.
  • (Selektiver Steuerungsvorgang der Bildverarbeitungstechnik)
  • 7A, 7B, 8 und 9 sind gemeinsam ein Flussdiagramm, welches den Fluss des selektiven Nachführobjekt- Steuerungsvorgangs darstellt. Es sei darauf hingewiesen, dass die gleichen Schrittnummern wie bei dem ersten Ausführungsbeispiel, dargestellt in 3A, 3B und 4, dieselben Inhalte aufweisen, und auf eine genaue Beschreibung davon wird hierin verzichtet.
  • In Schritt 301 liest die Hindernis-Erfassungsvorrichtung 5 ein Flag Rstp[i], welches aussagt, ob es sich bei dem radarerfassten Objekt um ein gestopptes (stationäres) Objekt handelt, zusätzlich zu den Inhalten aus Schritt 201, beschrieben bei dem ersten Ausführungsbeispiel. In Schritt 311, dargestellt in 7B, bestimmt die Hindernis-Erfassungsvorrichtung 5, ob es sich bei dem durch die Bildverarbeitung nachgeführten (verfolgten) Objekt um ein gestopptes Objekt handelt. Handelt es sich um das gestoppte Objekt (ja) in Schritt 311, so fährt die Routine mit einem Schritt 312 fort. Handelt es sich nicht um das gestoppte Objekt (nein) in Schritt 311, so fährt die Routine mit einem Schritt 313 fort.
  • In Schritt 312 berechnet die Hindernis-Erfassungsvorrichtung 5 eine Korrekturgröße zwischen einer Abtastperiode, bewirkt durch eine Trägerfahrzeugbewegung, aus den folgenden Gleichungen (28) und (29). θyaw = Yr × Ts (28) CompLat = θyaw × (Cpix/Cangle) (29)
  • In den Gleichungen (28) und (29) bezeichnet Yr einen Ausgangswert einer Gierraten-Erfassungsvorrichtung (Gierratensensor) 7B (im Uhrzeigersinn = positiv), angebracht im Trägerfahrzeug, Ts bezeichnet die Abtastperiode beim zweiten Ausführungsbeispiel von 33 Millisekunden, Cpix bezeichnet die Anzahl horizontaler effektiver Pixel der CCD-Kamera 3, und Cangle bezeichnet ein horizontales Winkelsichtfeld der CCD-Kamera 3. Bei dem zweiten Ausführungsbeispiel wird lediglich ein Gierwinkel korrigiert. Jedoch kann auf gleiche Weise ein Abstandswinkel korrigiert werden. In Schritt 313 setzt die Hindernis-Erfassungsvorrichtung 5 die Korrekturgröße gemäß der folgenden Gleichung (30) auf Null zurück. CompLat = 0 (30)
  • In Schritt 315 ändert auf die gleiche Weise wie in Schritt 212 die Hindernis-Erfassungsvorrichtung 5 disp_obj_XL und disp_obj_XR, beschrieben in den Gleichungen (16) und (17) auf die folgenden Gleichungen (31) und (32). disp_obj_XL = xo + (focusH/iPy_z1 × iPx_z1) – wide2 – CompLat (31) disp_obj_XR = xo + (focusH/iPy_z1 × iPx_z1) + wide2 - CompLat (32)
  • In Schritt 316 ändert die Hindernis-Erfassungsvorrichtung 5 disp_obj_XL und disp_obj_XR, beschrieben in den Gleichungen (21) und (22) auf die folgenden Gleichungen (31) und (32). disp_obj_XL = xo + (focusH/iPy_z1 × iPx_z1) – wide3 - CompLat (33) disp_obj_XR = xo + (focusH/iPy_z1 × iPx_z1) + wide3 - CompLat (34)
  • Da es sich bei den Schritten 317, 318 und 319 um die gleichen Inhalte handelt wie bei den Schritten, 214, 215 und 216, welche in dem ersten Ausführungsbeispiel beschrieben wurden, wird auf eine genaue Beschreibung davon hierin verzichtet.
  • In Schritt 320 führt die Hindernis-Erfassungsvorrichtung 5 denselben Vorgang wie in Schritt 217, beschrieben bei dem ersten Ausführungsbeispiel, in einem Fall aus, in welchem EdgeWidth kleiner ist als ein vorbestimmter Wert, und speichert das Referenzmuster derart, dass das Referenzmuster eine vorbestimmte Größe in Vertikalrichtung und in Horizontalrichtung ausgehend von einer Mittenkoordinate (SideEdge_R + SideEdge_L)/2 des Kantenpaars in einem Fall, in welchem EdgeWidth größer ist als der vorbestimmte Wert, nicht überragt. Es sei darauf hingewiesen, dass, obwohl das hierin beschriebene Referenzmuster auf ein Quadrat ausgehend von der Mitte davon erweitert wird, das Referenzmuster eine derartige Form aufweisen kann, dass eine Länge in der Längsrichtung länger ist als eine Länge in der Seitenrichtung bzw. umgekehrt gemäß einer Form des erfassten Objekts.
  • In Schritt 321 werden die gleichen Inhalte des Schritts 218 beim ersten Ausführungsbeispiel ausgeführt. Bei dem ersten Ausführungsbeispiel jedoch wird nach Setzen verschiedener Flags die Aktualisierung des vergangenen Werts ausgeführt, und die aktuelle Routine ist beendet. Bei dem zweiten Ausführungsbeispiel jedoch geht nach Schritt 321 die Routine zu Schritt 327 über. In Schritt 325 werden dieselben Inhalte des Schritts 222 beim ersten Ausführungsbeispiel ausgeführt. Beim ersten Ausführungsbeispiel jedoch wird nach Setzen der verschiedenen Flags die Aktualisierung der vergangenen Werte ausgeführt, und die aktuelle Routine ist beendet. Bei dem zweiten Ausführungsbeispiel hingegen geht nach Schritt 325 die Routine zu Schritt 327 über. In Schritt 327 berechnet die Hindernis-Erfassungsvorrichtung 5 über eine Zeitdifferentiation bezüglich der Position des Bildnachführobjekts eine Bewegung des Objekts = einem Relativgeschwindigkeitsvektor des sich bewegenden Objekts bezüglich des Trägerfahrzeugs (eine Seitenrichtungs-Relativgeschwindigkeit: i_rVx_zo, Längsrichtungs-Relativgeschwindigkeit: i_rVy_zo) gemäß einer Übertragungsfunktion, ausgedrückt in der folgenden Gleichung (35). G(z) = (cZ2 – c) / (Z2 – aZ + b) (35)
  • In Gleichung (35) bezeichnet Z einen Vorwärtsoperator, Koeffizienten a, b und c bezeichnen positive Zahlen, wobei es sich um diskrete Werte handelt, beispielsweise durch die Abtastperiode von 33 Millisekunden zum Liefern einer gewünschten Pseudodifferentiationscharakteristik.
  • In Schritt 328 bestimmt die Hindernis-Erfassungsvorrichtung 5, ob es sich bei dem Nachführobjekt durch die Bildverarbeitung um das gestoppte Objekt handelt gemäß der folgenden Gleichung (36), wobei das Ergebnis daraus eingefügt wird in ein Bildnachführobjekt-Stoppobjektflag Istp. if(abs(i_rVx_zo) < Th_rVx_stp und abs(i_rVy_zo_Vsp) < Th_rVy_stp) Istp = 1 sonst Isp = 0 (36)
  • In dieser Gleichung bedeutet abs(A) eine Funktion zum Ausgeben eines Absolutwerts von A (A ist Kopfzeichen eines Arguments), wenn (Ausdruck) Statement1 sonst Statement2 eine Funktion ist zum Ausführen von Statement1, wenn der Ausdruck erfüllt ist, und zum Ausführen von Statement2, wenn der Ausdruck nicht erfüllt ist. Ferner bezeichnet Vsp die Fahrzeuggeschwindigkeit des Trägerfahrzeugs, und Th_rVx_stp und Th_rVy_stp bezeichnen Schwellenwerte, bestimmt gemäß Koeffizienten a, b, c der Gleichung (35), dem Winkelsichtfeld und Pixeln der CCD-Kamera 3. Ferner, unverzüglich nach der Objekterfassung (nach der anfänglichen Extraktion) durch die Bildverarbeitung, Istp = Rstp[slct].
  • In Schritt 328 bestimmt in gleicher Weise wie in Schritt 314 die Hindernis-Erfassungsvorrichtung 5, ob gemäß einem Status des Bildverarbeitungsflags IP_State die Bildnachführverarbeitung durch den Kantenerfassungsvorgang ausgeführt wird. Wenn IP_State = 1 (ja) in Schritt 328, so geht die Routine zu Schritt 331 über. Falls IP_State = 0 (nein) in Schritt 328, so geht die Routine zu einem Schritt 329 über. In Schritt 329 bestimmt die Hindernis-Erfassungsvorrichtung 5, ob eine Bewegung (Verschiebung) des Bildnachführobjekts (das Objekt, welches durch die Bildverarbeitung nachgeführt wird) bis zu einem derartigen abrupt ist, dass entweder eine der folgenden Gleichungen (37) und (38) oder beide der folgenden Gleichungen (37) und (38) erfüllt sind. abs(i_rVx_zo – i_rVx_z1) > Th_rVx_abn (37) abs(i_rVy_zo – i_rVy_z1) > Th_rVy_abn (38)
  • In den Gleichungen (37) und (38) bezeichnen Th_rVx_abn und Th_rVy_abn Schwellenwerte, an welchen die Bewegung des Objekts bei einem Zeitintervall zwischen einer Abtastperiode als Bewegungsänderung (Relativgeschwindigkeit) zulässig ist. Diese Schwellenwerte können dahingehend präziser sein, dass diese Schwellenwerte größer werden gemäß der Gierrate des Trägerfahrzeugs sowie gemäß einer Größe der Fahrzeugbeschleunigung/Verzögerung. Ist die Bewegung des Bildverarbeitungsobjekts abrupt (ja) in Schritt 329, so fährt die Routine mit Schritt 330 fort. Ist diese nicht abrupt (nein) in Schritt 329, so fährt die Routine mit Schritt 331 fort. In_Schritt 330 wird das Bildnachführflag IP_Tracking auf Null rückgesetzt (IP_Tracking = 0) und die Routine fährt mit Schritt 331 fort. Unter Bezugnahme auf 8 führt in Schritt 331 die Hindernis-Erfassungsvorrichtung 5 nicht nur dieselben Inhalte des Schritts 224, beschrieben beim ersten Ausführungsbeispiel, (Aktualisieren des vergangenen Werts) aus, sondern ferner die Ausgabe der Bildverarbeitungssituation an eine spätere Stufe in Form der folgenden Gleichung (39). Bildverarbeitungssituation, auszugeben an die spätere Stufe = IP_Tracking × (IP_State + 1) (39)
  • Als Ausgabeform der Gleichung (29) wird 0 an die spätere Stufe in einem Fall ausgegeben, in welchem die Bildnachführung nicht ausgeführt werden kann, 1 wird an die spätere Stufe in einem Fall ausgegeben, in welchem die Bildnachführung ausgeführt werden kann durch den Musterabgleich, und 2 wird an die spätere Stufe in einem Fall ausgegeben, in welchem die Bildnachführung durch die Kantenerfassung ausgeführt werden kann.
  • Das heißt, bei dem zweiten Ausführungsbeispiel kann ein derartiges System aufgebaut werden, welches nachfolgend beschrieben wird. Das System kann aufgebaut sein aus einer Musterabgleich-Verstärkungsfunktion einschließlich der Funktion (Schritt 330) zum Verhindern der irrtümlichen Nachführung zum Hintergrund, der Funktion (Schritt 320) zum Verhindern einer Verringerung der Verarbeitungsgeschwindigkeit durch Begrenzen einer Größe des Referenztemplates bezüglich eines Dicht-Abstands-Objekts mit einem großen Bereich auf dem Bild, einer Trägerfahrzeugbewegungs-Korrekturfunktion (Schritt 312) zum Verhindern eines ungünstigen Einflusses auf die Korrektur durch Begrenzen der Korrektur eines Bildverarbeitungsbereichs infolge der Bewegung des Trägerfahrzeugs lediglich bezüglich des gestoppten Objekts, dessen Bewegung auf dem Bildschirm groß wird, und einer Funktion (Schritt 331) zum Ausgeben der Bildverarbeitungssituation an die spätere Stufe.
  • Es folgt eine Beschreibung der Vorteile der Hindernis-Erfassungsvorrichtung beim zweiten Ausführungsbeispiel.
  • In einem Fall, in welchem die Erfassung des Objekts durch die Kantenerfassung möglich ist, ist die Pixelgröße des zu aktualisierenden Referenzmusters begrenzt gemäß dem Annäherungsabstand zwischen dem Fahrzeug und dem Objekt. Somit wird, ohne Integration des Hintergrunds in das Referenzmuster, die Größe des Bereichs, in welchem das Referenzmuster gespeichert ist, verengt auf einen Teil des erfassten Objekts, bzw. die Pixelgröße des erfassten Objekts wird neu festgelegt auf eine vorbestimmte Pixelgröße. (Beispielsweise werden, selbst wenn die Größe des durch die Kantenerfassung erfassten Objekts 20 Pixel in der Längsrichtung × 20 Pixel in der Seitenrichtung beträgt, jedes Pixel in der Längsrichtung und jedes Pixel in der Seitenrichtung jeweils weggelassen (ausgedünnt), so dass eine Speicherung (bzw. Aufzeichnung) als Referenzmuster in einem Fall erfolgt, in welchem eine Begrenzung in bezug auf die Größe der Längsrichtung von 10 Pixeln × der Seitenrichtung von 10 Pixeln besteht. Zu diesem Zeitpunkt wird gleichzeitig eine Vergrößerung der Ausdünnung gespeichert. Daher wird, wenn anschließend der Musterabgleich erfolgt, das Referenztemplate erneut auf 20 × 20 Pixel gebracht. Es versteht sich von selbst, dass eine Helligkeitsinformation lediglich 10 × 10 Pixel beträgt. Eine Korrelationsberechnung wird für einen Teil mit der Information ausgeführt.) Dies ermöglicht ein Unterdrücken der Verarbeitungszeit, welche bei einem Musterabgleich erforderlich ist, auf eine vorbestimmte Zeit oder kürzer.
  • In einem Fall, in welchem die Erfassung des Objekts durch den Musterabgleich ausgeführt wird und eine Zeitvariation der erfassten Position gleich einer vorbestimmten Größe oder größer ist, wird das Bildnachführflag auf Null rückgesetzt und die Objekterfassung zwangsweise gestoppt. Somit kann, falls eine irrtümliche Nachführung des Hintergrunds, wie beispielsweise einer Straßenoberfläche, ausgeführt wird, diese fehlerhafte Nachführung in extrem kurzer Zeit gestoppt werden.
  • Bei Festlegen des Bildverarbeitungsbereichs wird der Bereich, in welchem die Bildverarbeitung ausgeführt wird, lediglich in einem Fall, in welchem es sich bei dem erkennbaren Objekt um das gestoppte Objekt handelt, gemäß der Bewegung des Trägerfahrzeugs korrigiert. Folglich wird der ungünstige Einfluss eines Korrigierens des Bildverarbeitungsbereichs gemäß der Bewegung des Trägerfahrzeugs eliminiert, und der Effekt der Korrektur kann positiv erreicht werden. Der ungünstige Einfluss der Korrektur des Bildverarbeitungsbereichs gemäß der Bewegung des Trägerfahrzeugs wird nachfolgend beschrieben. In einem Fall beispielsweise, in welchem eine Lenkvariable (Größe) des Trägerfahrzeugs (eine Gierwinkelkorrekturrate (Größe)) größer ist als eine vorbestimmte Variable (Größe), ist ein Fall anzunehmen, in welchem der Bildverarbeitungsbereich auf Basis einer Gierwinkelveränderung korrigiert wird. Es ist ein derartiger Fall vorstellbar, dass das vorangehende Fahrzeug zum selben Zeitpunkt die Fahrbahn wechselt, zu welchem das Trägerfahrzeug die Fahrbahn wechselt, zum selben Zeitpunkt, zu welchem das Trägerfahrzeug von einer linksseitigen Fahrbahn auf eine rechtsseitige Fahrbahn wechselt. In diesem Fall wird der Bildverarbeitungsbereich derart korrigiert, dass dieser nach links (relativ) in bezug auf das Bild abweicht, zusammen mit dem rechtsseitigen Fahrbahnwechsel des Trägerfahrzeugs. Da sich jedoch das vorangehende Fahrzeug in Richtung der rechten Seite bewegt, tritt das vorangehende Fahrzeug nicht in den Bildverarbeitungsbereich ein, welcher dahingehend korrigiert wurde, dass dieser in Richtung der linken Seite abweicht. Folglich kann das vorangehende Fahrzeug nicht erfasst werden (ohne Korrektur tritt kein Problem auf). Anschließend wird die Korrektur lediglich dann ausgeführt, wenn bestimmt wird, dass es sich bei dem vorangehenden Fahrzeug um das gestoppte Fahrzeug handelt, eine positivere Verengung des Bildverarbeitungsbereichs erzielt werden kann.
  • Die Informationen der aktuellen Bildverarbeitungssituation werden unterscheidbar an die spätere Stufe gemäß Fällen ausgegeben, in welchen die Objektposition durch die Kantenerfassung erfasst werden kann, die Objektposition durch den Musterabgleich erfasst werden kann und die Objektposition durch keine der Techniken erfasst werden kann. Wie oben beschrieben, kann aufgrund der Tatsache, dass die Kantenerfassungs- und die Musterabgleichs-Technik jeweils Vor- und Nachteile aufweisen, beispielsweise in einem Fall, in welchem die Verarbeitung einer späteren Stufe geändert wird auf Grundlage der Informationen bezüglich der Genauigkeit der erfassten Positionsinformationen, die Genauigkeit der erfassten Positionsinformationen bestimmt werden, ohne eine neue Verarbeitung auszuführen.
  • (Drittes Ausführungsbeispiel)
  • 10A, 10B und 10C zeigen ein drittes bevorzugtes Ausführungsbeispiel der erfindungsgemäßen Hindernis-Erfassungsvorrichtung. Die weiteren Abschnitte des in 10A, 10B und 10C dargestellten Flussdiagramms entsprechen denjenigen, welche bei dem zweiten Ausführungsbeispiel unter Bezugnahme auf 7A, 7B und 8 beschrieben wurden. Das heißt, in Schritt 321', dargestellt in 10A, führt die Hindernis-Erfassungsvorrichtung 5 den gleichen Vorgang wie in Schritt 321, beschrieben bei dem zweiten Ausführungsbeispiel, aus, und führt neue Variablenbestimmungen aus, wie nachfolgend beschrieben. Das heißt, eine Musterabgleich-Fortführzeit: PM_Counter = 0 (Rücksetzen auf Null) und einen Musterabgleich-Startabstand: PM_start_obj_dist = iPy_zo (Rücksetzen auf die Position, welche bei der Kantenerfassung berechnet wurde). Anschließend führt in einem Schritt 325', dargestellt in 10B, die Hindernis-Erfassungsvorrichtung 5 den gleichen Vorgang wie in Schritt 325, beschrieben bei dem zweiten Ausführungsbeispiel, aus, und führt eine neue Variablenbestimmung aus, wie nachfolgend beschrieben. Musterabgleich-Fortführzeit: PM_Counter = PM_Counter + 1 (ein Inkrement des Zählwerts pro Abtastperiode). Anschließend geht in einem Schritt 329', dargestellt in 10C, falls alle drei nachfolgenden Bedingungen erfüllt sind, die Routine zu Schritt 330 über. Wenn nicht erfüllt (nein) in Schritt 329', geht die Routine zu Schritt 331 über. Die drei Bedingungen sind radar detected object ≠ image detected object, PM_Counter ≥ Th_UpDn1, und PM_start_obj_dist – iPy_zo ≥ Th_upDn2. Es sei darauf hingewiesen, dass Th_UpDn1 einen Wert einer Reaktionszeit eines Fahrzeugfahr-Steueraktuators einer späteren Stufe dividiert durch eine Bildverarbeitungsperiode (Abtastperiode) (beispielsweise in einem Fall, in welchem der Aktuator mit einer Reaktionszeit von 0,5 Sekunden [s] verwendet wird und die Bildverarbeitungsperiode 33 Millisekunden beträgt, Th_UpDn1 = 15) bezeichnet. In einem Fall, in welchem der Aktuator zum Ausführen der Kollisionsvermeidung selektiv bestimmt wird gemäß einer Fahrsituation (der Aktuator wird geändert) gemäß einer Umgebungsfahrsituation, wie beispielsweise ein Fall, bei welchem ein Lenkaktuator zum Lenken des Fahrzeugs zum Vermeiden der Kollision mit dem Objekt verwendet wird, und einem Fall, in welchem ein Bremsaktuator zum Bremsen des Fahrzeugs zum Vermeiden der Kollision mit dem Objekt verwendet wird, kann die Reaktionszeit gemäß dem verwendeten Aktuator geändert werden. Ferner bezeichnet Th_UpDn2 einen Schwellenwert zum Bestimmen einer irrtümlichen Nachführung zum Hintergrund anhand der Zeitdauer, über welche sich das Objekt dem Trägerfahrzeug nähert, und kann problemlos auf eine Länge festgelegt werden, welche gleich einer allgemein verfügbaren Fahrzeuggesamtlänge bzw. länger als diese ist. Streng kann Th_UpDn2 wie folgt festgelegt werden: Th_UpDn2 = max (Gesamtlänge eines allgemein verfügbaren Fahrzeugs [m], Reaktionszeit des verwendeten Aktuators [s] × Fahrzeuggeschwindigkeit des Trägerfahrzeugs [m/s]), wobei max (A, B) eine Funktion bezeichnet, welche entweder A oder B auswählt, je nachdem, welches kleiner ist. Ferner bezeichnet iPy_zo die Position des durch den aktuellen Musterabgleich erfassten Objekts. Es sei darauf hingewiesen, dass, alternativ zu dem oben beschriebenen Schritt 329', wenn entweder die Inhalte von Schritt 329, beschrieben bei dem zweiten Ausführungsbeispiel, erfüllt sind, oder wenn die Bedingungen aus Schritt 329' erfüllt sind, die Routine zu Schritt 330 übergehen kann, und, wenn keine der Bedingungen erfüllt ist (nein), die Routine zu Schritt 331, beschrieben in dem zweiten Ausführungsbeispiel, übergehen kann.
  • (Viertes Ausführungsbeispiel)
  • 11 zeigt einen Teil des Flussdiagramms in einem Fall eines vierten bevorzugten Ausführungsbeispiels der erfindungsgemäßen Hindernis-Erfassungsvorrichtung. Die anderen Teile des in 11 dargestellten Flussdiagramms sind allgemein die gleichen wie die in 7A, 7B, 8 und 9 dargestellten, beschrieben bei dem zweiten Ausführungsbeispiel. In Schritt 329'' bestimmt die Hindernis-Erfassungsvorrichtung 5, ob entweder die Ungleichheit aus (37') oder (38') erfüllt ist. Wenn erfüllt (ja) in Schritt 329'', so geht die Routine zu Schritt 330 über. Wenn nicht erfüllt (nein) in Schritt 329'', so geht die Routine zu Schritt 331 über. abs(iPx_zo – iPx_z1) > Th_Px_abn (37')wobei Th_Px_abn = abs(iPx_zo – est_iPx) und est_iPx = iPy_zosin(θyaw) + iPx_zocos(θyaw), und abs(iPy_zo – iPy_z1) > Th_Py_abn (38')wobei Th_Py_abn = Vsp × Ts.
  • Es sei darauf hingewiesen, dass θyaw eine Multiplikation der Gierrate des Trägerfahrzeugs mit der Abtastzeit von Ts bezeichnet, est_iPx einen geschätzten Wert in der Seitenrichtungsposition in einem Fall bezeichnet, in welchem davon ausgegangen wird, dass die Gierrate, gelesen in der aktuellen Abtastperiode, bis zu der nachfolgenden Abtastperiode konstant ist, und Vsp bezeichnet die Fahrzeuggeschwindigkeit des Trägerfahrzeugs. Es sei ferner darauf hingewiesen, dass die Ungleichheit in Schritt 329'' lediglich die Ungleichheit aus (38') sein kann.
  • (Weitere Ausführungsbeispiele)
  • Wie oben beschrieben, wurde die Hindernis-Erfassungsvorrichtung bei jedem der Ausführungsbeispiele eins bis vier beschrieben. Jedoch ist der spezifische Aufbau der erfindungsgemäßen Hindernis-Erfassungsvorrichtung nicht auf jedes der Ausführungsbeispiele eins bis vier beschränkt. Verschiedene Änderungen und Abwandlungen können vorgenommen werden, ohne von Umfang und Wesen der vorliegenden Erfindung abzuweichen, welche in den beigefügten Ansprüchen definiert ist.
  • Beispielsweise wird bei jedem der Ausführungsbeispiele eins bis vier die Bildverarbeitung lediglich für ein Objekt ausgeführt. Jedoch kann in einem Fall, in welchem das Radar und die Bildverarbeitung zum redundanten Erfassen einer Vielzahl von Objekten verwendet werden, die gleiche Verarbeitung wiederholt werden, um die Erfassung der Objekte zu erreichen.
  • Bei jedem der Ausführungsbeispiele eins bis vier wird die Berechnung der Seitenposition iPx_zo des bilderfassten Objekts (Objekt, welches durch die Bildverarbeitung erfasst wurde) ausgeführt unter Verwendung von iPy_zo in den Gleichungen (24) und (25). Jedoch kann in diesem Alternativfall aufgrund der Tatsache, dass der berechnete Wert iPy_zo, welcher abgeleitet wird aus dem Bild, dessen Längspositionsgenauigkeit insbesondere bei einem weiten (langen) Abstand zwischen dem Trägerfahrzeug und dem eingefangenen Objekt verschlechtert ist, nicht verwendet wird, jedoch die Längsposition des Radars, dessen Genauigkeit selbst in dem Fall des weiten (langen) Abstands nicht verschlechtert ist, die Genauigkeit der Seitenposition in dem Bild verbessert werden.
  • Ferner ist die Verwendung des Radars eine Vorbedingung sowohl bei dem ersten als auch bei dem zweiten Ausführungsbeispiel. Jedoch kann das Radar in einem Fall nicht bzw. möglicherweise angewendet werden, in welchem die Position des Objekts direkt aus dem Bild erhalten wird durch ein Triangulationsverfahren unter Verwendung einer Stereokamera. In diesem Fall ist es bei einer Stereoverarbeitung erforderlich, einen derartigen Prozess hinzuzufügen, dass das Objekt entdeckt und der Abstand zum Objekt durch ein Stereobild bestimmt wird. Bei anderen Prozessen jedoch können die Inhalte sowohl des ersten als auch des zweiten Ausführungsbeispiels direkt angewendet werden.
  • Der Gesamtinhalt der japanischen Patentanmeldungen Nr. 2003-189616 (eingereicht in Japan am 1. Juli 2003) und Nr. 2004-165419 (eingereicht in Japan am 3. Juni 2004) sind hierin durch Verweis enthalten. Der Umfang der Erfindung ist definiert unter Bezugnahme auf die folgenden Ansprüche.

Claims (12)

  1. Hindernis-Erfassungsvorrichtung für ein Kraftfahrzeug, umfassend: einen Bildabrufabschnitt (101, 3, 4, 5, 202), welcher eine Situation eines Vorwärtserfassungsbereichs in Form eines Bildes abruft; einen Ausgabeabschnitt eines erkennbaren Objekts (102, 1, 2, 5, 203), welcher Positionsinformationen eines für das Fahrzeug erkennbaren Objekts ausgibt; und einen Bildverarbeitungsabschnitt (103, 4, 5, 3A, 3B 3B, 4, 7A, 7B, 8, 9, 10A, 10B, 10C, 11), welcher eine Bildverarbeitung für einen Bereich des Bildabrufabschnitts ausführt auf Grundlage einer Ausgabe des Ausgabeabschnitts des erkennbaren Objekts zum Erfassen des Objekts, wobei der Bildverarbeitungsabschnitt eine erste Technik, hauptsächlich zum Erfassen der Position des Objekts, sowie eine zweite Technik, hauptsächlich zum Nachführen des Objekts, umfasst, wobei die zweite Technik das Objekt erfasst, wenn die Objekterfassung mittels der ersten Technik nicht ermöglicht wird.
  2. Hindernis-Erfassungsvorrichtung für ein Kraftfahrzeug nach Anspruch 1, wobei die zweite Technik ein Musterabgleich ist, welcher eine Nachführung des Objekts ausführt anhand einer Korrelation zwischen einem zuvor gespeicherten Referenzmuster und einer Ausgabe des Bildabrufabschnitts, und wobei der Bildverarbeitungsabschnitt (103, 4, 5, 208, 217) das Referenzmuster aktualisiert, wenn die Objekterfassung mittels der ersten Technik erfolgreich verlaufen ist.
  3. Hindernis-Erfassungsvorrichtung für ein Kraftfahrzeug nach Anspruch 2, wobei der Bildverarbeitungsabschnitt die Bildverarbeitung in Verbindung mit der Verwendung der ersten Technik ausführt, wobei das Objekt durch die zweite Technik ohne Aktualisierung des Referenzmusters ausgeführt wird, bis die Objekterfassung durch die erste Technik erfolgreich verlaufen ist.
  4. Hindernis-Erfassungsvorrichtung für ein Kraftfahrzeug nach Anspruch 2 oder 3, wobei der Bildverarbeitungsabschnitt (103, 4, 5, 320) eine Größe des Referenzmusters, aktualisiert in Übereinstimmung mit einem Näherungsabstand zwischen dem Fahrzeug und dem Objekt, wenn die Objekterfassung mittels der ersten Technik möglich ist, begrenzt.
  5. Hindernis-Erfassungsvorrichtung für ein Kraftfahrzeug nach einem beliebigen der vorhergehenden Ansprüche 1 bis 4, wobei der Bildverarbeitungsabschnitt (103, 4, 5, 329, 330) die Objekterfassung mittels der zweiten Technik stoppt, wenn das Objekt mittels der zweiten Technik erfasst wird und eine Positionsveränderung der erfassten Position mittels der zweiten Technik gleich einem vorbestimmten Wert bzw. größer als ein vorbestimmter Wert ist.
  6. Hindernis-Erfassungsvorrichtung für eine Kraftfahrzeug nach einem beliebigen der vorhergehenden Ansprüche 1 bis 5, wobei der Bildverarbeitungsabschnitt (103, 4, 5, 213) einen Suchbereich des Objekts bei der Objekterfassung mittels der ersten Technik über einen breiteren Bereich festlegt als zu einem gewöhnlichen Zeitpunkt, zu welchem das Objekt kontinuierlich mittels der ersten Technik erfasst wird.
  7. Hindernis-Erfassungsvorrichtung für ein Kraftfahrzeug nach einem beliebigen der vorhergehenden Ansprüche 1 bis 6, wobei der Bildverarbeitungsabschnitt (103, 4, 5, 213) eine Kenngröße auswählt, welche an einer niedrigsten Position auf einem Bildschirm angeordnet ist, wenn die Objekterfassung mittels der ersten Technik kontinuierlich ausgeführt wird, und wenn zu extrahierende Kenngrößen mehrfach vorhanden sind.
  8. Hindernis-Erfassungsvorrichtung für ein Kraftfahrzeug nach einem beliebigen der vorhergehenden Ansprüche 1 bis 7, wobei der Bildverarbeitungsabschnitt (103, 4, 5, 311, 312) den Bereich, welcher einer Bildverarbeitung zu unterziehen ist, korrigiert gemäß einer Fahrzeugbewegung, wenn der Bereich auf Grundlage der Ausgabe des Ausgabebereichs eines erkennbaren Objekts einer Bildverarbeitung unterzogen wird und es sich bei dem erkennbaren Objekt um ein gestopptes Objekt handelt.
  9. Hindernis-Erfassungsvorrichtung für ein Kraftfahrzeug nach einem beliebigen der vorhergehenden Ansprüche 1 bis 8, wobei der Bildverarbeitungsabschnitt (103, 4, 5, 331) eine Information einer aktuellen Bildverarbeitungssituation ausgibt, welche verändert wird gemäß Fällen, in welchen die Objekterfassung mittels der ersten Technik möglich ist, in welchen die Objekterfassung mittels der zweiten Technik möglich ist und in welchen die Objekterfassung durch keine der beiden Techniken möglich ist.
  10. Hindernis-Erfassungsvorrichtung für ein Kraftfahrzeug nach einem beliebigen der vorhergehenden Ansprüche 1 bis 9, wobei der Bildverarbeitungsabschnitt (103, 4, 5, 329', 330) die Objekterfassung mittels der zweiten Technik stoppt, wenn das Objekt, ausgelesen von dem Ausgabeabschnitt des erkennbaren Objekts, von demjenigen abweicht, welches durch den Bildverarbeitungsabschnitt erfasst wurde, wenn das Objekt kontinuierlich durch die zweite Technik über eine vorbestimmte Zeitspanne oder länger erfasst wird, und wenn die erfasste Position des Objekts durch die zweite Technik sich dem Fahrzeug nähert.
  11. Hindernis-Erfassungsvorrichtung für ein Kraftfahrzeug nach einem beliebigen der vorhergehenden Ansprüche 1 bis 10, wobei der Bildverarbeitungsabschnitt (103, 4, 5, 329'', 330) die Objekterfassung mittels der zweiten Technik stoppt, wenn eine Veränderung der erfassten Position des Objekts mittels der zweiten Technik gleich einem Schwellenwert, berechnet auf Grundlage einer Fahrzeuggeschwindigkeit des Fahrzeugs, bzw. größer als dieser ist.
  12. Hindernis-Erfassungsverfahren für ein Kraftfahrzeug, umfassend: ein Abrufen (101, 3, 4, 5, 202) einer Situation eines Vorwärtserfassungsbereichs in Form eines Bildes; ein Ausgeben (102, 1, 2, 5, 203) einer Positionsinformation eines Objekts, welches für das Fahrzeug zu erkennen ist und ein Ausführen (103, 4, 5, 3A, 3B, 4, 7A, 7B, 8, 9, 10A, 10B, 10C, 11 10A, 10B, 10C, 11) einer Bildverarbeitung für einen Bereich des Bildabrufabschnitts auf Grundlage einer Ausgabe des Ausgabeabschnitts eines erkennbaren Objekts zum Erfassen des Objekts, wobei bei der Bildverarbeitung eine erste Technik hauptsächlich zum Erfassen der Position des Objekts und eine zweite Technik hauptsächlich zum Nachführen des Objekts beinhaltet sind, wobei die zweite Technik das Objekt erfasst, wenn die Objekterfassung mittels der ersten Technik nicht ermöglicht wird.
DE102004031437A 2003-07-01 2004-06-29 Hinderniserfassungseinrichtung und Hinderniserfassungsverfahren für ein Kraftfahrzeug Expired - Fee Related DE102004031437B4 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2003-189616 2003-07-01
JP2003189616 2003-07-01
JP2004-165419 2004-06-03
JP2004165419A JP4433887B2 (ja) 2003-07-01 2004-06-03 車両用外界認識装置

Publications (2)

Publication Number Publication Date
DE102004031437A1 true DE102004031437A1 (de) 2005-01-27
DE102004031437B4 DE102004031437B4 (de) 2008-06-19

Family

ID=33554502

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102004031437A Expired - Fee Related DE102004031437B4 (de) 2003-07-01 2004-06-29 Hinderniserfassungseinrichtung und Hinderniserfassungsverfahren für ein Kraftfahrzeug

Country Status (3)

Country Link
US (1) US7266454B2 (de)
JP (1) JP4433887B2 (de)
DE (1) DE102004031437B4 (de)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7642959B2 (en) * 2003-03-21 2010-01-05 Global Locate, Inc. Method and apparatus for processing satellite signals at a satellite positioning system receiver
JPWO2004102222A1 (ja) * 2003-05-13 2006-07-13 富士通株式会社 物体検出装置、物体検出方法、物体検出プログラム、距離センサ
JP3925488B2 (ja) * 2003-11-11 2007-06-06 日産自動車株式会社 車両用画像処理装置
US7974778B2 (en) * 2004-09-17 2011-07-05 Honda Motor Co., Ltd. Vehicular control object determination system and vehicular travel locus estimation system
US7248968B2 (en) * 2004-10-29 2007-07-24 Deere & Company Obstacle detection using stereo vision
JPWO2006057070A1 (ja) * 2004-11-29 2008-06-05 株式会社日立製作所 自動車の制御装置
US7639841B2 (en) * 2004-12-20 2009-12-29 Siemens Corporation System and method for on-road detection of a vehicle using knowledge fusion
US7706978B2 (en) * 2005-09-02 2010-04-27 Delphi Technologies, Inc. Method for estimating unknown parameters for a vehicle object detection system
US8355842B2 (en) * 2005-09-15 2013-01-15 Continental Teves Ag & Co. Ohg Method and device for steering a motor vehicle
JP2008151659A (ja) * 2006-12-18 2008-07-03 Fuji Heavy Ind Ltd 物体検出装置
US7979199B2 (en) * 2007-01-10 2011-07-12 Honeywell International Inc. Method and system to automatically generate a clearance request to deviate from a flight plan
US8855848B2 (en) * 2007-06-05 2014-10-07 GM Global Technology Operations LLC Radar, lidar and camera enhanced methods for vehicle dynamics estimation
US8473171B2 (en) * 2008-10-09 2013-06-25 GM Global Technology Operations LLC Apparatus and method for optimizing a vehicle collision preparation response
DE102009012758A1 (de) * 2009-03-12 2010-09-16 Hella Kgaa Hueck & Co. Vorrichtung und Verfahren zur Detektion mindestens eines Objektes
JP4858574B2 (ja) * 2009-05-19 2012-01-18 トヨタ自動車株式会社 物体検出装置
DE102009052560A1 (de) * 2009-11-10 2011-05-12 Volkswagen Ag Verfahren und Vorrichtung zur Bestimmung der 3D-Position von Objekten im Umfeld eines Kraftfahrzeugs
US9064293B2 (en) 2010-06-15 2015-06-23 Mitsubishi Electric Corporation Vehicle surroundings monitoring device
JP5395266B2 (ja) * 2010-06-18 2014-01-22 日立建機株式会社 作業機械の周囲監視装置
EP2642463A4 (de) * 2010-11-16 2014-06-25 Honda Motor Co Ltd Umgebungsüberwachungsvorrichtung für fahrzeuge
CN103370250A (zh) * 2011-02-23 2013-10-23 丰田自动车株式会社 驾驶辅助装置、驾驶辅助方法以及驾驶辅助程序
WO2012117528A1 (ja) * 2011-03-01 2012-09-07 トヨタ自動車株式会社 状態推定装置
US9429650B2 (en) * 2012-08-01 2016-08-30 Gm Global Technology Operations Fusion of obstacle detection using radar and camera
US20140205139A1 (en) * 2013-01-18 2014-07-24 Caterpillar Inc. Object recognition system implementing image data transformation
JP6264909B2 (ja) * 2014-01-31 2018-01-24 株式会社デンソー 前照灯制御装置及び前照灯
JP6200848B2 (ja) * 2014-04-10 2017-09-20 本田技研工業株式会社 物体認識装置
JP6290737B2 (ja) * 2014-07-11 2018-03-07 株式会社デンソー 車両制御装置
US10026324B2 (en) 2014-11-04 2018-07-17 Honeywell International Inc. Systems and methods for enhanced adoptive validation of ATC clearance requests
US10133947B2 (en) 2015-01-16 2018-11-20 Qualcomm Incorporated Object detection using location data and scale space representations of image data
US9903945B2 (en) * 2015-02-04 2018-02-27 GM Global Technology Operations LLC Vehicle motion estimation enhancement with radar data
US9766336B2 (en) * 2015-03-16 2017-09-19 Here Global B.V. Vehicle obstruction detection
US9505413B2 (en) * 2015-03-20 2016-11-29 Harman International Industries, Incorporated Systems and methods for prioritized driver alerts
JP6531689B2 (ja) 2016-03-22 2019-06-19 株式会社デンソー 移動軌跡検出装置、移動物体検出装置、移動軌跡検出方法
JP6805992B2 (ja) * 2017-07-18 2020-12-23 トヨタ自動車株式会社 周辺監視装置
CN111583716B (zh) * 2020-04-29 2022-06-14 浙江吉利汽车研究院有限公司 一种车辆避障方法、装置、电子设备及存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3562250B2 (ja) 1997-07-29 2004-09-08 日産自動車株式会社 先行車両検出装置
US6687386B1 (en) * 1999-06-15 2004-02-03 Hitachi Denshi Kabushiki Kaisha Object tracking method and object tracking apparatus
JP3775200B2 (ja) 2000-10-06 2006-05-17 日産自動車株式会社 車間距離推定装置
JP3759429B2 (ja) * 2001-05-23 2006-03-22 株式会社東芝 障害物検出装置及びその方法
JP2003121547A (ja) * 2001-10-18 2003-04-23 Fuji Heavy Ind Ltd 車外監視装置

Also Published As

Publication number Publication date
DE102004031437B4 (de) 2008-06-19
US20050004762A1 (en) 2005-01-06
US7266454B2 (en) 2007-09-04
JP4433887B2 (ja) 2010-03-17
JP2005038407A (ja) 2005-02-10

Similar Documents

Publication Publication Date Title
DE102004031437B4 (de) Hinderniserfassungseinrichtung und Hinderniserfassungsverfahren für ein Kraftfahrzeug
DE102004031381B4 (de) Vorrichtung und Verfahren zur Erfassung von Hindernissen für Kraftfahrzeuge
DE102014101400B4 (de) Zielerkennungsvorrichtung
EP1634243B1 (de) Verfahren und vorrichtung zur objektortung für kraftfahrzeuge
DE102004035842B4 (de) Duales ungleichartiges erfassendes Objektdetektions- und Zielerfassungssystem
DE60213235T2 (de) Überwachungsvorrichtung für fahrzeuge
EP1531343B1 (de) Verfahren zur Verfolgung von Objekten
EP1418444B1 (de) Verfahren zur Bestimmung einer Eigenbewegung eines Fahrzeugs
DE102017116467A1 (de) Fahrzeugfahrtsteuerungsvorrichtung
DE112017003974B4 (de) Geschwindigkeitsregelungsvorrichtung
WO2015173092A1 (de) Verfahren und vorrichtung zur kalibrierung eines kamerasystems eines kraftfahrzeugs
DE102011117554A1 (de) Fahrumgebungserfassungsvorrichtung
DE102008003950A1 (de) Fahrunterstützungssystem für Fahrzeuge
DE112009005424T5 (de) Objektdetektionsvorrichtung u nd Objektdetektionsverfahren
DE112017005245T5 (de) Fahrzeugerkennungseinrichtung und Fahrzeugerkennungsverfahren
DE102017117593A1 (de) Fahrzeugfahrassistenzvorrichtung
DE102020110379A1 (de) Fahrassistenzsystem, elektronische vorrichtung und betriebsverfahren dafür
DE112017005976T5 (de) Fahrzeugsteuervorrichtung
DE102018123861A1 (de) Zielobjektschätzvorrichtung
WO2007017308A1 (de) Verfahren zum erzeugen von umwelthypothesen für fahrerassistenzfunktionen
DE102006039104A1 (de) Verfahren zur Entfernungsmessung von Objekten auf von Bilddaten eines Monokamerasystems
EP2736017A2 (de) Verfahren zur Ermittlung der Bewegung eines Kraftfahrzeugs
EP3655299B1 (de) Verfahren und vorrichtung zum ermitteln eines optischen flusses anhand einer von einer kamera eines fahrzeugs aufgenommenen bildsequenz
DE112019001307T5 (de) Fahrassistenz-Steuervorrichtung und -verfahren und Fahrassistenzsystem für ein Fahrzeug
WO2021170321A1 (de) Verfahren zum detektieren bewegter objekte in einer fahrzeugumgebung und kraftfahrzeug

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee