DE102015208782A1 - Objekterfassungsvorrichtung, Fahrunterstützungsvorrichtung, Objekterfassungsverfahren und Objekterfassungsprogramm - Google Patents

Objekterfassungsvorrichtung, Fahrunterstützungsvorrichtung, Objekterfassungsverfahren und Objekterfassungsprogramm Download PDF

Info

Publication number
DE102015208782A1
DE102015208782A1 DE102015208782.4A DE102015208782A DE102015208782A1 DE 102015208782 A1 DE102015208782 A1 DE 102015208782A1 DE 102015208782 A DE102015208782 A DE 102015208782A DE 102015208782 A1 DE102015208782 A1 DE 102015208782A1
Authority
DE
Germany
Prior art keywords
horizontal
detection
area
edge
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102015208782.4A
Other languages
English (en)
Inventor
Tadahiko Kanou
Yuichi Nakanishi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of DE102015208782A1 publication Critical patent/DE102015208782A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/102Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using 360 degree surveillance camera system
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Eine Objekterfassungsvorrichtung umfasst: eine bildgebende Einheit, die konfiguriert ist, eine Umgebung eines Fahrzeugs abzubilden; eine horizontale-Rand-Entnahmeeinheit, die konfiguriert ist, horizontale Ränder zu entnehmen, die charakteristische Linien von ungefähr horizontalen Richtungs-Komponenten in einem Suchbereich eines Bildes, das durch die bildgebende Einheit aufgenommen wurde, sind; und eine Erfassungsobjekt-Erkennungseinheit, die konfiguriert ist, ein Erfassungsobjekt innerhalb eines Erkennungsbereichs zu erkennen, der auf der Basis von einem spezifischen horizontalen Rand eingestellt ist, der, unter den horizontalen Rändern, die durch die horizontale-Rand-Entnahme-Einheit entnommen sind, eine vorbestimmte Voraussetzung erfüllt.

Description

  • HINTERGRUND
  • Feld der Erfindung
  • Die vorliegende Erfindung bezieht sich auf eine Objekterfassungsvorrichtung, eine Fahrunterstützungsvorrichtung, ein Objekterfassungsverfahren und ein Objekterfassungsprogramm.
  • Stand der Technik
  • Ein System ist bekannt, das ein vorderes Fahrzeug vor einem Fahrzeug erfasst und eine Kollisions-Vermeidungs-Steuerung/Kollisions-Vermeidungs-Regelung durch Ausführen einer Bildverarbeitung eines Bildes durchführt, das durch eine bildgebende Vorrichtung aufgenommen ist, die in dem Fahrzeug eingerichtet ist.
  • In diesem Zusammenhang ist eine Objekterkennungsvorrichtung bekannt, die in einem Fahrzeug eingerichtet ist, umfassend: eine Objektposition-Identifikationsvorrichtung, die die Position eines vorderen Fahrzeugs identifiziert; eine bildgebende Vorrichtung, die das zuvorliegende des Fahrzeugs abbildet; eine Verarbeitungsbereich-Einstellungsvorrichtung, die einen Verarbeitungsbereich auf einem Bild einstellt, das durch die bildgebende Vorrichtung erlangt wird, basierend auf der Position des identifizierten vorderen Fahrzeugs und einer vorbestimmten Grüße des vorderen Fahrzeugs, das erkannt werden soll; eine Randentnahmevorrichtung, die einen Rand von dem Verarbeitungsbereich entnimmt, basierend auf Helligkeitswerten der Bildpunkte, die in dem Verarbeitungsbereich enthalten sind; eine Randbestimmungsvorrichtung, die bestimmt, ob es das vordere Fahrzeug darstellt oder nicht; und eine Objekterfassungsvorrichtung, die die äußere Form des vorderen Fahrzeugs erkennt (es wird beispielsweise auf die japanische ungeprüfte Patentanmeldung, Erstveröffentlichung Nr. 2008-293504 Bezug genommen).
  • Jedoch erfasst diese konventionelle Technik ein Objekt durch eine begrenzte Charakteristik, nämlich einen Rand. Somit gibt es Fälle, in denen Objekte außer dem Objekt, das erfasst werden soll, wie zum Beispiel Strukturen und Verkehrszeichen, falsch erfasst werden. Darüber hinaus wird eine Bestimmung, ob es das Objekt ist, dass erfasst werden soll oder nicht, im Hinblick auf alle Ränder durchgeführt. Daher liegen Fälle vor, in denen die Verarbeitungszeit lang wurde. Andererseits ist eine Technik vorgeschlagen, in der zuvor eine Erfassungsobjektvorlage vorbereitet wird und das Objekt durch Vergleichen der jeweiligen Bildbereiche eines aufgenommen Bildes mit der Vorlage und Bestimmen des Grades eines Übereinstimmens zwischen den zwei erfasst wird. Jedoch wird auch in diesem Fall die Bearbeitungszeit lang.
  • Aspekte nach der vorliegenden Erfindung ziehen solche Umstände in Betracht, mit einem Ziel des Bereitstellens einer Objekterfassungsvorrichtung, einer Fahrunterstützungsvorrichtung, eines Objekterfassungsverfahrens und eines Objekterfassungsprogramms, das dazu fähig ist, die Erfassungsgenauigkeit zu verbessern, während die Bearbeitungszeit verkürzt wird.
  • Die vorliegende Erfindung nutzt die folgenden Aspekte, um das obige Problem zu lösen und das Ziel zu erreichen.
    • (1) Eine Objekterfassungsvorrichtung nach einem Aspekt der vorliegenden Erfindung umfasst: eine bildgebende Einheit, die konfiguriert ist, die Umgebung eines Fahrzeugs abzubilden; eine horizontale-Rand-Entnahmeeinheit, die konfiguriert ist, horizontale Ränder zu entnehmen, die charakteristische Linien von ungefähr horizontalen Richtungs-Komponenten in einem Suchbereich eines Bildes, das durch die bildgebende Einheit aufgenommen ist, sind; und eine Erfassungsobjekt-Erkennungseinheit, die konfiguriert ist, ein Erfassungsobjekt innerhalb eines Erkennungsbereichs zu erkennen, der auf der Basis von einem spezifischen horizontalen Rand eingestellt ist, der, unter den horizontalen Rändern, die durch die horizontale-Rand-Entnahme-Einheit entnommen sind, eine vorbestimmte Voraussetzung erfüllt.
    • (2) Als ein weiterer Aspekt der vorliegenden Erfindung, in der Objekterfassungsvorrichtung nach (1), kann die vorbestimmte Voraussetzung bedeuten, an einer niedrigsten Seite unter den horizontalen Rändern, die durch die horizontale-Rand-Entnahmeeinheit entnommen sind, positioniert zu sein.
    • (3) Als ein weiterer Aspekt der vorliegenden Erfindung, in der Objekterfassungsvorrichtung nach (1) oder (2) kann der Erkennungsbereich eingestellt sein, so dass eine Komponente an einer oberen Seite des spezifischen horizontalen Randes größer als eine Komponente an einer unteren Seite des spezifischen horizontalen Randes ist.
    • (4) Als ein weiterer Aspekt der vorliegenden Erfindung, kann die Objekterfassungsvorrichtung nach einem von (1) bis (3) mit einer charakteristischer-Punkt-Entnahmeeinheit bereitgestellt sein, die konfiguriert ist, um charakteristische Punkte von einem Bild zu entnehmen, das durch die bildgebende Einheit aufgenommen ist und wobei die Erfassungsobjekt-Erkennungseinheit eine Mehrzahl von charakteristischen Punkten einteilt, die durch die charakteristischer-Punkt-Entnahmeeinheit entnommen sind und das Erfassungsobjekt innerhalb eines Erkennungsbereichs erkennt, der auf der Basis von einem spezifischen horizontalen Rand eingestellt ist, der, unter den horizontalen Rändern, die durch die horizontale-Rand-Entnahmeeinheit innerhalb eines horizontaler-Rand-Eingrenzungs-Bereichs entnommen sind, der basierend auf der eingeteilten charakteristischen Punkt Gruppe eingestellt ist, die vorbestimmte Voraussetzung erfüllt.
    • (5) Als ein weiterer Aspekt der Erfindung, in der Objekterfassungsvorrichtung nach einem von (1) bis (4) kann die Erfassungsobjekt-Erkennungseinheit eine Vergrößerungs- oder Verringerungs-Korrektur des horizontaler-Rand-Eingrenzungs-Bereichs durchführen, wenn sich der horizontaler-Rand-Eingrenzungs-Bereich von einer geschätzten Größe eines Erkennungsobjekts unterscheidet, die von seiner Position in einem Bild, das durch die bildgebende Einheit aufgenommen ist, abgeleitet ist.
    • (6) Als ein weiterer Aspekt der Erfindung, in der Objekterfassungsvorrichtung nach einem von (1) bis (5), kann die Erfassungsobjekt-Erkennungseinheit eine Vergrößerungskorrektur des horizontaler-Rand-Eingrenzungs-Bereichs in Richtung einer Zentrumsrichtung eines Bildes durchführen, das durch die bildgebende Einheit aufgenommen ist, wenn der horizontaler-Rand-Eingrenzungs-Bereich so eingestellt ist, dass er entweder links oder rechts von einer Zentrumslinie im Hinblick auf die horizontale Richtung eines Bildes verzerrt ist, das durch die bildgebende Einheit aufgenommen ist.
    • (7) Als ein weiterer Aspekt der Erfindung, in der Objekterfassungsvorrichtung nach einem von (1) bis (6), wenn der horizontaler-Rand-Eingrenzungs-Bereich so eingestellt ist, dass er entweder links oder rechts von einer Zentrumslinie im Hinblick auf die horizontale Richtung eines Bildes verzerrt ist, das durch die bildgebende Einheit aufgenommen ist, kann die Erfassungsobjekt-Erkennungseinheit eine Verringerungskorrektur von einem größeren der Bereiche des horizontaler-Rand-Eingrenzungs-Bereichs, wenn durch die Zentrumslinie geteilt, durchführen.
    • (8) Als ein weiterer Aspekt der Erfindung, in der Objekterfassungsvorrichtung nach einem von (1) bis (7), wenn der horizontaler-Rand-Eingrenzungs-Bereich so eingestellt ist, dass er entweder links oder rechts von einer Zentrumslinie im Hinblick auf die horizontale Richtung eines Bildes verzerrt ist, das durch die bildgebende Einheit aufgenommen ist, kann die Erfassungsobjekt-Erkennungseinheit eine Vergrößerungskorrektur von einem kleineren der Bereiche des horizontaler-Rand-Eingrenzungs-Bereichs, wenn durch die Zentrumslinie geteilt, durchführen.
    • (9) Eine Fahrunterstützungsvorrichtung nach einem Aspekt der vorliegenden Erfindung umfasst eine Objekterfassungsvorrichtung nach einem der Aspekte (1) bis (8) und eine Fahrunterstützungseinheit, die konfiguriert ist, um eine Fahrunterstützung des Fahrzeugs basierend auf einem Erfassungsergebnis der Objekterfassungsvorrichtung, durchzuführen.
    • (10) Ein Aspekt der vorliegenden Erfindung ist ein Objekterfassungsverfahren umfassend die Schritte von: entnehmen von horizontalen Rändern, die charakteristische Linien von ungefähr horizontalen Richtungskomponenten in einem Suchbereich eines Bildes sind, das durch eine bildgebende Einheit aufgenommen ist; und erkennen eines Erfassungsobjekts innerhalb eines Erkennungsbereichs, der auf der Basis von einem spezifischen horizontalen Rand eingestellt ist, der, unter den entnommenen horizontalen Rändern, eine vorbestimmte Voraussetzung erfüllt.
    • (11) Ein Aspekt der vorliegenden Erfindung ist ein Computer-lesbares nicht-flüchtiges Aufzeichnungsmittel, das mit einem Objekterfassungsprogramm bereitgestellt ist, das einen Steuerungscomputer/Regelungscomputer einer Objekterfassungsvorrichtung dazu bringt, horizontale Ränder, die charakteristische Linien von ungefähr horizontalen Richtungskomponenten in einem Suchbereich eines Bildes sind, das durch eine bildgebende Einheit aufgenommen ist, zu entnehmen, und ein Erfassungsobjekt innerhalb eines Erkennungsbereichs, der auf der Basis von einem spezifischen horizontalen Rand eingestellt ist, der, unter den entnommenen horizontalen Rändern, eine vorbestimmte Voraussetzung erfüllt, zu erkennen.
  • Nach den Aspekten (1), (10) und (11), die oben erwähnt sind, werden horizontale Ränder, die charakteristische Linien von ungefähr horizontalen Richtungskomponenten in einem Suchbereich eines Bildes sind, das durch eine bildgebende Einheit aufgenommen ist, entnommen und ein Erfassungsobjekt wird innerhalb eines Erkennungsbereichs erkannt, der auf der Basis von einem spezifischen horizontalen Rand eingestellt ist, der, unter den entnommenen horizontalen Rändern, eine vorbestimmte Voraussetzung erfüllt. Daher ist es möglich, die Erfassungsgenauigkeit zu verbessern, während die Bearbeitungszeit verkürzt wird.
  • Nach Aspekt (2), der oben erwähnt ist, wird der Erkennungsbereich auf der Basis von horizontalen Rändern eingestellt, die eine Tendenz haben, klar von dem unteren Teilabschnitt der Stoßstange, den Schatten des Fahrzeugkörpers und dergleichen zu erscheinen, durch Definieren der vorbestimmten Voraussetzung als an der untersten Seite positioniert zu sein, unter den horizontalen Rändern, die durch die horizontale-Rand-Entnahmeeinheit entnommen werden. Daher wird der Erkennungsbereich geeigneter eingestellt.
  • Nach Aspekt (3), der oben erwähnt ist, wird der Erkennungsbereich eingestellt, so dass die Komponente an einer oberen Seite des spezifischen horizontalen Randes größer ist, als die Komponente an der unteren Seite des spezifischen horizontalen Randes. Daher ist es möglich, einen Bereich mit einer hohen Wahrscheinlichkeit einzustellen, dass der Fahrzeugkörper als der Erkennungsbereich vorhanden ist, auf der Basis von horizontalen Rändern, die eine Tendenz haben von dem unteren Teilabschnitt der Stoßstange klar zu erscheinen.
  • Nach Aspekt (4), der oben erwähnt ist, ist eine charakteristischer-Punkt-Entnahmeeinheit bereitgestellt, die charakteristische Punkte von einem Bild entnimmt, das durch eine bildgebende Einheit aufgenommen ist und eine Erfassungsobjekt-Erkennungseinheit teilt die Mehrzahl von charakteristischen Punkten ein, die durch die charakteristischer-Punkt-Entnahmeeinheit entnommen werden und erkennt ein Erfassungsobjekt innerhalb eines Erkennungsbereichs, der auf der Basis von einem spezifischen horizontalen Rand, der, unter den horizontalen Rändern, die durch die horizontale-Rand-Entnahmeeinheit innerhalb eines horizontaler-Rand-Eingrenzungs-Bereichs entnommen sind, der basierend auf der eingeteilten charakteristischer Punkt Gruppe eingestellt ist, eine vorbestimmte Voraussetzung erfüllt. Daher kann ein Bereich, in dem das Erfassungsobjekt realistisch geschätzt ist vorhanden zu sein, als der Erkennungsbereich eingestellt sein.
  • Nach den Aspekten (5) bis (8), die oben erwähnt sind, durch beliebiges Korrigieren des horizontaler-Rand-Eingrenzungsbereichs, der auf der Basis von charakteristischen Punkten eingestellt ist, kann der horizontaler-Rand-Eingrenzungsbereich zu einem Ort eingestellt werden, in dem das Bild das Erfassungsobjekt mit einer hohen Wahrscheinlichkeit vorhanden ist und der spezifische horizontale Rand kann mit einer großen Genauigkeit entnommen werden.
  • Nach dem Aspekt (9), der oben erwähnt ist, ist es möglich, eine geeignete Fahrunterstützung durchzuführen, basierend auf einem Zielobjekt, das schnell und mit einer hohen Genauigkeit von der Objekterfassungsvorrichtung erfasst worden ist.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist eine Zeichnung, die schematisch ein Beispiel einer Konfiguration von einer Fahrunterstützungsvorrichtung zeigt, die eine Objekterfassungsvorrichtung nach einer Ausführungsform umfasst.
  • 2 ist eine Zeichnung, die ein Funktionskonfigurationsbeispiel einer Fahrunterstützungsvorrichtung zeigt, die die Objekterfassungsvorrichtung enthält.
  • 3 ist eine Zeichnung, die einen Aspekt einer charakteristischer-Punkt-Einteilungs-Verarbeitungseinheit zeigt, die einen horizontaler-Rand-Eingrenzungs-Bereich einstellt.
  • 4 ist eine Zeichnung, die einen Aspekt einer Überlappungs-Bestimmungseinheit zeigt, die eine Verringerungskorrektur des horizontaler-Rand-Eingrenzungs-Bereichs durchführt.
  • 5 ist eine Zeichnung, die einen Aspekt der Überlappungs-Bestimmungseinheit zeigt, die eine Vergrößerungskorrektur des horizontaler-Rand-Eingrenzungs-Bereichs in Richtung der Zentrumsrichtung eines aufgenommenen Bildes durchführt.
  • 6 ist eine Zeichnung, die einen Aspekt der Überlappungs-Bestimmungseinheit zeigt, die eine Vergrößerungskorrektur von dem kleineren der Bereiche des horizontaler-Rand-Eingrenzungs-Bereichs zeigt, wenn durch die Zentrumslinie geteilt.
  • 7 ist eine Zeichnung, die einen Aspekt der Überlappungs-Bestimmungseinheit zeigt, die eine Verringerungskorrektur des größeren der Bereiche des horizontaler-Rand-Eingrenzungs-Bereichs durchführt, wenn durch die Zentrumslinie geteilt.
  • 8 ist eine Zeichnung, die einen Aspekt einer Erfassungsobjekt-Erkennungseinheit zeigt, die einen Erkennungsbereich einstellt.
  • 9 ist ein Flussdiagramm, das ein Beispiel einer Verarbeitung zeigt, die durch eine Steuerungsvorrichtung/Regelungsvorrichtung der vorliegenden Ausführungsform ausgeführt wird.
  • 10 ist ein Flussdiagramm, das ein Beispiel einer Korrekturverarbeitung zeigt, die durch eine Überlappungs-Bestimmungseinheit der vorliegenden Ausführungsform durchgeführt wird.
  • 11 ist ein Flussdiagramm, das ein weiteres Beispiel einer Korrekturverarbeitung zeigt, die durch die Überlappungs-Bestimmungseinheit der vorliegenden Ausführungsform ausgeführt wird.
  • Bezugszeichenliste
  • 1
    Fahrunterstützungsvorrichtung
    5
    Objekterfassungsvorrichtung
    10
    Kamera
    20
    Steuerungsvorrichtung/Regelungsvorrichtung
    22
    charakteristischer-Punkt-Entnahmeeinheit
    24
    charakteristischer-Punkt-Übereinstimmungs-Bestimmungseinheit
    26
    dreidimensionale-Koordinate-Berechnungseinheit
    28
    charakteristischer-Punkt-Einteilungs-Verarbeitungseinheit
    30
    horizontale-Rand-Entnahmeeinheit
    40
    Überlappungs-Bestimmungseinheit
    42
    Rand-Eingrenzungs-Verarbeitungseinheit
    44
    Erfassungsobjekt-Erkennungseinheit
    46
    Erfassungsobjekt-Positionsberechnungseinheit
    50
    Fahrzeugsteuerungseinheit/Fahrzeugregelungseinheit
    52
    Warnanzeigesteuerungseinheit/-regelungseinheit
    M
    Fahrzeug
    OB
    Erfassungsobjekt
    IM
    aufgenommenes Bild
    CP
    charakteristischer Punkt
    HE
    horizontaler Rand
    A1
    horizontaler-Rand-Eingrenzungsbereich
    A1#
    horizontaler-Rand-Eingrenzungsbereich nach Korrektur
    G
    Schwerpunkt
    IM1
    Zentrumslinie
    A2
    Erkennungsbereich
    HE*
    spezifischer horizontaler Rand
  • ÜBERBLICK ÜBER DIE AUSFÜHRUNGSFORM
  • Hierunter wird eine Ausführungsform einer Objekterfassungsvorrichtung, einer Fahrunterstützungsvorrichtung, eines Objekterfassungsverfahrens und eines Objekterfassungsprogramms der vorliegenden Erfindung unter Bezugnahme auf die Zeichnungen beschrieben.
  • Hierunter wird eine Ausführungsform einer Fahrunterstützungsvorrichtung 1, die eine Objekterfassungsvorrichtung 5 nach einer Ausführungsform der vorliegenden Erfindung umfasst, beschrieben.
  • 1 ist eine Zeichnung, die schematisch ein Beispiel einer Konfiguration der Fahrunterstützungsvorrichtung 1 zeigt, die die Objekterfassungsvorrichtung 5 nach einer Ausführungsform der vorliegenden Erfindung umfasst. Die Fahrunterstützungsvorrichtung 1 ist eine Vorrichtung, die an einem Fahrzeug M montiert ist und zum Beispiel eine Kamera 10 und eine Steuerungsvorrichtung/Regelungsvorrichtung 20 umfasst. Hierunter wird das Fahrzeug, an dem das Objekterfassungsvorrichtung 5 befestigt ist, als das „eigene Fahrzeug des Fahrers” bezeichnet. Darüber hinaus wird das Fahrzeug, das vor dem eigenen Fahrzeug des Fahrers und in der gleichen Richtung wie das eigene Fahrzeug des Fahrers fährt, als ein „vorderes Fahrzeug” bezeichnet.
  • Die Kamera 10 ist beispielsweise in einem oberen Teilbereich der vorderen Windschutzscheibe, der hinteren Oberfläche des Rückspiegels oder dergleichen installiert und ist eine Digitalkamera, die eine Festkörperbildsensorvorrichtung, wie zum Beispiel eine CCD (ladungsgekoppeltes Bauteil) oder eine CMOS (sich ergänzender Metall-Oxid-Halbleiter) verwendet. Die Kamera 10 nimmt wiederholt vor dem eigenen Fahrzeug des Fahrers zu einem vorbestimmten Zeitraum auf und gibt die Bilddaten des aufgenommenen Bildes beispielsweise zu einer Steuerungsvorrichtung/Regelungsvorrichtung 20 aus. Darüber hinaus kann die Kamera 10 eine Infrarotkamera, die für eine Nachtbenutzung geeignet ist, sein.
  • Die Steuerungsvorrichtung/Regelungsvorrichtung 20 ist eine Computervorrichtung, in der ein Prozessor, wie zum Beispiel eine CPU (zentrale Verarbeitungseinheit), eine Speichervorrichtung, wie zum Beispiel ein ROM (nur-Lese-Speicher), ein RAM (Direktzugriffsspeicher), ein HDD (Festplattenlaufwerk), ein EEPROM (elektrisch löschbarer programmierbarer nur-Lese-Speicher) oder Flash-Speicher, eine Kommunikationsschnittstelle zum Durchführen einer Kommunikation mit anderen Vorrichtungen innerhalb des Fahrzeugs und dergleichen, beispielsweise durch einen internen Bus, verbunden sind.
  • 2 ist eine Zeichnung, die ein Funktionskonfigurationsbeispiel der Fahrunterstützungsvorrichtung 1 zeigt, die die Objekterfassungsvorrichtung 5 enthält. Die Steuerungsvorrichtung/Regelungsvorrichtung 20 der Objekterfassungsvorrichtung 5 umfasst: eine charakteristischer-Punkt-Entnahmeeinheit 22, eine charakteristischer-Punkt-Übereinstimmungs-Bestimmungseinheit 24, eine dreidimensionale-Koordinate-Berechnungseinheit 26, eine charakteristischer-Punkt-Einteilungs-Verarbeitungseinheit 28, eine horizontale-Rand-Entnahmeeinheit 30, eine Überlappungs-Bestimmungseinheit 40, eine Rand-Eingrenzungs-Verarbeitungseinheit 42, eine Erfassungsobjekt-Erkennungseinheit 44 und eine Erfassungsobjekt-Positionsberechnungseinheit 46. Diese funktionalen Einheiten sind softwarefunktionale Einheiten, die mittels eines Prozessors funktionieren, der ein Programm ausführt, das beispielsweise innerhalb einer Speichervorrichtung gespeichert ist. Das Programm, das durch den Prozessor ausgeführt wird, kann vorab in der Speichervorrichtung zu der Zeit der Versendung des eigenen Fahrzeugs des Fahrers gespeichert werden. Darüber hinaus kann ein Programm, das in einem tragbaren Speichermittel gespeichert ist, in der Speichervorrichtung der Steuerungsvorrichtung/Regelungsvorrichtung 20 installiert werden. Außerdem kann das Programm von einer anderen Computervorrichtung durch Mittel eines bordeigenen Internetdienstes heruntergeladen werden und dann auf der Speichervorrichtung der Steuerungsvorrichtung/Regelungsvorrichtung 20 installiert werden. Ein Teil oder alle der funktionalen Einheiten, die oben erwähnt sind, können hardwarefunktionale Einheiten, wie zum Beispiel ein LSI (hoher Integrationsgrad) oder ein ASIC (anwendungsspezifische integrierte Schaltung) sein. Darüber hinaus ist die Steuerungsvorrichtung/Regelungsvorrichtung 20 zu einer Fahrzeugsteuerungseinheit/Fahrzeugregelungseinheit 50 und einer Warnanzeigesteuerungseinheit/-regelungseinheit 52 verbunden. Die Fahrzeugsteuerungseinheit/Fahrzeugregelungseinheit 50 und die Warnanzeigesteuerungseinheit/-regelungseinheit 52 können separate Funktionen des gleichen Computers, wie der Steuerungsvorrichtung/Regelungsvorrichtung 20 sein oder sie können auch Funktionen eines Computers sein, der separat von der Steuerungsvorrichtung/Regelungsvorrichtung 20 ist.
  • Zuerst wird die horizontale-Rand-Entnahmeeinheit 30 beschrieben. Die horizontale-Rand-Entnahmeeinheit 30 entnimmt von einem beliebigen Suchbereich in einem Bild, das durch die Kamera 10 (hierunter wird darauf als ein „aufgenommenes Bild” Bezug genommen) aufgenommen ist, horizontale Ränder, die charakteristische Linien sind, die sich in einer ungefähr horizontalen Richtung erstrecken. Ein horizontaler Rand ist einer, in dem die Richtung eine ungefähr horizontale Richtung (seitliche Richtung in dem Bild) ist, beispielsweise unter Linien, die Bildpunkte verbinden, die einen Helligkeitsgradienten aufweisen, der im Hinblick auf benachbarte Bildpunkte in der vertikalen Richtung größer als ein vorbestimmter Wert ist. Die ungefähr horizontale Richtung ist beispielsweise als ein Winkel definiert, der innerhalb plus oder minus 5° im Hinblick zu der seitlichen Richtung des Bildes liegt. Darüber hinaus können horizontale Ränder, unter Linien, die charakteristische Punkte verbinden, die durch das gleiche Verfahren, wie die charakteristischer-Punkt-Entnahmeeinheit 22 entnommen werden, solche sein, in denen die Richtung eine ungefähr horizontale Richtung ist.
  • Die charakteristischer-Punkt-Entnahmeeinheit 22 entnimmt charakteristische Punkte von dem aufgenommenen Bild. Ein charakteristischer Punkt ist ein Bildpunkt, in dem beispielsweise ein mittlerer Wert für den Helligkeitsgradienten im Hinblick auf die benachbarten Bildpunkte in der vertikalen und horizontalen Richtung größer als ein vorbestimmter Wert ist. Das Verfahren einer Entnahme der charakteristischen Punkte kann ein bekanntes Verfahren sein, wie zum Beispiel ein Harris Operator oder ein SUSAN Operator, oder ein neues Verfahren kann angemessen verwendet werden.
  • Die charakteristischer-Punkt-Übereinstimmungs-Bestimmungseinheit 24 bestimmt die Übereinstimmung zwischen den charakteristischen Punkten, die durch die charakteristischer-Punkt-Entnahmeeinheit 22 entnommen werden, von einer Mehrzahl von aufgenommenen Bildern (zwischen aufgenommenen Bildern, die beispielsweise zwei aufeinanderfolgende Einzelbilder darstellen). Das Verfahren eines Bestimmens einer Übereinstimmung zwischen den charakteristischen Punkten bestimmt im Hinblick auf die charakteristischen Punkte, die sich zwischen den Bildern von zwei aufeinander folgenden Einzelbilder bewegen, für die der Versatzbetrag des charakteristischen Punktes zwischen den aufgenommenen Bildern beispielsweise größer als ein vorbestimmter Wert ist und den anderen ungefähr stationären charakteristischen Punkten des Zielobjekts, eine Übereinstimmung ob sie jeweils das gleiche Zielobjekt darstellen oder nicht. Ein bekanntes Verfahren, wie zum Beispiel das KLT (Kanade Lucas Tomasi) Verfolgungsverfahren oder ein neues Verfahren kann angemessen verwendet werden.
  • Die dreidimensionale-Koordinate-Berechnungseinheit 26 berechnet dreidimensionale Koordinaten für die charakteristischen Punkte basierend auf der Übereinstimmung von den charakteristischen Punkten in dem Bild über eine Mehrzahl von Einzelbildern. Beispielsweise können die dreidimensionalen Koordinaten der charakteristischen Punkte durch SFM (Struktur von Bewegung/structure from motion), die eine bekannte Technik ist oder andere bekannte Verfahren erlangt werden oder ein neues Verfahren kann angemessen verwendet werden.
  • Die charakteristischer-Punkt-Einteilungs-Verarbeitungseinheit 28 teilt charakteristische Punkte, die abgeleitet werden als charakteristische Punkte des gleichen Objekts zu sein, ein, von den dreidimensionalen Koordinaten der charakteristischen Punkte, die durch die dreidimensionale-Koordinate-Berechnungseinheit 26 berechnet werden. Dann stellt sie einen horizontaler-Rand-Eingrenzungsbereich ein, der die eingeteilten charakteristischen Punkt Gruppen enthält.
  • Der horizontaler-Rand-Eingrenzungsbereich ist ein Bereich, der durch die charakteristischer-Punkt-Einteilungs-Verarbeitungseinheit 28 zum Entnehmen eines spezifischen horizontalen Randes eingestellt wird, unter den horizontalen Rändern, die durch die horizontale-Rand-Entnahmeeinheit 30 entnommen werden, wie unten beschrieben. 3 ist eine Zeichnung, die einen Aspekt der charakteristischer-Punkt-Einteilungs-Verarbeitungseinheit 28 zeigt, die die charakteristischen Punkte CP in dem aufgenommenen Bild IM einteilt, die abgeleitet werden, charakteristische Punkte des gleichen Objekts zu sein und die einen horizontaler-Rand-Eingrenzungsbereich A1 einstellt, der die eingeteilten charakteristischer Punkt Gruppen umfasst. In dem Fall eines aufgenommenen Bildes IM, das ein Erfassungsobjekt OB (vorderes Fahrzeug) aufgenommen hat, gibt es eine Tendenz für die charakteristischen Punkte CP konzentriert um die Stoßstange, das Nummernschild, die Rücklichter und dergleichen entnommen zu werden. Die charakteristischer-Punkt-Einteilungs-Verarbeitungseinheit 28 teilt die charakteristischen Punkte, die über eine Mehrzahl von aufgenommenen Bildern IM entnommen werden, die abgeleitet werden, von dem gleichen Objekt zu sein, in eine einzelne Gruppe ein. Dann stellt es den horizontaler-Rand-Eingrenzungsbereich A1 ein, so dass die eingeteilte charakteristischer Punkt Gruppe enthalten ist. Die charakteristischer-Punkt-Einteilungs-Verarbeitungseinheit 28 teilt die charakteristischen Punkte CP durch Anhäufen der charakteristischen Punkte durch deren dreidimensionale Koordinaten ein, die durch beispielsweise SFM berechnet werden. Beispielsweise in dem Fall eines vorderen Fahrzeugs, weil es sich verschieden zu einem stationären Objekt bewegt, können die charakteristischen Punkte CP, die als charakteristische Punkte des vorderen Fahrzeugs abgeleitet werden, entnommen werden.
  • Hier stellt die charakteristischer-Punkt-Einteilungs-Verarbeitungseinheit 28 den horizontaler-Rand-Eingrenzungsbereich A1 größer als einen minimalen rechteckigen Bereich ein, der die eingeteilte charakteristischer Punkt Gruppe enthält. Dies ist so, weil eine Tendenz für die charakteristischen Punkte CP vorliegt, an dem Zentrumsteilbereich des vorderen Fahrzeugs erfasst zu werden und wobei dort eine hohe Wahrscheinlichkeit des minimalen rechteckigen Bereichs besteht, der die eingeteilte charakteristischer Punkt Gruppe enthält, die nicht das ganze vordere Fahrzeug enthält.
  • Die Überlappungs-Bestimmungseinheit 40 bestimmt das Niveau eines Überlappens zwischen den horizontalen Rändern, die durch die horizontale-Rand-Entnahmeeinheit 30 entnommen werden und den horizontaler-Rand-Eingrenzungsbereich A1, der durch die charakteristischer-Punkt-Einteilungs-Verarbeitungseinheit 28 eingestellt ist und entnimmt die horizontalen Ränder, die sich mit dem horizontaler-Rand-Eingrenzungsbereich A1 überlappen. Die Überlappungs-Bestimmungseinheit 40 kann einen horizontalen Rand HE entnehmen oder ausschließen, der teilweise mit dem horizontaler-Rand-Eingrenzungsbereich A1 überlappt.
  • In der vorliegenden Ausführungsform kann der horizontaler-Rand-Eingrenzungsbereich A1, der auf der Basis der charakteristischen Punkte CP eingestellt ist, beliebig korrigiert werden. Wenn der horizontaler-Rand-Eingrenzungsbereich A1 von der geschätzten Größe des Erfassungsobjekts OB abweicht, die von seiner Position in dem aufgenommenen Bild IM abgeleitet ist, führt die Überlappungs-Bestimmungseinheit 40 eine Vergrößerungs- oder Verringerungskorrektur des horizontaler-Rand-Eingrenzungsbereichs durch. Beispielsweise führt die Überlappungs-Bestimmungseinheit 40 eine Vergrößerungs- oder Verringerungskorrektur des horizontaler-Rand-Eingrenzungsbereichs A1 durch, basierend auf der Position eines repräsentativen Punktes oder Randes oder dergleichen des horizontaler-Rand-Eingrenzungsbereichs A1 in dem aufgenommenen Bild IM. Darüber hinaus kann die Überlappungs-Bestimmungseinheit 40, basierend auf den dreidimensionalen Koordinaten der charakteristischen Punkte, die durch die dreidimensionale-Koordinate-Berechnungseinheit 26 berechnet werden, eine Korrektur im Hinblick auf den horizontaler-Rand-Eingrenzungsbereich A1 durchführen, der durch die charakteristischer-Punkt-Einteilungsverarbeitungseinheit 28 eingestellt ist, basierend auf einem Versatzbetrag. Die Überlappungs-Bestimmungseinheit 40 berechnet, basierend auf der Position des repräsentativen Punktes des horizontaler-Rand-Eingrenzungsbereichs A1 oder der dreidimensionalen Koordinaten der charakteristischen Punkte, die durch die dreidimensionale-Koordinate-Berechnungseinheit 26 berechnet werden, die Entfernung zwischen dem Objekt und dem eigenen Fahrzeug des Fahrers, berechnet den Versatzbetrag als größer oder kleiner als die Entfernung zwischen dem eigenen Fahrzeug des Fahrers und dem Objekt zu sein. Denn je näher in einer Position ein Objekt von dem eigenen Fahrzeug des Fahrers existiert, desto größer wird es in der Größe in dem aufgenommenen Bild IM. Dann führt die Überlappungs-Bestimmungseinheit 40 eine Vergrößerungs- oder Verringerungskorrektur des horizontaler-Rand-Eingrenzungsbereichs A1 durch eine Größe, die dem Versatzbetrag entspricht, durch. Folglich ist die Objekterfassungsvorrichtung 5 dazu fähig, präziser ein vorderes Fahrzeug zu erfassen. In der Verarbeitung, die unten in 5, 6 und 7 beschrieben ist, kann ein Versatzbetrag auch verwendet werden, den Betrag einer Vergrößerung oder Verringerung zu bestimmen. So eine Korrektur kann auch die Größe des horizontaler-Rand-Eingrenzungsbereichs A1 basierend auf der Position einer charakteristischer Punkt Gruppe oder dergleichen bestimmen, die in dem aufgenommenen Bild IM von Anfang an eingeteilt wurden, eher als sie nachdem der horizontaler-Rand-Eingrenzungsbereich A1 durch die charakteristischer-Punkt-Einteilungs-Verarbeitungseinheit 28 eingestellt ist, durchgeführt wird.
  • Darüber hinaus kann die Überlappungs-Bestimmungseinheit 40 mit dem gleichen Zweck wie die Verarbeitung basierend auf dem Versatzbetrag, die oben erwähnt ist, eine Verarbeitung durchführen, so dass der horizontaler-Rand-Eingrenzungsbereich A1 verringert wird, wenn der horizontaler-Rand-Eingrenzungsbereich A1 groß ist im Vergleich zu der geschätzten Größe des Erfassungsobjekts OB, die von seiner Position in dem aufgenommenen Bild IM abgeleitet ist. 4 ist eine Zeichnung, die einen Aspekt der Überlappungs-Bestimmungseinheit 40 zeigt, die eine Verringerungskorrektur des horizontaler-Rand-Eingrenzungsbereichs A1 durchführt. Wie in der Zeichnung gezeigt, im Hinblick auf das aufgenommene Bild IM, führt die Überlappungs-Bestimmungseinheit 40 eine Verringerungskorrektur durch, wenn der horizontaler-Rand-Eingrenzungsbereich A1 größer eingestellt ist, als die geschätzte Größe des Erfassungsobjekts OB, die von der Position von einem repräsentativen Punkt (beispielsweise dem Schwerpunkt G, den vier Ecken, den Zentrumspunkten der Ränder und dergleichen) des horizontaler-Rand-Eingrenzungsbereichs A1 in dem aufgenommenen Bild IM abgeleitet wird. Die Überlappungs-Bestimmungseinheit 40 nimmt an, dass der Schwerpunkt G des Erfassungsobjekts OB an dem Schwerpunkt G des horizontaler-Rand-Eingrenzungsbereichs A1 existiert und leitet eine Standardgröße auf dem Bild für das Erfassungsobjekt OB (vorderes Fahrzeug) ab, wenn es beispielsweise an der Position auf dem Bild davon vorhanden ist. Die Überlappungs-Bestimmungseinheit 40 leitet die Standardgröße auf dem Bild, das oben erwähnt ist, durch Bezugnahme auf Tabellendaten ab, die die Beziehung zwischen der Position des Schwerpunkts G und der Größe spezifizieren. Dann führt die Überlappungs-Bestimmungseinheit 40 eine Verringerungskorrektur der abgeleiteten Standard-Bildgröße zu einem Bereich durch, in dem der Schwerpunkt G auf dem Bild als der Schwerpunkt wiedergegeben ist. In der Zeichnung stellt A1# den horizontaler-Rand-Eingrenzungsbereich nach einer Korrektur dar. Die Überlappungs-Bestimmungseinheit 40 kann eine Vergrößerungskorrektur des horizontaler-Rand-Eingrenzungsbereichs A1 durchführen, wenn der horizontaler-Rand-Eingrenzungsbereich A1 kleiner als die geschätzte Größe des Erfassungsobjekts OB ist, die von seiner Position in dem aufgenommenen Bild IM abgeleitet ist.
  • Darüber hinaus, wenn der horizontaler-Rand-Eingrenzungsbereich A1 eingestellt ist, so dass er entweder zu der linken oder zu der rechten von dem Zentrumsteilbereich im Hinblick auf die horizontale Richtung des aufgenommenen Bildes IM verzerrt ist, kann die Überlappungs-Bestimmungseinheit 40 eine Vergrößerungskorrektur des horizontaler-Rand-Eingrenzungsbereichs A1 in Richtung der Zentrumsrichtung des aufgenommenen Bildes IM durchführen. 5 ist eine Zeichnung, die einen Aspekt der Überlappungs-Bestimmungseinheit 40 zeigt, die eine Vergrößerungskorrektur des horizontaler-Rand-Eingrenzungsbereichs A1 in Richtung der Zentrumsrichtung des aufgenommenen Bildes IM durchführt. Wie in der Zeichnung gezeigt, wenn der horizontaler-Rand-Eingrenzungsbereich A1 ungleichmäßig zu entweder der linken oder rechten einer Zentrumslinie IM1 im Hinblick auf die horizontale Richtung des aufgenommenen Bildes IM verteilt ist, führt die Überlappungs-Bestimmungseinheit 40 eine Vergrößerungskorrektur des horizontaler-Rand-Eingrenzungsbereichs A1 in Richtung der Zentrumsrichtung des aufgenommenen Bildes IM durch. Der Betrag um den eine Vergrößerungskorrektur im Hinblick auf den horizontaler-Rand-Eingrenzungsbereich A1 in Richtung des Zentrumsteilbereichs des aufgenommenen Bildes IM durchgeführt wird, kann beliebig bestimmt werden. Jedoch kann es als eine Vergrößerungskorrektur definiert werden, die beispielsweise bis zu der Zentrumslinie IM1 durchgeführt wird.
  • Darüber hinaus, wenn der horizontaler-Rand-Eingrenzungsbereich A1 eingestellt ist so dass er entweder zu der linken oder rechten von dem Zentrumsteilabschnitt im Hinblick auf die Zentrumsrichtung des aufgenommenen Bildes IM verzerrt ist, kann die Überlappungs-Bestimmungseinheit 40 eine Vergrößerungskorrektur von dem kleineren der Bereiche des horizontaler-Rand-Eingrenzungsbereichs A1 durchführen, wenn durch eine Zentrumslinie IM1 geteilt. 6 ist eine Zeichnung, die einen Aspekt der Überlappungs-Bestimmungseinheit 40 zeigt, die eine Vergrößerungskorrektur des kleineren der Bereiche des horizontaler-Rand-Eingrenzungsbereichs A1 durchführt, wenn durch die Zentrumslinie IM1 geteilt.
  • Außerdem, im Gegensatz zu der Verarbeitung, die in 6 gezeigt ist, wenn der horizontaler-Rand-Eingrenzungsbereich A1 eingestellt ist, so dass er entweder zu der linken oder rechten von dem Zentrumsteilabschnitt im Hinblick auf die horizontale Richtung des aufgenommenen Bildes IM verzerrt ist, kann die Überlappungs-Bestimmungseinheit 40 auch eine Verringerungskorrektur an dem größeren der Bereiche des horizontaler-Rand-Eingrenzungsbereichs A1 durchführen, wenn durch die Zentrumslinie IM1 im Hinblick auf die horizontale Richtung des aufgenommenen Bildes IM geteilt. 7 ist eine Zeichnung, die einen Aspekt der Überlappungs-Bestimmungseinheit 40 zeigt, die eine Verringerungskorrektur von dem größeren der Bereiche des horizontaler-Rand-Eingrenzungsbereichs A1 durchführt, wenn durch die Zentrumslinie IM1 geteilt. In jedem der Fälle von 5 bis 7, wird der horizontaler-Rand-Eingrenzungsbereich A1 korrigiert, so dass er einen Bereich in der Nähe des Zentrumsteilabschnitts des aufgenommenen Bildes IM enthält. Als ein Ergebnis ist der horizontaler-Rand-Eingrenzungsbereich A1 eingestellt, so dass er ein vorderes Fahrzeug umfasst, das in der Fahrtrichtung von dem eigenen Fahrzeug des Fahrers vorhanden ist, das die höchste Notwendigkeit für eine Objekterfassung aufweist. Folglich ist die Erfassungsobjektvorrichtung 5 dazu fähig, präziser ein vorderes Fahrzeug zu erfassen.
  • Die Rand-Eingrenzungs-Verarbeitungseinheit 42 führt eine Verarbeitung durch, die die horizontalen Ränder HE zu einem horizontalen Rand eingegrenzt, der eine vorbestimmte Voraussetzung (spezifischer horizontaler Rand) erfüllt. In der vorliegenden Ausführungsform bedeutet die vorbestimmte Voraussetzung, an der untersten Seite unter den horizontalen Rändern HE innerhalb des horizontaler-Rand-Eingrenzungsbereichs A1, der durch die charakteristischer-Punkt-Einteilungs-Verarbeitungseinheit 28 eingestellt ist, positioniert zu sein. Der spezifische horizontale Rand kann auch als ein horizontaler Rand definiert sein, der an einer Position existiert, wie zum Beispiel als zweiter oder dritter von dem Boden unter den horizontalen Rändern HE innerhalb des horizontaler-Rand-Eingrenzungsbereichs A1. In der entsprechenden Verarbeitung werden die horizontalen Ränder HE innerhalb des horizontaler-Rand-Eingrenzungsbereichs A1 als Ränder betrachtet, die von dem gleichen Objekt entnommen wurden. Darüber hinaus ist es auf einem Konzept basierend, worin im Hinblick auf horizontale Ränder HE, die von dem gleichen Objekt entnommen wurden, es für eine Erkennungsverarbeitung ausreichend ist, auf der Basis von nur einem Rand durchgeführt zu werden und nur den nützlichsten unteren-Ende-horizontaler-Rand HE zu lassen und die verbleibenden horizontalen Ränder HE (welche eine Höhe haben) können ausgeschlossen werden.
  • Die Erfassungsobjekt-Erkennungseinheit 44 stellt einen Erkennungsbereich auf der Basis von dem spezifischen horizontalen Rand ein, der mittels der Rand-Eingrenzungs-Verarbeitungseinheit 42 eingegrenzt wurde. 8 ist eine Zeichnung, die einen Aspekt der Erfassungsobjekt-Erkennungseinheit 44 zeigt, die einen Erkennungsbereich A2 einstellt. Die Erfassungsobjekt-Erkennungseinheit 44 stellt als den Erkennungsbereich einen Bereich ein, der zum Beispiel durch 100 Bildpunkte auf der oberen Seite des spezifischen horizontalen Randes HE*, 20 Bildpunkte an der linken Seite von dem linken Rand des spezifischen horizontalen Randes HE*, 20 Bildpunkte an der rechten Seite von dem rechten Rand des spezifischen horizontalen Randes HE* und 10 Bildpunkte an der unteren Seite des spezifischen horizontalen Randes HE* erweitert wurde. Darüber hinaus kann die Erfassungsobjekt-Erkennungseinheit 44 die Größe des Erkennungsbereichs ändern, um basierend auf der Position des spezifischen horizontalen Randes HE* auf dem Bild eingestellt zu sein. Beispielsweise, wenn der spezifischer horizontaler Rand HE* in der Nähe von der unteren Seite des aufgenommenen Bildes IM existiert, kann er größer sein als oben erwähnt. Der Erkennungsbereich kann als ein Bereich eingestellt sein, der beispielsweise durch 150 Bildpunkte an der oberen Seite des spezifischen horizontalen Randes HE*, 30 Bildpunkte an der linken Seite von dem linken Rand des spezifischen horizontalen Randes HE*, 30 Bildpunkte auf der rechten Seite von dem rechten Rand des spezifischen horizontalen Randes HE* und 15 Bildpunkte an der unteren Seite von dem spezifischen horizontalen Rand HE* erweitert wurde. Im Gegensatz dazu, wenn der spezifischer horizontaler Rand HE* in der Nähe von der oberen Seite des aufgenommenen Bildes IM existiert, kann der Erkennungsbereich kleiner als oben erwähnt eingestellt sein, als ein Bereich, der beispielsweise durch 70 Bildpunkte an der oberen Seite des spezifischen horizontalen Randes HE*, 14 Bildpunkte an der linken Seite von dem linken Rand des spezifischen horizontalen Randes HE*, 14 Bildpunkte an der rechten Seite von dem rechten Rand des spezifischen horizontalen Randes HE* und 7 Bildpunkte an der unteren Seite des spezifischen horizontalen Randes HE* erweitert wurde. Dann führt die Erfassungsobjekt-Erkennungseinheit 44 beispielsweise einen Mustervergleich (Vorlagevergleich) im Hinblick auf den charakteristischen Punkt CP in dem eingestellten Erkennungsbereich A2 durch und führt eine Erfassungsobjekt-Erkennungsverarbeitung durch.
  • Hier kann es für den horizontaler-Rand-Eingrenzungsbereich A1 berücksichtigt werden, zu dem Erkennungsbereich A2 ohne Änderung gemacht zu werden. Jedoch liegt in diesem Fall eine Tendenz für die charakteristischen Punkte CP vor, in dem Zentrumsteilabschnitt des vorderen Fahrzeugs zu erscheinen. Daher wird es schwierig, einen präzisen Erkennungsbereich A2 einzustellen. Folglich wird es möglich, in der Objekterfassungsvorrichtung 5 der vorliegenden Ausführungsform durch Einstellen des Erkennungsbereichs A2 auf der Basis des spezifischen horizontalen Randes HE*, eine präzise Objekterkennung durchzuführen.
  • Die Erkennungsobjekt-Positionsberechnungseinheit 46 bestimmt die die Lage betreffende Beziehung zwischen den charakteristischen Punkten, die eine dreidimensionale Koordinate aufweisen und berechnet die Position (eine Entfernung und eine seitliche Position) des Erfassungsobjekts. Darüber hinaus berechnet die Erfassungsobjekt-Positionsberechnungseinheit 46 die Geschwindigkeit des Erfassungsobjekts mittels der Veränderung in der Position des Erfassungsobjekts in jedem Einzelbild des aufgenommenen Bildes.
  • Die Fahrzeugsteuerungseinheit/Fahrzeugregelungseinheit 50 führt verschiedene Sicherheitssteuerungen/Sicherheitsregelungen auf der Basis der Position des Erfassungsobjekts durch, die durch die Erfassungsobjekt-Positionsberechnungseinheit 46 berechnet wird, so dass der Fahrer des Fahrzeugs dazu fähig ist, sicher zu fahren. Beispielsweise führt es eine Geschwindigkeitssteuerung/Geschwindigkeitsregelung des eigenen Fahrzeugs des Fahrers durch, so dass die folgende Entfernung mit dem vorderen Fahrzeug, das durch die Steuerungsvorrichtung/Regelungsvorrichtung 20 erfasst ist, beständig aufrechterhalten wird oder es kann eine automatische Bremssteuerung/Bremsregelung oder automatische Lenksteuerung/Lenkregelung des eigenen Fahrzeugs des Fahrers basierend auf der Position des Erfassungsobjekts durchführen.
  • Die Warnanzeigesteuerungseinheit/-regelungseinheit 52 zeigt Informationen an, die eine Warnung oder ein Warensignal zu dem Fahrzeuginneren auf einer Anzeigevorrichtung angeben, wie zum Beispiel einer LCD-Anzeige/Flüssigkristallanzeige, basierend auf der Position des Erfassungsobjekts, das durch die Erfassungsobjekt-Positionsberechnungseinheit 46 berechnet ist. Darüber hinaus kann die Information, die die Warnung oder das Warnsignal angibt, auch zu dem Fahrer durch ein Anziehen des Sicherheitsgurtes, einen Alarmton, eine Vibration und dergleichen kommuniziert werden.
  • [Betrieblicher Ablauf der Steuerungsvorrichtung/Regelungsvorrichtung 20]
  • 9 ist ein Flussdiagramm, das ein Beispiel einer Verarbeitung zeigt, die durch die Steuerungsvorrichtung/Regelungsvorrichtung 20 der vorliegenden Ausführungsform ausgeführt wird. Das vorliegende Flussdiagramm wird beispielsweise zu vorbestimmten Zeitpunkten wiederholt ausgeführt. Zuerst teilt die charakteristischer-Punkt-Einteilungs-Verarbeitungseinheit 28 von den dreidimensionalen Koordinaten der charakteristischen Punkte, die durch die dreidimensionale-Koordinate-Berechnungseinheit 26 berechnet werden, die charakteristischen Punkte ein, die als charakteristische Punkte von dem gleichen Objekt abgeleitet sind (Schritt S100). Dann stellt sie einen horizontaler-Rand-Eingrenzungs-Bereich ein, der die eingeteilte charakteristischer Punkt Gruppe enthält (Schritt S102).
  • Folgend führt die Überlappungs-Bestimmungseinheit 40 eine Korrektur des horizontaler-Rand-Eingrenzungsbereichs durch (Schritt S104). Die Verarbeitungsinhalte von Schritt S104 sind untenstehend unter Verwendung von 10 und 11 beschrieben. Schritt S104 kann also weggelassen werden. Dann entnimmt die horizontale-Rand-Entnahmeeinheit 30 horizontale Ränder (Schritt S106). Danach bestimmt die Rand-Eingrenzungs-Verarbeitungseinheit 42 ob eine Mehrzahl von horizontalen Rändern in dem horizontaler-Rand-Eingrenzungsbereich existiert oder nicht (Schritt S108). Wenn eine Mehrzahl von horizontalen Rändern in dem horizontaler-Rand-Eingrenzungsbereich existiert, wählt die Rand-Eingrenzungs-Verarbeitungseinheit 42 einen spezifischen horizontalen Rand durch eingrenzen von einer Mehrzahl von horizontalen Rändern zu einem horizontalen Rand, der eine vorbestimmte Voraussetzung erfüllt, aus (Schritt S110).
  • Danach stellt die Erfassungsobjekt-Erkennungseinheit 44 einen Erkennungsbereich auf der Basis von dem spezifischen horizontalen Rand ein, der mittels der Rand-Eingrenzungs-Verarbeitungseinheit 42 eingegrenzt wurde (Schritt S112). Weiter führt die Erfassungsobjekt-Erkennungseinheit 44 eine Erfassungsobjekt-Erkennungsverarbeitung im Hinblick auf den Erkennungsbereich, der eingestellt wurde, durch und die Erfassungsobjekt-Positionsberechnungseinheit 46 bestimmt die die Lage betreffende Beziehung zwischen den charakteristischen Punkten, die eine dreidimensionale Koordinate aufweisen und berechnet die Position des Erfassungsobjekts (Schritt S114). Diese Serie von Prozessen wird auch an den anderen charakteristischer Punkt Gruppen angewendet, die eingeteilt wurden (Schritt S116). Folglich ist die Verarbeitung des vorliegenden Flussdiagramms beendet.
  • [Betrieblicher Fluss von einer Überlappungs-Bestimmungseinheit 40 (Schritt S104)]
  • 10 ist ein Flussdiagramm, das ein Beispiel einer Korrekturverarbeitung zeigt, die durch die Überlappungs-Bestimmungseinheit 40 der vorliegenden Ausführungsform ausgeführt wird. Die Verarbeitung des vorliegenden Flussdiagramms entspricht der Verarbeitung von Schritt S104 in dem Flussdiagramm von 9. Zuerst berechnet die Überlappungs-Bestimmungseinheit 40 einen Versatzbetrag im Hinblick auf den horizontaler-Rand-Eingrenzungsbereich A1, der durch die charakteristischer-Punkt-Einteilungs-Verarbeitungseinheit 28 eingestellt wurde (Schritt S200). Die Überlappungs-Bestimmungseinheit 40 korrigiert den horizontaler-Rand-Eingrenzungsbereich A1 basierend auf dem berechneten Versatzbetrag (Schritt S202). Dann bestimmt die Überlappungs-Bestimmungseinheit 40, ob der horizontaler-Rand-Eingrenzungsbereich A1 eingestellt wurde, so dass er entweder zu der linken oder zu der rechten von dem Zentrumsteilbereich im Hinblick auf die horizontale Richtung des aufgenommenen Bildes IM verzerrt ist oder nicht (Schritt S204). Wenn er nicht eingestellt wurde, so dass er zu entweder der linken oder rechten Seite von einem Zentrumsteilabschnitt verzerrt ist, ist eine einzelne Prozedur des vorliegenden Flussdiagramms beendet. Wenn der horizontaler-Rand-Eingrenzungsbereich A1 so eingestellt wurde, dass er entweder zu der linken oder rechten Seite von dem Zentrumsteilabschnitt im Hinblick auf die horizontale Richtung des aufgenommenen Bildes IM verzerrt ist, bestimmt die Überlappungs-Bestimmungseinheit 40, ob der horizontaler-Rand-Eingrenzungsbereich A1 an nur einer Seite der Zentrumslinie IM1 existiert oder nicht (Schritt S206). Wenn der horizontaler-Rand-Eingrenzungsbereich A1 an nur einer Seite der Zentrumslinie IM1 existiert, führt die Überlappungs-Bestimmungseinheit 40 eine Vergrößerungskorrektur des horizontaler-Rand-Eingrenzungsbereichs A1 in Richtung der Zentrumsrichtung des aufgenommenen Bildes IM durch (Schritt S208). Wenn der horizontaler-Rand-Eingrenzungsbereich A1 beiderseits von der Zentrumslinie IM1 liegt, führt die Überlappungs-Bestimmungseinheit 40 eine Vergrößerungskorrektur des kleineren der Bereiche des horizontaler-Rand-Eingrenzungsbereichs A1 durch, wenn durch die Zentrumslinie IM1 geteilt (Schritt S210). Anstatt Schritt S210 kann die Überlappungs-Bestimmungseinheit 40 auch eine Verringerungskorrektur des größeren der Bereiche an dem horizontaler-Rand-Eingrenzungsbereich A1 durchführen, wenn durch die Zentrumslinie IM1 geteilt.
  • Die Überlappungs-Bestimmungseinheit 40 kann anstatt der Verarbeitung von 10 die Verarbeitung von 11 durchführen. 11 ist ein Flussdiagramm, das ein weiteres Beispiel einer Korrekturverarbeitung zeigt, die durch die Überlappungs-Bestimmungseinheit 40 der vorliegenden Ausführungsform ausgeführt wird. Zuerst bestimmt die Überlappungs-Bestimmungseinheit 40 ob die Größe des horizontaler-Rand-Eingrenzungsbereichs A1, der durch die charakteristischer-Punkt-Einteilungs-Verarbeitungseinheit 28 eingestellt ist, von der geschätzten Größe des Erfassungsobjekt OB abweicht, die von seiner Position in dem aufgenommenen Bild IM abgeleitet ist, oder nicht (Schritt S200-1). Speziell kann „weicht ab” als überschreiten einer Toleranz, die in dem Plus-/Minusrichtungen im Hinblick auf die geschätzte Größe eingestellt ist, definiert werden. Wenn die Größe des horizontaler-Rand-Eingrenzungsbereichs A1, der durch die charakteristischer-Punkt-Einteilungs-Verarbeitungseinheit 28 eingestellt ist, sich von der geschätzten Größe des Erfassungsobjekts OB unterscheidet, die von seiner Position in dem aufgenommenen Bild IM abgeleitet ist, führt die Überlappungs-Bestimmungseinheit 40 eine Verringerungskorrektur des horizontaler-Rand-Eingrenzungsbereichs A1 durch (Schritt S202-1). Die Verarbeitung danach ist die gleiche wie die, die in 10 gezeigt ist und die Beschreibung hiervon wird weggelassen.
  • Nach der Objekterfassungsvorrichtung 5 der Ausführungsform, die oben beschrieben ist, im Hinblick auf den Suchbereich eines Bildes, das durch eine bildgebende Einheit 10 aufgenommen ist, entnimmt die horizontale-Rand-Entnahmeeinheit 30 horizontale Ränder, die charakteristische Linien von ungefähr horizontalen Richtungskomponenten sind und die Erfassungsobjekt-Erkennungseinheit 44 erkennt ein Erfassungsobjekt durch Einstellen eines Erkennungsbereichs auf der Basis eines spezifischen horizontalen Randes, der unter den horizontalen Rändern, die durch die horizontale-Rand-Entnahmeeinheit entnommen werden, eine vorbestimmte Voraussetzung erfüllt. Daher können Verbesserungen in Erfassungsgraden und Verringerungen in fehlerhaften Erfassungen, ohne signifikant die Verarbeitungszeit zu erhöhen, erreicht werden. Nämlich kann die Erfassungsgenauigkeit verbessert werden, während die Bearbeitungszeit verkürzt wird.
  • Darüber hinaus, nach der Fahrunterstützungsvorrichtung 1 der vorliegenden Ausführungsform, als ein Ergebnis der Fahrzeugsteuerungseinheit/Fahrzeugregelungseinheit 50 und der Warnanzeigesteuerungseinheit/-regelungseinheit 52, die eine Fahrunterstützung basierend auf den Berechnungsergebnis der Erfassungsobjekt-Positionsberechnungseinheit 46 des Fahrzeugs durchführen, und eine geeignete Fahrunterstützung durchführen, wie zum Beispiel ein Ausführen einer Geschwindigkeitssteuerung/Geschwindigkeitsregelung des eigenen Fahrzeugs des Fahrers, so dass die folgende Entfernung mit dem vorderen Fahrzeug beständig aufrechterhalten wird, ein Ausführen einer automatischen Bremssteuerung/Bremsregelung oder automatischen Lenksteuerung/Lenkregelung des eigenen Fahrzeugs des Fahrers, basierend auf der Position des Erfassungsobjekts oder Anzeigen einer Information auf einer Anzeigevorrichtung, wie zum Beispiel einer LCD Anzeige/Flüssigkristallanzeige, die eine Warnung oder ein Warnsignal angibt wird es möglich, zu sicherem Fahren beizutragen.
  • Das vorangegangene hat den Modus zum Ausführen der Erfindung durch eine Ausführungsform beschrieben. Jedoch ist die vorliegende Erfindung keinesfalls auf so eine Ausführungsform beschränkt und verschiedene Änderungen und Ersetzungen können innerhalb eines Umfangs, der nicht von dem Kern der vorliegenden Erfindung abweicht, angewendet werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2008-293504 [0003]

Claims (11)

  1. Objekterfassungsvorrichtung umfassend: eine bildgebende Einheit, die konfiguriert ist, eine Umgebung eines Fahrzeugs abzubilden; eine horizontale-Rand-Entnahmeeinheit, die konfiguriert ist, horizontale Ränder zu entnehmen, die charakteristische Linien von ungefähr horizontalen Richtungskomponenten in einem Suchbereich eines Bildes, das durch die bildgebende Einheit aufgenommen ist, sind; und eine Erfassungsobjekt-Erkennungseinheit, die konfiguriert ist, ein Erfassungsobjekt innerhalb eines Erkennungsbereichs zu erkennen, der auf der Basis von einem spezifischen horizontalen Rand eingestellt ist, der, unter den horizontalen Rändern, die durch die horizontale-Rand-Entnahme-Einheit entnommen sind, eine vorbestimmte Voraussetzung erfüllt.
  2. Objekterfassungsvorrichtung nach Anspruch 1, wobei die vorbestimmte Voraussetzung bedeutet, an einer niedrigsten Seite unter den horizontalen Rändern, die durch die horizontale-Rand-Entnahmeeinheit entnommen sind, positioniert zu sein.
  3. Objekterfassungsvorrichtung nach Anspruch 1 oder 2, wobei der Erkennungsbereich eingestellt ist, so dass eine Komponente an einer oberen Seite des spezifischen horizontalen Randes größer als eine Komponente an einer unteren Seite des spezifischen horizontalen Randes ist.
  4. Objekterfassungsvorrichtung nach einem der Ansprüche 1 bis 3, wobei eine charakteristischer-Punkt-Entnahmeeinheit bereitgestellt ist, die konfiguriert ist, um charakteristische Punkte von einem Bild zu entnehmen, das durch die bildgebende Einheit aufgenommen ist und wobei die Erfassungsobjekt-Erkennungseinheit eine Mehrzahl von charakteristischen Punkten einteilt, die durch die charakteristischer-Punkt-Entnahmeeinheit entnommen sind und das Erfassungsobjekt innerhalb eines Erkennungsbereichs erkennt, der auf der Basis von einem spezifischen horizontalen Rand eingestellt ist, der, unter horizontalen Rändern, die durch die horizontale-Rand-Entnahmeeinheit innerhalb eines horizontaler-Rand-Eingrenzungs-Bereichs entnommen sind, der basierend auf der eingeteilten charakteristischen Punkt Gruppe eingestellt ist, die vorbestimmte Voraussetzung erfüllt.
  5. Objekterfassungsvorrichtung nach Anspruch 4, wobei die Erfassungsobjekt-Erkennungseinheit eine Vergrößerungs- oder Verringerungs-Korrektur des horizontaler-Rand-Eingrenzungs-Bereichs durchführt, wenn sich der horizontaler-Rand-Eingrenzungs-Bereich von einer geschätzten Größe eines Erkennungsobjekts unterscheidet, die von seiner Position in einem Bild, das durch die bildgebende Einheit aufgenommen ist, abgeleitet ist.
  6. Objekterfassungsvorrichtung nach einem der Ansprüche 1 bis 5, wobei die Erfassungsobjekt-Erkennungseinheit eine Vergrößerungskorrektur des horizontaler-Rand-Eingrenzungs-Bereichs in Richtung einer Zentrumsrichtung eines Bildes durchführt, das durch die bildgebende Einheit aufgenommen ist, wenn der horizontaler-Rand-Eingrenzungs-Bereich so eingestellt ist, dass er entweder links oder rechts von einer Zentrumslinie im Hinblick auf die horizontale Richtung eines Bildes verzerrt ist, das durch die bildgebende Einheit aufgenommen ist.
  7. Objekterfassungsvorrichtung nach einem der Ansprüche 1 bis 6, wobei, wenn der horizontaler-Rand-Eingrenzungs-Bereich so eingestellt ist, dass er entweder links oder rechts von einer Zentrumslinie im Hinblick auf die horizontale Richtung eines Bildes verzerrt ist, das durch die bildgebende Einheit aufgenommen ist, die Erfassungsobjekt-Erkennungseinheit eine Verringerungskorrektur von einem größeren der Bereiche des horizontaler-Rand-Eingrenzungs-Bereichs durchführt, wenn durch die Zentrumslinie geteilt.
  8. Objekterfassungsvorrichtung nach einem der Ansprüche 1 bis 7, wobei, wenn der horizontaler-Rand-Eingrenzungs-Bereich so eingestellt ist, dass er entweder links oder rechts von einer Zentrumslinie im Hinblick auf die horizontale Richtung eines Bildes verzerrt ist, das durch die bildgebende Einheit aufgenommen ist, die Erfassungsobjekt-Erkennungseinheit eine Vergrößerungskorrektur von einem kleineren der Bereiche des horizontaler-Rand-Eingrenzungs-Bereichs durchführt, wenn durch die Zentrumslinie geteilt.
  9. Fahrunterstützungsvorrichtung umfassend: eine Objekterfassungsvorrichtung nach einem der Ansprüche 1 bis 8 und eine Fahrunterstützungseinheit, die konfiguriert ist, um eine Fahrunterstützung des Fahrzeugs, basierend auf einem Erfassungsergebnis der Objekterfassungsvorrichtung, durchzuführen.
  10. Objekterfassungsverfahren umfassend die Schritte von: entnehmen von horizontalen Rändern, die charakteristische Linien von ungefähr horizontalen Richtungskomponenten in einem Suchbereich eines Bildes sind, das durch eine bildgebende Einheit aufgenommen ist; und erkennen eines Erfassungsobjekts innerhalb eines Erkennungsbereichs, der auf der Basis von einem spezifischen horizontalen Rand eingestellt ist, der, unter den entnommenen horizontalen Rändern, eine vorbestimmte Voraussetzung erfüllt.
  11. Computer-lesbares nicht-flüchtiges Aufzeichnungsmittel, das mit einem Objekterfassungsprogramm bereitgestellt ist, das einen Steuerungscomputer/Regelungscomputer einer Objekterfassungsvorrichtung dazu bringt horizontale Ränder, die charakteristische Linien von ungefähr horizontalen Richtungskomponenten in einem Suchbereich eines Bildes sind, das durch eine bildgebende Einheit aufgenommen ist, zu entnehmen; und ein Erfassungsobjekt innerhalb eines Erkennungsbereichs, der auf der Basis von einem spezifischen horizontalen Rand eingestellt ist, der, unter den entnommenen horizontalen Rändern, eine vorbestimmte Voraussetzung erfüllt, zu erkennen.
DE102015208782.4A 2014-05-19 2015-05-12 Objekterfassungsvorrichtung, Fahrunterstützungsvorrichtung, Objekterfassungsverfahren und Objekterfassungsprogramm Pending DE102015208782A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-103615 2014-05-19
JP2014103615A JP6163453B2 (ja) 2014-05-19 2014-05-19 物体検出装置、運転支援装置、物体検出方法、および物体検出プログラム

Publications (1)

Publication Number Publication Date
DE102015208782A1 true DE102015208782A1 (de) 2015-11-19

Family

ID=54361899

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015208782.4A Pending DE102015208782A1 (de) 2014-05-19 2015-05-12 Objekterfassungsvorrichtung, Fahrunterstützungsvorrichtung, Objekterfassungsverfahren und Objekterfassungsprogramm

Country Status (4)

Country Link
US (1) US10325171B2 (de)
JP (1) JP6163453B2 (de)
CN (1) CN105096655B (de)
DE (1) DE102015208782A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220009514A1 (en) * 2020-07-08 2022-01-13 Toyota Jidosha Kabushiki Kaisha Vehicle surrounding monitoring apparatus

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2015008380A1 (ja) * 2013-07-19 2017-03-02 本田技研工業株式会社 車両の走行安全装置、車両の走行安全方法および車両の走行安全プログラム
JP6062122B2 (ja) * 2014-08-21 2017-01-18 三菱電機株式会社 運転支援装置、運転支援方法及びプログラム
DE112015007054B4 (de) 2015-11-20 2019-11-28 Mitsubishi Electric Corp. Fahrunterstützungsvorrichtung, fahrunterstützungssystem, fahrunterstützungsverfahren und fahrunterstützungsprogramm
JP6661082B2 (ja) * 2016-03-30 2020-03-11 株式会社エクォス・リサーチ 画像認識装置、及び画像認識プログラム
KR101949358B1 (ko) * 2016-04-04 2019-02-18 엘지전자 주식회사 차량용 어라운드뷰 제공 장치 및 이를 구비한 차량
KR102485317B1 (ko) * 2016-05-26 2023-01-05 현대자동차주식회사 움직임 정보에 기반한 장애물 검출 시스템 및 방법
KR101795270B1 (ko) * 2016-06-09 2017-11-07 현대자동차주식회사 장애물의 지면경계 정보를 이용한 물체 측면 검출 방법 및 장치
CN109643128B (zh) * 2017-08-07 2022-02-25 松下电器产业株式会社 移动体及移动体的控制方法
JP2019160251A (ja) * 2018-03-16 2019-09-19 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、移動体、画像処理方法およびプログラム
JP6983334B2 (ja) * 2018-09-12 2021-12-17 日立Astemo株式会社 画像認識装置
WO2021070768A1 (ja) * 2019-10-09 2021-04-15 ソニー株式会社 情報処理装置、および情報処理システム、並びに情報処理方法
CN112585945A (zh) * 2020-02-26 2021-03-30 深圳市大疆创新科技有限公司 对焦方法、装置及设备
KR20220037531A (ko) * 2020-09-17 2022-03-25 현대자동차주식회사 차량 및 그 제어방법
JP7324819B2 (ja) * 2021-10-12 2023-08-10 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
CN114162376B (zh) * 2021-11-24 2023-04-25 龙岩烟草工业有限责任公司 烟包外观质量检测方法以及烟包外观质量检测装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008293504A (ja) 2008-05-30 2008-12-04 Honda Motor Co Ltd 対象物認識装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5487116A (en) * 1993-05-25 1996-01-23 Matsushita Electric Industrial Co., Ltd. Vehicle recognition apparatus
JP3072730B2 (ja) 1998-10-09 2000-08-07 日本電気株式会社 車両検出方法および装置
DE19926559A1 (de) 1999-06-11 2000-12-21 Daimler Chrysler Ag Verfahren und Vorrichtung zur Detektion von Objekten im Umfeld eines Straßenfahrzeugs bis in große Entfernung
JP2001134769A (ja) * 1999-11-04 2001-05-18 Honda Motor Co Ltd 対象物認識装置
JP2001134772A (ja) * 1999-11-04 2001-05-18 Honda Motor Co Ltd 対象物認識装置
JP2001331788A (ja) * 2000-05-22 2001-11-30 Mitsubishi Electric Corp 車両検出装置
DE10324895A1 (de) 2003-05-30 2004-12-16 Robert Bosch Gmbh Verfahren und Vorrichtung zur Objektortung für Kraftfahrzeuge
JP3864945B2 (ja) 2003-09-24 2007-01-10 アイシン精機株式会社 路面走行レーン検出装置
JP3977802B2 (ja) * 2003-12-16 2007-09-19 株式会社東芝 障害物検出装置、障害物検出方法および障害物検出プログラム
JP4544028B2 (ja) * 2005-05-13 2010-09-15 日産自動車株式会社 車載画像処理装置、および画像処理方法
US7899211B2 (en) 2005-12-07 2011-03-01 Nissan Motor Co., Ltd. Object detecting system and object detecting method
CN101029824B (zh) 2006-02-28 2011-10-26 东软集团股份有限公司 基于车辆特征的车辆定位方法和装置
JP4797794B2 (ja) * 2006-05-24 2011-10-19 日産自動車株式会社 歩行者検出装置および歩行者検出方法
JP4697063B2 (ja) * 2006-06-20 2011-06-08 日産自動車株式会社 接近車両検出装置
JP4793324B2 (ja) * 2007-05-30 2011-10-12 株式会社日立製作所 車両監視装置および車両監視方法
DE102008011228A1 (de) 2008-02-26 2009-08-27 Robert Bosch Gmbh Verfahren zur Unterstützung eines Nutzers eines Fahrzeugs, Steuereinrichtung für ein Fahrerassistenzsystem eines Fahrzeugs und Fahrzeug mit einer derartigen Steuereinrichtung
JP5642785B2 (ja) 2010-06-07 2014-12-17 本田技研工業株式会社 車両の周辺監視装置
JP5561064B2 (ja) * 2010-09-24 2014-07-30 トヨタ自動車株式会社 車両用対象物認識装置
JP5907700B2 (ja) * 2011-11-18 2016-04-26 クラリオン株式会社 画像処理装置、車両システム、及び、画像処理方法
JP5930806B2 (ja) * 2012-03-30 2016-06-08 富士通テン株式会社 検知装置、及び検知方法
JP5786793B2 (ja) * 2012-05-09 2015-09-30 株式会社デンソー 車両検出装置
JP2014021510A (ja) * 2012-07-12 2014-02-03 Jvc Kenwood Corp 画像処理装置および画像処理方法、ならびに、プログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008293504A (ja) 2008-05-30 2008-12-04 Honda Motor Co Ltd 対象物認識装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220009514A1 (en) * 2020-07-08 2022-01-13 Toyota Jidosha Kabushiki Kaisha Vehicle surrounding monitoring apparatus
US11673571B2 (en) * 2020-07-08 2023-06-13 Toyota Jidosha Kabushiki Kaisha Vehicle surrounding monitoring apparatus

Also Published As

Publication number Publication date
JP2015219773A (ja) 2015-12-07
JP6163453B2 (ja) 2017-07-12
US20150329049A1 (en) 2015-11-19
CN105096655B (zh) 2017-10-31
US10325171B2 (en) 2019-06-18
CN105096655A (zh) 2015-11-25

Similar Documents

Publication Publication Date Title
DE102015208782A1 (de) Objekterfassungsvorrichtung, Fahrunterstützungsvorrichtung, Objekterfassungsverfahren und Objekterfassungsprogramm
DE102018116111B4 (de) Ein einheitliches tiefes faltendes neuronales Netzwerk für die Abschätzung von Freiraum, die Abschätzung der Objekterkennung und die der Objektstellung
DE112013007129B4 (de) Bewegungstrajektorienvorhersagevorrichtung und Bewegungstrajektorienvorhersageverfahren
DE102015212786A1 (de) Fahrspurgrenzlinienerkennungsvorrichtung und computerlesbares Speichermedium, das ein Programm zum Erkennen von Fahrspurgrenzlinien auf einer Straße speichert
DE102016111307B4 (de) Fahrzeug-Außenumgebungs-Erkennungsvorrichtung
KR101968349B1 (ko) 영상 정보를 이용한 차선 경계 검출 방법
DE102014112820A9 (de) Fahrzeugaußenumgebungerkennungsvorrichtung
DE102015206651A1 (de) Fahrzeugfahrunterstützungsvorrichtung zum ausführen von kollisionsvermeidungsbetrieben auf der grundlage einer position und einer bewegungsbedingung eines zielobjekts
DE102009025545A1 (de) Verfahren und Vorrichtung zum Erkennen von Bremslichtsystemen
DE112013001424T5 (de) Objekterkennungsvorrichtung
DE102011004006A1 (de) Spurmarkierungserkennungssystem mit verbessertem Erkennungsverhalten
DE102010030044A1 (de) Wiederherstellvorrichtung für durch Wettereinflüsse verschlechterte Bilder und Fahrerunterstützungssystem hiermit
DE102015111907B4 (de) Algorithmus zum Erweitern des Erkennungsbereichs für eine AVM-Haltelinienerkennung
DE112018007485T5 (de) Straßenoberflächen-Detektionsvorrichtung, Bildanzeige-Vorrichtung unter Verwendung einer Straßenoberflächen-Detektionsvorrichtung, Hindernis-Detektionsvorrichtung unter Nutzung einer Straßenoberflächen-Detektionsvorrichtung, Straßenoberflächen-Detektionsverfahren, Bildanzeige-Verfahren unter Verwendung eines Straßenoberflächen-Detektionsverfahrens, und Hindernis-Detektionsverfahren unter Nutzung eines Straßenoberflächen-Detektionsverfahrens
DE102016111304A1 (de) Fahrzeug-Außenumgebungs-Erkennungsvorrichtung
DE102014012653A1 (de) Bildverarbeitungsverfahren für Fahrzeugkamera und dieses anwendende Bildverarbeitungsvorrichtung
DE112018006738T5 (de) Vorrichtung zur detektion fallender objekte, fahrzeuginternes system, fahrzeug und programm zur detektion fallender objekte
DE102016116601B4 (de) Fahrzeugaußenumgebung-Erkennungsvorrichtung
DE102013012930A1 (de) Verfahren zum Bestimmen eines aktuellen Abstands und/oder einer aktuellen Geschwindigkeit eines Zielobjekts anhand eines Referenzpunkts in einem Kamerabild, Kamerasystem und Kraftfahrzeug
DE102016104730A1 (de) Verfahren zum Detektieren eines Objekts entlang einer Straße eines Kraftfahrzeugs, Rechenvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102017108254A1 (de) Rundumsichtkamerasystem zur Objekterkennung und -verfolgung
DE112020001707T5 (de) Herunterfallendes-Objekt-Bestimmungsvorrichtung, Fahrunterstützungssystem, und Herunterfallendes-Objekt-Bestimmungsverfahren
DE102016201304A1 (de) Vorrichtung und Verfahren zum Erfassen eines Randsteins in einer Umgebung eines Fahrzeugs sowie System zur Randsteinkontrolle für ein Fahrzeug
US20160307055A1 (en) Stereoscopic object detection device and stereoscopic object detection method
DE102014113359B4 (de) Filtervorrichtung und Umgebungserkennungssystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R163 Identified publications notified
R016 Response to examination communication
R084 Declaration of willingness to licence
R016 Response to examination communication