DE102011017540B4 - Verfahren und Vorrichtung zum Erkennen einer Anwesenheit von Objekten - Google Patents

Verfahren und Vorrichtung zum Erkennen einer Anwesenheit von Objekten Download PDF

Info

Publication number
DE102011017540B4
DE102011017540B4 DE102011017540.7A DE102011017540A DE102011017540B4 DE 102011017540 B4 DE102011017540 B4 DE 102011017540B4 DE 102011017540 A DE102011017540 A DE 102011017540A DE 102011017540 B4 DE102011017540 B4 DE 102011017540B4
Authority
DE
Germany
Prior art keywords
measured distance
candidate area
data
image
distance data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102011017540.7A
Other languages
English (en)
Other versions
DE102011017540A1 (de
Inventor
Takashi Ogawa
Hiroshi Sakai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of DE102011017540A1 publication Critical patent/DE102011017540A1/de
Application granted granted Critical
Publication of DE102011017540B4 publication Critical patent/DE102011017540B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/487Extracting wanted echo signals, e.g. pulse detection
    • G01S7/4876Extracting wanted echo signals, e.g. pulse detection by removing unwanted signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

Objekterkennungsvorrichtung (50), die eine Anwesenheit eines zu erfassenden Objekts basierend auf den Ergebnissen des sequenziellen Emittierens von Testwellen entlang einer vorbestimmten Abtastrichtung, so dass die Testwellen angrenzend nebeneinander liegen, erfasst, wobei die Vorrichtung (50) aufweist:ein Ortserlangungsmittel (S120), das ein Datum (R, θx, y) eines gemessenen Abstands erlangt, das den Ort eines Objekts angibt, wobei das Datum (R, θx, y) eines gemessenen Abstands für jede Emission der Testwelle basierend auf einer reflektierten Welle vom Objekt erzeugt wird, wobei die reflektierte Welle als ein Ergebnis des Emittierens der Testwelle erlangt wird;ein Bilderlangungsmittel (S110), das ein Bilddatum erlangt, das ein Bild eines Bereichs ist, der mindestens einen Abtastbereich der Testwellen beinhaltet;ein Kandidatenerfassungsmittel (S130), das einen Kandidatenbereich, in dem Daten (R, θx, y) gemessener Abstände als zur selben Gruppe angehörig gruppiert sind, basierend auf den Daten (R, θx, y) der gemessenen Abstände erfasst, die durch das Ortserlangungsmittel (S120) erlangt werden, wobei die gruppierten Daten (R, θx, y) der gemessenen Abstände in einem Bereich beinhaltet sind, der durch diese Daten (R, θx, y) gemessener Abstände ausgebildet ist, die voneinander um nicht mehr als einen vorbestimmten zulässigen Betrag (Δx, Δy, Δz) beabstandet sind;ein Spezialkandidatenbereichsbestimmungsmittel (S140), das einen Spezialkandidatenbereich in dem Kandidatenbereich bestimmt, der durch das Kandidatenerfassungsmittel (S130) erfasst wird, wobei der Spezialkandidatenbereich eine Wahrscheinlichkeit, mindestens zwei oder mehr zu erfassende Objekte, die angrenzend entlang einer vorbestimmten Richtung angeordnet sind, zu beinhalten, aufweist;ein Auswahlerfassungsmittel (S140 bis S170), das ein Objekt durch Unterwerfen des Bilddatums, das durch das Bilderlangungsmittel (S110) erlangt wird, einer Bilderkennungsverarbeitung erkennt, und eine Auswahl von Daten (R, θx, y) gemessener Abstände erfasst, in denen sich die zu erfassenden Objekte befinden, wobei die Objekte in einem Bereich des Bilddatums aufgenommen werden, wobei der Bereich dem Spezialkandidatenbereich entspricht; undein Kandidatenteilmittel (S210), das den Spezialkandidatenbereich an einer Grenzposition zwischen Objekten teilt, wobei die Grenzposition einem Ende der Auswahl der Daten (R, θx, y) gemessener Abstände entspricht, die durch das Auswahlerfassungsmittel (S140 bis S170) erfasst werden.

Description

  • HINTERGRUND DER ERFINDUNG
  • [Technisches Gebiet der Erfindung]
  • Die vorliegende Erfindung bezieht sich auf ein Verfahren und eine Vorrichtung zum Erkennen einer Anwesenheit von Objekten aus den Erfassungsergebnissen, die von einem Laserradarsystem erlangt werden und insbesondere auf die bevorzugte Anwendung des Verfahrens und der Vorrichtung auf Fahrzeuge.
  • [Stand der Technik]
  • Objekterkennungsvorrichtungen sind bekannt. Beispielsweise wird bei einer bekannten Objekterkennungsvorrichtung ein Objekt (hauptsächlich ein vorausfahrendes Fahrzeug), das sich in der Vorwärtsrichtung des betreffenden Fahrzeugs befindet, erkannt, um eine Fahrzeugsteuerung, wie beispielsweise adaptive Geschwindigkeitsregelung (Adaptive Cruise Control, ACC) oder eine Steuerung basierend auf einem Unfallvorhersagesystem (Pre-Crash safety System, PCS) durchzuführen.
  • Beispielsweise offenbart JP 2004 - 53 278 A diesen Typ Erkennungsvorrichtung. Diese Objekterkennungsvorrichtung beinhaltet ein Laserradarsystem und eine Bildaufnahmeeinheit. Das Laserradarsystem emittiert sequenziell Laserstrahlen (d. h., Testwellen) entlang einer vorbestimmten Abtastrichtung, so dass die Strahlen nebeneinander angrenzend angeordnet sind. Dann wird ein Objekt als ein zu erfassendes Objekt basierend auf den Ergebnissen der Emission der Laserstrahlen erkannt. In der Zwischenzeit nimmt die Bildaufnahmeeinheit ein Bild auf, das als eine Bildauswahl mindestens einen Abtastbereich der Laserstrahlen beinhaltet. Dann wird das aufgenommene Bild einer Bilderkennungsverarbeitung unterworfen, so dass ein zu erfassendes Objekt erkannt wird. Bei einer derartigen Objekterkennungsvorrichtung wird der Ort des zu erfassendes Objekts, das sowohl durch das Laserradarsystem als auch die Bildaufnahmeeinheit erkannt wurde, auf zeitserielle Weise nachverfolgt.
  • Bei der Objekterkennungsvorrichtung erzeugt das Laserradarsystem (nachfolgend ebenso als „herkömmliches Radarsystem“ bezeichnet) ein Datum eines gemessenen Abstands jedes Mal, wenn ein Laserstrahl emittiert wird, basierend auf einer von einem Objekt reflektierten Welle, die als ein Ergebnis der Emission des Laserstrahls erlangt wird. Das Datum eines gemessenen Abstands beinhaltet den Ort des Objekts (d. h., einen Abstand vom Laserradarsystem zum Objekt, eine Koordinate in der Breitenrichtung des Fahrzeugs und eine Koordinate in der Höhenrichtung des Fahrzeugs).
  • Der Ort des Objekts kann sich zwischen Daten gemessener Abstände unterscheiden. Diese Daten gemessener Abstände, die einen Bereich ausbilden und den vorstehenden Unterschied von nicht mehr als einem vorbestimmten zulässigen Betrag aufweisen, sind als zur selben Gruppe zugehörig gruppiert. Dann wird der Ort der gruppierten Daten gemessener Abstände oder einer Gruppe von Daten gemessener Abstände auf eine zeitserielle Weise nachverfolgt, um ein zu erfassendes Objekt zu erkennen. Dies ist die herkömmlich durchgeführte Verarbeitung der Objekterkennung.
  • 7A ist ein Diagramm, das die Fahrbedingungen von Fahrzeugen A und B darstellt, die eine Straße in der Vorwärtsrichtung des betreffenden Fahrzeugs befahren. 7B ist ein Diagramm, das die Zustände von Daten gemessener Abstände darstellt, die durch das herkömmliche Radarsystem unter der Fahrbedingung, die in 7A dargestellt ist, als die Fahrzeuge A und B erkannt wurden.
  • Wie in 7A dargestellt ist, nähert sich das Fahrzeug B, das zur Zeit t hinter dem Fahrzeug A fährt, dem Fahrzeug A zur Zeit t+1. Dann fährt das Fahrzeug B zur Zeit t+2, das sich mit seinem Endabschnitt (linkes Ende) einem Endabschnitt (rechtes Ende) des Fahrzeugs A annähert, schließlich Seite an Seite mit dem Fahrzeug A. Dann fährt das Fahrzeug B zur Zeit t+3 vor dem Fahrzeug A.
  • Zu den Zeiten t, t+1 und t+3 ist der Unterscheid der Daten gemessener Abstände entsprechend dem Endabschnitt (rechtes Ende) des Fahrzeugs A und den Daten gemessener Abstände entsprechend dem Endabschnitt (linkes Ende) des Fahrzeugs B unter derartigen Umständen größer als ein zulässiger Betrag. Dadurch gruppiert das herkömmliche Radarsystem, wie in 7B dargestellt ist, die Daten gemessener Abstände entsprechend dem Fahrzeug A und die Daten gemessener Abstände entsprechend dem Fahrzeug B separat, um die Fahrzeuge A und B einzeln zu erkennen.
  • Andererseits ist zur Zeit t+2 der Abstand vom herkömmlichen Radarsystem zum Fahrzeug A gleich dem Abstand zum Fahrzeug B. Ebenso wird, da sich das Fahrzeug B dem Fahrzeug A angenähert hat, der Abstand zwischen dem Endabschnitt (rechtes Ende) des Fahrzeugs A und dem Endabschnitt (linkes Ende) des Fahrzeugs B in der Breitenrichtung des Fahrzeugs (nachfolgend ebenso nur als „Breitenrichtung“ bezeichnet) klein.
  • Indessen streut ein Laserstrahl, der von dem herkömmlichen Radarsystem emittiert wird, wenn der Abstand nach der Emission länger wird, wodurch die Strahlbreite größer werden kann. Dadurch kann es sein, dass der Laserstrahl, der in Richtung des Raums zwischen den Fahrzeugen A und B emittiert wird, den Raum zwischen den Fahrzeugen A und B nicht passieren kann, sondern möglicherweise durch das Fahrzeug A oder das Fahrzeug B reflektiert wird. In einem derartigen Fall wird bei dem herkömmlichen Radarsystem der Unterschied zwischen dem Datum eines gemessenen Abstands, der als der Endabschnitt (rechtes Ende) des Fahrzeugs A erfasst wird, und dem Datum eines gemessenen Abstands, der als der Endabschnitt des Fahrzeugs B erfasst werden, gleich oder kleiner als der zulässige Betrag. Demzufolge werden die Daten gemessener Abstände der Fahrzeuge A und B als ein einzelnes Objekt (d. h. ein einzelnes Fahrzeug) gruppiert. Dies erhöht ein Problem, dass die zwei Fahrzeug A und B fehlerhaft als ein einzelnes Objekt erkannt werden.
  • Darüber hinaus wird beim zeitseriellen Nachverfolgen der Orte der Fahrzeuge A und B, unter Verwendung des herkömmlichen Radarsystems, das Nachverfolgen beibehalten wobei die Fahrzeuge A und B fehlerhaft erkannt werden. Dadurch liegt ein Problem darin, dass zur Zeit t+2 die Verhalten der fehlerhaft erkannten Fahrzeuge als ein Objekt als Schleudern betrachtet werden, oder die Größe des Fahrzeugs als ein Objekt als plötzlich sehr groß betrachtet wird.
  • In anderen Worten leidet das herkömmliche Radarsystem unter einem Problem, dass, wenn mehr als ein zu erfassendes Objekt nahe entlang der Abtastrichtung befindlich ist, die einzelnen zu erfassenden Objekte nicht mit guter Genauigkeit erfasst werden können.
  • Ferner wird auf die US 2008 / 0 089 557 A1 , die US 2004 / 0 176 900 A1 und die JP 2002 - 99 907 A verwiesen, die als Stand der Technik ermittelt wurden.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die vorliegende Erfindung wurde im Hinblick auf die vorstehend erläuterten Probleme gemacht und ihre Aufgabe ist es, eine Objekterkennungsvorrichtung bereitzustellen, die die Erkennungsgenauigkeit (oder Schätzgenauigkeit) für mehr als ein zu erfassendes Objekt verbessern kann, sogar wenn die Objekte sich in der Abtastrichtung nahe zueinander befinden.
  • Die Objekterkennungsvorrichtung gemäß der vorliegenden Erfindung erkennt (oder schätzt) die Anwesenheit eines zu erfassenden Objekts basierend auf den Ergebnissen des sequenziellen Emittierens von Testwellen entlang einer vorbestimmten Abtastrichtung, so dass die Testwellen angrenzend nebeneinander liegen.
  • In der Vorrichtung erlangt ein Ortserlangungsmittel ein Datum eines gemessenen Abstands, das den Ort eines Objekts angibt, wobei das Datum eines gemessenen Abstands für jede Emission der Testwelle basierend auf einer reflektierten Welle vom Objekt erzeugt wird, wobei die reflektierte Welle als ein Ergebnis des Emittierens der Testwelle erlangt wird.
  • Ebenso erlangt in der Vorrichtung ein Bilderlangungsmittel ein Bilddatum, das ein Bild eines Bereichs ist, der einen Abtastbereich der Testwellen beinhaltet.
  • In der Vorrichtung erfasst ein Kandidatenerfassungsmittel einen Kandidatenbereich, in dem Daten gemessener Abstände als zur selben Gruppe angehörig gruppiert sind, basierend auf den Daten der gemessenen Abstände, die durch das Ortserlangungsmittel erlangt werden, wobei die gruppierten Daten der gemessenen Abstände in einem Bereich beinhaltet sind, der durch diese Daten gemessener Abstände ausgebildet ist, die voneinander um nicht mehr als einen vorbestimmten zulässigen Betrag beabstandet sind.
  • Ebenso bestimmt in der Vorrichtung ein Spezialkandidatenbereichsbestimmungsmittel einen Spezialkandidatenbereich in dem Kandidatenbereich, der durch das Kandidatenerfassungsmittel erfasst wird, wobei der Spezialkandidatenbereich eine Wahrscheinlichkeit, mindestens zwei oder mehr zu erfassende Objekte, die angrenzend entlang einer vorbestimmten Richtung angeordnet sind, zu beinhalten, aufweist.
  • In der Vorrichtung erkennt ein Auswahlerfassungsmittel ein Objekt durch Unterwerfen des Bilddatums, das durch das Bilderlangungsmittel erlangt wird, einer Bilderkennungsverarbeitung, und erfasst eine Auswahl von Daten gemessener Abstände, in denen sich die zu erfassenden Objekte befinden, wobei die Objekte in einem Bereich des Bilddatums aufgenommen werden, wobei der Bereich dem Spezialkandidatenbereich entspricht.
  • In der Vorrichtung teilt ein Kandidatenteilmittel den Spezialkandidatenbereich an einer Grenzposition zwischen Objekten, wobei die Grenzposition einem Ende der Auswahl der Daten gemessener Abstände entspricht, die durch das Auswahlerfassungsmittel erfasst werden.
  • Gemäß der Objekterkennungsvorrichtung der vorliegenden Erfindung wird, wenn der Kandidatenbereich dem Spezialkandidatenbereich entspricht, der Spezialkandidatenbereich in Bereiche entsprechend den einzelnen Objekten basierend auf dem Bereich der Daten gemessener Abstände, die vom Bilddatum erfasst werden, geteilt.
  • Somit können gemäß der Objekterkennungsvorrichtung der vorliegenden Erfindung unter der Bedingung, bei der mehr als ein zu erfassendes Objekt (nachfolgend ebenso als „Erfassungsobjekte“ bezeichnet) angrenzend entlang der Abtastrichtung anwesend ist, alle Erfassungsobjekte als einzelne Erfassungsobjekte erkannt werden, wodurch die Erfassungsgenauigkeit für die Erfassungsobjekte verbessert ist.
  • Ferner kann gemäß der Objekterkennungsvorrichtung der vorliegenden Erfindung Hochgenauigkeitserkennen bezüglich der zeitseriellen Änderung des Orts jedes erkannten Erfassungsobjekts, d. h. bezüglich der Verhalten jedes Erfassungsobjekts, durchgeführt werden.
  • Es ist zu beachten, dass bei der Objekterkennungsvorrichtung der vorliegenden Erfindung das Kandidatenteilmittel einen Kandidatenbereich in Divisionen teilen kann. Dann kann der Ort jeder Division, die ein Kandidatenbereich ist, auf zeitserielle Weise nachverfolgt werden, so dass das Objekterkennungsmittel ein Erfassungsobjekt aus den Ergebnissen des zeitseriellen Nachverfolgens erkennen kann.
  • In der vorliegenden Erfindung kann das Auswahlerfassungsmittel die Bilderkennungsverarbeitung für einen Bereich in den Bilddaten durchführen, wobei der Bereich dem Spezialkandidatenbereich entspricht.
  • Gemäß der Objekterkennungsvorrichtung der vorliegenden Erfindung ist der Bereich in einem Bilddatum, das der Bilderkennungsverarbeitung unterworfen wird, auf den Bereich entsprechend dem Spezialkandidatenbereich beschränkt. Demzufolge ist die Prozesslast reduziert, was zum Erfassen des Bereichs von Daten gemessener Abstände in einem Bilddatum notwendig ist. Somit wird gemäß der Objekterkennungsvorrichtung der vorliegenden Erfindung die erforderliche Zeit zum Erfassen des Bereichs der Daten gemessener Abstände verkürzt.
  • In der vorliegenden Erfindung kann das Auswahlerfassungsmittel den Kandidatenbereich als den Spezialkandidatenbereich bestimmen, wenn der Kandidatenbereich eine Größe größer als ein vorbestimmter Betrag aufweist, der die Größe eines Einheitskörpers jedes der zu erfassenden Objekte angibt.
  • Gemäß der Objekterkennungsvorrichtung der vorliegenden Erfindung wird ein Bereich, der mit hoher Wahrscheinlichkeit mehr als ein Erfassungsobjekt beinhaltet, als ein Spezialkandidatenbereich definiert. Demzufolge wird gemäß der Objekterkennungsvorrichtung der vorliegenden Ausführungsform fehlerhaftem Erkennen von mehr als einem Objekt als ein einzelnes Objekt (Erfassungsobjekt) verlässlicher vorgebeugt.
  • Die Objekterkennungsvorrichtung gemäß der vorliegenden Erfindung kann ein Neuerfassungsmittel aufweisen, das dem Auswahlerfassungsmittel erlaubt, eine Auswahl der Daten gemessener Abstände unter Verwendung der Gruppe der Daten gemessener Abstände als den Spezialkandidatenbereich zu erfassen, wenn die Gruppe der Daten gemessener Abstände eine Größe größer als ein spezifizierter Betrag aufweist, wobei die Gruppe der Daten gemessener Abstände aus der Division resultiert, die durch das Kandidatenteilmittel durchgeführt wird.
  • Gemäß der Objekterkennungsvorrichtung der vorliegenden Ausführungsform können alle Erfassungsobjekte, die in einem Spezialkandidatenbereich beinhaltet sind, verlässlicher als einzelne Erfassungsobjekte erkannt werden.
  • Die Objekterkennungsvorrichtung gemäß der vorliegenden Erfindung kann die Testwellen unter Verwendung von mindestens einer Breitenrichtung eines Fahrzeugs als eine der Abtastrichtungen emittieren. In diesem Fall kann das Auswahlerfassungsmittel den Spezialkandidatenbereich definieren, in dem die Breitenrichtung des Fahrzeugs als die vorbestimmte Richtung verwendet wird.
  • Bei einer Objekterkennungsvorrichtung können mehr als ein Erfassungsobjekt nebeneinander bzw. angrenzend in der Breitenrichtung des Fahrzeugs angeordnet sein, beispielsweise, wenn mehr als ein vorausfahrendes Fahrzeug, die sich nahe zueinander befinden, Seite an Seite fahren. Gemäß der Objekterkennungsvorrichtung der vorliegenden Erfindung kann fehlerhaftes Erkennen des Erfassungsobjekts als ein einzelnes Objekt (Erfassungsobjekt) in dem Fall vermieden werden, in dem sich die Erfassungsobjekte in der Breitenrichtung angrenzend zueinander bzw. nebeneinander befinden.
  • Die Objekterfassungsvorrichtung gemäß der vorliegenden Erfindung kann die Testwellen unter Verwendung von mindestens einer Höhenrichtung eines Fahrzeugs als eine der Abtastrichtungen emittieren. In diesem Fall kann das Auswahlerfassungsmittel den Spezialkandidatenbereich definieren, in dem die Höhenrichtung des Fahrzeugs als die vorbestimmte Richtung verwendet wird.
  • Bei einer Objekterkennungsvorrichtung können mehr als ein Objekt in der Höhenrichtung des Fahrzeugs angrenzend zueinander bzw. übereinander angeordnet sein, wie beispielsweise, wenn sich ein Verkehrsschild oberhalb eines gestoppten Fahrzeugs befindet. Gemäß der Objekterkennungsvorrichtung der vorliegenden Ausführungsform kann fehlerhaftes Erkennen von Erfassungsobjekten als ein einzelnes Objekt (Erfassungsobjekt) in dem Fall vermieden werden, in dem Erfassungsobjekte in der Höhenrichtung übereinander angeordnet sind.
  • Die vorliegende Erfindung kann als ein Programm konfiguriert sein, um einem Computer zu erlauben, als eine Objekterkennungsvorrichtung zu funktionieren.
  • In diesem Fall ist der Computer erforderlich um einen Ortserlangungsschritt, der ein Datum eines gemessenen Abstands erlangt, das den Ort eines Objekts angibt, wobei das Datum eines gemessenen Abstands für jede Emission der Testwelle basierend auf einer reflektierten Welle vom Objekt erzeugt wird, wobei die reflektierte Welle als ein Ergebnis des Emittierens der Testwelle erlangt wird; einen Bilderlangungsschritt, der ein Bilddatum erlangt, das ein Bild eines Bereichs ist, der einen Abtastbereich der Testwellen beinhaltet; einen Kandidatenerfassungsschritt, der einen Kandidatenbereich, in dem Daten gemessener Abstände als zur selben Gruppe angehörig gruppiert sind, basierend auf den Daten der gemessenen Abstände erfasst, die durch den Ortserlangungsschritt erlangt werden, wobei die gruppierten Daten der gemessenen Abstände in einem Bereich beinhaltet sind, der durch diese Daten gemessener Abstände ausgebildet ist, die voneinander um nicht mehr als einen vorbestimmten zulässigen Betrag beabstandet sind; einen Spezialkandidatenbereichsbestimmungsschritt, der einen Spezialkandidatenbereich in dem Kandidatenbereich bestimmt, der durch den Kandidatenerfassungsschritt erfasst wird, wobei der Spezialkandidatenbereich eine Wahrscheinlichkeit mindestens zwei oder mehr zu erfassende Objekte, die angrenzend entlang einer vorbestimmten Richtung angeordnet sind, zu beinhalten, aufweist; einen Auswahlerfassungsschritt, der ein Objekt durch Unterwerfen des Bilddatums, das durch den Bilderlangungsschritt erlangt wird, einer Bilderkennungsverarbeitung erkennt, und eine Auswahl von Daten gemessener Abstände erfasst, in denen sich die zu erfassenden Objekte befinden, wobei die Objekte in einem Bereich des Bilddatums aufgenommen werden, wobei der Bereich dem Spezialkandidatenbereich entspricht; und einen Kandidatenteilschritt auszuführen, der den Spezialkandidatenbereich an einer Grenzposition zwischen Objekten teilt, wobei die Grenzposition einem Ende der Auswahl der Daten gemessener Abstände entspricht, die durch den Auswahlerfassungsschritt erfasst werden.
  • Ein Programm mit einer derartigen Konfiguration kann auf einem computerlesbaren Aufzeichnungsmedium wie beispielsweise einer DVD-ROM, einer CD-ROM oder einer Festplatte aufgezeichnet sein. Somit kann das Programm auf einen Computer geladen und wie erforderlich gestartet werden oder kann durch einen Computer mittels einer Kommunikationsleitung erlangt und wie erforderlich gestartet werden. Werden die einzelnen Schritte durch einen Computer ausgeführt, kann der Computer als die vorstehend erläuterte Objekterkennungsvorrichtung funktionieren.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Es zeigen:
    • 1 ein schematisches Blockschaltbild, das die Konfiguration eines Objekterkennungssystems, das eine Erkennungs-ECU beinhaltet, auf welche die vorliegende Erfindung angewandt wird, und eine periphere Konfiguration des Systems gemäß einer Ausführungsform der vorliegenden Erfindung darstellt;
    • 2 ein Ablaufdiagramm, das die Verarbeitungsprozedur einer Objekterkennungsverarbeitung darstellt, die durch die Erkennungs-ECU ausgeführt wird;
    • 3A und 3B erläuternde Diagramme, die darstellen, wie zu erfassende Objekte aus einem Bilddatum in der Objekterkennungsverarbeitung erfasst werden;
    • 4A bis 4C erläuternde Diagramme, die ein Beispiel des Betriebs gemäß der Ausführungsform darstellen;
    • 5 ein schematisches Blockschaltbild, das die Konfiguration eines Objekterkennungssystems gemäß einer Modifikation der vorliegenden Erfindung darstellt;
    • 6 ein Ablaufdiagramm, das die Verarbeitungsprozedur einer Objekterkennungsverarbeitung darstellt, die durch das Objekterkennungssystem gemäß der Modifikation ausgeführt wird; und
    • 7A und 7B erläuternde Diagramme, die Nachteile eines Radarsystem gemäß dem Stand der Technik darstellen.
  • DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Mit Bezug auf 1 bis 4A - 4C wird nachfolgend eine Ausführungsform der vorliegenden Erfindung erläutert.
  • 1 ist ein schematisches Blockdiagramm, das die Konfiguration eines Objekterkennungssystems 1, das eine Erkennungs-ECU (electronic control unit, elektronische Steuereinheit) 50 beinhaltet, auf die die vorliegende Erfindung angewandt wird, und eine periphere Konfiguration des Objekterkennungssystems 1 darstellt.
  • Das Objekterkennungssystem 1 wird eingebaut in einem Fahrzeug verwendet. Das Objekterkennungssystem 1 erkennt (oder schätzt) die Anwesenheit eines Objekts, das sich vor dem betreffenden Fahrzeug befindet und erzeugt Objektdaten (oder Zieldaten), die die Informationen bezüglich des erkannten Objekts sind. Die erzeugten Objektdaten beinhalten den Typ des Objekts (beispielsweise vorausfahrendes Fahrzeug oder Straßenverkehrsschild), den Ort des Objekts (Abstand vom betreffenden Fahrzeug zum Objekt, Koordinaten in der Fahrzeugbreitenrichtung und Koordinaten in der Fahrzeughöhenrichtung), die Größe des Objekts und die relative Geschwindigkeit zwischen dem Objekt und dem Fahrzeug (oder die Geschwindigkeit des Objekts). Die Objektdaten werden einer Fahrzeugsteuerungs-ECU 60 bereitgestellt.
  • Dann führt die Fahrzeugsteuerungs-ECU 60 allgemein bekannte Fahrzeugsteuerungen wie beispielsweise adaptive Geschwindigkeitsregelung (Adaptive Cruise Control, ACC) basierend auf den Objektdaten durch. Beispielsweise steuert bei der ACC die Steuerungs-ECU 60 den Antriebsmechanismus, den Bremsmechanismus und den Lenkmechanismus, die im Fahrzeug eingebaut sind, so dass das Fahrzeug den Verhalten des vorausfahrenden Fahrzeugs folgen kann, während der Zwischenfahrzeugabstand mit einem vorbestimmten Pegel beibehalten wird.
  • Konkret beinhaltet das Objekterkennungssystem 1 ein Lidar-System (Light Detection And Ranging, Lichtlaufzeitmessung) 10, eine Bildaufnahmeeinheit 40 und eine Erkennungs-ECU 50.
  • Das Lidar-System 10 beinhaltet einen Lichtemitter 20 und einen Lichtempfänger 30. Der Lichtemitter 20 tastet die vorwärtige Richtung des Fahrzeugs unter Verwendung von Laserstrahlen als Testwellen ab. Der Lichtempfänger 30 empfängt reflektiertes Licht (reflektierte Wellen) von einem Objekt, wobei das reflektierte Licht dem vom Lichtemitter 20 emittierten und durch das Objekt reflektierten Laserstrahl entspricht.
  • Das Lidar-System 10 beinhaltet ebenso einen Erfassungsschaltkreis 35 und eine Lidar-Steuerung 36. Der Erfassungsschaltkreis 35 misst die Zeit, von der ab ein Laserstrahl vom Lichtemitter 20 emittiert wird, bis zur Zeit, wenn reflektiertes Licht durch den Lichtempfänger 30 empfangen wird, um ein Abstandsdatum R zu erzeugen. Die Lidar-Steuerung 36 gibt ein LD-Treibersignal (Laserdiodenantriebssignal) zum Treiben des Lichtemitters 20 aus und erzeugt ein Datum eines gemessenen Abstands basierend auf dem Abstandsdatum R, das durch den Erfassungsschaltkreis 35 erzeugt wird.
  • Beispielsweise ist das Lidar-System 10 in der Nähe der vorderen Stoßstange oder des Kühlergrills außerhalb des Fahrzeuginnenraums oder in der Nähe des Rückfahrspiegels im Fahrzeuginnenraum angeordnet, was eine Position ist, von der Laserstrahlen in Richtung der vorwärtigen Richtung des Fahrzeugs emittiert werden können.
  • Der Lichtemitter 20 beinhaltet eine Laserdiode (LD) 21 und einen Laserdiodentreiberschaltkreis 22. Die Laserdiode 21 erzeugt einen Laserstrahl. Der Laserdiodentreiberschaltkreis 22 erlaubt der Laserdiode 21 einen gepulsten Laserstrahl in Antwort auf ein Laserdiodentreibersignal von der Lidar-Steuerung 36 zu erzeugen.
  • Der Lichtemitter 20 beinhaltet ebenso eine lichtemittierende Linse 23, einen Abtastmechanismus 24 und einen Motortreiberschaltkreis 25. Die lichtemittierende Linse 23 schmälert die Breite des Laserstrahls, der durch die Laserdiode 21 erzeugt wird. Der Abtastmechanismus ist durch einen rotierenden Polygonspiegel, der Seiten mit unterschiedlichen Neigungswinkeln zum Reflektieren der Laserstrahlen aufweist, die mittels der lichtemittierenden Linse 23 bereitgestellt werden, und durch einen Motor zum Betreiben der Rotation des Polygonspiegels konfiguriert. Der Motortreiberschaltkreis 25 treibt den Motor, der den Scannermechanismus 24 konfiguriert, in Antwort auf ein Motortreibersignal von der Lidar-Steuerung 36 an, um Abtasten mit dem Laserstrahl innerhalb einer vorbestimmten Winkelauswahl zu realisieren.
  • Das Abtasten mit den Laserstrahlen, die vom Lichtemitter 20 emittiert werden, wird wie folgt realisiert. Konkret wird ein Abtastbereich durch eine Winkelauswahl (beispielsweise ±18,0 Grad) definiert, der in der Breitenrichtung des Fahrzeugs (nachfolgend ebenso nur als „Breitenrichtung“ bezeichnet) mit dem Mittelpunkt in der vorwärtigen Richtung (0 Grad) des Fahrzeugs vorbestimmt ist. Laserstrahlen werden durch Deplatzieren der Emissionsrichtung entlang der Breitenrichtung auf vorbestimmter Winkelbasis (beispielsweise auf der Basis eines Winkels gleich der Breite eines Laserstrahls (0,25 Grad)) über den Abtastbereich emittiert. Nachfolgend wird die eindimensionale Strahlabtastung in der Breitenrichtung als „Linienabtasten“ bezeichnet.
  • Nach Vervollständigen einer Linienabtastung schaltet der Motortreiberschaltkreis 25 sequenziell einen Absenkwinkel θy des Laserstrahls in der Höhenrichtung des Fahrzeugs (nachfolgend ebenso nur als „Höhenrichtung“ bezeichnet) um. Durch Wiederholen der Linienabtastung, während der Absenkwinkel sequenziell umgeschaltet wird, wird zweidimensionale Strahlabtastung realisiert.
  • Der Lichtempfänger 30 beinhaltet eine Lichtempfangslinse 31, ein Lichtempfangselement (PD) 32 und einen Verstärker 33. Die Lichtempfangslinse 31 empfängt reflektiertes Licht von einem Objekt, was der Reflexion eines Laserstrahls von dem Objekt entspricht. Das Lichtempfangselement 32 empfängt das reflektierte Licht mittels der Lichtempfangslinse 31 und erzeugt ein Lichtempfangssignal mit einem Spannungswert entsprechend der Intensität des empfangenen reflektierten Lichts. Der Verstärker 33 verstärkt das Lichtempfangssignal vom Lichtempfangselement 32.
  • Der Erfassungsschaltkreis 35 empfängt die Laserdiodenantriebssignale von der Lidar-Steuerung 36. Jedes Mal, wenn ein Laserdiodenantriebssignal empfangen wird, misst der Erfassungsschaltkreis 35 den Phasenunterschied (d. h., eine Umlaufzeit eines Laserstrahls zu/von einem Objekt, das den Laserstrahl reflektiert hat) zwischen dem Laserdiodenantriebssignal und einem Lichtempfangssignal vom Lichtempfänger 30. Dann erzeugt der Erfassungsabschnitt 35 das Abschnittsdatum R durch Berechnen der Messergebnisse hinsichtlich des Abstandes zum Objekt, das den Laserstrahl reflektiert hat.
  • Die Lidar-Steuerung 36 ist durch einen allgemein bekannten Mikrocomputer einschließlich einer CPU, eines ROM und eines RAM konfiguriert.
  • Die Lidar-Steuerung 36 treibt den Lichtemitter 20 unter Verwendung des Laserdiodenantriebssignals und des Motorantriebssignals an, um eine Abtastverarbeitung durchzuführen, bei der zweidimensionale Strahlabtastung realisiert ist. Die Abtastverarbeitung wird mit jedem vorbestimmten Abtastzyklus gestartet. Bei der Abtastverarbeitung werden das Laserdiodenantriebssignal und das Motorantriebssignal ausgegeben, so dass die Linienabtastung mit den Strahlen, die einen unterschiedlichen Absenkwinkel θy aufweisen, mit einer Anzahl gleich der Anzahl von Variationen des Absenkwinkels θy wiederholt wird.
  • Dann wird das Abstandsdatum R mit einem Abtastwinkel θx, y (d. h. mit der Position des Laserdiodenantriebssignals in einer Sequenz in einer Linienabtastung korreliert) des Zeitpunkts korreliert, bei dem das Abstandsdatum R erzeugt wurde. Die Lidar-Steuerung 36 speichert die korrelierten Abstandsdaten R als Daten gemessener Abstände (R, θx, y) auf einer Abtastung-für-Abtastung-Basis eines unterschiedlichen Strahlabsenkwinkels θy. Somit gibt jedes Datum eines gemessenen Abstands (R, θx, y) die Anwesenheit/Abwesenheit eines Objekts, das den Laserstrahl reflektiert hat, den Abstand zum Objekt, und den Ort des Objekts an.
  • Die Lidar-Steuerung 36 ist ebenso konfiguriert, die gespeicherten Daten gemessener Abstände (R, θx, y) der Erkennungs-ECU 50 nach Anforderung von der Erkennungs-ECU 50 bereitzustellen.
  • Die Bildaufnahmeeinheit 40 beinhaltet eine Bildaufnahmeeinrichtung 41 und einen Bildverarbeiter 42. Die Bildaufnahmeeinrichtung 41 nimmt digitale Bilder (d. h. Bilddaten) auf. Der Bildverarbeiter 42 speichert die Bilddaten, die durch die Bildaufnahmeeinrichtung 41 aufgenommen werden, um sie der Erkennungs-ECU 50 nach Anforderung von der Erkennungs-ECU 50 bereitzustellen.
  • Die Bildaufnahmeeinrichtung 41 wird auf eine vorbestimmte Position fixiert, um eine Bildaufnahmeauswahl abzudecken, der mindestens einen Emissionsbereich (d. h., Abtastbereich) der Laserstrahlen beinhaltet, die von dem Lidar-System 10 emittiert werden. Die Bildaufnahmeeinrichtung 41 nimmt ein Bild bei einem periodischen Zeitintervall auf, das im Wesentlichen das gleiche ist wie der Abtastzyklus, um dabei Bilddaten zu produzieren.
  • Der Bildverarbeiter 42 ist durch einen allgemein bekannten Mikrocomputer einschließlich einer CPU, eines ROM und eines RAM konfiguriert.
  • Die Erkennungs-ECU 50 ist hauptsächlich durch einen allgemein bekannten Mikrocomputer konfiguriert, der mindestens ein ROM 51, ein RAM 52 und eine CPU 53 beinhaltet. Das ROM 51 speichert Daten und ein Programm, dessen Inhalte beim Abschalten erhalten bleiben müssen. Das RAM 52 speichert temporär Daten. Die CPU 53 führt eine Verarbeitung gemäß einem Programm, das in dem ROM 51 oder dem RAM 52 gespeichert ist, aus.
  • Dem ROM 51 wird ein Programm für die Erkennungs-ECU 50 bereitgestellt, um eine Objekterkennungsverarbeitung auszuführen. Bei der Objekterkennungsverarbeitung wird ein Objekt, das sich in der vorwärtigen Richtung des Fahrzeugs befindet, basierend auf den Daten gemessener Abstände (R, θx, y), die von dem Lidar-System 10 erlangt werden, und basierend auf den Bilddaten, die von der Bildaufnahmeeinheit 40 erlangt werden, erkannt, um Objektdaten des erkannten Objekts zu erzeugen. In anderen Worten funktioniert die Erkennungs-ECU 50 als die Objekterkennungsvorrichtung der vorliegenden Ausführungsform durch Durchführen der Objekterkennungsverarbeitung.
  • Nachfolgend wird die Objekterkennungsverarbeitung erläutert, die durch die Erkennungs-ECU 50 durchgeführt wird.
  • Die Objekterkennungsverarbeitung wird jedes Mal gestartet, wenn die Abtastverarbeitung durch das Lidar-System 10 vervollständigt ist, d. h. bei jedem Abtastzyklus. 2 ist ein Ablaufdiagramm, das die Objekterkennungsverarbeitung darstellt.
  • Konkret erlangt die Erkennungs-ECU 50 bei der Objekterkennungsverarbeitung als Erstes das in der Zeitserie letzte Bilddatum von dem Bildverarbeiter 42 der Bildverarbeitungseinheit 40 (S110). Nachfolgend erlangt die Erkennungs-ECU 50 die Daten gemessener Abstände (R, θx, y) entsprechend einer Abtastverarbeitung von der Lidar-Steuerung 36 des Lidar-Systems 10 (S120).
  • Dann werden von den erlangten Daten gemessener Abstände (R, θx, y) die Daten gemessener Abstände (R, θx, y), die als zur selben Gruppe gehörig betrachtet werden, gruppiert, um ein Segment auszubilden (nachfolgend als „Kandidatenbereich“ bezeichnet) (S130).
  • Konkret wird bei S130 der vorliegenden Ausführungsform eine Polarkoordinatenposition (Punkt), die durch ein Abstandsdatum R, und einen Abtastwinkel θx, y definiert ist, die die Daten gemessener Abstände (R, θx, y) ausbilden, in eine orthogonale Koordinatenposition (Punkt) konvertiert. Es ist zu beachten, dass bei der orthogonalen Koordinate der Ursprung (0, 0, 0) das Zentrum des betreffenden Fahrzeugs angibt, die X-Achse eine Breitenrichtung angibt, die y-Achse die Höhenrichtung angibt, und die z-Achse die vorwärtige Richtung des Fahrzeugs angibt.
  • Von den Positionen (Punkten), die aus der Konversion ins orthogonale Koordinatensystem resultieren, werden diese Positionen (Satz von Punkten (Punktsatz)) gruppiert, die alle der drei nachfolgend erläuterten Bedingungen erfüllen. Diese drei Bedingungen sind: der Abstand in der X-Achsenrichtung ist nicht größer als ein vorbestimmter zulässiger Betrag Δx (beispielsweise 0,2 m); der Abstand in der Y-Achsenrichtung ist nicht größer als ein vorbestimmter zulässiger Betrag Δy; und der Abstand in der Z-Achsenrichtung ist nicht größer als ein vorbestimmter zulässiger Betrag Δz (beispielsweise 2 m).
  • Jeder Kandidatenbereich weist eine rechtwinklige Form einschließlich eines Satzes von Punkten auf, die durch die Gruppierung integriert sind, wobei die rechtwinklige Form auf eine Größe in Konformität mit dem Satz von Punkten festgelegt wird. Jeder Kandidatenbereich wird mit Segmentdaten korreliert, die dreiseitige Daten (W (Breite), H (Höhe) und D (Tiefe)) beinhalten, die die Größe des Kandidatenbereichs angeben, und beinhaltet einen Abtastwinkel θx, y entsprechend dem linken Ende und dem rechten Ende des Kandidatenbereichs.
  • Konkret entspricht jeder Kandidatenbereich einer Gruppe von Daten gemessener Abstände (R, θx, y), die zueinander Unterschiede in der X-, Y- und Z-Achsenrichtung aufweisen, wobei diese Unterschiede gleich oder kleiner als vorbestimmte zulässige Beträge (Δx, Δy, Δz) sind und somit als zur selben Gruppe gehörig betrachtet werden.
  • Nachfolgend wird einer der Kandidatenbereiche, die bei S130 ausgebildet werden, extrahiert (S140). Dann wird bestimmt, ob die Größe (W, H) des extrahierten Kandidatenbereichs größer als eine Größe ist, die durch die spezifizierten Beträge (ThW, THH) definiert wird, die eine Größe vorbestimmter zu erfassender Objekte (beispielsweise vorausfahrendes Fahrzeug) (nachfolgend als „Erfassungsobjekte“ bezeichnet) angeben (S150).
  • Als ein Ergebnis der Bestimmung bei S150 wird, wenn die Größe (W, H) des Kandidatenbereichs nicht größer als die Größe ist, die durch die spezifizierten Beträge (Thw, THH) definiert wird (NEIN bei S150), der Kandidatenbereich, der bei S140 extrahiert wird, bestimmt, eine niedrigere Wahrscheinlichkeit, mehr als ein Erfassungsobjekt aufzuweisen. Dann fährt die Verarbeitung mit S220 fort.
  • Andererseits wird als ein Ergebnis der Bestimmung bei S150, wenn die Größe (W, H) des Kandidatenbereichs größer als die Größe ist, die durch die spezifizierten Beträge (Thw, THH) definiert ist (JA bei S150) der Kandidatenbereich, der bei S140 extrahiert wird, als eine Wahrscheinlichkeit aufweisend, mehr als ein Erfassungsobjekt zu beinhalten, definiert (nachfolgend wird dieser Bereich als „Spezialkandidatenbereich“ bezeichnet). Dann fährt die Verarbeitung mit Schritt S160 fort.
  • 3A und 3B sind erläuternde Diagramme, die darstellen, wie ein Erfassungsobjekt aus einem Bilddatum in der Objekterkennungsverarbeitung erfasst wird.
  • Bei S160 wird, wie in 3A dargestellt ist, in einem Bilddatum, das bei S110 erlangt wird, ein Objektbereich definiert, der ein Bereich in dem Bilddatum ist und dem Spezialkandidatenbereich entspricht. Nachfolgend wird für den Objektbereich, der in dem Bilddatum definiert ist, eine Bildverarbeitungsverarbeitung durch Ausführen eines Vergleichs mit Identifizieren durchgeführt, die Erfassungsobjekte angeben (S170).
  • Konkret wird bei S170 unter Verwendung eines allgemein bekannten Schemas ein vorbestimmter Merkmalsbetrag von dem Objektbereich in dem Bilddatum abgeleitet und der abgeleitete Merkmalsbetrag wird mit dem Identifizieren verglichen. Somit werden, wie in 3B dargestellt ist, alle Erfassungsobjekte, die von dem Objektbereich in dem Bilddatum aufgenommen sind, erfasst, um die Auswahlen (Erfassungsobjekt A und Erfassungsobjekt B in 3B) zu definieren, in dem die entsprechenden Erfassungsobjekte anwesend sind.
  • Dann wird bestimmt, ob das Erfassungsobjekt (nachfolgend als „Erfassungseinheit“ bezeichnet), das von dem Erfassungsbereich in dem Bilddatum erfasst wird, mehr als eines ist oder nicht (S180). Als ein Ergebnis der Bestimmung bei S180, wenn die Erfassungseinheit nicht mehr als eines ist, d. h., die Anzahl von Einheiten ist „0“ oder „1“ (NEIN bei S180), fährt die Verarbeitung mit S220 fort, der später beschrieben wird.
  • Andererseits fährt die Verarbeitung als ein Ergebnis der Bestimmung bei S180, wenn die Erfassungseinheit mehr als eine ist (d. h. die Anzahl von Einheiten ist „2“ oder mehr) (JA bei S180), mit S190 fort. Bei S190 wird eine Objektgrenze von dem Objektbereich in dem Bilddatum abgeleitet. Die Objektgrenze entspricht einer Koordinate in dem Bilddatum, die eine Grenze zwischen Objekteinheiten angibt. Ferner wird die Objektgrenze in eine Grenzrichtung konvertiert (entsprechend dem Grenzort der vorliegenden Erfindung) hinsichtlich des Abtastwinkels θx, y in einem Datum eines gemessenen Abstands (S200).
  • Dann wird der Spezialkandidatenbereich unter Verwendung der Grenzrichtung, die von der Konversion resultiert (S210) geteilt und die Verarbeitung kehrt zu S150 fort. Bei S150 wird bestimmt, ob die Größe (W, H) jeder Division des Spezialkandidatenbereichs, der bei S210 geteilt wird, größer als die Größe, die durch die spezifizierten Beträge (Thw, THH) definiert wird, ist oder nicht. Ist die Größe (W, H) jeder Division des Spezialkandidatenbereichs größer als die Größe, die durch die spezifizierten Beträge (Thw, THH) definiert ist (JA bei S150), werden die Verarbeitungen bei S160 bis S210 wiederholt. Konkret werden die Verarbeitungen S150 bis S210 wiederholt, bis keine Wahrscheinlichkeit mehr besteht, dass mehr als ein Erfassungspunkt in dem Spezialkandidatenbereich anwesend ist.
  • Andererseits, wenn die Größe (W, H) jeder Division des Spezialkandidatenbereichs gleich oder kleiner als die Größe ist, die durch die spezifizierten Beträge (Thw, THH) definiert ist (NEIN bei S150), wird jede Division des Spezialkandidatenbereichs als ein neuer Kandidatenbereich behandelt und die Steuerung fährt mit Schritt S220 fort.
  • Bei S220 wird bestimmt, ob die Bestimmung bei S150 bezüglich aller Kandidatenbereiche ausgeführt wurde oder nicht. Wurde die Bestimmung bei S150 nicht bezüglich aller Kandidatenbereiche ausgeführt (NEIN bei S220), fährt die Steuerung mit S140 fort. Dann wird bei S140 ein Kandidatenbereich, der der Bestimmung bei S150 nicht unterworfen wurde, von allen Kandidatenbereichen extrahiert, um die Schritte S150 bis S220 auszuführen.
  • Andererseits, wenn die Bestimmung bei S150 im Hinblick auf alle Kandidatenbereiche ausgeführt wurde (JA bei S220), fährt die Verarbeitung mit S230 fort.
  • Bei S230 wird jeder der Kandidatenbereiche als ein Beobachtungsbetrag betrachtet und auf zeitserielle Weise nachverfolgt. Dann wird gemäß den Ergebnissen der Nachverfolgung der Typ des Objekts definiert und für jeden der Beobachtungsbeträge erkannt. Indessen wird eine Nachverfolgungsverarbeitung durchgeführt, um Objektdaten für jedes der erkannten Objekte zu erzeugen.
  • Da die Nachverfolgungsverarbeitung allgemein bekannt ist, wird sie der Einfachheit halber nicht erläutert. Jedoch wird in einer herkömmlich ausgeführten Nachverfolgungsverarbeitung eine relative Geschwindigkeit zwischen dem betreffenden Fahrzeug und dem Objekt von der zeitseriellen Änderung des Orts des Beobachtungsbetrags (d. h. Kandidatenbereich) abgeleitet. Dann wird die abgeleitete relative Geschwindigkeit mit der Fahrzeuggeschwindigkeit des betreffenden Fahrzeugs verglichen. Danach wird der Typ des Objekts basierend auf den Vergleichsergebnissen und der Größe des Beobachtungsbetrags (d. h. Kandidatenbereich) angenommen. Ferner werden unter Verwendung eines Kalman-Filters zeitserielle Verhalten des Beobachtungsbetrags (d. h. Kandidatenbereich) vorhergesagt. Stimmen die Ergebnisse der Vorhersage mit dem Beobachtungsbetrag überein, werden der Typ, die Größe, die Geschwindigkeit und dergleichen des angenommenen Objekts schließlich bestätigt. Dann werden die bestätigten Ergebnisse als Objektdaten erzeugt.
  • Danach wird die Objekterkennungsverarbeitung beendet und die Steuerung wartet bis zur nächsten Startzeitgebung.
  • Nachfolgend wird ein Beispiel des Betriebs des Objekterkennungssystems 1 gemäß der vorliegenden Ausführungsform erläutert. 4A bis 4C sind erläuternde Diagramme, die das Betriebsbeispiel darstellen. Es wird von einem Fall ausgegangen, der in 4A dargestellt ist. Konkret fahren in 4A vorausfahrende Fahrzeuge A und B vor dem betreffenden Fahrzeug. Die Abstände vom betreffenden Fahrzeug zu den vorausfahrenden Fahrzeugen A und B sind gleich (d. h. der Unterschied im Abstand in der Z-Achsenrichtung ist nicht größer als der zulässige Betrag Δz). Ebenso sind Endabschnitte der vorausfahrenden Fahrzeuge (d. h. das rechte Ende des vorausfahrenden Fahrzeugs A und das linke Ende des vorausfahrenden Fahrzeugs B) nahe zueinander. In diesem Fall wird ferner davon ausgegangen, dass der tatsächliche Abstand zwischen dem Endabschnitt (rechtes Ende) des vorausfahrenden Fahrzeugs A und dem Endabschnitt (linkes Ende) des vorausfahrenden Fahrzeugs B in der Breitenrichtung größer als der zulässige Betrag Δx ist.
  • Im vorstehenden angenommenen Fall wird ebenso der Laserstrahl, der vom Lichtemitter 20 des Lidar-Systems 10 emittiert wird, gestreut. Demnach wird der Unterschied in der Breitenrichtung zwischen dem Datum eines gemessenen Abstands (R, θx, y) entsprechend dem Endabschnitt (rechtes Ende) des vorausfahrenden Fahrzeugs A und dem Datum eines gemessenen Abstands (R, θx, y) entsprechend dem Endabschnitt (linkes Ende) des vorausfahrenden Fahrzeugs B kleiner sein als der zulässige Betrag Δx. Dann wird die Verarbeitung bei S130 der Objekterkennungsverarbeitung der vorliegenden Ausführungsform ein wie in 4 dargestelltes Ergebnis zur Folge haben. Konkret werden die Daten gemessener Abstände entsprechend dem vorausfahrenden Fahrzeug A und die Daten gemessener Abstände entsprechend dem vorausfahrenden Fahrzeug B als ein Kandidatenbereich gruppiert. In diesem Fall ist unter der Annahme, dass ein zu erfassendes Objekt ein Fahrzeug (vorausfahrendes Fahrzeug) ist, die Größe (W, H) des Kandidatenbereichs größer als die Größe, die durch die spezifizierten Beträge (Thw, THH) definiert ist. Dadurch wird bei S160 und S170 der Objekterkennungsverarbeitung der Datenbereich als ein Spezialkandidatenbereich behandelt. Dann wird ein Objektbereich entsprechend dem Spezialkandidatenbereich in dem Bilddatum der Bilderkennungsverarbeitung unterworfen, um dabei eine Auswahl des Erfassungsobjekts (d. h., der vorausfahrenden Fahrzeuge A und B) und den Objektbereich zu definieren.
  • Dann wird bei S200 der Objekterkennungsverarbeitung, wie in 4C dargestellt ist, der Spezialkandidatenbereich gemäß der Grenzrichtung der Erfassungsobjekte geteilt, was auf der Auswahl des Erfassungsobjekts basiert, der vorstehend definiert ist. Die Divisionen des Spezialkandidatenbereichs werden dann als neue Kandidatenbereiche definiert. Ferner wird bei S230 der Objekterkennungsverarbeitung die Nachverfolgungsverarbeitung für alle Kandidatenbereiche durchgeführt, um Objekte in den Kandidatenbereichen zu definieren, die als Objekte zu bestätigen sind.
  • Wie vorstehend beschrieben ist, wird gemäß der Objekterkennungsverarbeitung der vorliegenden Ausführungsform, wenn der Kandidatenbereich ein Spezialkandidatenbereich ist, der Spezialkandidatenbereich in Bereiche geteilt, die einzelnen Objekten entsprechen.
  • Demzufolge kann das Objekterkennungssystem 1, unter der Bedingung, bei der mehr als ein Erfassungsobjekt angrenzend entlang der Abtastrichtung anwesend ist, alle Erfassungsobjekte als einzelne Erfassungsobjekte erkennen, wobei die Genauigkeit zum Erkennen eines Erfassungsobjekts verbessert ist.
  • Bei der Objekterkennungsverarbeitung gemäß der vorliegenden Ausführungsform wird bestimmt, ob ein Spezialkandidatenbereich auf einer Objekt-für-Objekt-Basis geteilt werden kann oder nicht, bis die Größe jedes der Kandidatenbereiche eine Größe gleich oder kleiner als die Größe wird, die durch die spezifizierten Beträge definiert ist. Dadurch wird gemäß dem Objekterkennungssystem 1 jedes der Erfassungsobjekte, das in einem Spezialkandidatenbereich beinhaltet ist, verlässlicher als ein einzelnes Erfassungsobjekt erkannt.
  • Ferner wird in dem Objekterkennungssystem 1 zeitserielles Nachverfolgen bezüglich der Orte der einzelnen Erfassungsobjekte ausgeführt. Demzufolge werden die Verhalten der Erfassungsobjekte mit guter Genauigkeit erkannt.
  • Bei der Objekterkennungsverarbeitung gemäß der vorliegenden Ausführungsform ist der Bereich in einem Bilddatum, das der Bilderkennungsverarbeitung unterworfen wird, auf einen Objektbereich entsprechend einem Spezialkandidatenbereich beschränkt. Demzufolge wird gemäß dem Objekterkennungssystem 1 die Verarbeitungslast reduziert, was für das Erfassen von Orten der Erfassungsobjekte in einem Bilddatum notwendig ist. Somit wird gemäß dem Objekterkennungssystem 1 die Zeit zum Erfassen von Erfassungsobjekten verkürzt.
  • (Modifikationen)
  • Eine Ausführung von der vorliegenden Erfindung wurde vorstehend beschrieben. Jedoch ist die vorliegende Erfindung nicht auf die vorstehende Ausführungsform beschränkt sondern kann in unterschiedlichen Modi innerhalb eines Umfangs, der den Umfang der vorliegenden Erfindung nicht verlässt, implementiert werden.
  • Modifikationen der vorliegenden Erfindung werden nachfolgend beschrieben. Es ist zu beachten, dass Komponenten, die identisch oder ähnlich den Komponenten der vorstehenden Ausführungsform sind, der Einfachheit halber mit denselben Bezugszeichen versehen werden.
  • Beispielsweise beinhaltet das Objekterkennungssystem 1 der vorstehenden Ausführungsform das Lidar-System 10, die Bildaufnahmeeinheit 40 und die Erkennungs-ECU 50. Jedoch ist das Objekterkennungssystem 1 nicht auf eine derartige Konfiguration beschränkt und muss die Erkennungs-ECU 50 nicht beinhalten.
  • 5 ist ein schematisches Blockschaltbild, das die Konfiguration des Objekterkennungssystems 1 gemäß einer Modifikation der vorliegenden Erfindung darstellt. Wie in 5 dargestellt ist, kann das Objekterkennungssystem 1 nur durch das Lidar-System 10 und die Bildaufnahmeeinheit 40 konfiguriert sein. Bei dieser Konfiguration können Informationen (beispielsweise Objektbereich und Grenzrichtung) zwischen der Lidar-Steuerung des Lidar-Systems 10 und dem Bildverarbeiter 42 der Bildaufnahmeeinheit 40 ausgetauscht werden.
  • 6 ist ein Ablaufdiagramm, das die Prozedur einer Objekterkennungsverarbeitung darstellt, die durch das Objekterkennungssystem 1 gemäß der Modifikation ausgeführt wird. Wie in 6 dargestellt ist, wenn das Objekterkennungssystem 1 die vorstehend erläuterte Konfiguration aufweist, ist es wünschenswert, dass die Lidar-Steuerung 36 des Lidar-Systems 10 die Schritte S120 bis S150 und S210 bis S230 ausführt. Indessen ist es wünschenswert, dass der Bildverarbeiter 42 der Bildaufnahmeeinheit 40 die Schritte S110 und S170 bis S190 ausführt. Die Schritte S160 und S200 in der Objekterkennungsverarbeitung können durch die Lidar-Steuerung 36 des Lidar-Systems 10 oder durch den Bildverarbeiter 42 der Bildaufnahmeeinheit 40 ausgeführt werden.
  • Jedoch haben das Lidar-System 10 und die Bildaufnahmeeinheit 40 in der vorliegenden Modifikation ähnliche Konfigurationen wie das Lidar-System 10 und die Bildaufnahmeeinheit 40 der vorstehenden Ausführungsform. Ebenso haben die einzelnen Schritte der Objekterkennungsverarbeitung in der vorliegenden Modifikation ähnliche Inhalte wie die die Schritte in der vorstehenden Ausführungsform.
  • Bei Schritt S170 der Objekterkennungsverarbeitung in der vorstehenden Ausführungsform wurde der Bereich in einem Bilddatum, das Bilderkennungsverarbeitung unterworfen wird, auf einen Objektbereich beschränkt. Jedoch ist der Bereich in einem Bilddatum, das der Bilderkennungsverarbeitung bei S170 unterworfen wird, nicht auf einen Objektbereich beschränkt sondern kann beispielsweise der gesamte Bereich des Bilddatums sein. In diesem Fall kann S160 der Objekterkennungsverarbeitung weggelassen werden.
  • Bei der Objekterkennungsverarbeitung in der vorstehend beschriebenen Ausführungsform waren vorausfahrende Fahrzeuge die Erfassungsobjekte. Jedoch sind die Erfassungsobjekte, die bei der Objekterkennungsverarbeitung erfasst werden können, nicht auf die vorausfahrenden Fahrzeuge beschränkt. Beispielsweise können die Erfassungsobjekte Verkehrsschilder auf einer Straße oder straßenseitige Objekte wie beispielsweise ein Leitpfosten oder können Objekte wie beispielsweise Fußgänger oder heruntergefallene Objekte sein, die die Fahrt des Fahrzeugs verhindern würden.
  • Sind Verkehrszeichen auf einer Straße als Erfassungsobjekte beinhaltet, können ein vorausfahrendes Fahrzeug und ein Verkehrszeichen auf der Straße als separate Kandidatenbereiche erkannt werden unter der Bedingung, bei der sich das Verkehrszeichen kurz vor dem vorausfahrenden Fahrzeug befindet und sehr nahe am vorausfahrenden Fahrzeug ist.
  • Die Beziehungen zwischen der vorhergehenden Ausführungsform und den Ansprüchen werden erläutert.
  • Schritt S110 der Objekterkennungsverarbeitung der vorstehenden Ausführungsform entspricht dem Bilderlangungsmittel der vorliegenden Erfindung. Auf gleiche Weise entspricht S120 dem Ortserlangungsmittel und Schritt S130 entspricht dem Kandidatenerfassungsmittel. Ferner entsprechen die Schritte S140 bis S170 dem Auswahlerfassungsmittel und Schritt S210 entspricht dem Kandidatenteilmittel.
  • Schritte S150 bis S170 nach der Verarbeitung bei S210 entsprechen dem Neuerfassungsmittel.

Claims (8)

  1. Objekterkennungsvorrichtung (50), die eine Anwesenheit eines zu erfassenden Objekts basierend auf den Ergebnissen des sequenziellen Emittierens von Testwellen entlang einer vorbestimmten Abtastrichtung, so dass die Testwellen angrenzend nebeneinander liegen, erfasst, wobei die Vorrichtung (50) aufweist: ein Ortserlangungsmittel (S120), das ein Datum (R, θx, y) eines gemessenen Abstands erlangt, das den Ort eines Objekts angibt, wobei das Datum (R, θx, y) eines gemessenen Abstands für jede Emission der Testwelle basierend auf einer reflektierten Welle vom Objekt erzeugt wird, wobei die reflektierte Welle als ein Ergebnis des Emittierens der Testwelle erlangt wird; ein Bilderlangungsmittel (S110), das ein Bilddatum erlangt, das ein Bild eines Bereichs ist, der mindestens einen Abtastbereich der Testwellen beinhaltet; ein Kandidatenerfassungsmittel (S130), das einen Kandidatenbereich, in dem Daten (R, θx, y) gemessener Abstände als zur selben Gruppe angehörig gruppiert sind, basierend auf den Daten (R, θx, y) der gemessenen Abstände erfasst, die durch das Ortserlangungsmittel (S120) erlangt werden, wobei die gruppierten Daten (R, θx, y) der gemessenen Abstände in einem Bereich beinhaltet sind, der durch diese Daten (R, θx, y) gemessener Abstände ausgebildet ist, die voneinander um nicht mehr als einen vorbestimmten zulässigen Betrag (Δx, Δy, Δz) beabstandet sind; ein Spezialkandidatenbereichsbestimmungsmittel (S140), das einen Spezialkandidatenbereich in dem Kandidatenbereich bestimmt, der durch das Kandidatenerfassungsmittel (S130) erfasst wird, wobei der Spezialkandidatenbereich eine Wahrscheinlichkeit, mindestens zwei oder mehr zu erfassende Objekte, die angrenzend entlang einer vorbestimmten Richtung angeordnet sind, zu beinhalten, aufweist; ein Auswahlerfassungsmittel (S140 bis S170), das ein Objekt durch Unterwerfen des Bilddatums, das durch das Bilderlangungsmittel (S110) erlangt wird, einer Bilderkennungsverarbeitung erkennt, und eine Auswahl von Daten (R, θx, y) gemessener Abstände erfasst, in denen sich die zu erfassenden Objekte befinden, wobei die Objekte in einem Bereich des Bilddatums aufgenommen werden, wobei der Bereich dem Spezialkandidatenbereich entspricht; und ein Kandidatenteilmittel (S210), das den Spezialkandidatenbereich an einer Grenzposition zwischen Objekten teilt, wobei die Grenzposition einem Ende der Auswahl der Daten (R, θx, y) gemessener Abstände entspricht, die durch das Auswahlerfassungsmittel (S140 bis S170) erfasst werden.
  2. Objekterkennungsvorrichtung (50) gemäß Anspruch 1, wobei: das Auswahlerfassungsmittel (S140 bis S170) die Bilderkennungsverarbeitung für einen Bereich in den Bilddaten durchführt, wobei der Bereich dem Spezialkandidatenbereich entspricht.
  3. Objekterkennungsvorrichtung (50) gemäß Anspruch 1 oder 2, wobei: das Auswahlerfassungsmittel (S140 bis S170) den Kandidatenbereich als den Spezialkandidatenbereich bestimmt, wenn der Kandidatenbereich eine Größe größer als ein vorbestimmter Betrag aufweist, der die Größe eines Einheitskörpers jedes der zu erfassenden Objekte angibt.
  4. Objekterkennungsvorrichtung (50) gemäß Anspruch 3, wobei: die Objekterkennungsvorrichtung (50) ein Neuerfassungsmittel aufweist, das dem Auswahlerfassungsmittel (S140 bis S170) erlaubt, eine Auswahl der Daten (R, θx, y) gemessener Abstände unter Verwendung der Gruppe der Daten (R, θx, y) gemessener Abstände als den Spezialkandidatenbereich zu erfassen, wenn die Gruppe der Daten (R, θx, y) gemessener Abstände eine Größe größer als ein spezifizierter Betrag aufweist, wobei die Gruppe der Daten (R, θx, y) gemessener Abstände aus der Teilung resultiert, die durch das Kandidatenteilmittel (S210) durchgeführt wird.
  5. Objekterkennungsvorrichtung (50) gemäß einem der Ansprüche 1 bis 4, wobei: die Objekterkennungsvorrichtung (50) die Testwellen unter Verwendung von mindestens einer Breitenrichtung eines Fahrzeugs als eine der Abtastrichtungen emittiert; und das Auswahlerfassungsmittel (S140 bis S170) den Spezialkandidatenbereich definiert, in dem die Breitenrichtung des Fahrzeugs als die vorbestimmte Richtung verwendet wird.
  6. Objekterfassungsvorrichtung (50) gemäß einem der Ansprüche 1 bis 5, wobei: die Objekterkennungsvorrichtung (50) die Testwellen unter Verwendung von mindestens einer Höhenrichtung eines Fahrzeugs als eine der Abtastrichtungen emittiert; und das Auswahlerfassungsmittel (S140 bis S170) den Spezialkandidatenbereich definiert, in dem die Höhenrichtung des Fahrzeugs als die vorbestimmte Richtung verwendet wird.
  7. Programm, um einem Computer zu erlauben, als eine Objekterkennungsvorrichtung (50) zu funktionieren, die eine Anwesenheit eines zu erfassenden Objekts basierend auf den Ergebnissen des sequenziellen Emittierens von Testwellen entlang einer vorbestimmten Abtastrichtung, so dass die Testwellen angrenzend nebeneinander liegen, erfasst, wobei das Programm dem Computer erlaubt, durchzuführen: einen Ortserlangungsschritt (S120), der ein Datum (R, θx, y) eines gemessenen Abstands erlangt, das den Ort eines Objekts angibt, wobei das Datum (R, θx, y) eines gemessenen Abstands für jede Emission der Testwelle basierend auf einer reflektierten Welle vom Objekt erzeugt wird, wobei die reflektierte Welle als ein Ergebnis des Emittierens der Testwelle erlangt wird; einen Bilderlangungsschritt (S110), der ein Bilddatum erlangt, das ein Bild eines Bereichs ist, der mindestens einen Abtastbereich der Testwellen beinhaltet; einen Kandidatenerfassungsschritt (S130), der einen Kandidatenbereich, in dem Daten (R, θx, y) gemessener Abstände als zur selben Gruppe angehörig gruppiert sind, basierend auf den Daten (R, θx, y) der gemessenen Abstände erfasst, die durch den Ortserlangungsschritt (S120) erlangt werden, wobei die gruppierten Daten (R, θx, y) der gemessenen Abstände in einem Bereich beinhaltet sind, der durch diese Daten (R, θx, y) gemessener Abstände ausgebildet ist, die voneinander um nicht mehr als einen vorbestimmten zulässigen Betrag (Δx, Δy, Δz) beabstandet sind; einen Spezialkandidatenbereichsbestimmungsschritt (S140), der einen Spezialkandidatenbereich in dem Kandidatenbereich bestimmt, der durch das Kandidatenerfassungsmittel (S130) erfasst wird, wobei der Spezialkandidatenbereich eine Wahrscheinlichkeit, mindestens zwei oder mehr zu erfassende Objekte, die angrenzend entlang einer vorbestimmten Richtung angeordnet sind, zu beinhalten, aufweist; einen Auswahlerfassungsschritt (S140 bis S170), der ein Objekt durch Unterwerfen des Bilddatums, das durch den Bilderlangungsschritt (S110) erlangt wird, einer Bilderkennungsverarbeitung erkennt, und eine Auswahl von Daten (R, θx, y) gemessener Abstände erfasst, in denen sich die zu erfassenden Objekte befinden, wobei die Objekte in einem Bereich des Bilddatums aufgenommen werden, wobei der Bereich dem Spezialkandidatenbereich entspricht; und einen Kandidatenteilschritt (S210), der den Spezialkandidatenbereich an einer Grenzposition zwischen Objekten teilt, wobei die Grenzposition einem Ende der Auswahl der Daten (R, θx, y) gemessener Abstände entspricht, die durch die Auswahlerfassungsschritt (S140 bis S170) erfasst werden.
  8. Verfahren zum Erkennen einer Anwesenheit eines zu erfassenden Objekts basierend auf den Ergebnissen des sequenziellen Emittierens von Testwellen entlang einer vorbestimmten Abtastrichtung, so dass die Testwellen angrenzend nebeneinander liegen, wobei das Verfahren umfasst: Erlangen (S120) eines Datums (R, θx, y) eines gemessenen Abstands, das den Ort eines Objekts angibt, wobei das Datum (R, θx, y) eines gemessenen Abstands für jede Emission der Testwelle basierend auf einer reflektierten Welle vom Objekt erzeugt wird, wobei die reflektierte Welle als ein Ergebnis des Emittierens der Testwelle erlangt wird; Erlangen (S110) eines Bilddatums, das ein Bild eines Bereichs ist, der mindestens einen Abtastbereich der Testwellen beinhaltet; Erfassen (S130) eines Kandidatenbereichs, in dem Daten (R, θx, y) gemessener Abstände als zur selben Gruppe angehörig gruppiert sind, basierend auf den erlangten Daten (R, θx, y) der gemessenen Abstände, wobei die gruppierten Daten (R, θx, y) der gemessenen Abstände in einem Bereich beinhaltet sind, der durch diese Daten (R, θx, y) gemessener Abstände ausgebildet ist, die voneinander um nicht mehr als einen vorbestimmten zulässigen Betrag (Δx, Δy, Δz) beabstandet sind; Bestimmen (S140) eines Spezialkandidatenbereichs in dem Kandidatenbereich, wobei der Spezialkandidatenbereich eine Wahrscheinlichkeit, mindestens zwei oder mehr zu erfassende Objekte, die angrenzend entlang einer vorbestimmten Richtung angeordnet sind, zu beinhalten, aufweist; Erfassen (S140 bis S170) eines Objekts durch Unterwerfen des erlangten Bilddatums einer Bilderkennungsverarbeitung, so dass eine Auswahl von Daten (R, θx, y) gemessener Abstände erfasst wird, in denen sich die zu erfassenden Objekte befinden, wobei die Objekte in einem Bereich des Bilddatums aufgenommen werden, wobei der Bereich dem Spezialkandidatenbereich entspricht; und Teilen (S210) des Spezialkandidatenbereichs an einer Grenzposition zwischen Objekten, wobei die Grenzposition einem Ende der Auswahl der erfassten Daten (R, θx, y) gemessener Abstände entspricht.
DE102011017540.7A 2010-04-27 2011-04-26 Verfahren und Vorrichtung zum Erkennen einer Anwesenheit von Objekten Active DE102011017540B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-102186 2010-04-27
JP2010102186A JP5316471B2 (ja) 2010-04-27 2010-04-27 物体認識装置、及びプログラム

Publications (2)

Publication Number Publication Date
DE102011017540A1 DE102011017540A1 (de) 2012-03-15
DE102011017540B4 true DE102011017540B4 (de) 2024-04-11

Family

ID=44815349

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011017540.7A Active DE102011017540B4 (de) 2010-04-27 2011-04-26 Verfahren und Vorrichtung zum Erkennen einer Anwesenheit von Objekten

Country Status (3)

Country Link
US (1) US8810445B2 (de)
JP (1) JP5316471B2 (de)
DE (1) DE102011017540B4 (de)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2479851C2 (ru) * 2012-01-20 2013-04-20 Александр Абрамович Часовской Устройство определения дальности
DE102013113054B4 (de) * 2012-12-03 2022-01-27 Denso Corporation Zielerfassungsvorrichtung zum Vermeiden einer Kollision zwischen einem Fahrzeug und einem durch einen an dem Fahrzeug montierten Sensor erfassten Ziel
KR102142361B1 (ko) * 2013-04-11 2020-08-07 웨이모 엘엘씨 차량 온보드 센서들을 사용하여 날씨 상태들을 검출하는 방법들 및 시스템들
US9618611B2 (en) * 2014-09-24 2017-04-11 Nxp B.V. Personal radar assistance
DE102015005589A1 (de) 2015-05-02 2015-12-10 Daimler Ag Wiedererkennung von vorausfahrenden Objekten
CN107945198B (zh) * 2016-10-13 2021-02-23 北京百度网讯科技有限公司 用于标注点云数据的方法和装置
WO2018151211A1 (ja) * 2017-02-15 2018-08-23 株式会社Preferred Networks 点群データ処理装置、点群データ処理方法、点群データ処理プログラム、車両制御装置及び車両
JP7005326B2 (ja) * 2017-12-13 2022-01-21 株式会社Soken 路側物認識装置
CN111971579A (zh) * 2018-03-30 2020-11-20 三菱电机株式会社 物体辨识装置
JP7366651B2 (ja) * 2019-09-03 2023-10-23 東芝テック株式会社 棚撮像装置及び情報処理装置
US11656340B2 (en) * 2020-01-31 2023-05-23 Denso Corporation LIDAR device
US11668832B2 (en) 2020-01-31 2023-06-06 Denso Corporation LIDAR device and method for calculating distance to object
DE102021200968A1 (de) 2021-02-03 2022-08-04 Robert Bosch Gesellschaft mit beschränkter Haftung LiDAR-System sowie Mehrfachpolygonspiegel

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002099907A (ja) 2000-09-22 2002-04-05 Mazda Motor Corp 物体認識装置
JP2004053278A (ja) 2002-07-16 2004-02-19 Nissan Motor Co Ltd 前方車両追跡システムおよび前方車両追跡方法
US20040176900A1 (en) 2003-03-03 2004-09-09 Koji Yajima Vehicle drive assist system
US20080089557A1 (en) 2005-05-10 2008-04-17 Olympus Corporation Image processing apparatus, image processing method, and computer program product

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0696397A (ja) * 1992-09-16 1994-04-08 Mitsubishi Electric Corp 画像追尾装置および画像追尾方法
US6553130B1 (en) * 1993-08-11 2003-04-22 Jerome H. Lemelson Motor vehicle warning and control system and method
JP3125550B2 (ja) * 1993-12-24 2001-01-22 日産自動車株式会社 移動車の前方認識装置ならびに車輌用走行制御装置
JP3639191B2 (ja) * 2000-07-10 2005-04-20 株式会社デンソー 物体認識方法及び装置、記録媒体
JP4376653B2 (ja) * 2004-02-17 2009-12-02 富士重工業株式会社 車外監視装置
JP3941795B2 (ja) * 2004-04-28 2007-07-04 株式会社デンソー 先行車両認識装置
JP2009109293A (ja) * 2007-10-29 2009-05-21 Mitsubishi Electric Corp 目標追尾装置及び目標観測システム及び目標追尾方法及びプログラム
JP5163087B2 (ja) * 2007-12-12 2013-03-13 トヨタ自動車株式会社 物体検出装置
JP4856656B2 (ja) * 2008-01-22 2012-01-18 富士重工業株式会社 車両検出装置
JP4892518B2 (ja) 2008-05-20 2012-03-07 日立オートモティブシステムズ株式会社 車両用外界認識装置、および、車両システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002099907A (ja) 2000-09-22 2002-04-05 Mazda Motor Corp 物体認識装置
JP2004053278A (ja) 2002-07-16 2004-02-19 Nissan Motor Co Ltd 前方車両追跡システムおよび前方車両追跡方法
US20040176900A1 (en) 2003-03-03 2004-09-09 Koji Yajima Vehicle drive assist system
US20080089557A1 (en) 2005-05-10 2008-04-17 Olympus Corporation Image processing apparatus, image processing method, and computer program product

Also Published As

Publication number Publication date
JP2011232155A (ja) 2011-11-17
US20110260909A1 (en) 2011-10-27
DE102011017540A1 (de) 2012-03-15
JP5316471B2 (ja) 2013-10-16
US8810445B2 (en) 2014-08-19

Similar Documents

Publication Publication Date Title
DE102011017540B4 (de) Verfahren und Vorrichtung zum Erkennen einer Anwesenheit von Objekten
DE102005015836B4 (de) Fahrzeugradarsystem
EP1557693B1 (de) Verfahren zur Verfolgung von Objekten
DE102007021762B4 (de) Straßenumgebungs-Erkennungsvorrichtung und Verfahren zum Erkennen einer Straßenumgebung
EP2800982B1 (de) Verfahren und vorrichtung zur radunabhängigen geschwindigkeitsmessung bei einem fahrzeug
EP1557694B1 (de) Verfahren zur Klassifizierung von Objekten
DE102005019269B4 (de) Vorrichtung zur Erkennung eines vorhergehenden Fahrzeugs
EP1797450B1 (de) Radarsensor und verfahren zur abstands- und geschwindigkeitsregelung
DE112015000715B4 (de) Vorrichtung zum Erfassen einer Achsenfehlausrichtung eines Strahlensensors
EP3292423B1 (de) Diagnoseverfahren für einen sichtsensor eines fahrzeugs und fahrzeug mit einem sichtsensor
DE112013004908T5 (de) Objekterfassungsvorrichtung
DE102007030823B4 (de) Radargerät
DE10356677A1 (de) Objekterkennungsvorrichtung für ein Fahrzeug und Zwischenfahrzeugabstandssteuereinheit
DE10132860A1 (de) Verfahren und Vorrichtung zum Erkennen eines Objekts
EP1306690B1 (de) Verfahren zur Erkennung und Verfolgung von Objekten
DE102011005970A1 (de) Verfahren und Vorrichtung zum Schätzen einer Straßenform
DE102020000803A1 (de) Verfahren zum Plausibilisieren einer Detektion eines LIDAR-Systems eines Fahrzeugs, Vorrichtung eingerichtet zum Durchführen eines solchen Verfahrens, und Fahrzeug mit einer solchen Vorrichtung
DE112020000849T5 (de) Sensorsystem für Fahrzeug, und Fahrzeug
DE102020105192B4 (de) Verfahren zum Detektieren bewegter Objekte in einer Fahrzeugumgebung und Kraftfahrzeug
EP3433632B1 (de) Verfahren zur erfassung von wenigstens einem objekt, vorrichtung einer sensoreinrichtung, sensoreinrichtung und fahrerassistenzsystem mit wenigstens einer sensoreinrichtung
DE102009038406A1 (de) Verfahren und Vorrichtung zur Vermessung des Umfeldes eines Kraftfahrzeugs
DE112019007921T5 (de) Objekterkennungsvorrichtung und Objekterkennungsverfahren
DE112022003094T5 (de) Verfahren, system und computerprogrammprodukt zum auflösen von niveauambiguität für radarsysteme autonomer fahrzeuge
DE112018007636T5 (de) Sensorsteuervorrichtung, fahrzeug, abtastverfahren und sensorsteuerprogramm
DE102009052560A1 (de) Verfahren und Vorrichtung zur Bestimmung der 3D-Position von Objekten im Umfeld eines Kraftfahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R084 Declaration of willingness to licence
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G01V0008000000

Ipc: G01V0008180000

R018 Grant decision by examination section/examining division