DE102015220329A1 - Objekterfassungsvorrichtung - Google Patents

Objekterfassungsvorrichtung Download PDF

Info

Publication number
DE102015220329A1
DE102015220329A1 DE102015220329.8A DE102015220329A DE102015220329A1 DE 102015220329 A1 DE102015220329 A1 DE 102015220329A1 DE 102015220329 A DE102015220329 A DE 102015220329A DE 102015220329 A1 DE102015220329 A1 DE 102015220329A1
Authority
DE
Germany
Prior art keywords
waves
indirect
direct
sensor
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102015220329.8A
Other languages
English (en)
Other versions
DE102015220329B4 (de
Inventor
Masumi Fukuman
Motonari Ohbayashi
Akihiro Kida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Original Assignee
Denso Corp
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Motor Corp filed Critical Denso Corp
Publication of DE102015220329A1 publication Critical patent/DE102015220329A1/de
Application granted granted Critical
Publication of DE102015220329B4 publication Critical patent/DE102015220329B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/87Combinations of sonar systems
    • G01S15/876Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector
    • G01S15/878Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector wherein transceivers are operated, either sequentially or simultaneously, both in bi-static and in mono-static mode, e.g. cross-echo mode
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/523Details of pulse systems
    • G01S7/526Receivers
    • G01S7/527Extracting wanted echo signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/46Indirect determination of position data
    • G01S2015/465Indirect determination of position data by Trilateration, i.e. two transducers determine separately the distance to a target, whereby with the knowledge of the baseline length, i.e. the distance between the transducers, the position data of the target is determined
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2015/937Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles sensor installation details
    • G01S2015/938Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles sensor installation details in the bumper area

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Electromagnetism (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Eine Objekterfassungsvorrichtung umfasst eine erste Aufnahmeeinheit, die reflektierte Versionen erster gesendeter Wellen, die von einer ersten Position übertragen und dort empfangen wurden, als eine erste direkte Wellengruppe aufnimmt, und reflektierte Versionen der ersten gesendeten Wellen, die an einer zweiten Position empfangen wurden, als eine erste indirekte Wellengruppe aufnimmt, eine zweite Aufnahmeeinheit, die reflektierte Versionen zweiter gesendeter Wellen, die von der zweiten Position übertragen wurden und an der ersten Position empfangen wurden, als eine zweite indirekte Wellengruppe aufnimmt, und reflektierte Versionen der zweiten gesendeten Wellen, die an der zweiten Position empfangen wurden, als eine zweite direkte Wellengruppe aufnimmt, und eine Bestimmungseinheit, die passend zu den Empfangszeiten der ersten und zweiten direkten Wellengruppen und der ersten und zweiten indirekten Wellengruppen bestimmt, ob das Objekt ein reales Objekt oder ein Geisterbild ist.

Description

  • Diese Anmeldung beansprucht die Priorität der japanischen Patentanmeldung Nr. 2014-215093 ( JP 2014-215093 A ) vom 22. Oktober 2014, deren gesamter Inhalt hier durch Referenz einbezogen wird.
  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf eine Objekterfassungsvorrichtung.
  • 2. Erläuterung des Stands der Technik
  • Es ist bekannt, ein Fahrzeug mit Abstandssensoren wie Ultraschallsensoren auszustatten, um ein Objekt zu erfassen, das in der Nähe des Fahrzeugs vorhanden ist, wie ein vorausfahrendes Fahrzeug, einen Fußgänger oder ein Hindernis, um zu ermöglichen, dass verschiedene Steuervorgänge wie das Starten einer Bremsvorrichtung oder eine Meldung an einen Fahrzeugführer entsprechend den Ergebnissen der Objekterfassung zum Zweck der Erhöhung der Fahrsicherheit des Fahrzeugs durchgeführt werden.
  • Wenn ein Objekt außerhalb einer Fahrzeugbreitenrichtung des Fahrzeugs vorhanden ist, ist das Risiko einer Kollision zwischen dem Fahrzeug und dem Objekt klein. Wenn jedoch der Abstand zwischen dem Fahrzeug und dem Objekt gemessen wird, ohne die Position des Objekts in der Fahrzeugbreitenrichtung senkrecht zur Fahrtrichtung des Fahrzeugs zu erfassen, kann bestimmt werden, dass es ein Risiko eines Zusammenstoßes mit dem Objekt gibt, und der Fahrzeugführer wird dahingehend informiert, obwohl das Objekt außerhalb des Fahrzeugbreitenbereichs liegt.
  • Die japanische Patentanmeldung mit der Offenlegungsnummer 2014-89077 ( JP 2014-89077 A ) beschreibt eine Objekterfassungsvorrichtung zum Erfassen einer Position in der Fahrzeugbreitenrichtung eines Objekts, das vor einem Fahrzeug vorhanden ist, in dem die Objekterfassungsvorrichtung montiert ist. Diese Objekterfassungsvorrichtung umfasst zwei Abstandssensoren, die an einem Fahrzeug montiert sind, und berechnet die Position eines Objekts in der Fahrzeugbreitenrichtung unter Verwendung eines Triangulationsverfahrens. Diese Objekterfassungsvorrichtung bestimmt, dass es ein Risiko einer Kollision mit dem Objekt gibt, wenn die berechnete Position innerhalb eines Fahrzeugbreitenbereichs des Fahrzeugs liegt, und bestimmt, dass es kein Risiko einer Kollision mit dem Objekt gibt, wenn die berechnete Position außerhalb des Fahrzeugbreitenbereichs liegt. Diese Objekterfassungsvorrichtung ist dazu fähig, eine Betätigung einer Bremsvorrichtung zu verhindern, wenn es kein Objekt innerhalb des Fahrzeugbreitenbereichs gibt.
  • Die in dem vorstehend erläuterten Patentdokument beschriebene Objekterfassungsvorrichtung weist jedoch das folgende Problem auf. Diese Objekterfassungsvorrichtung kann lediglich ein Objekt pro Objekterfassungszyklus erfassen. Genauer gesagt erfasst die Objekterfassungsvorrichtung nur dasjenige unter den Objekten, das am nächsten beim Fahrzeug liegt, kann aber die anderen Objekte nicht erfassen, wenn eine Vielzahl von Objekten vor dem Fahrzeug vorhanden ist. Demgemäß gibt es in einer Situation, bei der das nächste Objekt außerhalb des Fahrzeugbreitenbereichs liegt, aber ein anderes Objekt, das vom Fahrzeug weiter beabstandet ist als das nächste Objekt, innerhalb des Fahrzeugbreitenbereichs liegt, das Problem, dass die Bremsvorrichtung nicht arbeitet, obwohl es ein Kollisionsrisiko gibt.
  • KURZE ERLÄUTERUNG
  • Eine beispielhafte Ausführungsform schafft eine Objekterfassungsvorrichtung, um mindestens ein Objekt zu erfassen, das in der Nähe derselben vorhanden ist, indem erste gesendete Wellen von einer ersten Position übertragen werden und anschließend zweite gesendete Wellen von einer zweiten Position übertragen werden, die sich von der ersten Position unterscheidet, wobei ein Erfassungsbereich der ersten gesendeten Wellen und ein Erfassungsbereich der zweiten gesendeten Wellen einander teilweise überlappen, und indem reflektierte Wellen bzw. Reflexionen der ersten und zweiten gesendeten Wellen als Erfassungsdaten des Objekts empfangen werden, wobei die Vorrichtung Folgendes aufweist:
    eine erste Aufnahmeeinheit, die als eine erste direkte Wellengruppe, die erste direkte Wellen umfasst, die reflektierten Versionen bzw. Reflexionen der ersten gesendeten Wellen aufnimmt, die als die ersten direkten Wellen an der ersten Position empfangen wurden, und als eine erste indirekte Wellengruppe, die erste indirekte Wellen umfasst, die reflektierten Versionen der ersten gesendeten Wellen aufnimmt, die als die ersten indirekten Wellen an der zweiten Position empfangen wurden;
    eine zweite Aufnahmeeinheit, die als eine zweite indirekte Wellengruppe, die zweite indirekte Wellen umfasst, die reflektierten Versionen der zweiten gesendeten Wellen aufnimmt, die als die zweiten indirekten Wellen an der ersten Position empfangen wurden, und als eine zweite direkte Wellengruppe, die zweite direkte Wellen umfasst, die reflektierten Versionen der zweiten gesendeten Wellen aufnimmt, die als die zweiten direkten Wellen an der zweiten Position empfangen wurden;
    eine erste Berechnungseinheit, die eine Position des Objekts passend zu Kombinationen berechnet, die jeweils eine aus den ersten direkten Wellen und eine aus den ersten indirekten Wellen umfassen;
    eine zweite Berechnungseinheit, die die Position des Objekts passend zu Kombinationen berechnet, die jeweils eine aus den zweiten direkten Wellen und eine aus den zweiten indirekten Wellen umfassen; und
    eine Bestimmungseinheit, die abhängig davon, ob die Position des Objekts durch sowohl die erste als auch die zweite Berechnungseinheit berechnet wurde oder nur durch eine aus der ersten und der zweiten Berechnungseinheit berechnet wurde, bestimmt, ob das Objekt ein Geisterbild ist oder nicht; wobei
    die Bestimmungseinheit bestimmt, dass das Objekt, dessen Position durch die erste Berechnungseinheit berechnet wird, ein reales Objekt ist, wenn ein Unterschied eines Abstands zum Objekt, der auf der Grundlage von Empfangszeiten der ersten direkten Wellen erfasst wurde, und eines Abstands zum Objekt, der auf der Grundlage von Empfangszeiten der ersten indirekten Wellen erfasst wurde, größer als ein vorab festgelegter Schwellenwert ist, und bestimmt, dass das Objekt, dessen Position durch die zweite Berechnungseinheit berechnet wird, ein reales Objekt ist, wenn ein Unterschied eines Abstands zum Objekt, der auf der Grundlage von Empfangszeiten der zweiten direkten Wellen erfasst wurde, und eines Abstands zum Objekt, der auf der Grundlage von Empfangszeiten der zweiten indirekten Wellen erfasst wurde, größer als ein vorab festgelegter Schwellenwert ist.
  • Nach der beispielhaften Ausführungsform wird eine Objekterfassungsvorrichtung geschaffen, die dazu fähig ist, eine Vielzahl von Objekten, die in der Nähe der Objekterfassungsvorrichtung vorhanden sind, korrekt zu erfassen.
  • Andere Vorteile und Merkmale der Erfindung werden aus der nachstehenden Beschreibung inklusive der Figuren und Ansprüche deutlich.
  • KURZE ERLÄUTERUNG DER FIGUREN
  • In den beigefügten Figuren:
  • ist 1 ein Schaubild, das schematisch den Aufbau einer Objekterfassungsvorrichtung nach einer Ausführungsform der Erfindung zeigt;
  • ist 2 ein Schaubild, um ein Verfahren zum Berechnen der Position eines Objekts zu erläutern;
  • ist 3 ein Schaubild, um ein Verfahren zum Berechnen der Position zweier Objekte zu erläutern;
  • ist 4 ein Schaubild, das ein Beispiel zeigt, in dem die Position eines Geisterbilds berechnet wird;
  • ist 5 ein Schaubild, das eine Situation zeigt, in der direkte Wellen und indirekte Wellen durch einen Erfassungssensor für direkte Wellen und einen Erfassungssensor für indirekte Wellen empfangen werden, die miteinander schaltungstechnisch vertauscht wurden bzw. zwischen denen umgeschaltet wurde;
  • ist 6 ein Schaubild, das eine Situation zeigt, in der direkte Wellen und indirekte Wellen durch den Erfassungssensor für direkte Wellen und den Erfassungssensor für indirekte Wellen empfangen werden, wenn ein zweites Objekt in dem Abstand vorhanden ist;
  • ist 7 ein Schaubild, das eine Situation zeigt, in der die direkten Wellen und die indirekten Wellen durch den Erfassungssensor für direkte Wellen und den Erfassungssensor für indirekte Wellen empfangen werden, die im Gegensatz zu der in 6 gezeigten Situation miteinander vertauscht wurden; und
  • ist 8 ein Ablaufplan, der Schritte eines Objekterfassungsvorgangs zeigt, die von der Objekterfassungsvorrichtung nach der Ausführungsform der Erfindung durchgeführt werden.
  • BEVORZUGTE AUSFÜHRUNGSFORMEN DER ERFINDUNG
  • 1 ist ein Schaubild, das schematisch den Aufbau einer Objekterfassungsvorrichtung nach einer Ausführungsform der Erfindung zeigt.
  • In 1 bezeichnet das Bezugszeichen 20 einen Abstandssensor (in dieser Ausführungsform einen Ultraschallsensor). Der Abstandssensor 20 weist eine Funktion zum Übertragen von Ultraschallwellen von 20 kHz bis 200 kHz als gesendete Wellen und eine Funktion des Empfangs der gesendeten Wellen, die von einem Objekt reflektiert werden, als zurückkehrende Wellen auf. In dieser Ausführungsform sind vier Abstandssensoren (die kollektiv durch das Bezugszeichen 20 bezeichnet werden) an einem vorderen Teil (beispielsweise dem vorderen Stoßfänger) eines Fahrzeugs 30 so angebracht, dass sie mit einem senkrecht zur Fahrtrichtung des Fahrzeugs 30 verlaufenden Abstand in der Fahrzeugbreitenrichtung angeordnet sind. Noch genauer umfassen die Abstandssensoren 20 erste und zweite Sensoren 21 und 22, die in der Nähe der Mittellinie des Fahrzeugs 30 symmetrisch um die Mittellinie 31 des Fahrzeugs 30 angeordnet sind, und dritte und vierte Sensoren 23 und 24, die jeweils an den linken und rechten Ecken des Fahrzeugs 30 angeordnet sind. Obwohl dies hier nicht erläutert wird, sind die Abstandssensoren 20 auch an einem hinteren Teil (beispielsweise dem hinteren Stoßfänger) des Fahrzeugs 30 in einer ähnlichen Weise wie jene montiert, die an dem vorderen Teil des Fahrzeugs 30 montiert sind.
  • Jeder der Abstandssensoren 20 ist einem Objekterfassungsbereich zugeordnet (die kollektiv durch das Bezugszeichen 40 bezeichnet sind), in dem er die zurückkehrenden Wellen (oder direkten Wellen) der gesendeten Wellen aufnehmen kann, die er überträgt. Die Abstandssensoren 20 sind so angebracht, dass zwei Objekterfassungsbereiche 40 von jeweils zwei benachbarten der Abstandssensoren 20 einander teilweise überlappen. In 1 werden nur die Objekterfassungsbereiche 41 und 42 gezeigt, tatsächlich wird jedoch der Objekterfassungsbereich 40 für jeden aus den dritten und vierten Sensoren 23 und 24 festgelegt. Ein Amplitudenschwellenwert wird für jeden Abstandssensor 20 festgelegt. Wenn der Abstandssensor 20 die zurückkehrenden Wellen mit einer Amplitude größer als dieser Schwellenwert empfangen hat, sendet der Abstandssensor 20 Erfassungsdaten, zu denen die Zeit gehört, zu der die zurückkehrenden Wellen empfangen wurden, an eine ECU 10 als eine Objekterfassungsvorrichtung.
  • Die ECU 10, die eine mikrocomputerbasierte Einheit mit einer CPU und Speichervorrichtungen ist, bestimmt das Vorhandensein oder Fehlen eines Objekts 50 in der Nähe des Fahrzeugs 30 auf der Grundlage der von den Abstandssensoren 20 gesendeten Erfassungsdaten. Die ECU 10 befiehlt jedem Abstandssensor 20, die gesendeten Wellen in jedem Übertragungszyklus mit einem vorab festgelegten Zeitintervall (beispielsweise einige hundert Millisekunden) zu übertragen, indem sie ein Steuersignal an jeden Abstandssensor 20 sendet.
  • Wenn die ECU 10 bestimmt, dass das Objekt 50 in der Nähe des Fahrzeugs 30 vorhanden ist, führt die ECU 10 eine Lenksteuerung oder Bremssteuerung als Kollisionsverhinderungssteuerung durch oder informiert den Fahrzeugführer des Fahrzeugs 30 durch einen Warnton.
  • Die ECU 10 berechnet die Position des Objekts 50 relativ zum Fahrzeug 30 unter Verwendung eines Triangulationsverfahrens auf der Grundlage der von den Abstandssensoren 20 empfangenen Erfassungsdaten. Das Triangulationsverfahren ist ein solches, dass die Koordinaten eines Messpunkts auf der Grundlage des Abstands zwischen zwei bekannten Punkten und der Abstände zu den zwei bekannten Punkten berechnet werden. Die ECU 10 berechnet die Position (Koordinaten) des Objekts 50 auf der Grundlage des Abstands der zwei benachbarten Abstandssensoren 20, deren Erfassungsbereiche 40 einander teilweise überlappen, und der Abstände zwischen dem Objekt 50 und diesen Abstandssensoren 20.
  • Ein Beispiel des Verfahrens zum Berechnen der Position des Objekts 50 wird mit Bezug auf 2 genauer geläutert. In diesem Beispiel wird der erste Sensor 21 als ein Erfassungssensor für direkte Wellen verwendet, der gesendete Wellen 25 überträgt und zurückkehrende Wellen der gesendeten Wellen 25 als direkte Wellen 26 an einer ersten Position empfängt, und der zweite Sensor 22 wird als ein Erfassungssensor für indirekte Wellen verwendet, der die zurückkehrenden Wellen bzw. Reflexionen der vom ersten Sensor 21 übertragenen Wellen 25 als indirekte Wellen 27 an einer zweiten Position empfängt.
  • Die ECU 10 berechnet als eine abgeschätzte Position des Objekts 50 eine x-Koordinate und eine y-Koordinate der Position des Objekts 50 in einem Koordinatensystem, dessen X-Achse durch die ersten und zweiten Sensoren 21 und 22 geht und dessen Y-Achse durch den Mittelpunkt zwischen den ersten und zweiten Sensoren 21 und 22 geht und senkrecht zu der X-Achse ist. Die ECU 10 veranlasst, dass der erste Sensor 21 die gesendeten Wellen 25 überträgt. Wenn eine reflektierte Version der gesendeten Wellen 25 als die direkten Wellen 26 vom ersten Sensor 21 empfangen wird, berechnet die ECU 10 den Abstand zwischen dem ersten Sensor 21 und dem Objekt 50 passend zu den direkten Wellen 26. Zudem berechnet die ECU 10 den Abstand zwischen dem zweiten Sensor 22 und dem Objekt 50 passend zu den indirekten Wellen 27, wenn die reflektierte Version der gesendeten Wellen 25 als die indirekten Wellen 27 vom zweiten Sensor 22 empfangen wird.
  • Der Abstand d zwischen dem ersten Sensor 21 und dem Ursprungspunkt O des Koordinatensystems oder der Schnittpunkt der X-Achse und der Y-Achse, der gleich dem Abstand zwischen dem zweiten Sensor 22 und dem Ursprungspunkt O ist, wird vorab in der ECU 10 gespeichert. Außerdem berechnet die ECU 10 als einen ersten Zeitabschnitt t1 die Zeit zwischen der Übertragung der die gesendeten Wellen 25 durch den ersten Sensor 21 und der Zeit des Empfangs der direkten Wellen 26 durch den ersten Sensor 21, und berechnet als einen zweiten Zeitabschnitt t2 die Zeit zwischen der Übertragung der gesendeten Wellen 25 durch den ersten Sensor 21 und der Zeit des Empfangs der indirekten Wellen 27 durch den zweiten Sensor 22. Das Produkt des ersten Zeitabschnitts t1 mit der Schallgeschwindigkeit ist gleich dem Doppelten des Abstands zwischen dem ersten Sensor 21 und dem Objekt 50, und das Produkt des zweiten Zeitabschnitts t2 mit der Schallgeschwindigkeit ist gleich der Summe des Abstands zwischen dem ersten Sensor 21 und dem Objekt 50 und des Abstands zwischen dem zweiten Sensor 22 und dem Objekt 50. Die ECU 10 berechnet die Koordinaten (x, y) des Objekts 50 durch Durchführen des Triangulationsverfahrens unter Verwendung des Abstands 2d zwischen den ersten und zweiten Sensoren 21 und 22, des ersten Zeitabschnitts t1 und des zweiten Zeitabschnitts t2.
  • In dem Beispiel der 2 wird der erste Sensor 21 als ein direkter Erfassungssensor verwendet und der zweite Sensor 22 wird als ein indirekter Erfassungssensor verwendet. Es ist jedoch möglich, die Position des Objekts 50 in einer ähnlichen Weise auch dann zu berechnen, wenn der erste Sensor 21 als ein indirekter Erfassungssensor verwendet wird und der zweite Sensor 22 als ein direkter Erfassungssensor verwendet wird. In dieser Ausführungsform wird die Position des Objekts 50 für jede Kombination von zwei benachbarten der Abstandssensoren 21 bis 24 berechnet, die an dem vorderen Teil des Fahrzeugs 30 montiert sind. In ähnlicher Weise wird die Position des Objekts 50 für jede Kombination von zwei benachbarten Abstandssensoren 20 berechnet, die an dem hinteren Teil des Fahrzeugs 30 montiert sind.
  • Nebenbei bemerkt gibt es Fälle, in denen zwei Objekte innerhalb des Objekterfassungsbereichs 40 vorhanden sind. 3 zeigt ein Beispiel solcher Fälle, in denen ein erstes Objekt 50a und ein zweites Objekt 50b in dem Objekterfassungsbereich vorhanden sind. Hier wird angenommen, dass der Abstand zwischen dem ersten Sensor 21 und dem ersten Objekt 50a einem ersten Abstand L1 entspricht, der Abstand zwischen dem ersten Sensor 21 und dem zweiten Objekt 50b einem zweiten Abstand L2 entspricht, der Abstand zwischen dem zweiten Sensor 22 und dem ersten Objekt 50a einem dritten Abstand L3 entspricht und der Abstand zwischen dem zweiten Sensor 22 und dem zweiten Objekt 50b einem vierten Abstand L4 entspricht. Außerdem wird angenommen, dass der zweite Abstand L2 größer als der erste Abstand L1 ist.
  • Die gesendeten Wellen 25, die vom ersten Sensor 21 übertragen wurden, werden durch das erste Objekt 50a und das zweite Objekt 50b reflektiert und treten in den ersten Sensor 21 jeweils als erste direkte Wellen 26 und zweite direkte Wellen 28 ein. Außerdem werden die gesendeten Wellen 25 jeweils durch das erste Objekt 50a und das zweite Objekt 50b reflektiert und treten in den zweiten Sensor 22 als erste indirekte Wellen 27 und zweite indirekte Wellen 29 ein.
  • Zu dieser Zeit hängt die Laufzeit der ersten direkten Wellen 26 vom ersten Abstand L1 ab und die Laufzeit der zweiten direkten Wellen 28 hängt vom zweiten Abstand L2 ab. Demgemäß gibt es einen Zeitunterschied zwischen der Einfallszeit der ersten direkten Wellen 26 (der Zeit, zu der die ersten direkten Wellen 26 in den ersten Sensor 21 eintreten) und der Einfallszeit der zweiten direkten Wellen 28 (der Zeit, zu der die zweiten direkten Wellen 28 in den ersten Sensor 21 eintreten), wobei der Zeitunterschied von dem Unterschied zwischen dem ersten Abstand L1 und dem zweiten Abstand L2 abhängt. In ähnlicher Weise hängt die Laufzeit der ersten indirekten Wellen 27 vom dritten Abstand L3 ab und die Laufzeit der zweiten indirekten Wellen 29 hängt vom vierten Abstand L4 ab. Demgemäß gibt es auch einen Zeitunterschied zwischen der Einfallszeit der ersten indirekten Wellen 27 und der Einfallszeit der zweiten indirekten Wellen 29 abhängig von dem Unterschied zwischen der Summe des ersten Abstands L1 und des dritten Abstands L3 und der Summe des zweiten Abstands L2 und des vierten Abstands L4.
  • Um die Positionen der Objekte 50a und 50b durch das Triangulationsverfahren zu berechnen, werden eine aus den ersten direkten Wellen 26 und den zweiten direkten Wellen 28 und eine aus den ersten indirekten Wellen 27 und den zweiten indirekten Wellen 29 verwendet.
  • Die Positionen der Objekte 50a und 50b können durch Durchführen des Triangulationsverfahrens unter Verwendung der Kombination der ersten direkten Wellen 26 und der ersten indirekten Wellen 27 und der Kombination der zweiten direkten Wellen 28 und der zweiten indirekten Wellen 29 korrekt berechnet werden. Obwohl es einen Unterschied zwischen der Einfallszeit der vom ersten Objekt 50a reflektierten ersten indirekten Wellen 27 und der Einfallszeit der vom zweiten Objekt 50b reflektierten zweiten indirekten Wellen 29 gibt, ist es jedoch nicht möglich, lediglich auf Grund dieser Einfallszeiten zu bestimmen, von welchem der Objekte 50a und 50b sie reflektiert werden.
  • Demnach ist es notwendig, zu entscheiden, ob das Triangulationsverfahren auf der Grundlage der Kombination der ersten direkten Wellen 26 mit den ersten indirekten Wellen 27 und der Kombination der zweiten direkten Wellen 28 mit den zweiten indirekten Wellen 29 oder auf der Grundlage der Kombination der ersten direkten Wellen 26 mit den zweiten indirekten Wellen 29 und der Kombination der zweiten direkten Wellen 28 mit den ersten indirekten Wellen 27 durchgeführt werden sollte.
  • Dies ist so, weil eine Position eines Geisterbilds berechnet wird, wenn das Triangulationsverfahren auf der Grundlage der Kombination der ersten direkten Wellen 26 mit den zweiten indirekten Wellen 29 und der Kombination der zweiten direkten Wellen 28 mit den ersten indirekten Wellen 27 durchgeführt wird.
  • 4 zeigt ein Beispiel, in dem die Position eines ersten Geisterbilds 51a unter Verwendung der ersten direkten Wellen 26 und der zweiten indirekten Wellen 29 berechnet wird und die Position eines zweiten Geisterbilds 51b unter Verwendung der zweiten direkten Wellen 28 und der ersten indirekten Wellen 27 berechnet wird. Die Position des ersten Geisterbilds 51a wird als eine Position berechnet, die vom ersten Sensor 21 mit dem ersten Abstand L1 beabstandet ist und vom zweiten Sensor 22 mit der Summe des zweiten Abstands L2 und des vierten Abstands L4 minus des ersten Abstands L1 beabstandet ist. Die Position des zweiten Geisterbilds 51b wird als eine Position berechnet, die vom zweiten Sensor 22 mit dem zweiten Abstand L2 beabstandet ist und vom ersten Sensor 21 mit der Summe des ersten Abstands L1 und des dritten Abstands L3 minus des zweiten Abstands L2 beabstandet ist.
  • Um zu bestimmen, ob die berechnete Position die Position eines realen Objekts oder die Position eines Geisterbilds ist, werden der direkte Erfassungssensor und der indirekte Erfassungssensor miteinander vertauscht. Genauer gesagt wird wie in 5 gezeigt der zweite Sensor 22 als ein direkter Erfassungssensor verwendet und der erste Sensor 21 wird als ein indirekter Erfassungssensor verwendet.
  • Gesendete Wellen 25a, die vom zweiten Sensor 22 übertragen wurden, werden vom zweiten Objekt 50b und dem ersten Objekt 50a reflektiert und treten jeweils in den zweiten Sensor 22 als erste direkte Wellen 26a und zweite direkte Wellen 28a ein. Außerdem werden die gesendeten Wellen 25a durch das erste Objekt 50a und das zweite Objekt 50b reflektiert und treten in den ersten Sensor 21 jeweils als erste indirekte Wellen 27a und zweite indirekte Wellen 29a ein.
  • Die Positionen des zweiten Objekts 50b und des ersten Objekts 50a können berechnet werden, wenn das Triangulationsverfahren unter Verwendung jeweils der Kombination der ersten direkten Wellen 26a und der ersten indirekten Wellen 27a und der Kombination der zweiten direkten Wellen 28a und der zweiten indirekten Wellen 29a durchgeführt wird. Andererseits werden Positionen berechnet, die sich von den Positionen der ersten und zweiten Geisterbilder 51a und 51b unterscheiden, wenn das Triangulationsverfahren jeweils unter Verwendung der Kombination der ersten direkten Wellen 26a und der zweiten indirekten Wellen 29a und der Kombination der zweiten direkten Wellen 28a und der ersten indirekten Wellen 27a durchgeführt wird.
  • Wenn die Position, die in dem Fall berechnet wird, in dem der erste Sensor 21 als ein direkter Erfassungssensor verwendet wird und der zweite Sensor 22 als ein indirekter Sensor verwendet ist, gleich der Position ist, die in dem Fall berechnet wird, in dem der zweite Sensor 22 als ein direkter Erfassungssensor verwendet wird und der erste Sensor 21 als ein indirekter Sensor verwendet wird, kann demgemäß bestimmt werden, dass ein reales Objekt an der berechneten Position vorhanden ist.
  • Nebenbei bemerkt werden die gesendeten Wellen 25, die vom ersten Sensor 21 übertragen wurden, durch das zweite Objekt 50b reflektiert, der erste Sensor 21 empfängt die zweiten direkten Wellen 28 und der zweite Sensor 22 empfängt die zweiten indirekten Wellen 29 in einem Fall, in dem der erste Sensor 21 als ein direkter Erfassungssensor verwendet wird und der zweite Sensor 22 als ein indirekter Erfassungssensor verwendet wird, wenn sich wie in 6 gezeigt nur das zweite Objekt 50b an einer Position befindet, die ziemlich weit vom zweiten Sensor 22 entfernt ist. In diesem Fall kann es sein, das die gesendeten Wellen 25a, die vom zweiten Sensor 22 übertragen werden, durch ein nicht gezeigtes Objekt reflektiert werden, das an einer Position näher bei dem zweiten Sensor 22 als das zweite Objekt 50b vorhanden ist, und die daraus resultierenden direkten und indirekten Wellen empfangen werden. In diesem Fall wird wie in 7 gezeigt als ein Ergebnis des Vertauschens der ersten und zweiten Sensoren miteinander irrtümlich bestimmt, dass das zweite Objekt 50b ein Geisterbild ist, weil das zweite Objekt 50b nur dann erfasst wird, wenn der erste Sensor 21 als ein direkter Erfassungssensor verwendet wird. Wenn die Kollisionsverhinderungssteuerung auf der Grundlage dieser irrtümlichen Bestimmung durchgeführt wird, gibt es eine Möglichkeit einer Kollision zwischen dem Fahrzeug 30 und dem zweiten Objekt 50b.
  • Währenddessen gibt es wie nachstehend beschrieben einen Fall, in dem das Triangulationsverfahren unter Verwendung eines direkten Erfassungssensors und eines indirekten Erfassungssensors für die Positionsberechnung nicht funktioniert. Die Position des zweiten Objekts 50b wird als die Koordinaten des Schnittpunkts zwischen dem Kreis, dessen Mittelpunkt am ersten Sensor 21 liegt und der einen Radius gleich dem ersten Abstand L1 aufweist, und dem Kreis berechnet, dessen Mittelpunkt am zweiten Sensor 22 liegt und der einen Radius gleich dem dritten Abstand L3 aufweist. In ähnlicher Weise wird die Position des ersten Objekts 50a als die Koordinaten des Schnittpunkts zwischen dem Kreis, dessen Mittelpunkt am ersten Sensor 21 liegt und der einen Radius gleich dem zweiten Abstand L2 aufweist, und dem Kreis berechnet, dessen Mittelpunkt am zweiten Sensor 22 liegt und der einen Radius gleich dem vierten Abstand L4 aufweist. Andererseits wird kein Schnittpunkt zwischen dem Kreis, dessen Mittelpunkt am ersten Sensor 21 liegt und der einen Radius gleich dem ersten Abstand L1 aufweist, und dem Kreis gebildet, dessen Mittelpunkt am zweiten Sensor 22 liegt und der einen Radius gleich der Summe des zweiten Abstands L2 und des vierten Abstands L4 abzüglich des ersten Abstands L1 aufweist, wenn der Abstand zwischen dem ersten Objekt 50a und dem zweiten Objekt 50b ausreichend groß ist. Das heißt, dass das Triangulationsverfahren unter Verwendung der ersten direkten Wellen 26 und der zweiten indirekten Wellen 29 für die Positionsberechnung nicht funktioniert. Aus demselben Grund funktioniert das Triangulationsverfahren unter Verwendung der zweiten direkten Wellen 28 und der ersten indirekten Wellen 27 für die Positionsberechnung nicht.
  • Daher verwendet diese Ausführungsform die Tatsache, dass kein Geisterbild erfasst wird, wenn ein Unterschied zwischen einem erfassten Abstand auf der Grundlage der vom ersten Objekt 50a reflektierten ersten indirekten Wellen 27 und einem erfassten Abstand auf der Grundlage der zweiten indirekten Wellen 29 ausreichend groß ist. Genauer gesagt wird ausgeschlossen, dass ein Objekt, dessen erfasster Abstand größer als ein vorab festgelegter Schwellenwert ist, ein Subjekt des später erläuterten Geisterbilderbestimmungsvorgangs wird. Beispielsweise kann das zweite Objekt 50b als ein Subjekt des Geisterbilderbestimmungsvorgangs ausgeschlossen werden, wenn das zweite Objekt 50b wie in 6 gezeigt ziemlich weit vom zweiten Sensor 22 entfernt ist, weil das Triangulationsverfahren in den meisten Fällen für die Positionsberechnung nicht gilt.
  • 8 ist ein Ablaufplan, der Schritte des Objekterfassungsvorgangs zeigt, die von der Objekterfassungsvorrichtung nach der vorstehend erläuterten Ausführungsform durchgeführt werden.
  • Dieser Vorgang beginnt im Schritt S101, in dem erste gesendete Wellen übertragen und zurückkehrende Wellen in der Einstellung empfangen werden, in der der erste Sensor 21 als ein direkter Erfassungssensor verwendet wird und der zweite Sensor 22 als ein indirekter Erfassungssensor verwendet wird. Zu dieser Zeit dient die ECU 10 als eine erste Aufnahmeeinheit, die als eine erste direkte Wellengruppe die ersten direkten Wellen 26 und die zweiten direkten Wellen 28 aufnimmt, die der erste Sensor 21 empfängt, und als eine erste indirekte Wellengruppe die ersten indirekten Wellen 27 und die zweiten indirekten Wellen 29 aufnimmt, die der zweite Sensor 22 empfängt.
  • Nach einem Verstreichen einer vorab festgelegten Zeit werden im Schritt S102 zweite gesendete Wellen überfragen, und zurückkehrende Wellen werden in der Einstellung empfangen, in der der zweite Sensor 22 als ein direkter Erfassungssensor verwendet wird und der erste Sensor 21 als ein indirekter Sensor verwendet wird. Zu dieser Zeit dient die ECU 10 als eine zweite Aufnahmeeinheit, die als eine zweite indirekte Wellengruppe die ersten indirekten Wellen 27a und die zweiten indirekten Wellen 29a aufnimmt, die der ersten Sensor 21 empfangen hat, und als eine zweite direkte Wellengruppe die ersten direkten Wellen 26a und die zweiten direkten Wellen 28a aufnimmt, die der zweite Sensor 22 empfangen hat.
  • Im nachfolgenden Schritt S103 wird der Unterschied zwischen dem erfassten Abstand auf der Grundlage der ersten indirekten Wellen und dem erfassten Abstand auf der Grundlage der zweiten indirekten Wellen für jeden aus dem Fall, in dem der erste Sensor 21 als ein direkter Erfassungssensor verwendet wird und der zweite Sensor 22 als ein indirekter Erfassungssensor verwendet wird, um die ersten gesendeten Wellen zu übertragen, und aus dem Fall berechnet, in dem der zweite Sensor 22 als ein direkter Erfassungssensor verwendet wird und der erste Sensor 21 als ein indirekter Sensor verwendet wird, um die zweiten gesendeten Wellen zu übertragen. Schritt S103 wird weggelassen, wenn die zweiten direkten Wellen und die zweiten indirekten Wellen für jeden dieser Fälle nicht empfangen werden.
  • Genauer gesagt wird der Unterschied zwischen den erfassten Abständen berechnet, die jeweils auf der Grundlage der Empfangszeiten der ersten und zweiten indirekten Wellen 27 und 29 der ersten indirekten Wellengruppe erfasst werden. Zudem wird der Unterschied zwischen den erfassten Abständen berechnet, die jeweils auf der Grundlage der Empfangszeiten der ersten und zweiten indirekten Wellen 27a und 29a der zweiten indirekten Wellengruppe erfasst werden. Schritt S103 kann modifiziert werden, um den Unterschied zwischen den erfassten Abständen auf der Grundlage der ersten und zweiten direkten Wellen anstelle der erfassten Abstände auf der Grundlage der ersten und zweiten indirekten Wellen zu berechnen
  • Im nachfolgenden Schritt S104 wird bestimmt, ob der berechnete Unterschied zwischen den erfassten Abständen größer als ein Schwellenwert ist oder nicht. Dieser Schwellenwert wird passend zum Abstand zwischen dem ersten Sensor 21 und dem zweiten Sensor 22 festgelegt. Wenn der Unterschied zwischen den erfassten Abständen größer als der Schwellenwert ist, wird keine Position eines Geisterbilds berechnet, weil das Triangulationsverfahren nur für die korrekte Kombination der direkten Wellen und der indirekten Wellen funktioniert. Wenn das Bestimmungsergebnis in Schritt S104 positiv ist, das bedeutet, wenn der Unterschied zwischen den erfassten Abständen größer als der Schwellenwert ist, geht der Vorgang zum Schritt S105 weiter, in dem die Kombination von einer aus den ersten und zweiten direkten Wellen und einer aus den ersten und zweiten indirekten Wellen als Subjekt des Geisterbilderbestimmungsvorgangs ausgeschlossen wird. Zu dieser Zeit dient die ECU 10 als eine erste Ausschlusseinheit und eine zweite Ausschlusseinheit.
  • Andererseits geht der Vorgang zum Schritt S106 weiter, um den Geisterbilderbestimmungsvorgang durchzuführen, wenn das Bestimmungsergebnis im Schritt S104 negativ ist, das bedeutet, wenn der Unterschied zwischen den erfassten Abständen kleiner als der oder gleich groß wie der Schwellenwert ist.
  • Im Schritt S106 wird die Position des erfassten Objekts berechnet, indem das Triangulationsverfahren für jede der Kombinationen aus einer der ersten und zweiten direkten Wellen und einer der ersten und zweiten indirekten Wellen für den Fall durchgeführt wird, in dem der erste Sensor 21 als ein direkter Erfassungssensor verwendet wird und der zweite Sensor 22 als ein indirekter Erfassungssensor verwendet wird. Zu dieser Zeit dient die ECU 10 als eine erste Berechnungseinheit. In ähnlicher Weise wird die Position des erfassten Objekts für den Fall berechnet, in dem der erste Sensor 21 als ein indirekter Erfassungssensor verwendet wird und der zweite Sensor 22 als ein direkter Erfassungssensor verwendet wird. Zu dieser Zeit dient die ECU als eine zweite Berechnungseinheit.
  • Nebenbei bemerkt wird nur die Position aufgrund der einen Kombination im Schritt S106 berechnet, wenn nur eine Kombination als Subjekt des Geisterbilderbestimmungsvorgangs übrig bleibt, nachdem der Schritt S105 durchgeführt wurde.
  • Im nachfolgenden Schritt S107 wird bestimmt, ob der Unterschied zwischen den erfassten Querpositionen (der Unterschied der Komponenten in der Fahrzeugbreitenrichtung oder Y-Richtung der berechneten Positionen) für jede der Kombinationen kleiner als ein vorab festgelegter Schwellenwert ist oder nicht. Zu dieser Zeit dient die ECU 10 als eine Bestimmungseinheit. Im Schritt 108 wird bestimmt, dass das erfasste Objekt ein reales Objekt und kein Geisterbild ist, wenn das Bestimmungsergebnis im Schritt S107 für mindestens eine der Kombinationen positiv ist. Wenn das Bestimmungsergebnis im Schritt S107 für alle Kombinationen negativ ist, wird andererseits in Schritt S109 bestimmt, dass das erfasste Objekt ein Geisterbild ist. Nach dem Abschluss des Schritts S108 oder S109 wird dieser Objekterfassungsvorgang beendet.
  • In der vorstehend beschriebenen Ausführungsform wird der Objekterfassungsvorgang unter Verwendung des benachbarten Paars aus dem ersten Sensor 21 und dem zweiten Sensor 22 durchgeführt. Der Objekterfassungsvorgang kann jedoch unter Verwendung anderer benachbarter Paare der Sensoren durchgeführt werden.
  • In der vorstehend beschriebenen Ausführungsform wird im Schritt S107 der Unterschied zwischen den berechneten Positionen in der Fahrzeugbreitenrichtung mit einem Schwellenwert verglichen. Zusätzlich kann jedoch im Schritt S107 der Unterschied zwischen den berechneten Positionen in der Fahrzeugfahrtrichtung mit einem Schwellenwert verglichen werden.
  • Die Objekterfassungsvorrichtung nach der vorstehend beschriebenen Ausführungsform weist die nachstehend genannten Vorteile auf.
  • Ein erfasstes Objekt wird als ein reales Objekt bestimmt, wenn die berechneten Positionen des erfassten Objekts gleich sind, die jeweils auf der Grundlage von zwei oder mehr aus den Kombinationen der Sensoren berechnet werden, wobei jede der Kombinationen zwei benachbarte der Sensoren umfasst, von denen einer als ein direkter Erfassungssensor verwendet wird und der andere als ein indirekter Sensor verwendet wird. Demgemäß ist es möglich, die Wahrscheinlichkeit einer irrtümlichen Bestimmung eines Geisterbilds als ein reales Objekt zu verringern.
  • Man nehme hier einen Aufbau an, in dem ein erfasstes Objekt als ein Geisterbild bestimmt wird, wenn dieses Objekt nicht durch mindestens zwei oder mehr aus den Kombinationen der Sensoren erfasst wurde. In einer Situation, in der mehrere Objekte in der Nähe eines Fahrzeugs vorhanden sind und eines der Objekte ziemlich weit von den anderen Objekten entfernt ist, kann dieses Objekt nach diesem Aufbau irrtümlicherweise als ein Geisterbild bestimmt werden.
  • Nach der vorstehend beschriebenen Ausführungsform wird ein derartiges Objekt als reales Objekt bestimmt, ohne den Geisterbilderbestimmungsvorgang durchzuführen, wenn der Unterschied zwischen den erfassten Abständen, die auf der Grundlage der unterschiedlichen indirekten Wellen berechnet werden, den Schwellenwert übersteigt und demgemäß das Triangulationsverfahren für die Positionsberechnung nicht funktioniert. Folglich ist es nach der vorstehend beschriebenen Ausführungsform möglich, die Wahrscheinlichkeit einer irrtümlichen Bestimmung eines realen Objekts als Geisterbild zu verringern.
  • Modifizierungen
  • Selbstverständlich können verschiedene Modifizierungen der vorstehend beschriebenen Ausführungsform wie nachstehend erläutert durchgeführt werden. In der vorstehend beschriebenen Ausführungsform sind die gesendeten Wellen Ultraschallwellen. Die gesendeten Wellen können jedoch Schallwellen oder Radiowellen sein.
  • Die Objekterfassungsvorrichtung der vorstehenden Ausführungsform ist am Fahrzeug 30 montiert. Sie kann jedoch an einem beweglichen Körper außer einem Fahrzeug wie einem Flugzeug, einem Schiff oder einem Roboter montiert sein. Zudem kann die Objekterfassungsvorrichtung an einem stationären Körper montiert sein, um Abstände zwischen dem stationären Körper und Objekten um den stationären Körper zu erfassen. Dies ist so, weil eine mehrfache Reflexion zwischen dem stationären Körper und den Objekten um den stationären Körper auftreten kann. Zudem kann die Objekterfassungsvorrichtung von einem Menschen getragen werden, um ein sich näherndes Objekt zu erfassen.
  • Die vorstehend erläuterten bevorzugten Ausführungsformen sind Beispiele der Erfindung der vorliegenden Anmeldung, die nur durch die nachstehenden Ansprüche bestimmt ist. Man bemerke, dass für Fachleute offensichtliche Modifizierungen der bevorzugten Ausführungsformen durchgeführt werden können.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2014-215093 A [0001]
    • JP 2014-89077 A [0005]

Claims (1)

  1. Objekterfassungsvorrichtung, um zumindest ein Objekt zu erfassen, das in der Nähe derselben vorhanden ist, indem erste gesendete Wellen von einer ersten Position übertragen werden und anschließend zweite gesendete Wellen von einer zweiten Position übertragen werden, die sich von der ersten Position unterscheidet, wobei ein Erfassungsbereich der ersten gesendeten Wellen und ein Erfassungsbereich der zweiten gesendeten Wellen einander teilweise überlappen, und indem reflektierte Versionen der ersten und zweiten gesendeten Wellen als Erfassungsdaten des Objekts empfangen werden, mit: einer ersten Aufnahmeeinheit, die als eine erste direkte Wellengruppe, die erste direkte Wellen umfasst, die reflektierten Versionen der ersten gesendeten Wellen aufnimmt, die als die ersten direkten Wellen an der ersten Position empfangen wurden, und als eine erste indirekte Wellengruppe, die erste indirekte Wellen umfasst, die reflektierten Versionen der ersten gesendeten Wellen aufnimmt, die als die ersten indirekten Wellen an der zweiten Position empfangen wurden; einer zweiten Aufnahmeeinheit, die als eine zweite indirekte Wellengruppe, die zweite indirekte Wellen umfasst, die reflektierten Versionen der zweiten gesendeten Wellen aufnimmt, die als die zweiten indirekten Wellen an der ersten Position empfangen wurden, und als eine zweite direkte Wellengruppe, die zweite direkte Wellen umfasst, die reflektierten Versionen der zweiten gesendeten Wellen aufnimmt, die als die zweiten direkten Wellen an der zweiten Position empfangen wurden; einer ersten Berechnungseinheit, die eine Position des Objekts passend zu Kombinationen berechnet, die jeweils eine aus den ersten direkten Wellen und eine aus den ersten indirekten Wellen umfassen; einer zweiten Berechnungseinheit, die die Position des Objekts passend zu Kombinationen berechnet, die jeweils eine aus den zweiten direkten Wellen und eine aus den zweiten indirekten Wellen umfassen; und einer Bestimmungseinheit, die abhängig davon, ob die Position des Objekts durch sowohl die erste als auch die zweite Berechnungseinheit berechnet wurde oder nur durch eine aus der ersten und der zweiten Berechnungseinheit berechnet wurde, bestimmt, ob das Objekt ein Geisterbild ist oder nicht; wobei die Bestimmungseinheit bestimmt, dass das Objekt, dessen Position durch die erste Berechnungseinheit berechnet wird, ein reales Objekt ist, wenn ein Unterschied eines Abstands zum Objekt, der auf der Grundlage von Empfangszeiten der ersten direkten Wellen erfasst wurde, und eines Abstands zum Objekt, der auf der Grundlage von Empfangszeiten der ersten indirekten Wellen erfasst wurde, größer als ein vorab festgelegter Schwellenwert ist, und bestimmt, dass das Objekt, dessen Position durch die zweite Berechnungseinheit berechnet wird, ein reales Objekt ist, wenn ein Unterschied zwischen einem Abstand zum Objekt, der auf der Grundlage von Empfangszeiten der zweiten direkten Wellen erfasst wurde, und einem Abstand zum Objekt, der auf der Grundlage von Empfangszeiten der zweiten indirekten Wellen erfasst wurde, größer als ein vorab festgelegter Schwellenwert ist.
DE102015220329.8A 2014-10-22 2015-10-19 Objekterfassungsvorrichtung Active DE102015220329B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014215093A JP6404679B2 (ja) 2014-10-22 2014-10-22 物体検知装置
JP2014-215093 2014-10-22

Publications (2)

Publication Number Publication Date
DE102015220329A1 true DE102015220329A1 (de) 2016-04-28
DE102015220329B4 DE102015220329B4 (de) 2020-09-10

Family

ID=55698724

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015220329.8A Active DE102015220329B4 (de) 2014-10-22 2015-10-19 Objekterfassungsvorrichtung

Country Status (4)

Country Link
US (1) US10436899B2 (de)
JP (1) JP6404679B2 (de)
CN (1) CN105549017B (de)
DE (1) DE102015220329B4 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3299845A1 (de) * 2016-09-21 2018-03-28 Robert Bosch GmbH Betriebsverfahren für ein ultraschallsensorsystem, steuereinrichtung, ultraschallsensorsystem und fahrzeug
WO2020064576A1 (de) * 2018-09-28 2020-04-02 Robert Bosch Gmbh Verfahren zur bewertung einer auswirkung eines objektes im umfeld eines fortbewegungsmittels auf ein fahrmanöver des fortbewegungsmittels
DE102020211891A1 (de) 2020-09-23 2022-03-24 Robert Bosch Gesellschaft mit beschränkter Haftung Gruppierung von Echosignalen von Ultraschallsensoren

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9810782B2 (en) * 2015-03-20 2017-11-07 Delphi Technologies, Inc. Vehicle radar system with image reflection detection
JP6722066B2 (ja) * 2016-08-29 2020-07-15 株式会社Soken 周辺監視装置及び周辺監視方法
JP7007049B2 (ja) * 2016-12-26 2022-02-10 ダイハツ工業株式会社 障害物検知装置
EP3407082B1 (de) * 2017-05-24 2021-06-23 Apple Inc. System und verfahren zur bestimmung einer distanz zu einem objekt
JP2019086406A (ja) * 2017-11-07 2019-06-06 株式会社Soken 物体検知装置
CN109814113B (zh) * 2019-01-15 2022-02-25 北京百度网讯科技有限公司 一种超声波雷达障碍物检测结果处理方法及***
CN110148312B (zh) * 2019-04-30 2021-04-16 惠州市德赛西威智能交通技术研究院有限公司 一种基于v2x***的碰撞预警方法、装置和存储介质
KR20230082318A (ko) * 2021-12-01 2023-06-08 현대모비스 주식회사 초음파를 활용한 주차 경로 및 그 주변의 장애물 판단 방법 및 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014089077A (ja) 2012-10-29 2014-05-15 Denso Corp 障害物検知装置
JP2014215093A (ja) 2013-04-23 2014-11-17 セイコークロック株式会社 からくり時計

Family Cites Families (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1132962A (en) 1964-11-13 1968-11-06 Seismograph Service England Method and apparatus for the interpretation of signals which include multiple reflections
JPS63127179A (ja) 1986-11-15 1988-05-31 Matsushita Electric Works Ltd 超音波検知装置
US5122990A (en) 1991-02-01 1992-06-16 Rowe-Deines Instruments Incorporated Bottom tracking system
US5315562A (en) 1992-10-23 1994-05-24 Rowe, Deines Instruments Inc. Correlation sonar system
JP3140863B2 (ja) 1992-10-27 2001-03-05 松下電工株式会社 車載用超音波検知器
JP3065821B2 (ja) 1992-11-02 2000-07-17 株式会社豊田中央研究所 物体検出装置
DE4406525C2 (de) 1994-02-28 1996-10-24 Siemens Ag Verfahren zur Bestimmung der Lage eines Objekts relativ zum Hintergrund mittels Ultraschall
DE4433957A1 (de) 1994-09-23 1996-03-28 Mayser Gmbh & Co Verfahren zur Ultraschall-Hinderniserkennung
US5767793A (en) 1995-04-21 1998-06-16 Trw Inc. Compact vehicle based rear and side obstacle detection system including multiple antennae
US7202776B2 (en) 1997-10-22 2007-04-10 Intelligent Technologies International, Inc. Method and system for detecting objects external to a vehicle
DE19711467C2 (de) * 1997-03-20 2000-12-07 Mannesmann Vdo Ag Verfahren zur Bestimmung des senkrechten Abstandes zwischen einem Objekt und einer sich örtlich verändernden Einrichtung
JPH1164497A (ja) 1997-08-15 1999-03-05 Mitsubishi Electric Corp レーダ装置
US6268803B1 (en) 1998-08-06 2001-07-31 Altra Technologies Incorporated System and method of avoiding collisions
DE19842250A1 (de) * 1998-09-15 2000-03-16 Mannesmann Vdo Ag Verfahren zur Bestimmung des Abstandes zwischen einem Objekt und einer sich örtlich verändernden Einrichtung, insbesondere einem Kraftfahrzeug
US6434486B1 (en) 2000-08-28 2002-08-13 Delphi Technologies Inc. Technique for limiting the range of an object sensing system in a vehicle
JP2002131428A (ja) 2000-10-25 2002-05-09 Mitsubishi Electric Corp 超音波障害物検出装置
JP3860061B2 (ja) 2002-04-16 2006-12-20 富士重工業株式会社 車外監視装置、及び、この車外監視装置を備えた走行制御装置
US6898528B2 (en) 2002-07-23 2005-05-24 Ford Global Technologies, Llc Collision and injury mitigation system using fuzzy cluster tracking
KR100513523B1 (ko) 2003-05-29 2005-09-07 현대자동차주식회사 차간 거리 제어장치
JP3975985B2 (ja) 2003-08-21 2007-09-12 松下電工株式会社 車両用周辺監視装置
JP4293865B2 (ja) * 2003-09-02 2009-07-08 富士通テン株式会社 物体検出装置
DE102004010752A1 (de) 2004-03-05 2005-09-22 Robert Bosch Gmbh Verfahren zur Abstandswarnung und Abstandswarneinheit
JPWO2005091015A1 (ja) 2004-03-23 2008-02-07 株式会社村田製作所 レーダ
US7068155B2 (en) 2004-07-14 2006-06-27 General Motors Corporation Apparatus and methods for near object detection
US7212466B2 (en) 2004-07-15 2007-05-01 Imagenex Technology Corp. Producing amplitude values for controlling pixel illumination on a sonar display
US7409295B2 (en) 2004-08-09 2008-08-05 M/A-Com, Inc. Imminent-collision detection system and process
US7720652B2 (en) 2004-10-19 2010-05-18 Microsoft Corporation Modeling location histories
US7873181B1 (en) 2005-09-23 2011-01-18 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Visual image sensor organ replacement: implementation
JP4353162B2 (ja) 2005-09-26 2009-10-28 トヨタ自動車株式会社 車輌周囲情報表示装置
DE102005059907A1 (de) 2005-12-15 2007-06-21 Robert Bosch Gmbh Ultraschallsensor
US20070176822A1 (en) 2006-01-30 2007-08-02 Fujitsu Limited Target detection apparatus and system
JP4371115B2 (ja) * 2006-03-01 2009-11-25 トヨタ自動車株式会社 物体検出装置
JP2008039497A (ja) * 2006-08-03 2008-02-21 Matsushita Electric Works Ltd 障害物検出装置
US20080068146A1 (en) 2006-09-16 2008-03-20 Cauldwell Jack D Red light accident warning
JP2008122137A (ja) 2006-11-09 2008-05-29 Mitsubishi Electric Corp レーダ装置
CN101303410B (zh) * 2007-05-08 2011-08-24 李世雄 单方发射暨多方接收的障碍物检测方法及其装置
WO2009103692A1 (de) 2008-02-20 2009-08-27 Continental Teves Ag & Co. Ohg Verfahren und assistenzsystem zum erfassen von objekten im umfeld eines fahrzeugs
US8605947B2 (en) 2008-04-24 2013-12-10 GM Global Technology Operations LLC Method for detecting a clear path of travel for a vehicle enhanced by object detection
DE102008001648A1 (de) 2008-05-08 2009-11-12 Robert Bosch Gmbh Fahrerassistenzverfahren zum Bewegen eines Kraftfahrzeugs und Fahrerassistenzvorrichtung
EP2128576B1 (de) 2008-05-27 2016-12-28 VEGA Grieshaber KG Auswertung der Echoform bei Füllstandsensoren
FR2941537B1 (fr) 2009-01-29 2016-02-05 Valeo Vision Sas Procede de surveillance de l'environnement d'un vehicule automobile
US8108147B1 (en) 2009-02-06 2012-01-31 The United States Of America As Represented By The Secretary Of The Navy Apparatus and method for automatic omni-directional visual motion-based collision avoidance
US8232872B2 (en) 2009-12-03 2012-07-31 GM Global Technology Operations LLC Cross traffic collision alert system
DE102009054634A1 (de) 2009-12-15 2011-06-16 Robert Bosch Gmbh Vorrichtung zur Überwachung eines Abstandes eines Fahrzeuges zu einem Objekt
CN102870005B (zh) 2010-05-19 2015-07-08 三菱电机株式会社 障碍物检测装置
JP5710000B2 (ja) * 2011-08-16 2015-04-30 三菱電機株式会社 物体検知装置
JP5950534B2 (ja) * 2011-10-20 2016-07-13 三菱電機株式会社 超音波距離画像生成装置
EP2793044B1 (de) 2011-12-12 2016-11-02 Murata Manufacturing Co., Ltd. Positionsmessvorrichtung
JP2013124982A (ja) 2011-12-15 2013-06-24 Panasonic Corp 車両用障害物検出装置
KR20130119674A (ko) 2012-04-24 2013-11-01 대구가톨릭대학교산학협력단 섬유아세포 성장인자를 포함하는 알긴산을 유효성분으로 하는 창상 치료용 조성물
US9221396B1 (en) 2012-09-27 2015-12-29 Google Inc. Cross-validating sensors of an autonomous vehicle
JP5900293B2 (ja) 2012-11-06 2016-04-06 トヨタ自動車株式会社 衝突回避支援装置及び衝突回避支援方法
JP6123133B2 (ja) 2013-03-04 2017-05-10 パナソニックIpマネジメント株式会社 車両用障害物検知装置および、車両用障害物検知システム
JP2015004562A (ja) 2013-06-20 2015-01-08 株式会社デンソー 障害物検知装置
JP6151150B2 (ja) 2013-10-07 2017-06-21 日立オートモティブシステムズ株式会社 物体検出装置及びそれを用いた車両
KR101892763B1 (ko) 2013-10-08 2018-08-28 주식회사 만도 장애물 위치를 판단하는 방법과 장애물 위치 판단장치 및 주차 보조 방법과 주차 보조 시스템
US8989944B1 (en) 2013-11-26 2015-03-24 Google Inc. Methods and devices for determining movements of an object in an environment
CN103605125B (zh) 2013-11-29 2016-02-24 深圳市航盛电子股份有限公司 倒车雷达抗干扰的方法及***
US9098753B1 (en) 2014-04-25 2015-08-04 Google Inc. Methods and systems for object detection using multiple sensors
EP3164859B1 (de) 2014-07-03 2022-08-31 GM Global Technology Operations LLC Fahrzeugradarverfahren und systeme

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014089077A (ja) 2012-10-29 2014-05-15 Denso Corp 障害物検知装置
JP2014215093A (ja) 2013-04-23 2014-11-17 セイコークロック株式会社 からくり時計

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3299845A1 (de) * 2016-09-21 2018-03-28 Robert Bosch GmbH Betriebsverfahren für ein ultraschallsensorsystem, steuereinrichtung, ultraschallsensorsystem und fahrzeug
WO2020064576A1 (de) * 2018-09-28 2020-04-02 Robert Bosch Gmbh Verfahren zur bewertung einer auswirkung eines objektes im umfeld eines fortbewegungsmittels auf ein fahrmanöver des fortbewegungsmittels
JP2022502642A (ja) * 2018-09-28 2022-01-11 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh 移動手段周辺の物体が移動手段の運転操作に及ぼす影響を評価する方法
JP7109661B2 (ja) 2018-09-28 2022-07-29 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング 移動手段周辺の物体が移動手段の運転操作に及ぼす影響を評価する方法
DE102020211891A1 (de) 2020-09-23 2022-03-24 Robert Bosch Gesellschaft mit beschränkter Haftung Gruppierung von Echosignalen von Ultraschallsensoren

Also Published As

Publication number Publication date
JP2016080644A (ja) 2016-05-16
US10436899B2 (en) 2019-10-08
JP6404679B2 (ja) 2018-10-10
DE102015220329B4 (de) 2020-09-10
CN105549017B (zh) 2018-05-04
US20160116585A1 (en) 2016-04-28
CN105549017A (zh) 2016-05-04

Similar Documents

Publication Publication Date Title
DE102015220329B4 (de) Objekterfassungsvorrichtung
DE102014103695B4 (de) Fahrzeuggestützte Kreuzungsbeurteilungsvorrichtung und -programm
DE102015219551B4 (de) Objekterfassungsvorrichtung
EP0970390B1 (de) Verfahren zur bestimmung des senkrechten abstandes zwischen einem objekt und einer sich örtlich verändernden einrichtung
DE112009000681B4 (de) Parklückenüberwachungsvorrichtung
EP1731922B1 (de) Verfahren und Vorrichtung zum Bestimmen von Freiflächen in der Umgebung eines Kraftfahrzeuges
EP0987563B1 (de) Verfahren zur Bestimmung des Abstandes zwischen einem Objekt und einer sich örtlich verändernden Einrichtung, insbesondere einem Kraftfahrzeug
DE102015220544B4 (de) Objekterfassungsvorrichtung
DE102015220502B4 (de) Objekterfassungsvorrichtung
DE102015006931B4 (de) Parkzonen-Erkennungsvorrichtung und Steuerungsverfahren davon
DE102015220576A1 (de) Objekterfassungsvorrichtung
DE112012006532B4 (de) Verfolgungssteuerungsvorrichtung
DE112014002206T5 (de) Hinderniserfassungsvorrichtung
DE102010045657A1 (de) Umfeld-Überwachungssystem für ein Fahrzeug
DE102012004396A1 (de) Verfahren und Vorrichtung zum Erfassen von Objekten in einer Umgebung eines Fahrzeugs
DE102017003670A1 (de) Parkassistenzvorrichtung für ein Fahrzeug und Einparksteuerungsverfahren davon
DE102015219802A1 (de) Objekterfassungsvorrichtung
DE102011087751A1 (de) Verfahren und Vorrichtung zum Erkennen des Vorhandenseins von Objekten
DE102012212894A1 (de) Verfahren zum Betrieb eines Umfelderfassungssystems eines Fahrzeugs mit zumindest zwei Sende-/Empfangseinheiten und Umfelderfassungssystem
DE112017002538T5 (de) Objektwahrnehmungsgerät und Objektwahrnehmungsverfahren
EP2592434B1 (de) Verfahren zur Erkennung von Objekten im Umfeld eines Fahrzeugs
DE112017004938T5 (de) Erfassungsvorrichtung, Erfassungsverfahren und Aufzeichnungsmedium
WO2021069130A1 (de) Verfahren und eine vorrichtung zur klassifizierung eines objektes, insbesondere im umfeld eines kraftfahrzeugs
DE102017123140A1 (de) Ultraschallsensorvorrichtung und Erfassungsverfahren einer Ultraschallsensorvorrichtung
DE102020205127A1 (de) Verfahren zum Generieren einer Objektrepräsentation mittels empfangener Ultraschallsignale

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R084 Declaration of willingness to licence