DE60009000T2 - System zur Einparkhilfe - Google Patents

System zur Einparkhilfe Download PDF

Info

Publication number
DE60009000T2
DE60009000T2 DE60009000T DE60009000T DE60009000T2 DE 60009000 T2 DE60009000 T2 DE 60009000T2 DE 60009000 T DE60009000 T DE 60009000T DE 60009000 T DE60009000 T DE 60009000T DE 60009000 T2 DE60009000 T2 DE 60009000T2
Authority
DE
Germany
Prior art keywords
vehicle
image
distance
aid system
parking aid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60009000T
Other languages
English (en)
Other versions
DE60009000D1 (de
Inventor
Nobuhiko Moriguchi-shi Yasui
Atsushi Katano-shi Iisaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Application granted granted Critical
Publication of DE60009000D1 publication Critical patent/DE60009000D1/de
Publication of DE60009000T2 publication Critical patent/DE60009000T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/002Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle
    • B60Q9/004Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle using wave sensors
    • B60Q9/005Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle using wave sensors using a video camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/40Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
    • B60R2300/404Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components triggering from stand-by mode to operation mode
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2201/00Particular use of vehicle brake systems; Special systems using also the brakes; Special software modules within the brake system controller
    • B60T2201/10Automatic or semi-automatic parking aid systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf ein System, um einem Fahrer eines Fahrzeugs behilflich zu sein, einzuparken durch ein Bild um das Fahrzeug herum, und insbesondere auf ein System zum Berechnen einer Entfernung von dem Fahrzeug zu einem bestimmten 3D-Objekt in dem Bild, welches von dem Fahrzeug aufgenommen wird, und zum Benachrichtigen des Fahrers davon, was sich um das Fahrzeug herum befindet.
  • Beschreibung des Standes der Technik
  • Herkömmliche Technologien, die bisher offenbart wurden, die für Fahrzeuge, beispielsweise für Automobile, relevant sind, schließen z. B. das Detektieren jedes Hindernisses um das Fahrzeug herum ein. Falls irgendein Hindernis detektiert wird und falls bestimmt wird, dass eine Kollision damit höchst wahrscheinlich möglich ist, wird ein Fahrer des Fahrzeugs durch einen Alarm gewarnt, über die Entfernung zu dem Hindernis benachrichtigt oder das Fahrzeug wird gemäß der Entfernung automatisch gebremst, um anzuhalten. Als ein Beispiel solcher Detektionsmittel ist beispielhaft ein Entfernungsdetektionssystem in dem japanischen Patent, Offenlegungsnummer 5-114099 ( 93-114099 ) und dessen korrespondierendem Familienmitglied US 5 307 136 A offenbart, welches eine Bilderkennungstechnologie verwendet. In diesem System wird ein Bild verwendet, welches durch eine Kamera aufgenommen wird, die in einem Fahrzeug befestigt ist.
  • Das Entfernungsdetektionssystem wird nun mit Bezug auf 11 und 12 beschrieben. Insbesondere ist 11 ein Diagramm, welches die Beziehung zwi schen einer Kamera und einem 3D-Objekt zeigt, während 12 ein Blockdiagramm ist, welches das Entfernungsdetektionssystem zeigt.
  • In dem Entfernungsdetektionssystem ist stereo-optischen System in einem Fahrzeug ausgerüstet, beispielsweise ein Automobil, zum Aufnehmen eines Bildes des 3D-Objekts, welches sich außerhalb des Fahrzeugs innerhalb einer gegebenen Entfernung befindet. Das stereo-optische System wird beispielsweise durch verschiedene Kameras implementiert, welche eine feste Bildaufnahmevorrichtung verwenden, wie ein Charge-Coupled Device (CCD), und wobei jede fest an eine Deckenfläche des Fahrzeugs gegen dem vorderen Ende angebracht ist. Hier wird angenommen, dass die Anzahl von Kameras zwei ist, und die eine, welche sich von vorne gesehen auf der rechten Seite befindet, wird als rechte Kamera, und die andere auf der linken Seite wird als linke Kamera bezeichnet.
  • In 11 sind die rechten und linken Kameras so platziert, um voneinander die Entfernung s zu haben und zu jeder Fotografie einen Punkt P in einer senkrechten Entfernung D davon zu haben. Angenommen, dass eine Fokusentfernung für beide Kameras f ist, wird ein Bild des Punktes P auf der Projektionsfläche jeder Kamera aufgenommen, welche von der Kamera um die Fokusentfernung f entfernt ist. In diesem Fall ist die Entfernung zwischen diesen zwei Bildern auf den Projektionsflächen s + t, wobei t eine Verschiebung bezeichnet. Daher wird die Entfernung D so berechnet wie folgt: D = s * f/t
  • Das heißt, dass die Verschiebung t zu der Entfernung D führt.
  • Als Nächstes wird der Prozess der Berechnung der Verschiebung t beschrieben. In 12 gibt ein stereo-optisches System 100 zwei Daten von analogen Bildern, welche darin aufgenommen werden, an einen Bildverarbeitungsteil 201 weiter. Die zwei analogen Bilddaten werden dann einer A/D-Konvertierung unterworfen zur Ausgabe an einen Hamming-Entfernungsberechnungsteil 202. Die zwei digitalen Bilddaten werden dann jeweils berechnet für eine Hamming-Entfernung H auf der Pixelbasis. Die Hamming-Entfernungen H werden verwendet, um die Verschiebung von zwei Bildern zu bestimmen. Ein Minimal-/Maximalwert-Detektionsteil 203 durchsucht dann die Hamming-Entfernungen H, welche durch den Hamming-Entfernungsberechnungsteil 202 berechnet wurden, nach einem Minimalwert Hmin und einem Maximalwert Hmax. Es wird hier angenommen, dass der Minimalwert Hmin die Verschiebung t ist.
  • Als solches verarbeitet das Entfernungsdetektionssystem zwei Bilder, welche durch eine Stereokamera aufgenommen werden, welche in einem Fahrzeug befestigt ist, und findet eine Verschiebung t. Dabei kann das System z. B. einem Fahrer mit einer 3D-Position eines Hindernisses und einem warnenden Alarm behilflich sein, falls eine Kollision oder ein Stoß dagegen möglich ist.
  • Ein solches Entfernungsdetektionssystem erfordert jedoch erhebliche Genauigkeit, um mehrere Kameras des stereooptischen Systems an einem Fahrzeug fest anzubringen, insbesondere in Winkel, Richtung, Abstand und Ähnlichem. Es ist auch nötig, Daten vorher in eine stereobildverarbeitende Vorrichtung einzugeben, welche die zufriedenstellenden Positionen dieser Kamera anzeigen. Als ein Ergebnis ist ein Strukturieren eines solchen stereooptischen Systems sehr schwierig. Weiterhin, wie in dem Vorhergehenden beschrieben, um die Hamming-Entfernungen H zu berechnen, muss eine Objektdetektion für ein Bild mit Bezug auf das andere in dessen Gesamtheit durchgeführt werden. Ebenso muss dort eine solche Suche auf der Pixelbasis wiederholt werden, wobei der Betrag der Berechnung daher ziemlich groß und der Hardware-Aufbau ziemlich kompliziert ist. Darüber hinaus ist die Entfernung zu einem Hindernis, über welches durch dieses Entfernungsdetektionssystem benachrichtigt wird, oft in numerischen Zahlen oder als Bilder, welche ziemlich verschieden von dem gegenwärtigen Hindernis sind. Deshalb könnte der Fahrer die Entfernung nicht völlig erfassen.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Deshalb ist es eine Aufgabe der vorliegenden Erfindung, ein System zur Einparkhilfe bereitzustellen, um einen Fahrer sicher über eine Entfernung zwischen seinem Fahrzeug und einem Hindernis in einer erfassbaren Art und Weise zu benachrichtigen, während eine Befestigung eines Bildaufnehmers an dem Fahrzeug vereinfacht wird und eine Berechnung in der Bildverarbeitung verringert wird.
  • Die vorliegende Erfindung hat die folgenden Merkmale, um die obige Aufgabe zu erfüllen.
  • Ein Aspekt der vorliegenden Erfindung bezieht sich auf ein System zur Einparkhilfe, um einem Fahrer eines Fahrzeugs behilflich zu sein, einzuparken durch Aufnehmen eines Bildes um das Fahrzeug herum und zum Benachrichtigen des Fahrers davon, welches 3D-Objekt sich dort herum befindet, wobei das System aufweist:
    eine Bildaufnahme zum Aufnehmen, mit einer einzelnen Kamera, während des Übergangs des Fahrzeugs, erster und zweiter Bilder um das Fahrzeug herum, welche an einer unterschiedlichen Stelle und zu einer ersten und einer zweiten Zeit aufgenommen werden;
    einen Objektspezifikationsteil zum Detektieren und Spezifizieren des 3D-Objekts, welches in jedem der ersten und zweiten Bilder gefunden wird,
    einen Fahrzeug-Positionsberechnungsteil zum Berechnen von Übergangsdaten des Fahrzeugs von dem ersten Ort zu dem zweiten Ort;
    einen Objekt-Entfernungsberechnungsteil zum Berechnen einer Entfernung von dem Fahrzeug zu dem 3D-Objekt durch Verwenden der Position des 3D-Objekts in jedem der ersten und zweiten Bilder und der Übergangsdaten des Fahrzeugs; und
    einen Bilderzeugungsteil zum Erzeugen eines dritten Bildes zum Anzeigen an den Fahrer, welches auf den Bildern, welche durch den Bildaufnahmeteil afgenom men wurden, und auf Daten basiert, welche durch den Objekt-Entfernungsberechnungsteil berechnet wurden.
  • Wie oben beschrieben, in dem Aspekt der vorliegenden Erfindung, da es mit einer einzelnen Bildaufnahme ausgestattet ist, nimmt das System zur Einparkhilfe zwei Bilder an einem unterschiedlichen Ort und zu einer unterschiedlichen Zeit auf, und berechnet die Übergangsdaten des Fahrzeugs zwischen den zwei Orten. Deshalb kann, mit dem Prinzip der Dreiecknavigation, welche auf die 3D-Objekte in zwei Bildern angewandt wird, das System zur Einparkhilfe die Entfernung zu dem 3D-Objekt korrekt berechnen. Demgemäß reicht eine Bildaufnahme aus und das System zur Einparkhilfe erreicht einfache Befestigung dessen, da kein Bedarf mehr besteht, verschiedene Bildaufnehmer fest mit beträchtlicher Genauigkeit zu befestigen, insbesondere in Winkel, Richtung, Abstand und Ähnlichem. Ferner zeigen die Daten, welche durch den Objekt-Entfernungsberechnungsteil berechnet werden, korrekt die Entfernung von dem Fahrzeug an, und daher wird das dritte Bild nicht schief werden und die korrekte Entfernung anzeigen. Des Weiteren wird, durch Anzeigen des Bildes, auf welchem die Entfernungsdaten hinzugefügt werden, es dem Fahrer leichter, die gegenwärtige Entfernung von dem Fahrzeug zu dem 3D-Objekt zu erfassen.
  • Der Objekt-Entfernungsberechnungsteil detektiert vorzugsweise Kanten der 3D-Objekte, welche jeweils in den ersten und zweiten Bildern gefunden werden. Ebenso verwendet der Objekt-Entfernungsberechnungsteil die Koordinatendaten von jeder Kante, welche in den ersten und zweiten Bildern identisch sind, und die Übergangsdaten des Fahrzeugs, so dass die Entfernung von dem Fahrzeug zu der Kante des 3D-Objekts berechnet wird. Deshalb kann, sogar wenn das Fahrzeug sich kompliziert bewegt, die Entfernung zu dem 3D-Objekt einfach berechnet werden allein mit den Koordinatendaten irgendeiner Kante, welche in den zwei Bildern identisch ist, und mit Übergangsdaten des Fahrzeugs. Ferner kann, um irgendeine identische Kante zu detektieren, unter Verwendung der Übergangsdaten des Fahrzeugs, der Objekt-Entfernungsberechnungsteil die Position der Kante, welche in den ersten und zweiten Bildern identisch ist, schätzen, und unterwirft dann die Kante positionsweise einer Bildanalyse. In diesem Fall, da die Übergangsdaten des Fahrzeugs bereits berechnet wurden, ist die positionelle Beziehung zwischen den zwei Bildern geklärt. Dies macht es möglich, zu schätzen, welche Kante in einem Bild sich wo in dem anderen Bild befindet, und Bildanalyse wird nur für den geschätzten Teil des Bildes durchgeführt, wobei die für die Kantendetektion notwendige durchzuführende Berechnung reduziert wird. Darüber hinaus kann die Hardware-Struktur vereinfacht werden.
  • Der Bilderzeugungsteil konvertiert vorzugsweise das Bild, welches durch den Bildaufnahmeteil aufgenommen wurde, in eine Draufsicht, und erzeugt dann ein drittes Bild durch Addieren der Daten, welche durch den Objekt-Entfernungsberechnungsteil berechnet wurden, zu der Ansicht. Mit Hilfe eines solchen erzeugten dritten Bildes auf der Anzeige kann der Fahrer die tatsächliche Entfernung von dem Fahrzeug zu dem 3D-Objekt erfassen. Alternativ kann der Bilderzeugungsteil aus den Daten, welche durch den Objekt-Entfernungsberechnungsteil berechnet wurden, einen Teil in der Nähe des Fahrzeugs wahrnehmbar hervorheben. Dabei kann aus den Daten, welche durch den Objekt-Entfernungsberechnungsteil berechnet wurden, ein Teil in der Nähe des Fahrzeugs durch Farbe, Linienbreite oder Ähnlichem, hervorgehoben werden, um sie hervorstehen zu lassen, um den Fahrer vor irgendeinem sich nähernden 3D-Objekt zu warnen. Der Bilderzeugungsteil kann auch das dritte Bild erzeugen, indem er die Daten, welche durch den Objekt-Entfernungsberechnungsteil berechnet werden, in ein 3D-Objektmodell konvertiert und das 3D-Objektmodell zu der Draufsicht addiert. So wird der Fahrer durch Addieren des Nahe-zu-Tatsächlichen-3D-Objektmodells auf die Draufsicht vor dem 3D-Objekt gewarnt und es fällt ihm leichter, die Entfernung zwischen dem 3D-Objekt und dem Fahrzeug zu erkennen. Oder der Bilderzeugungsteil kann zusätzlich ein Modell des Fahrzeugs auf das dritte Bild addieren. Da es in dem Fahrzeug eingebaut ist, kann der Bildaufnehmer kein Bild des Fahrzeugs in seiner Gesamtheit aufnehmen. In diesem Sinn ist das Bild nicht vollständig, und deshalb kann es für den Fahrer schwierig sein, die tatsächliche Entfernung von dem Fahrzeug zu dem 3D-Objekt zu erkennen. Um ein solches Problem zu umgehen, wird das Modell des Fahrzeugs fest auf dem dritten Bild angezeigt.
  • Der Objektspezifizierungsteil erzeugt beispielhaft ein viertes Bild durch Projizieren des ersten Bildes auf den zweiten Transformationsort und nimmt dann einen Unterschied zwischen dem vierten und dem zweiten Bild auf, um das 3D-Objekt zu detektieren und zu spezifizieren. Alternativ kann der Objekt-Spezifikationsteil das vierte Bild durch Projizieren des zweiten Bildes auf den ersten Transformationsort erzeugen und nimmt dann einen Unterschied zwischen den vierten und ersten Bildern auf, um das 3D-Objekt zu detektieren und zu spezifizieren. Jede dieser Strukturen genügt, um das 3D-Objekt in dem Bild auf einfache Art und Weise zu detektieren und zu spezifizieren. Das heißt, weil aufgrund der Extraktion von solchen Unterschieden zwischen einem Bild, das tatsächlich aufgenommen wurde und dem anderen, welches durch Projizieren des vorherigen Bildes darauf erhalten wurde, bleibt nur irgendein schiefer Teil übrig.
  • Die Übergangsdaten des Fahrzeugs schließen typischerweise die lineare Übergangsentfernung und den Fahrzeugwinkel des Fahrzeugs ein. In solch einem Fall, basierend auf den Daten, welche von einem Steuerwinkelsensor und einem Radgeschwindigkeitssensor über einen Impulszähler, der in dem Fahrzeug eingebaut ist, erhalten werden, berechnet der Fahrzeugpositionsberechnungsteil die Übergangsentfernung und den Fahrzeugwinkel.
  • Der Bildaufnehmer ist vorzugsweise im hinteren Teil eines Fahrzeugs, welches speziell beim Einparken viele tote Winkel hat, eingebaut, wodurch das System zur Einparkhilfe nützlicher wird. Dies gilt insbesondere für großräumige Fahrzeuge.
  • In einem bevorzugten Beispiel wird das oben beschriebene dritte Bild auf der Anzeige für den Fahrer angezeigt. Da das dritte Bild dem tatsächlichen Bild ziemlich ähnlich ist, erlaubt dies dem Fahrer, die tatsächliche Entfernung leicht wahrzunehmen.
  • Weiterhin, in einem weiteren bevorzugten Beispiel, wird, wenn die Entfernung von dem Fahrzeug zu dem 3D-Objekt, welche durch den Objekt-Entfernungsberechnungsteil berechnet wird, kürzer ist als eine vorbestimmte Entfernung, ein Ton und/oder Licht erzeugt. Dadurch kann der Fahrer vor dem sich nähernden 3D-Objekt gewarnt werden.
  • Die Bildaufnahme kann bedingt auf verschiedene Weisen gestartet werden. Zuerst kann das System damit beginnen, ein Bild in Antwort auf die manuelle Bedienung des Fahrers aufzunehmen. Wenn das der Fall ist, kann der Fahrer wahlweise das System zur Einparkhilfe nur starten, wenn er/sie seine Unterstützung benötigt. Zweitens startet das System, wenn sich das Fahrzeug auf eine vorbestimmte Geschwindigkeit verlangsamt. Drittens startet das System, wenn das Fahrzeug rückwärts fährt. Gemäß den zweiten und dritten Bedingungen kann das Fahrzeug angeben, ob es in einem Parkmodus ist oder nicht. Somit kann das System zur Einparkhilfe nur gestartet werden, wenn das Fahrzeug in dem Parkmodus ist.
  • Diese und andere Ziele, Merkmale, Aspekte und Vorteile der vorliegenden Erfindung werden offensichtlicher werden aus der folgenden detaillierten Beschreibung der vorliegenden Erfindung, wenn sie in Verbindung mit den begleitenden Zeichnungen genommen werden.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Diagramm, welches die gesamte Struktur eines Systems zur Einparkhilfe gemäß einer Ausführungsform der vorliegenden Erfindung zeigt;
  • 2 ist ein Schaltungsblockdiagramm des Systems zur Einparkhilfe;
  • 3 ist ein Flussdiagramm, welches die umfassende Bedienung des Systems zur Einparkhilfe zeigt;
  • 4 ist ein Flussdiagramm, welches den speziellen Betrieb zur Objektspezifikation durch das System zur Einparkhilfe zeigt;
  • 5a bis 5d sind Diagramme zur Unterstützung der Erklärung der Bildverarbeitung, welche zur Objektspezifikation durch das System zur Einparkhilfe durchgeführt wird;
  • 6 ist ein Flussdiagramm, welches den Betrieb zur Berechnung einer Entfernung zu einem 3D-Objekt durch das System zur Einparkhilfe zeigt;
  • 7a und 7b sind Diagramme zur Unterstützung der Erklärung der Kantendetektion in dem 3D-Objekt durch das System zur Einparkhilfe;
  • 8 ist ein Diagramm zur Unterstützung der Erklärung eines Verfahrens zur Berechnung einer Entfernung zu dem 3D-Objekt, wenn ein Fahrer das Fahrzeug geradeaus fahren lässt;
  • 9 ist ein Diagramm zur Unterstützung der Erklärung eines Verfahren zur Berechnung einer Entfernung zu dem 3D-Objekt, wenn der Fahrer das Fahrzeug eingelenkt hat;
  • 10a bis 10b sind Diagramme zur Unterstützung der Erklärung eines Verfahrens der Bilderzeugung, um den Fahrer über die Entfernung zu dem 3D-Objekt zu benachrichtigen;
  • 11 ist ein Diagramm, welches die Beziehung zwischen einer Kamera und einem 3D-Objekt durch ein herkömmliches System zur Entfernungsbestimmung, welche in der japanischen Patentoffenlegungsschrift Nr. 5-114099 offenbart ist, zeigt; und
  • 12 ist ein Blockdiagramm, welches das herkömmliche Entfernungsbestimmungssystem zeigt.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • 1 bis 10c sind Diagramme, welche ein System zur Einparkhilfe gemäß einer Ausführungsform der vorliegenden Erfindung zeigen. Insbesondere zeigt 1 den gesamten Aufbau, 2 ein Schaltungsblockdiagramm, 3 ein Flussdiagramm zur umfassenden Bedienung und 4 ein Flussdiagramm zur Bedienung zum Spezifizieren eines 3D-Objekts. Hierbei umfasst das 3D-Objekt exemplarisch einen Pfeiler, eine Wand, ein anderes Fahrzeug und Spaziergänger, welche um das Fahrzeug postiert sind, und ist definiert als nicht den Boden oder eine weiße Linie darauf einschließend. 5a bis 5d sind Diagramme zur Unterstützung der Erklärung der Bildverarbeitung zum Spezifizieren des 3D-Objekts, 6a ist ein Flussdiagramm zur Bedienung der Berechnung einer Entfernung zu dem 3D-Objekt, 7a und 7b sind Diagramme zur Unterstützung der Erklärung einer Kantendetektion in dem 3D-Objekt; 8a ein Diagramm zur Unterstützung der Erklärung eines Verfahrens zur Berechnung einer Entfernung zu dem 3D-Objekt, wenn ein Fahrer das Fahrzeug geradeaus fahren lässt, 9 ist ein Diagramm zur Unterstützung der Erklärung eines Verfahrens zur Berechnung einer Entfernung zu dem 3D-Objekt, wenn der Fahrer das Fahrzeug eingeschlagen hat, und 10a bis 10c sind Diagramme zur Unterstützung der Erklärung eines Verfahren zur Bilderzeugung, welches den Fahrer über die Entfernung zu einem 3D-Objekt benachrichtigt. Unter Bezugnahme auf 1 bis 10c wird unten eine Ausführungsform der vorliegenden Erfindung beschrieben werden.
  • In 1 ist ein System zur Einparkhilfe dieser Ausführungsform in einem Fahrzeug 1, wie einem Automobil, montiert und beinhaltet eine Bildaufnahme 10, eine Bildverarbeitungsvorrichtung 20, eine Anzeige 30, einen Steuerwinkelsensor 40, einen Radgeschwindigkeitssensor 50 und einen Impulszähler 60. Das System zur Einparkhilfe ist auch mit einer Startsteuerung (nicht gezeigt) zur Steuerung seines eigenen Starts ausgestattet. Die Bildaufnahme 10 ist beispielhaft durch eine einzelne Kamera implementiert, welche eine feste Bildaufnahmevorrichtung, wie ein Charge-Coupled-Device-(CCD), verwendet, und eine solche Kamera ist so in dem Fahrzeug 1 montiert, dass sie nach hinten gerichtet ist. Das Bild, welches von der Kamera aufgenommen wird, wird in die Bildverarbeitungsvorrichtung 20 eingegeben. Der Steuerwinkelsensor 40 ist ausgestattet, um Daten, welche einen Radwinkel des Fahrzeugs 1 anzeigen, zu detektieren, und die Steuerungswinkeldaten, welche dadurch detektiert werden, gehen auch an die Verarbeitungseinheit 20. Der Radgeschwindigkeitssensor 50 ist derjenige, welcher vorgesehen ist, eine Entfernung, welche von dem Fahrzeug 1 zurückgelegt wurde, zu detektieren, und erhaltene Daten, welche die Anzahl der Radumdrehungen (nachfolgend Radumdrehungsdaten) anzeigen, werden in die Bildverarbeitungsvorrichtung 20 über den Impulszähler 60 eingegeben.
  • Die Bildverarbeitungsvorrichtung 20 benutzt solche Daten, um Daten zu berechnen, welche spezifiziert haben, welches 3D-Objekt hinter dem Fahrzeug 1 ist (nachfolgend Objektdaten), und dann eine Entfernung zwischen dem spezifizierten 3D-Objekt und dem Fahrzeug 1. Die Bildverarbeitungsvorrichtung 20 konvertiert dann das Bild, welches von der Kamera geliefert wird, in eine Draufsicht, um einem Fahrer zu helfen, die Entfernung zu dem 3D-Objekt leicht wahrzunehmen. Und danach werden sowohl die berechneten Objektdaten als auch die Entfernungsdaten hinzugefügt. Das Bild, welches so erhalten wird, wird dann auf der Anzeige 30 angezeigt. Die Anzeige 30 kann z. B. mit einem Lautsprecher oder einer lichtemittierenden Vorrichtung ausgestattet sein, um den Fahrer zu warnen, wenn das Fahrzeug 1 dem 3D-Objekt zu sehr nahe kommt, d. h., wenn die Entfer nung zwischen dem Fahrzeug 1 und dem 3D-Objekt geringer als eine vorbestimmte Schwelle wird.
  • Als Nächstes wird der innere Aufbau der Bildverarbeitungsvorrichtung 20 beschrieben. In 2 beinhaltet die Bildverarbeitungsvorrichtung 20 einen Analog/Digital-Umwandler (nachfolgend ADC) 21, Rahmenspeicher 22, 23 und 27, eine CPU 24, RAM 25, ROM 26 und eine Steuerung 28. Der ADC 21 konvertiert ein analoges Bild, welches von der Bildaufnahme 10 aufgenommen wurde, in ein digitales Bild und stellt die digitalen Bilddaten dem Rahmenspeicher 22 oder 23 bereit. Die Rahmenspeicher speichern die digitalen Bilddaten und schicken die Daten auch an die CPU 24. Hier sind die digitalen Bilddaten, welche in den Rahmenspeichern 22 und 23 gespeichert sind, jeweils verschiedene Bilddaten, welche an jeweils verschiedenen Positionen aufgenommen wurden. Das ROM 26 speichert vorher Programme zur Bildkonvertierung und zum Berechnen einer positionellen Verschiebung des Fahrzeugs 1, und Ähnlichem. Das Programm wird auf das RAM 24 geladen, welches z. B. als Arbeitsbereich zum Berechnen der positionellen Verschiebung verwendet wird. Die CPU 24 verwendet alle der digitalen Bilddaten, Steuerungswinkeldaten und Radumdrehungsdaten, um durch die Bildverarbeitung zu gehen, wobei sie dem Programm in dem RAM 25 folgt. In dieser Bildverarbeitung werden sowohl die Objektdaten als auch die Entfernung von dem Fahrzeug 1 zu dem 3D-Objekt berechnet. Das digitale Bild, welches von dem Rahmenspeicher 22 oder 23 bereitgestellt wird, wird dann in eine Draufsicht konvertiert, der die zwei berechneten Daten hinzuzufügen sind. Das konvertierte Bild wird in dem Rahmenspeicher 27 gespeichert und dann an die Anzeige 30 ausgegeben unter der Steuerung der Steuervorrichtung 28 zur Anzeige.
  • Als Nächstes wird der umfassende Betrieb der Bildverarbeitungsvorrichtung 20 mit Bezug auf ein Flussdiagramm beschrieben. Einzelheiten über Schritte werden der späteren Beschreibung belassen. In 3 entscheidet die CPU 24, ob der Fahrer das System zur Einparkhilfe mit einem Startschalter SW AN geschaltet hat, welches die Startsteuerung ist (Schritt S 110). Falls ja, beginnt die CPU 24 ihren Betrieb und die Prozedur geht zum Schritt S 120. Falls nein, wird das System zur Einparkhilfe nicht gestartet. Dann spezifiziert die CPU 24 irgendein 3D-Objekt in einem Bild, welches einen Bereich hinter dem Fahrzeug zeigt (Schritt S 120), und berechnet dann die Entfernung des Fahrzeugs von dem spezifizierten 3D-Objekt (Schritt S 130). Die CPU 24 konvertiert das Bild, welches den Bereich hinter dem Fahrzeug zeigt, in eine Draufsicht (Schritt S 140), und danach fügt die CPU 24 die Objektdaten und die Entfernungsdaten hinzu. Das 3D-Objekt wird dann mit Hervorhebung angezeigt in dem so erhaltenen Bild, um den Fahrer Notiz davon nehmen zu lassen (Schritt S 150). Als Letztes entscheidet die CPU 24, ob der Fahrer den Startschalter SW auf AUS geschaltet hat (Schritt S 160). Falls ja, ist dies das Ende des Betriebs des Systems zur Einparkhilfe, aber falls noch nicht, wiederholt das Verfahren Schritt S 120 und weiter.
  • Es sei hierin angemerkt, dass die Startsteuerung ein Rückwärtssignal in einem Getriebe des Fahrzeugs oder Verlangsamung des Fahrzeugs mehr als einen vorherbestimmter Schwellenwert detektieren kann und in Antwort darauf kann das System zur Einparkhilfe automatisch starten. Weiter kann das System zur Einparkhilfe als AUS bestimmt werden in Schritt S 160, wenn die CPU 24 das Erreichen der Fahrzeuggeschwindigkeit höher als ein vorherbestimmter Schwellenwert erkennt. In dieser Weise wird das System zur Einparkhilfe gesetzt, um seinen Betrieb automatisch zu beenden.
  • Als Nächstes werden die Einzelheiten der Schritte schrittweise erklärt. Zuerst wird mit Bezug auf 2, 4 und 5a bis 5d beschrieben, wie ein 3D-Objekt in Schritt S 120 in 3 spezifiziert wird.
  • Wie bereits beschrieben zeigt das Flussdiagramm von 4 die Unter-Routine von Schritt S 120, wie ein 3D-Objekt spezifiziert wird. Mit Bezug auf 2 und 4 sendet die Bildaufnahme 10 ein analoges Bild A zu dem ADC 21. Das analoge Bild A repräsentiert ein Fahrzeug an einer Position a. Der ADC 21 unterwirft dann das analoge Bild A einer A/D-Konvertierung, um so das derart erhaltene digitale Bild A in dem Rahmenspeicher 22 zu speichern (Schritt S 121). Die CPU 24 verwendet zur Berechnung Steuerungswinkeldaten, welche von dem Steuerwinkelsensor 40 erhalten werden, und Radumdrehungsdaten von dem Radgeschwindigkeitssensor 50, welche beide in dem Fahrzeug vorgesehen sind. Hier wird eine lineare Übergangsentfernung ΔD von der Position a zu b und ein Fahrzeugwinkel R während des Übergangs berechnet (Schritt S 122). Die CPU 24 entscheidet dann, ob die lineare Übergangsentfernung ΔD ein vorherbestimmter Schwellenwert ist oder größer (Schritt S 123). Falls nein, wiederholt die Prozedur Schritt S 122 und geht anderweitig nach Schritt S 124. Die Bildaufnahme 10 sendet dann ein analoges Bild B, welches das Fahrzeug zu einer Position b repräsentiert, zu dem ADC 21. Der ADC 21 unterwirft das analoge Bild B einer A/D-Konvertierung, um so das derart erhaltene digitale Bild B in dem Rahmenspeicher 23 zu speichern (Schritt S 124).
  • Für Schritt S 125 und danach wird auf 5a bis 5d Bezug genommen. 5a zeigt das Bild A an und 5b das Bild B, welches jedes ein 3D-Objekt 2 beinhaltet und weiße Linien 3a und 3b, welche auf den Boden gezeichnet sind. Die CPU 24 verwendet die lineare Übergangsentfernung ΔD und den Fahrzeugwinkel R, welcher in Schritt S 122 berechnet wurde, zur projektiven Transformation. Das heißt, das Bild A, welches das Fahrzeug an der Position a repräsentiert, wird auf das Bild B an der Position b projiziert, und ein Bild c wird erzeugt (Schritt S 125). Um genauer zu sein, verwendet die CPU 24 die Daten, welche relevant zu dem Übergang des Fahrzeugs sind, um das Bild A, welches das Fahrzeug an der Position a repräsentiert, einer Bildkonvertierung zu unterwerfen, und erhält so ein Bild C, wie in 5c gezeigt, welches eine Ansicht von der Position bist. Durch Vergleich werden die weißen Linien 3a und 3b in 5c derart konvertiert, dass sie mit denen in 5b übereinstimmen, aber das 3D-Objekt 2 in 5c sieht schief aus. Dies kommt daher, dass in der projektiven Transformation, welche das Bild A verwendet, das 3D-Objekt 2 betrachtet wird als auf der gleichen Ebene wie die weißen Linien 3a und 3b zu sein.
  • Die CPU 24 berechnet dann eine Differenz zwischen den Bildern B und C (Schritt S 126). 5d zeigt das resultierende Bild nach der Berechnung und Bezugszeichen 4a und 4b darin bezeichnen Regionen, welche die Differenzen zwischen den 3D-Objekten 2 in den Bildern B und C sind. Die weißen Linien 3a und 3b bleiben nicht durch Extrahieren solcher Differenzen übrig. Das heißt, wegen der Extraktion der Unterschiede zwischen den Bildern B und C ist nur das 3D-Objekt 2 übrig geblieben. Die CPU 24 gibt dann die Objektdaten wie oben spezifiziert aus (Schritt S 127).
  • Mit Bezug auf 2 und 6 bis 8 wird als Nächstes Schritt S 120 beschrieben, welcher die Entfernung von dem Fahrzeug zu dem 3D-Objekt berechnet. Hierein, wie bereits erwähnt, ist 6 ein Flussdiagramm für eine Unter-Routine zum Berechnen einer solchen Entfernung.
  • In 2 und 6 unterwirft die CPU 24 das in dem Bildern A und B spezifizierte 3D-Objekt einer Kantendetektion durch Verwenden von Daten von Bild A in dem Rahmenspeicher 22, Daten von Bild B in dem Rahmenspeicher 23 und der Objektdaten (Schritt S 131). In 7a und 7b ist das spezifizierte 3D-Objekt ein Fahrzeug 5, welches beispielhaft einer Kantendetektion unterworfen wird. Was das Bild, welches das Fahrzeug 5 repräsentiert, betrifft, wird zuerst ein Helligkeitsverteilungsmuster (kann ein gefärbtes Verteilungsmuster sein) und dann ein Unterschied in Helligkeit zwischen Pixeln analysiert. Es wird dann eine Entscheidung getroffen, ob der Unterschied in Helligkeit gleich oder größer als ein vorherbestimmter Schwellenwert ist. In dieser Weise werden Kanten 6a bis 6f detektiert, wie in 7a gezeigt. 7b zeigt solche detektierten Kanten 6a bis 6f aus Gründen der Klarheit. Als solches unterwirft die CPU 24 das 3D-Objekt, welches durch die Bilder A und B spezifiziert ist, einer Kantendetektion und dann geht die Prozedur zu Schritt S 132.
  • In 6 bezieht sich die CPU 24 auf die Kanten, welche in den Bildern A und B detektiert sind in Schritt S 131, um jedwede identische Kante in Paaren zu detek tieren (Schritt S 132). Diese Kantendetektion wird ausgeführt unter dem Verfahren, welches üblicherweise verwendet wird zur Berechnung der Hamming-Distanz, z. B. durch Vergleichen der Bilder A und B in Helligkeit oder Farbmuster. Es sei bemerkt, dass die CPU 24 schätzen kann, welche Kante in dem Bild A wo in dem Bild B platziert ist mit Hilfe der linearen Transitdistanz ΔD und dem Fahrzeugwinkel R des Fahrzeugs. Dementsprechend strebt die CPU 24 Bildanalyse nur für den geschätzten Teil des Bildes an, und die Menge von Berechnungen, durchgeführt für die Kantendetektion, ist somit reduziert.
  • Als Nächstes berechnet die CPU 24 die Entfernung in jedem der Bilder für die identischen Kante, detektiert in Schritt S 132 (Schritt S 133). Die Distanz ist von einer Mittenposition jedes der Bilder zu einer dieser Kanten und z. B. durch Koordinaten angezeigt.
  • Betreffend Schritt S 134 wird auf 8 und 9 Bezug genommen. 8 zeigt das Verfahren zum Berechnen der Distanz von dem Fahrzeug zu dem 3D-Objekt, wenn der Fahrer das Fahrzeug geradeaus vorwärts laufen lässt (oder rückwärts laufen lässt), mit anderen Worten, wenn das Fahrzeug in die Z-Richtung läuft, ohne eingelenkt zu sein. Das Verfahren wird als Nächstes unten beschrieben mit Bezug auf 8.
  • In 8, unter der Annahme, dass das Verfahren das ist für die Berechnung einer Distanz D von dem Fahrzeug, welches mit der Bildaufnahme 10 ausgerüstet ist, zu einem Punkt P auf einer Kante eines 3D-Objekts 7. Hierin zeigen Bezugszeichen 7a und Pa an, wo das 3D-Objekt 7 und der Punkt P jeder zu positionieren sind, wenn das Fahrzeug sich an der Position a befindet. Auf ähnliche Weise zeigen die Bezugszeichen 7b und Pb an, wo das 3D-Objekt 7 und der Punkt P jeweils zu positionieren sind, wenn sich das Fahrzeug an Position b befindet. In 8 ist die Position der Bildaufnahme 10 als eine Referenz genommen und zeigt die Positionsänderung des 3D-Objekts 7 und des Punkts P. Genauer, wenn das Fahrzeug sich von der Position a nach b bewegt über die lineare Transitdistanz ΔD, bewe gen sich das 3D-Objekt 7 und der Punkt P von 7a und Pa zu entsprechend 7b und Pb. In 8 sollte das 3D-Objekt 7 als eine Referenz genommen worden sein, so dass das Fahrzeug, welches mit der Bildaufnahme 10 ausgerüstet ist, beschrieben wird als sich in die Z-Richtung bewegend um die lineare Transitdistanz ΔD. Der Einfachheit halber jedoch wird die Bildaufnahme 10 als die Referenz genommen, so dass das 3D-Objekt 7 und der Punkt P diejenigen sind, die sich um die lineare Transitdistanz ΔD bewegen.
  • Wenn angenommen wird, dass eine Brennweite für die Bildaufnahme 10f ist, werden Bilder des 3D-Objekts 7 und des Punkts P auf eine Projektionsfläche projiziert, welche von der Bildaufnahme 10 um die Brennweite f entfernt ist. Das bedeutet, die Bilder des 3D-Objekts 7 und der Punkt P, jeweils positioniert bei 7a und Pa, werden auf das Bild A als das 3D-Objekt 7'a und ein Punkt P'a projiziert. In ähnlicher Weise werden diejenigen, welche bei 7b und Pb positioniert sind, auf das Bild B als ein 3D-Objekt 7'b und ein Punkt P'b projiziert. Obwohl das in 8 gezeigte Bild die Kombination der Bilder A und B der Einfachheit halber ist, ist es praktisch nicht notwendig in dem Betrieb des Systems zur Einparkhilfe.
  • Als Nächstes wird das Verfahren zur Berechnung der Distanz D von dem Fahrzeug zu dem Punkt P auf der Kante des 3D-Objekts 7 beschrieben. Unter der Annahme, dass jeder Mittelpunkt der Bilder A und B, welche von der Bildaufnahme 10 aufgenommen werden, 0 ist, wird die Distanz D ausgedrückt als D = ΔD * 7/vwobei eine Entfernung von dem Mittelpunkt 0 zu dem Punkt P'a u ist, und eine Entfernung von dem Punkt P'a zu P'b v ist. Hier muss, da die lineare Transitdistanz ΔD des Fahrzeugs bereits in Schritt in S 122 berechnet wurde, die CPU 24 lediglich die Entfernung von dem Punkt P'a nach P'b in jedem Bild berechnen, um die Entfernung zwischen der Bildaufnahme 10 zu dem Punkt P zu berechnen. Es sei hierin drauf hingewiesen, dass, da die Kante eine Sammlung von Punkten ist, die Berechnung der Entfernung zu dem Punkt P für solch eine Kante zu der Distanzverteilung der kanten führt.
  • 9 ist ein Diagramm zur Unterstützung der Erklärung eines Verfahrens zum Berechnen einer Distanz von dem Fahrzeug zu dem 3D-Objekt, wenn der Fahrer das Fahrzeug eingelenkt hat. Das Verfahren wird als Nächstes unten beschrieben.
  • In 9 angenommen, dass das Fahrzeug 1 sich von der Position a nach b um die lineare Transitdistanz ΔD bei dem Fahrzeugwinkel von R bewegt (nicht gezeigt). Bezugszeichen 1a und 1b darin zeigen das Fahrzeug 1 als jeweils an den Positionen a und b seiend. Das Fahrzeug 1 ist ausgerüstet mit der Bildaufnahme 10, deren optische Koordinatenachsen an der Position a Xa, Ya und Za sind, und diejenigen an der Position b sind Xb, Yb und Zb. Hierin bezeichnen alle von X, Y und Z Richtungen, genauer bezeichnet Z die Richtung der optischen Achse, X horizontal und Z vertikal. Das 3D-Objekt zum Berechnen der Distanz hier ist der Punkt P auf der Kante des 3D-Objekts 7. Als Nächstes wird unten das Verfahren zum Berechnen einer Distanz Db von dem Fahrzeug 1b zu dem Punkt P beschrieben.
  • Wie bereits beschrieben, hat die CPU 24 den Fahrzeugwinkel R und die lineare Transitdistanz ΔD des Fahrzeugs in Schritt S 122 berechnet. Daher kann eine Gleichung aufgestellt werden, wenn der Fahrzeugwinkel R durch eine orthonormale Matrix von 3 mal 3 und die lineare Transitdistanz ΔD als Offset-Vektor ausgedrückt werden.
    Figure 00180001
  • Hier, wahrscheinlich, in dem Bild A, welches von der Bildaufnahme 10 an der Position a aufgenommen wurde, sind die Koordinaten des Punktes P (x'a, y'a) und diejenigen in dem Bild B sind (x'b, y'b). Darüber hinaus sind die folgenden Gleichungen aufgestellt, wo die Brennweite der Bildaufnahme 10 gemutmaßt wird, f zu sein, eine Entfernung von der Bildaufnahme 10a zu dem Punkt P ist Da und diejenige von der Bildaufnahme 10B zu dem Punkt P ist Db:
    Figure 00190001
  • Mit diesen Gleichungen wird die Entfernung Db sein:
    Figure 00190002
  • Als solches, sogar wenn der Fahrer das Fahrzeug einlenkt, berechnet die CPU 24 zuerst die Koordinaten des Punktes P in jedem der Bilder und dann die Entfernung von dem Fahrzeug zu dem Punkt P unter Verwendung der Daten, welche die lineare Transitdistanz ΔD und den Fahrzeugwinkel R anzeigen. Da die Kante die Sammlung von Punkten ist, berechnet die CPU 24 die Entfernung zu dem Punkt P für solch eine Kante, was zu der Distanzverteilung der Kanten führt.
  • Wie bereits aus dem Obigen bekannt, berechnet die CPU 24 die Entfernung von dem Fahrzeug zu der Kante unter Verwendung des Fahrzeugswinkels R und der linearen Transitdistanz ΔD (Schritt S 134).
  • Als Nächstes überprüft die CPU 24, ob solch eine Kante, welche in Schritt S 131 erkannt wurde, der Berechnung der Entfernung von dem Fahrzeug unterworfen wurde (Schritt S 135). Falls ja, geht die Prozedur zum Schritt S 138, und falls noch nicht, geht sie zum Schritt S 136.
  • Die CPU 24 überprüft dann, ob die noch nicht berechnete Kante diejenige ist, die in Schritt S 132 erkannt wurde, identisch zu sein (Schritt S 136). Falls ja, wiederholt die Prozedur den Fluss ausgehend von Schritt S 133. Falls das Bild eine Kante hat, welche noch nicht eine berechnete Kante ist, und ihren Partner noch nicht gefunden hat, geht die Prozedur zum Schritt S 137, und die Kante wird von dem Bild gelöscht. Die Prozedur geht dann zum Schritt S 138.
  • Zuletzt gibt die CPU 24 Daten aus, welche die Entfernungen von dem Fahrzeug zu jeder der Kanten und die Form der Kanten anzeigt (Schritt S 138). Dies ist das Ende des Flusses.
  • Als Nächstes ist Schritt S 140 in 3 beschrieben, der ein Bild a erzeugt, welches eine Draufsicht ist. In 2, unter Verwendung der Daten des Bildes B, welches in dem Rahmenspeicher 23 gespeichert ist, unterwirft die CPU 24 das Bild B einer Bildkonversion, wie einer affinen Transformation, um das Bild in das Bild a zu konvertieren, eine Draufsicht (Schritt S 140). Wie bereits beschrieben, obwohl das 3D-Objekt in dem Bild B schief in das Bild a konvertiert wurde, hat die CPU 24 bereits das 3D-Objekt spezifiziert und erkannt. Mit den Objektdaten wird folglich das 3D-Objekt aus dem Bild a entfernt.
  • Als Nächstes wird Schritt S 150 in 3 beschrieben, Hervorheben des 3D-Objekts in dem Bild a zur Anzeige. 10a bis 10c sind Diagramme zur Unterstützung der Erklärung solch eines Verfahrens, das 3D-Objekt hervorzuheben.
  • 10a zeigt das Bild B, welches von der Bildaufnahme 10 an der Position b aufgenommen wurde. Das Bild B beinhaltet 3D-Objekte 2a und 2b und eine wei ße Linie 3. In dem obigen Schritt S 140 werden in dem Prozess des Konvertierens des Bildes B in das Bild α, welches von oben gesehen ist, die 3D-Objekte 2a und 2b schief und nicht präzise, und werden daher daraus gelöscht. Dementsprechend fügt die CPU 24 diese 3D-Objekte dem Bild a hinzu, während sie die Form derselben in solcher Weise hervorhebt, um dem Fahrer mitzuteilen, wie weit diese 3D-Objekte wirklich weg sind (Schritt S 150). In diesem Beispiel verwendet die CPU 24 die Daten, welche die Distanz zu den Kanten des 3D-Objekts, welches in Schritt S 138 ausgegeben wurde, anzeigen und die Form der Kanten um diese 3D-Objekte dem Bild a hinzuzufügen. Als Nächstes werden unten die Objektdaten, welche dem Bild a hinzuzufügen sind, beschrieben.
  • Hier, in Schritt S 130, detektiert die CPU 24 die Kanten des 3D-Objekts und berechnet dann die Entfernungen für jede Kante von dem Fahrzeug. In Schritt S 150 fügt die CPU 24 Daten, welche die Form von den Kanten und die Entfernung von dem Fahrzeug zu jeder der Kanten anzeigen, dem Bild α hinzu. 10b zeigt ein Bild β, welches erhalten wird durch Addieren von Kantendaten 80a und 80b der 3D-Objekte 2a und 2b auf das Bild a. Die Kantendaten 80a und 80b zeigen korrekt die Entfernung von dem Fahrzeug an und daher wird sie präzise in dem Bild β dargestellt. In den Kantendaten 80a und 80b, welche in dem Bild β dargestellt sind, kann die CPU 24 Kanten hervorheben, an den Spitzen derselben, Farbe, Linienbreite oder Ähnlichem, in der Nähe des Fahrzeugs derart, um sie hervorstehen zu lassen, um den Fahrer zu warnen.
  • Ein Fahrzeugmodell 90 zeigt die Position und Dimension des Fahrzeugs an. Hier, wie in dem Fahrzeug ausgerüstet, kann die Bildaufnahme kein Bild des Fahrzeugs in seiner Gesamtheit aufnehmen. In diesem Sinn ist das Bild β nicht vollständig, und daher mag der Fahrer Schwierigkeiten haben, die tatsächliche Entfernung von dem Fahrzeug zu den Kantendaten 80a und 80b zu verstehen. Um solch ein Problem zu umgehen, fixiert die CPU 24 die Position des Fahrzeugmodells 90 auf der Anzeige. Dieses Fahrzeugmodell 90 wird erzeugt durch vorheriges Setzen von Daten, welche anzeigen, wo die Bildaufnahme in dem Fahrzeug ausgerüstet ist, und die Abmessung des Fahrzeugs. Die CPU 24 kann die Daten von dem Steuerwinkelsensor 40 verwenden, um auf dem Bild β einen Führungspfad für das Fahrzeug und seine geschätzte Spur 91 anzuzeigen. Solch ein erzeugtes Bild β wird von der CPU 24, welche in 2 gezeigt ist, ausgegeben und in dem Rahmenspeicher 27 gespeichert.
  • 10c zeigt ein Bild γ, welches die tatsächliche Entfernung dem Fahrer mit Einfachheit verglichen mit dem Bild β verständlich macht. Auf dem Bild γ sind 3D-Objektmodelle 81a und 81b aufgetragen anstelle der Kantendaten 80a und 80b. Die 3D-Objektmodelle 81a und 81b werden ausgewählt aus einer Sammlung von 3D-Objektmodellen, welche jedes mögliche Fahrzeug, Wand, Pfeiler, Spaziergänger und Ähnliches enthält, welches beim Parken erwartet werden kann. Davor bestimmt die CPU 24 den Typ des 3D-Objektes basierend auf der Form von Kanten, z. B. angezeigt durch die Kantendaten 80a und 80b. Es sei hierin erwähnt, dass jeder Teil, bei dem es schwierig ist, seinen Typ zu identifizieren, als Objektbereich gezeigt werden kann, oder als die Kantendaten belassen werden kann. So, da das Bild β um die Nahe-zu-Wirklich-3D-Objektmodelle angereichert wird, wird es dem Fahrer einfacher, die Entfernung zwischen dem 3D-Objekt und dem Fahrzeug wahrzunehmen. Die CPU 24 kann Daten von dem Steuerwinkelsensor 40 verwenden, um auf dem Bild β ein Leitpfad für das Fahrzeug und seine geschätzte Spur 91 anzuzeigen. Solch ein erzeugtes Bild γ wird auch ausgegeben von der CPU 24, die in 2 gezeigt wird, und in dem Rahmenspeicher 27 gespeichert.
  • Hier kann der Fahrer entscheiden, welches der Bilder β oder γ von der CPU 24 ausgegeben werden soll, oder die CPU 24 kann automatisch entscheiden, indem sie sieht, wie die Kantendaten und das 3D-Objektmodell miteinander übereinstimmen.
  • Wie aus dem Vorhergehenden bekannt, ist das System zur Einparkhilfe der Ausführungsform fest versehen mit einer einzelnen Bildaufnahme, welche zwei Bilder zu unterschiedlichen Zeiten und Orten aufnimmt. Das System zur Einparkhilfe führt daher Triangulation im Verhältnis zu einem 3D-Objekt durch. Dementsprechend benötigt das System zur Einparkhilfe nicht mehr, mehrere Bildaufnahmen fest mit beträchtlicher Genauigkeit, insbesondere in Winkel, Richtung, Intervall und Ähnlichem, zu befestigen, und daher genügt eine Bildaufnahme. Weiter, da es vorher die Transitdistanz oder Fahrtrichtung des Fahrzeugs berechnet, kann das System zur Einparkhilfe daher die Position, wo das 3D-Objekt in dem Bild anzuzeigen ist, schätzen. In dieser Weise kann die Menge der Berechnungen, welche ausgeführt werden, um ein identisches 3D-Objekt in zwei Bildern zu suchen, reduziert werden, und die Hardware-Struktur wird vereinfacht. Weiterhin, um Objektdaten für den Fahrer anzuzeigen, konvertiert das System zur Einparkhilfe ein Bild, welches um das Fahrzeug zeigt, in eine Draufsicht, ohne dabei zu veranlassen, dass das Bild schief ist. Auch ist in dem so erhaltenen Bild das 3D-Objekt in einem präzisen Abstand platziert, welcher es dem Fahrer erlaubt, die tatsächliche Entfernung von dem Fahrzeug zu dem 3D-Objekt wahrzunehmen. Es ist offensichtlich, dass das System zur Einparkhilfe effektiv genutzt werden kann durch Befestigen der Bildaufnahme an dem hinteren Teil eines großen Fahrzeugs, das viele tote Winkel hat.

Claims (17)

  1. System zur Einparkhilfe, um einem Fahrer eines Fahrzeugs (1) behilflich zu sein, einzuparken durch Aufnehmen eines Bildes um das Fahrzeug (1), und zum Benachrichtigen des Fahrers davon, welches 3D-Objekt (2) sich dort herum befindet, wobei das System gekennzeichnet ist durch: ein Bildaufnahmeteil (10) zum Aufnehmen, mit einer einzelnen Kamera während des Übergangs des Fahrzeugs von einem ersten an einen zweiten Ort, von ersten und zweiten Bildern um das Fahrzeug herum an einem ersten und zweiten Ort und zu einer ersten und zweiten Zeit; einen Objektspezifikationsteil zum Detektieren und Spezifizieren des 3D-Objekts (2), welches in jedem der ersten und zweiten Bilder gefunden wird; einen Fahrzeug-Positionsberechnungsteil zum Berechnen von Übergangsdaten des Fahrzeugs (1) von dem ersten Ort zu dem zweiten Ort; einen Objektentfernungsberechnungsteil zum Berechnen einer Entfernung von dem Fahrzeug (1) zu dem 3D-Objekt (2) durch Verwenden der Position des 3D-Objekts (2) in jedem der ersten und zweiten Bilder und der Übergangsdaten des Fahrzeugs (1); und einen Bilderzeugungsteil zum Erzeugen eines dritten Bildes zum Anzeigen an den Fahrer, welches auf den Bildern, welche durch den Bildaufnahmeteil (10) aufgenommen wurden, und auf Daten basiert, welche durch den Objektentfernungsberechnungsteil berechnet wurden.
  2. System zur Einparkhilfe nach Anspruch 1, worin der Objektentfernungsberechnungsteil eine Kante (6) des 3D-Objekts (2) von jedem der ersten und zweiten Bilder detektiert; und die Entfernung von dem Fahrzeug (1) zu der Kante (6) des 3D-Objekts (2) berechnet durch Verwenden von Koordinatendaten einer jeden Kante, welche identisch in den ersten und zweiten Bildern ist, und der Übergangsdaten des Fahrzeugs.
  3. System zur Einparkhilfe nach Anspruch 2, worin der Objektentfernungsberechnungsteil die Position der Kante (6), welche in den ersten und zweiten Bildern identisch ist, schätzt durch Verwenden der Übergangsdaten des Fahrzeugs (1), und die identische Kante (6) detektiert durch positionsabhängiges Unterwerfen der geschätzten Kante (6) einer Bildanalyse.
  4. System zur Einparkhilfe nach Anspruch 1, worin der Bilderzeugungsteil das Bild, welches durch den Bildaufnahmeteil (10) aufgenommen wurde, in eine Draufsicht konvertiert, und das dritte Bild durch Hinzufügen der Daten, welche durch den Objektentfernungsberechnungsteil berechnet wurden, zu der Draufsicht erzeugt.
  5. System zur Einparkhilfe nach Anspruch 4, worin der Bilderzeugungsteil einen Teil in dem Sichtbereich des Fahrzeugs (1) wahrnehmbar aus den Daten, welche durch den Objektentfernungsberechnungsteil berechnet wurden, hervorhebt.
  6. System zur Einparkhilfe nach Anspruch 4, worin der Bilderzeugungsteil das dritte Bild generiert durch Konvertieren der Daten, welche durch den Objektentfernungsberechnungsteil berechnet wurden, in ein 3D-Objektmodell (81) und durch Hinzufügen des 3D-Objektmodells (81) zu der Draufsicht.
  7. System zur Einparkhilfe nach Anspruch 4, worin der Bilderzeugungsteil zusätzlich ein Modell (90) des Fahrzeugs (1) dem dritten Bild hinzufügt.
  8. System zur Einparkhilfe nach Anspruch 1, worin der Objektspezifikationsteil ein viertes Bild erzeugt durch Projizieren des ersten Bildes auf den zweiten Ort für die Transformation, und das 3D-Objekt (2) detektiert und spezifiziert durch Bilden eines Unterschieds zwischen dem vierten und dem zweiten Bild.
  9. System zur Einparkhilfe nach Anspruch 1, worin der Objektspezifikationsteil ein viertes Bild erzeugt durch Projizieren des zweiten Bildes auf den ersten Ort für die Transformation, und das 3D-Objekt (2) detektiert und spezifiziert durch Bilden eines Unterschieds zwischen dem vierten und dem zweiten Bild.
  10. System zur Einparkhilfe nach Anspruch 1, worin die Übergangsdaten des Fahrzeugs (1) eine lineare Übergangsentfernung und einen Fahrzeugwinkel des Fahrzeugs (1) enthalten, und der Fahrzeugpositionsberechnungsteil die Übergangsentfernung und einen Fahrzeugwinkel berechnet, basierend auf Daten, welche von einem Steuerungswinkelsensor (40) und einem Radgeschwindigkeitssensor (50) über einen Impulszähler (60), welcher in dem Fahrzeug (1) eingerichtet ist, erlangt werden.
  11. System zur Einparkhilfe nach Anspruch 1, worin der Bildaufnahmeteil (10) in dem Fahrzeug (1) angebracht ist, um in eine rückwärtige Richtung zu zeigen.
  12. System zur Einparkhilfe nach Anspruch 1, ferner aufweisend eine Anzeige (30) zum Anzeigen des dritten Bildes an den Fahrer.
  13. System zur Einparkhilfe nach Anspruch 1, ferner aufweisend einen Lautsprecher zum Erzeugen eines Tons, wenn die Distanz von dem Fahrzeug (1) zu dem 3D-Objekt (2), welche durch den Objektentfernungsberechnungsteil berechnet wird, kürzer ist als eine vorbestimmte Entfernung.
  14. System zur Einparkhilfe nach Anspruch 1, ferner aufweisend einen Lichtemitter zum Erzeugen von Licht, wenn die Entfernung von dem Fahrzeug (1) zu dem 3D-Objekt (2), welche durch den Objektentfernungsberechnungsteil berechnet wird, kürzer ist als eine vorbestimmte Entfernung.
  15. System zur Einparkhilfe nach Anspruch 1, worin der Bildaufnahmeteil (10) beginnt ein Bild aufzunehmen in Antwort auf die manuelle Bedienung des Fahrers des Fahrzeugs (1).
  16. System zur Einparkhilfe nach Anspruch 1, worin der Bildaufnahmeteil (10) beginnt ein Bild aufzunehmen, wenn das Fahrzeug (1) die Geschwindigkeit verringert, um langsamer zu sein als eine vorbestimmte Geschwindigkeit.
  17. System zur Einparkhilfe nach Anspruch 1, worin der Bildaufnahmeteil (10) beginnt ein Bild aufzunehmen, wenn das Fahrzeug (1) rückwärts fährt.
DE60009000T 1999-10-21 2000-10-20 System zur Einparkhilfe Expired - Lifetime DE60009000T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP29963799 1999-10-21
JP29963799 1999-10-21

Publications (2)

Publication Number Publication Date
DE60009000D1 DE60009000D1 (de) 2004-04-22
DE60009000T2 true DE60009000T2 (de) 2005-03-10

Family

ID=17875176

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60009000T Expired - Lifetime DE60009000T2 (de) 1999-10-21 2000-10-20 System zur Einparkhilfe

Country Status (3)

Country Link
US (1) US6483429B1 (de)
EP (1) EP1094337B1 (de)
DE (1) DE60009000T2 (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202012003996U1 (de) 2012-04-23 2012-05-15 Jan Luis Rückfahrkamerasystem für personengesteuerte Fahrzeuge und Fahrzeug mit einem solchen System
DE102012007886A1 (de) 2012-04-23 2013-10-24 Jan Luis Rückfahrkamerasystem für personengesteuerte Fahrzeuge und Fahrzeug mit einem solchen System
DE102014211869A1 (de) * 2014-06-20 2015-12-24 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erkennen zumindest eines Objekts in einer Umgebung einer Mobileinheit
DE102020106304A1 (de) 2020-03-09 2021-09-09 Zf Cv Systems Global Gmbh Verfahren zum Steuern eines Fahrzeuges auf einem Betriebshof, Fahrt- Steuereinheit und Fahrzeug
DE102020106301A1 (de) 2020-03-09 2021-09-09 Zf Cv Systems Global Gmbh Verfahren zum Ermitteln einer Objekt-Information zu einem Objekt in einer Fahrzeugumgebung, Steuereinheit und Fahrzeug
DE102020106302A1 (de) 2020-03-09 2021-09-09 Zf Cv Systems Global Gmbh Verfahren zum Ermitteln einer Objekt-Information zu einem Objekt in einer Fahrzeugumgebung, Steuereinheit und Fahrzeug

Families Citing this family (201)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5910854A (en) 1993-02-26 1999-06-08 Donnelly Corporation Electrochromic polymeric solid films, manufacturing electrochromic devices using such solid films, and processes for making such solid films and devices
US5668663A (en) 1994-05-05 1997-09-16 Donnelly Corporation Electrochromic mirrors and devices
US6891563B2 (en) 1996-05-22 2005-05-10 Donnelly Corporation Vehicular vision system
US6326613B1 (en) 1998-01-07 2001-12-04 Donnelly Corporation Vehicle interior mirror assembly adapted for containing a rain sensor
US6124886A (en) 1997-08-25 2000-09-26 Donnelly Corporation Modular rearview mirror assembly
US6172613B1 (en) 1998-02-18 2001-01-09 Donnelly Corporation Rearview mirror assembly incorporating vehicle information display
US8294975B2 (en) 1997-08-25 2012-10-23 Donnelly Corporation Automotive rearview mirror assembly
US6445287B1 (en) 2000-02-28 2002-09-03 Donnelly Corporation Tire inflation assistance monitoring system
US8288711B2 (en) 1998-01-07 2012-10-16 Donnelly Corporation Interior rearview mirror system with forwardly-viewing camera and a control
US6329925B1 (en) 1999-11-24 2001-12-11 Donnelly Corporation Rearview mirror assembly with added feature modular display
US6693517B2 (en) 2000-04-21 2004-02-17 Donnelly Corporation Vehicle mirror assembly communicating wirelessly with vehicle accessories and occupants
US6477464B2 (en) 2000-03-09 2002-11-05 Donnelly Corporation Complete mirror-based global-positioning system (GPS) navigation solution
DE19945588A1 (de) * 1999-09-23 2001-04-19 Bayerische Motoren Werke Ag Sensoranordnung
DE19950033B4 (de) * 1999-10-16 2005-03-03 Bayerische Motoren Werke Ag Kameravorrichtung für Fahrzeuge
JP3427823B2 (ja) * 2000-02-29 2003-07-22 株式会社豊田自動織機 縦列駐車時の車両後退支援装置
US7370983B2 (en) 2000-03-02 2008-05-13 Donnelly Corporation Interior mirror assembly with display
EP1263626A2 (de) 2000-03-02 2002-12-11 Donnelly Corporation Video-spiegelsystem mit zusatzmodul
WO2007053710A2 (en) 2005-11-01 2007-05-10 Donnelly Corporation Interior rearview mirror with display
US7167796B2 (en) 2000-03-09 2007-01-23 Donnelly Corporation Vehicle navigation system for use with a telematics system
EP1158804A3 (de) * 2000-05-24 2003-12-17 Matsushita Electric Industrial Co., Ltd. Wiedergabevorrichtung zur Erzeugung einer Bildeinzeige
JP2001344597A (ja) * 2000-05-30 2001-12-14 Fuji Heavy Ind Ltd 融合視界装置
US7581859B2 (en) 2005-09-14 2009-09-01 Donnelly Corp. Display device for exterior rearview mirror
ATE363413T1 (de) 2001-01-23 2007-06-15 Donnelly Corp Verbessertes fahrzeugbeleuchtungssystem
US7255451B2 (en) 2002-09-20 2007-08-14 Donnelly Corporation Electro-optic mirror cell
JP2003063340A (ja) * 2001-08-28 2003-03-05 Aisin Seiki Co Ltd 運転補助装置
US20040201700A1 (en) * 2001-09-07 2004-10-14 Chao-Ting Ho Separate-type camera lens vehicle reversal monitoring device
JP4094325B2 (ja) * 2002-04-05 2008-06-04 松下電器産業株式会社 駐車運転支援装置
US6918674B2 (en) 2002-05-03 2005-07-19 Donnelly Corporation Vehicle rearview mirror system
DE10220426A1 (de) * 2002-05-08 2003-11-20 Valeo Schalter & Sensoren Gmbh Verfahren zum Betreiben eines Parkhilfesystems und Parkhilfesystem
US7110021B2 (en) * 2002-05-31 2006-09-19 Matsushita Electric Industrial Co., Ltd. Vehicle surroundings monitoring device, and image production method/program
US7329013B2 (en) 2002-06-06 2008-02-12 Donnelly Corporation Interior rearview mirror system with compass
EP1514246A4 (de) 2002-06-06 2008-04-16 Donnelly Corp Innenrückspiegelsystem mit kompass
JP4234374B2 (ja) * 2002-08-21 2009-03-04 三菱自動車工業株式会社 駐車支援装置
US7433494B2 (en) * 2002-09-19 2008-10-07 Denso Corporation Moving body detecting apparatus
US7310177B2 (en) 2002-09-20 2007-12-18 Donnelly Corporation Electro-optic reflective element assembly
WO2004026633A2 (en) 2002-09-20 2004-04-01 Donnelly Corporation Mirror reflective element assembly
DE10244148A1 (de) * 2002-09-23 2004-04-08 Daimlerchrysler Ag Verfahren und Vorrichtung zur videobasierten Beobachtung und Vermessung der seitlichen Umgebung eines Fahrzeugs
JP4310987B2 (ja) * 2002-09-30 2009-08-12 アイシン精機株式会社 移動体周辺監視装置
JP4207519B2 (ja) * 2002-09-30 2009-01-14 アイシン精機株式会社 移動体周辺監視装置
JP2004114977A (ja) * 2002-09-30 2004-04-15 Aisin Seiki Co Ltd 移動体周辺監視装置
JP4154980B2 (ja) * 2002-09-30 2008-09-24 アイシン精機株式会社 移動体周辺監視装置
JP2004198211A (ja) * 2002-12-18 2004-07-15 Aisin Seiki Co Ltd 移動体周辺監視装置
DE10313002B4 (de) * 2003-03-24 2006-03-23 Daimlerchrysler Ag Fahrzeugumgebungserfassungseinheit
FR2853121B1 (fr) * 2003-03-25 2006-12-15 Imra Europe Sa Dispositif de surveillance des alentours d'un vehicule
EP1467225A1 (de) * 2003-04-10 2004-10-13 IEE International Electronics & Engineering S.A.R.L. Einparkhilfe für ein Fahrzeug
US7085634B2 (en) * 2003-04-11 2006-08-01 Toyota Jidosha Kabushiki Kaisha Parking assist apparatus and parking assist method for vehicle
US7289037B2 (en) 2003-05-19 2007-10-30 Donnelly Corporation Mirror assembly for vehicle
US7446924B2 (en) 2003-10-02 2008-11-04 Donnelly Corporation Mirror reflective element assembly including electronic component
US7308341B2 (en) 2003-10-14 2007-12-11 Donnelly Corporation Vehicle communication system
DE10349823A1 (de) * 2003-10-24 2005-05-25 Valeo Schalter Und Sensoren Gmbh Verfahren zum Messen von Abständen zwischen einem sich bewegenden Kraftfahrzeug und Objekten
JP4638143B2 (ja) * 2003-12-26 2011-02-23 富士重工業株式会社 車両用運転支援装置
US20050156758A1 (en) * 2004-01-20 2005-07-21 Gilliss Samuel G. System and method for notifying operators of hazards
JP2005311698A (ja) * 2004-04-21 2005-11-04 Auto Network Gijutsu Kenkyusho:Kk 車両周辺視認装置
DE102004027640A1 (de) * 2004-06-05 2006-06-08 Robert Bosch Gmbh Verfahren und Vorrichtung zum unterstützten Einparken eines Kraftfahrzeuges
WO2006075536A1 (ja) * 2005-01-11 2006-07-20 Pioneer Corporation 車両前方画像表示装置及び方法
JP4020128B2 (ja) * 2005-04-22 2007-12-12 トヨタ自動車株式会社 目標位置設定装置およびそれを備えた駐車支援装置
US7626749B2 (en) 2005-05-16 2009-12-01 Donnelly Corporation Vehicle mirror assembly with indicia at reflective element
DE102005022882A1 (de) 2005-05-18 2006-11-23 Volkswagen Ag Verfahren und Vorrichtung zur Parkraumvermessung mittels einer Monokamera
JP2006341641A (ja) * 2005-06-07 2006-12-21 Nissan Motor Co Ltd 映像表示装置及び映像表示方法
JP4600760B2 (ja) * 2005-06-27 2010-12-15 アイシン精機株式会社 障害物検出装置
JP4809019B2 (ja) * 2005-08-31 2011-11-02 クラリオン株式会社 車両用障害物検出装置
US9165464B2 (en) * 2005-09-16 2015-10-20 Robert Bosch Gmbh Method and device for providing assistance during a parking maneuver of a vehicle
DE102005044270A1 (de) * 2005-09-16 2007-03-29 Robert Bosch Gmbh Verfahren und Vorrichtung zur Unterstützung eines Einparkvorgangs eines Fahrzeugs
JP4622806B2 (ja) * 2005-10-27 2011-02-02 アイシン・エィ・ダブリュ株式会社 駐車支援方法及び駐車支援装置
JP2007235642A (ja) * 2006-03-02 2007-09-13 Hitachi Ltd 障害物検知システム
CN101401024B (zh) 2006-03-09 2016-03-16 金泰克斯公司 包括高强度显示器的车辆后视组件
DE102006011590B4 (de) * 2006-03-10 2019-02-28 Adc Automotive Distance Control Systems Gmbh Vorrichtung zum Vermessen einer Parklücke
EP1906208A1 (de) * 2006-09-27 2008-04-02 Harman Becker Automotive Systems GmbH Parkassistenzsystem mit visueller Hervorhebung gefährlicher Objekte
GB2447672B (en) 2007-03-21 2011-12-14 Ford Global Tech Llc Vehicle manoeuvring aids
WO2008134715A1 (en) 2007-04-30 2008-11-06 Mobileye Technologies Ltd. Rear obstruction detection
KR100974704B1 (ko) * 2007-04-30 2010-08-06 현대자동차주식회사 자동차의 주차 안내 방법
DE102007028517A1 (de) * 2007-06-21 2008-12-24 Robert Bosch Gmbh Steuereinrichtung und Verfahren zur Darstellung einer Parklücke
FR2921324B1 (fr) * 2007-09-25 2010-02-05 Renault Sas Procede et dispositif d'assistance au parcage d'un vehicule automobile
DE102008003662A1 (de) * 2008-01-09 2009-07-16 Robert Bosch Gmbh Verfahren und Vorrichtung zum Anzeigen der Umgebung eines Fahrzeugs
US8154418B2 (en) 2008-03-31 2012-04-10 Magna Mirrors Of America, Inc. Interior rearview mirror system
US20090259399A1 (en) * 2008-04-15 2009-10-15 Caterpillar Inc. Obstacle detection method and system
US8170787B2 (en) * 2008-04-15 2012-05-01 Caterpillar Inc. Vehicle collision avoidance system
US8280621B2 (en) * 2008-04-15 2012-10-02 Caterpillar Inc. Vehicle collision avoidance system
KR100902021B1 (ko) * 2008-04-29 2009-06-09 현대자동차주식회사 차량용 초음파 물체 감지 시스템
JP5253017B2 (ja) * 2008-07-03 2013-07-31 アルパイン株式会社 周辺監視装置、障害物検出方法及びコンピュータプログラム
US8577595B2 (en) * 2008-07-17 2013-11-05 Memsic, Inc. Location and path-map generation data acquisition and analysis systems
ITBO20080506A1 (it) * 2008-08-05 2010-02-06 Spal Automotive Srl Sistema di visualizzazione per veicoli.
US9487144B2 (en) 2008-10-16 2016-11-08 Magna Mirrors Of America, Inc. Interior mirror assembly with display
EP2179892A1 (de) 2008-10-24 2010-04-28 Magna Electronics Europe GmbH & Co. KG Verfahren zum automatischen Kalibrieren einer virtuellen Kamera
CN101441076B (zh) * 2008-12-29 2010-06-02 东软集团股份有限公司 一种检测障碍物的方法和装置
FR2945491A1 (fr) 2009-05-18 2010-11-19 Peugeot Citroen Automobiles Sa Procede et dispositif pour etendre une zone de visibilite
WO2011014482A1 (en) * 2009-07-27 2011-02-03 Magna Electronics Inc. Parking assist system
DE102010051206A1 (de) 2010-11-12 2012-05-16 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erzeugen eines Bilds einer Fahrzeugumgebung und Abbildungsvorrichtung
EP2660104B1 (de) * 2010-12-30 2015-09-23 Wise Automotive Corporation Vorrichtung und verfahren zur anzeige eines toten winkels
WO2012103193A1 (en) * 2011-01-26 2012-08-02 Magna Electronics Inc. Rear vision system with trailer angle detection
US9937953B2 (en) 2011-04-19 2018-04-10 Ford Global Technologies, Llc Trailer backup offset determination
US10196088B2 (en) 2011-04-19 2019-02-05 Ford Global Technologies, Llc Target monitoring system and method
US9434414B2 (en) 2011-04-19 2016-09-06 Ford Global Technologies, Llc System and method for determining a hitch angle offset
US9969428B2 (en) 2011-04-19 2018-05-15 Ford Global Technologies, Llc Trailer backup assist system with waypoint selection
US9335163B2 (en) 2011-04-19 2016-05-10 Ford Global Technologies, Llc Trailer length estimation in hitch angle applications
US9723274B2 (en) 2011-04-19 2017-08-01 Ford Global Technologies, Llc System and method for adjusting an image capture setting
US9854209B2 (en) 2011-04-19 2017-12-26 Ford Global Technologies, Llc Display system utilizing vehicle and trailer dynamics
US9374562B2 (en) 2011-04-19 2016-06-21 Ford Global Technologies, Llc System and method for calculating a horizontal camera to target distance
US9500497B2 (en) 2011-04-19 2016-11-22 Ford Global Technologies, Llc System and method of inputting an intended backing path
US9290203B2 (en) 2011-04-19 2016-03-22 Ford Global Technologies, Llc Trailer length estimation in hitch angle applications
US9926008B2 (en) 2011-04-19 2018-03-27 Ford Global Technologies, Llc Trailer backup assist system with waypoint selection
US9290202B2 (en) 2011-04-19 2016-03-22 Ford Global Technologies, Llc System and method of calibrating a trailer backup assist system
US9683848B2 (en) 2011-04-19 2017-06-20 Ford Global Technologies, Llc System for determining hitch angle
US9290204B2 (en) 2011-04-19 2016-03-22 Ford Global Technologies, Llc Hitch angle monitoring system and method
US9555832B2 (en) 2011-04-19 2017-01-31 Ford Global Technologies, Llc Display system utilizing vehicle and trailer dynamics
US9513103B2 (en) 2011-04-19 2016-12-06 Ford Global Technologies, Llc Hitch angle sensor assembly
US9506774B2 (en) 2011-04-19 2016-11-29 Ford Global Technologies, Llc Method of inputting a path for a vehicle and trailer
US9346396B2 (en) 2011-04-19 2016-05-24 Ford Global Technologies, Llc Supplemental vehicle lighting system for vision based target detection
EP2581268B2 (de) 2011-10-13 2019-09-11 Harman Becker Automotive Systems GmbH Verfahren zur Steuerung einer optischen Ausgabevorrichtung zur Anzeige einer Fahrzeugrundumsicht und Fahrzeugrundumsichtssystem
EP2620917B1 (de) * 2012-01-30 2019-08-28 Harman Becker Automotive Systems GmbH Anzeigesystem und Verfahren zum Anzeigen einer Umgebung eines Fahrzeugs
DE102012203092A1 (de) * 2012-02-29 2013-08-29 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Bildverarbeitung von Bilddaten zumindest eines Bildes
US8768583B2 (en) 2012-03-29 2014-07-01 Harnischfeger Technologies, Inc. Collision detection and mitigation systems and methods for a shovel
US8879139B2 (en) 2012-04-24 2014-11-04 Gentex Corporation Display mirror assembly
DE112012006758T5 (de) 2012-07-31 2015-08-27 Harman International Industries, Incorporated System und Verfahren zum Erkennen von Hindernissen unter Verwendung einer einzigen Kamera
US9446713B2 (en) 2012-09-26 2016-09-20 Magna Electronics Inc. Trailer angle detection system
US9558409B2 (en) 2012-09-26 2017-01-31 Magna Electronics Inc. Vehicle vision system with trailer angle detection
US9592851B2 (en) 2013-02-04 2017-03-14 Ford Global Technologies, Llc Control modes for a trailer backup assist system
US9511799B2 (en) 2013-02-04 2016-12-06 Ford Global Technologies, Llc Object avoidance for a trailer backup assist system
EP2972569B1 (de) 2013-03-15 2017-12-13 Gentex Corporation Spiegelanordnung für eine anzeige
US10755110B2 (en) 2013-06-28 2020-08-25 Magna Electronics Inc. Trailering assist system for vehicle
CN103358994B (zh) * 2013-07-10 2016-08-10 奇瑞汽车股份有限公司 一种汽车前视摄像***
EP3049286B1 (de) 2013-09-24 2018-05-09 Gentex Corporation Spiegelanordnung für eine anzeige
US9352777B2 (en) 2013-10-31 2016-05-31 Ford Global Technologies, Llc Methods and systems for configuring of a trailer maneuvering system
US9511715B2 (en) 2014-01-31 2016-12-06 Gentex Corporation Backlighting assembly for display for reducing cross-hatching
US10160382B2 (en) 2014-02-04 2018-12-25 Magna Electronics Inc. Trailer backup assist system
EP3119643B1 (de) 2014-03-21 2018-05-23 Gentex Corporation Trimodale anzeigespiegelanordnung
KR101894262B1 (ko) 2014-04-01 2018-09-04 젠텍스 코포레이션 자동 디스플레이 미러 어셈블리
US10328932B2 (en) 2014-06-02 2019-06-25 Magna Electronics Inc. Parking assist system with annotated map generation
US9963004B2 (en) 2014-07-28 2018-05-08 Ford Global Technologies, Llc Trailer sway warning system and method
US9517668B2 (en) 2014-07-28 2016-12-13 Ford Global Technologies, Llc Hitch angle warning system and method
WO2016044746A1 (en) 2014-09-19 2016-03-24 Gentex Corporation Rearview assembly
US9340228B2 (en) 2014-10-13 2016-05-17 Ford Global Technologies, Llc Trailer motion and parameter estimation system
US9315212B1 (en) 2014-10-13 2016-04-19 Ford Global Technologies, Llc Trailer sensor module and associated method of wireless trailer identification and motion estimation
US9834141B2 (en) 2014-10-28 2017-12-05 Nissan North America, Inc. Vehicle object detection system
US9725040B2 (en) 2014-10-28 2017-08-08 Nissan North America, Inc. Vehicle object detection system
US9880253B2 (en) 2014-10-28 2018-01-30 Nissan North America, Inc. Vehicle object monitoring system
US9694752B2 (en) 2014-11-07 2017-07-04 Gentex Corporation Full display mirror actuator
WO2016077583A1 (en) 2014-11-13 2016-05-19 Gentex Corporation Rearview mirror system with a display
DE102014224762B4 (de) * 2014-12-03 2016-10-27 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Informationsgewinnung über ein Objekt in einem nicht einsehbaren, vorausliegenden Umfeldbereich eines Kraftfahrzeugs
EP3227143B1 (de) 2014-12-03 2019-03-13 Gentex Corporation Spiegelanordnung für eine anzeige
USD746744S1 (en) 2014-12-05 2016-01-05 Gentex Corporation Rearview device
US9522677B2 (en) 2014-12-05 2016-12-20 Ford Global Technologies, Llc Mitigation of input device failure and mode management
US9533683B2 (en) 2014-12-05 2017-01-03 Ford Global Technologies, Llc Sensor failure mitigation system and mode management
US9744907B2 (en) 2014-12-29 2017-08-29 Gentex Corporation Vehicle vision system having adjustable displayed field of view
JP6456405B2 (ja) * 2015-01-16 2019-01-23 株式会社日立製作所 3次元情報算出装置、3次元情報算出方法、および自律移動装置
US9607242B2 (en) 2015-01-16 2017-03-28 Ford Global Technologies, Llc Target monitoring system with lens cleaning device
US9720278B2 (en) 2015-01-22 2017-08-01 Gentex Corporation Low cost optical film stack
US9522699B2 (en) 2015-02-05 2016-12-20 Ford Global Technologies, Llc Trailer backup assist system with adaptive steering angle limits
US9616923B2 (en) 2015-03-03 2017-04-11 Ford Global Technologies, Llc Topographical integration for trailer backup assist system
US9804022B2 (en) 2015-03-24 2017-10-31 Ford Global Technologies, Llc System and method for hitch angle detection
JP2018512593A (ja) * 2015-04-10 2018-05-17 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh 車両の移動データを使用した車載カメラによる物***置測定
JP2018513810A (ja) 2015-04-20 2018-05-31 ジェンテックス コーポレイション 装飾を備えた後方視認アセンブリ
JP6526243B2 (ja) 2015-05-18 2019-06-05 ジェンテックス コーポレイション 全画面表示バックミラー装置
US11178353B2 (en) 2015-06-22 2021-11-16 Gentex Corporation System and method for processing streamed video images to correct for flicker of amplitude-modulated lights
US10214206B2 (en) 2015-07-13 2019-02-26 Magna Electronics Inc. Parking assist system for vehicle
US10078789B2 (en) 2015-07-17 2018-09-18 Magna Electronics Inc. Vehicle parking assist system with vision-based parking space detection
US10086870B2 (en) 2015-08-18 2018-10-02 Magna Electronics Inc. Trailer parking assist system for vehicle
US9896130B2 (en) 2015-09-11 2018-02-20 Ford Global Technologies, Llc Guidance system for a vehicle reversing a trailer along an intended backing path
US10384607B2 (en) 2015-10-19 2019-08-20 Ford Global Technologies, Llc Trailer backup assist system with hitch angle offset estimation
US10611407B2 (en) 2015-10-19 2020-04-07 Ford Global Technologies, Llc Speed control for motor vehicles
US9836060B2 (en) 2015-10-28 2017-12-05 Ford Global Technologies, Llc Trailer backup assist system with target management
USD797627S1 (en) 2015-10-30 2017-09-19 Gentex Corporation Rearview mirror device
CN108349436B (zh) 2015-10-30 2019-12-20 金泰克斯公司 后视装置
USD798207S1 (en) 2015-10-30 2017-09-26 Gentex Corporation Rearview mirror assembly
EP3368374B1 (de) 2015-10-30 2023-12-27 Gentex Corporation Umschaltpaddel
USD800618S1 (en) 2015-11-02 2017-10-24 Gentex Corporation Toggle paddle for a rear view device
US10017115B2 (en) 2015-11-11 2018-07-10 Ford Global Technologies, Llc Trailer monitoring system and method
CN105882516A (zh) * 2015-11-13 2016-08-24 乐卡汽车智能科技(北京)有限公司 车辆碰撞预警方法、装置和车辆
US10011228B2 (en) 2015-12-17 2018-07-03 Ford Global Technologies, Llc Hitch angle detection for trailer backup assist system using multiple imaging devices
US9610975B1 (en) 2015-12-17 2017-04-04 Ford Global Technologies, Llc Hitch angle detection for trailer backup assist system
US10155478B2 (en) 2015-12-17 2018-12-18 Ford Global Technologies, Llc Centerline method for trailer hitch angle detection
US9827818B2 (en) 2015-12-17 2017-11-28 Ford Global Technologies, Llc Multi-stage solution for trailer hitch angle initialization
US9934572B2 (en) 2015-12-17 2018-04-03 Ford Global Technologies, Llc Drawbar scan solution for locating trailer hitch point
US9798953B2 (en) 2015-12-17 2017-10-24 Ford Global Technologies, Llc Template matching solution for locating trailer hitch point
US9796228B2 (en) 2015-12-17 2017-10-24 Ford Global Technologies, Llc Hitch angle detection for trailer backup assist system
US10005492B2 (en) 2016-02-18 2018-06-26 Ford Global Technologies, Llc Trailer length and hitch angle bias estimation
US20170246991A1 (en) * 2016-02-25 2017-08-31 M.I.S. Electronics Inc. Multi-function automotive camera
US10160437B2 (en) 2016-02-29 2018-12-25 Magna Electronics Inc. Vehicle control system with reverse assist
US20170253237A1 (en) 2016-03-02 2017-09-07 Magna Electronics Inc. Vehicle vision system with automatic parking function
WO2017150736A1 (en) * 2016-03-04 2017-09-08 Canon Kabushiki Kaisha Moving object and ranging apparatus capable of acquiring image and high-accurately measuring distance
USD845851S1 (en) 2016-03-31 2019-04-16 Gentex Corporation Rearview device
WO2017173115A1 (en) * 2016-03-31 2017-10-05 Faraday&Future Inc. Camera based auto drive for auto charge
USD817238S1 (en) 2016-04-29 2018-05-08 Gentex Corporation Rearview device
US10112646B2 (en) 2016-05-05 2018-10-30 Ford Global Technologies, Llc Turn recovery human machine interface for trailer backup assist
US10025138B2 (en) 2016-06-06 2018-07-17 Gentex Corporation Illuminating display with light gathering structure
US10106193B2 (en) 2016-07-01 2018-10-23 Ford Global Technologies, Llc Enhanced yaw rate trailer angle detection initialization
US10046800B2 (en) 2016-08-10 2018-08-14 Ford Global Technologies, Llc Trailer wheel targetless trailer angle detection
US10222804B2 (en) 2016-10-21 2019-03-05 Ford Global Technologies, Llc Inertial reference for TBA speed limiting
USD809984S1 (en) 2016-12-07 2018-02-13 Gentex Corporation Rearview assembly
USD854473S1 (en) 2016-12-16 2019-07-23 Gentex Corporation Rearview assembly
CN109952231B (zh) 2016-12-30 2023-07-14 金泰克斯公司 具有按需侦察视图的全显示镜
EP3595931A1 (de) 2017-03-17 2020-01-22 Gentex Corporation Rückfahrkamera mit zwei anzeigen
WO2019021354A1 (ja) 2017-07-24 2019-01-31 富士通株式会社 車両駐車支援装置、車両駐車支援プログラム
US10710585B2 (en) 2017-09-01 2020-07-14 Ford Global Technologies, Llc Trailer backup assist system with predictive hitch angle functionality
IT201800003312A1 (it) * 2018-03-06 2019-09-06 Fiat Ricerche Guida autonoma di autoveicoli per l'esecuzione di manovre ricorrenti a bassa velocita'
US11077795B2 (en) 2018-11-26 2021-08-03 Ford Global Technologies, Llc Trailer angle detection using end-to-end learning
US10829046B2 (en) 2019-03-06 2020-11-10 Ford Global Technologies, Llc Trailer angle detection using end-to-end learning
JP7499606B2 (ja) * 2020-05-12 2024-06-14 フォルシアクラリオン・エレクトロニクス株式会社 画像処理装置及び画像処理方法
CN111731188B (zh) * 2020-06-24 2022-04-19 中国第一汽车股份有限公司 一种全景影像控制方法、装置及车辆
US20230031425A1 (en) * 2021-08-02 2023-02-02 DUS Operating Inc, Methodology to estimate slot line direction for parking slot detection
WO2023021481A1 (en) 2021-08-20 2023-02-23 Gentex Corporation Lighting assembly and illumination system having a lighting assembly

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5151945A (en) * 1990-09-11 1992-09-29 The Research Foundation Of State Univ. Of N.Y. Determination of ambient light level changes in visual images
JP2782990B2 (ja) * 1991-07-11 1998-08-06 日産自動車株式会社 車両用接近判定装置
JP3167752B2 (ja) * 1991-10-22 2001-05-21 富士重工業株式会社 車輌用距離検出装置
DE4238599A1 (de) 1992-11-16 1994-06-09 Hubert K Block Distanzberechnungs-Vorrichtung für Kfz's als individuale Entscheidungs-Hilfe für Kraftfahrzeug führende Personen
JP3064759B2 (ja) * 1993-09-28 2000-07-12 株式会社日立製作所 車両の周囲を監視する装置、車両の運転支援システムおよび運転支援装置
DE4336288C1 (de) * 1993-10-25 1995-03-30 Daimler Benz Ag Einrichtung zur Überwachung des Rück- bzw. Frontraumes eines einparkenden Kraftfahrzeugs
US5574443A (en) * 1994-06-22 1996-11-12 Hsieh; Chi-Sheng Vehicle monitoring apparatus with broadly and reliably rearward viewing
EP0740163B1 (de) 1995-04-25 2005-12-14 Matsushita Electric Industrial Co., Ltd. Vorrichtung zum Bestimmen der lokalen Position eines Autos auf einer Strasse
JP2000161915A (ja) * 1998-11-26 2000-06-16 Matsushita Electric Ind Co Ltd 車両用単カメラ立体視システム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202012003996U1 (de) 2012-04-23 2012-05-15 Jan Luis Rückfahrkamerasystem für personengesteuerte Fahrzeuge und Fahrzeug mit einem solchen System
DE102012007886A1 (de) 2012-04-23 2013-10-24 Jan Luis Rückfahrkamerasystem für personengesteuerte Fahrzeuge und Fahrzeug mit einem solchen System
DE102014211869A1 (de) * 2014-06-20 2015-12-24 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erkennen zumindest eines Objekts in einer Umgebung einer Mobileinheit
DE102014211869B4 (de) 2014-06-20 2024-03-21 Robert Bosch Gmbh Verfahren und Vorrichtung sowie Computerprogramm und maschinenlesbares Speichermedium zum Erkennen zumindest eines Objekts in einer Umgebung einer Mobileinheit
DE102020106304A1 (de) 2020-03-09 2021-09-09 Zf Cv Systems Global Gmbh Verfahren zum Steuern eines Fahrzeuges auf einem Betriebshof, Fahrt- Steuereinheit und Fahrzeug
DE102020106301A1 (de) 2020-03-09 2021-09-09 Zf Cv Systems Global Gmbh Verfahren zum Ermitteln einer Objekt-Information zu einem Objekt in einer Fahrzeugumgebung, Steuereinheit und Fahrzeug
DE102020106302A1 (de) 2020-03-09 2021-09-09 Zf Cv Systems Global Gmbh Verfahren zum Ermitteln einer Objekt-Information zu einem Objekt in einer Fahrzeugumgebung, Steuereinheit und Fahrzeug

Also Published As

Publication number Publication date
EP1094337B1 (de) 2004-03-17
EP1094337A3 (de) 2002-01-09
EP1094337A2 (de) 2001-04-25
US6483429B1 (en) 2002-11-19
DE60009000D1 (de) 2004-04-22

Similar Documents

Publication Publication Date Title
DE60009000T2 (de) System zur Einparkhilfe
DE102014116140B4 (de) Einparkhilfsvorrichtung und Einparkhilfsverfahren für ein Fahrzeug
DE10109350B4 (de) Unterstützungseinrichtung zum Rückwärtseinparken eines Fahrzeugs in Reihe
EP2929518B1 (de) Fahrzeugseitiges verfahren und fahrzeugseitige vorrichtung zum erfassen und anzeigen von parklücken für ein fahrzeug
DE102006003538B3 (de) Verfahren zum Zusammenfügen mehrerer Bildaufnahmen zu einem Gesamtbild in der Vogelperspektive
DE102005016288B4 (de) Vorrichtung zur Erfassung eines Objekts vor einem Fahrzeug
EP3084466B1 (de) Verfahren zum detektieren einer auf einem boden aufgebrachten markierung, fahrerassistenzeinrichtung und kraftfahrzeug
DE10083445B4 (de) Fahrzeug-Rückwärts-Überwachungsvorrichtung mit einer Anzeigesteuereinrichtung zur Transformation eines Eingabebildes
DE69202274T2 (de) Fahr-Kontrollvorrichtung für Automobile.
DE69932021T2 (de) Dreidimensionales Darstellungssystem mit einer einzelnen Kamera für Fahrzeuge
DE19629775B4 (de) Verfahren und Vorrichtung zur Überwachung der Umgebung eines Fahrzeugs und zur Erfassung eines Ausfalls der Überwachungsvorrichtung
EP2805183B1 (de) Verfahren und vorrichtung zum visualisieren der umgebung eines fahrzeugs
EP1928687B1 (de) Verfahren und fahrerassistenzsystem zur sensorbasierten anfahrtsteuerung eines kraftfahrzeugs
DE102005051777B4 (de) Fahrzeugumgebung-Sichtunterstützungssystem
EP1634243B1 (de) Verfahren und vorrichtung zur objektortung für kraftfahrzeuge
DE112017005447T5 (de) Objekterfassungsvorrichtung
DE10102884A1 (de) Seitenüberwachungsvorrichtung für ein Kraftfahrzeug
DE10035223A1 (de) Vorrichtung und Verfahren zur Überwachung der Umgebung eines Objekts
DE102008006375A1 (de) Überwachungssystem
DE112017002743T5 (de) Parkunterstützungsvorrichtung und Parkunterstützungsverfahren
DE102006055372A1 (de) Fahrzeugparkassistenzsystem und Verfahren
DE102005056616A1 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE102005056664B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE69919514T2 (de) Abstandsmessgerät
DE102007016055A1 (de) Fahrzeugumgebungsüberwachungsvorrichtung und Fahrzeugumgebungsüberwachungs-Videoanzeigeverfahren

Legal Events

Date Code Title Description
8332 No legal effect for de
8370 Indication related to discontinuation of the patent is to be deleted
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: PANASONIC CORP., KADOMA, OSAKA, JP

8320 Willingness to grant licences declared (paragraph 23)