DE102009012435B4 - Vorrichtung und Verfahren zum monokularen Motion-Stereo-basierten Detektieren von freien Parkplätzen - Google Patents

Vorrichtung und Verfahren zum monokularen Motion-Stereo-basierten Detektieren von freien Parkplätzen Download PDF

Info

Publication number
DE102009012435B4
DE102009012435B4 DE102009012435.7A DE102009012435A DE102009012435B4 DE 102009012435 B4 DE102009012435 B4 DE 102009012435B4 DE 102009012435 A DE102009012435 A DE 102009012435A DE 102009012435 B4 DE102009012435 B4 DE 102009012435B4
Authority
DE
Germany
Prior art keywords
free parking
detecting
dimensional structure
mosaic
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102009012435.7A
Other languages
English (en)
Other versions
DE102009012435A1 (de
Inventor
Jae-kyu Suhr
Ho-gi Jung
Kwang-hyuk Bae
Jaih-he Kim
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HL Klemove Corp
Original Assignee
Mando Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mando Corp filed Critical Mando Corp
Publication of DE102009012435A1 publication Critical patent/DE102009012435A1/de
Application granted granted Critical
Publication of DE102009012435B4 publication Critical patent/DE102009012435B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/02Rear-view mirror arrangements
    • B60R1/08Rear-view mirror arrangements involving special optical features, e.g. avoiding blind spots, e.g. convex mirrors; Side-by-side associations of rear-view and other mirrors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

Vorrichtung zum Detektieren von freien Parkplätzen für Fahrzeuge, umfassend: eine Merkmalspunkteverfolgungseinrichtung zum Verfolgen von Merkmalspunkten durch Empfangen von Eingabebildern von einer Bilderfassungseinrichtung und Erfassen von Punktkorrespondenzen durch Analysieren der Eingabebilder; eine 3D-Strukturerzeugungseinrichtung zum Erzeugen einer dreidimensionalen Struktur durch dreidimensionales Rekonstruieren eines freien Parkplatzes durch Verwendung der Merkmalspunkte; eine 3D-Mosaikstrukturerzeugungseinrichtung zum Erzeugen eines dreidimensionalen Strukturmosaiks durch neues Auswählen der Merkmalspunkte zum Rekonstruieren der dreidimensionalen Struktur durch Verwendung einer De-Rotation-basierten Merkmalsauswahl und mosaikförmiges Zusammensetzen der rekonstruierten dreidimensionalen Struktur durch Schätzen einer Ähnlichkeitstransformation; eine metrische Wiedergewinnungseinrichtung zum Erfassen von metrischer Information anhand des dreidimensionalen Strukturmosaiks durch Verwendung eines Bilderfassungseinrichtungshöhenverhältnisses; und eine Parkplatzdetektionseinrichtung zum Detektieren eines freien Parkplatzes durch Schätzen der Positionen von benachbarten Fahrzeugen in dem dreidimensionalen Strukturmosaik.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft eine Vorrichtung und ein Verfahren zum Detektieren von freien Parkplätzen. Insbesondere betrifft die vorliegende Erfindung eine Vorrichtung zum Detektieren von freien Parkplätzen und ein Verfahren zur Erfassung eines Fahrzeugrückblickes und zum Detektieren eines freien Parkplatzes anhand des Bildes.
  • HINTERGRUND DER OFFENBARUNG
  • Ein System zum automatischen Einparken ist für Fahrer angenehm, indem es freie Parkplätze automatisch findet und deren Fahrzeuge dorthin lenkt. Seit kurzem gibt es zunehmendes Interesse an Systemen zum automatischen Einparken. Auf Grund des Interesses der Kunden und der Erfolgsgeschichten von mehreren Systemen zum automatischen Einparken bereiten sich viele Fahrzeughersteller und Fahrzeugkomponentenhersteller darauf vor, selbstparkende Produkte herauszubringen.
  • Systeme zum automatischen Einparken bestehen aus drei Komponenten: Wegplanung (einschließlich Detektion von freien Parkplätzen), ein automatisches Lenk- und Bremssystem zum Implementieren der geplanten Trajektorie und die HMI (Human Machine Interface), die dazu verwendet werden kann, um von einem Fahrer Eingaben zu erhalten und optische Information über den stattfindenden Einparkprozess zu liefern.
  • Die Detektion von freien Parkplätzen ist durch Verwendung von zahlreichen Verfahren implementiert worden: das Verfahren auf der Grundlage von Ultraschallsensoren, das Verfahren auf der Grundlage von Laserscannern, das Verfahren auf der Grundlage von Radarnetzen mit kurzer Reichweite und das Verfahren auf der Grundlage von Sehen. Davon hat sich das Verfahren auf der Grundlage von Sehen als für Fahrer am attraktivsten herausgestellt, da es Parksituationen visualisiert und Prozeduren durchführt, damit sich Fahrer sicherer fühlen. Das Verfahren auf der Grundlage von Sehen kann in 4 Lösungsansätze unterteilt werden: den Lösungsansatz auf der Grundlage von Parkplatzmarkierungen, den Lösungsansatz auf der Grundlage von binokularen Stereo, der Lösungsansatz auf der Grundlage von Lichtstreifenprojektion und der Lösungsansatz auf der Grundlage von monokularem Motion-Stereo und Wegmessung (odometry).
  • Der erste Lösungsansatz erkennt Parkplatzmarkierungen. Xu et al entwickelten eine Lokalisierung von Parkplätzen auf der Grundlage von Farbensehen. Dieses Verfahren verwendet Farbsegmentation auf der Grundlage von neuronalen RCE-Netzen, Konturenextraktion auf der Grundlage des Verfahrens der kleinsten Quadrate und inverse perspektivische Transformation (Jin Xu et al.: ”Vision-Guided Automatic Parking for Smart Car”, Intelligent Vehicle Symposium 2000, IEEE, Seite 725–730). Jung et al schlugen ein halbautomatisches Einparkhilfesystem vor, das Markierungslinien unter Verwendung der Hough-Transformation in einem Vogelperspektivenkantenbild erkennt, das mit einer Weitwinkelkamera erfasst wurde (Ho Gi Jung et al.: ”Parking Slot Markings Recognition for Automatic Parking Assist System”, Intelligent Vehicle Symposium 2006, IEEE, Seite 106–113). Auf diese Weise können Zielplätze mit einem einzigen Bild und relativ geringen Rechenkosten detektiert werden. Außerdem kann eine allgemeine Konfiguration einer Rückblickkamera (eine einzige Fischaugenkamera) verwendet werden. Es kann jedoch nicht verwendet werden, wenn Parkplatzmarkierungen nicht sichtbar sind. Außerdem kann die Leistung durch schlechte optische Bedingungen, wie zum Beispiel Flecken bzw. Einfärbungen, Schatten oder Verdecken durch benachbarte Fahrzeuge vermindert werden.
  • Der zweite Lösungsansatz erkennt benachbarte Fahrzeuge durch Verwendung eines 3D-Rekonstruktionsverfahrens auf der Grundlage von binokularem Stereo. Kaempchen at al entwickelten ein Parkplatzschätzsystem, das einen merkmalsbasierten Stereo-Algorithmus, einen Musterabgleichalgorithmus auf einer Tiefenkarte und eine 3D-Anpassung an das planare 2D-Oberflächemodell des Fahrzeugs verwendet (N. Kaempchen et al.: ”Stereo vision based pose estimation of parking lots using 3D vehicle models”, Intelligent Vehicle Symposium 2002, IEEE, Seite 459–464). Dieser Lösungsansatz kann metrische Information anhand der festen Länge der Basislinie leicht wiedergewinnen und die extrinsischen Parameter der Kamera müssen nicht jedes Mal geschätzt werden. Dies erfordert jedoch Extrakosten und, Platz für die Gerate, da eine Stereokamera keine allgemeine Konfiguration einer Rückblickkamera darstellt. Es ist Subpixelgenauigkeit erforderlich, wenn kurze Basislinien zwischen den beiden Kameras vorliegen, und Punktkorrespondenzen sind schwer zu finden, wenn breite Basislinien vorliegen.
  • Jung at al entwickelten ein Verfahren, das den Lösungsansatz auf der Grundlage von Parkplatzmarkierungen mit dem Lösungsansatz auf der Grundlage von binokularem Stereo kombiniert. Besagte Forscher verwendeten Hindernistiefenkarten zum Bereitstellen des Suchbereiches und einfachen Mustervergleich bzw. -abgleich zum Auffinden des exakten Ortes von freien Parkplätzen. Besagtes Verfahren ist gegen Rauschfaktoren, wie zum Beispiel Flecken bzw. Einfärbung, Müll und Schatten, im Vergleich zum Verfahren auf der Grundlage von Parkplatzmarkierungen robust, aber kann nur verwendet werden, wenn sowohl Hindernistiefe als auch Parkplatzmarkierungen verfügbar sind.
  • Der dritte Lösungsansatz erkennt benachbarte Fahrzeuge durch Verwendung eines Laserprojektors und einer einzigen Rückblickkamera. Jung et al. entwickelten ein Verfahren, das freie Parkplätze durch Analysieren des Lichtstreifens (rückwärtigen Objekten) analysiert, der von dem Laserprojektor erzeugt wird. Dieser Lösungsansatz kann bei Parkplätzen mit dunklem Untergrund verwendet werden und der Algorithmus zum Erfassen von 3D-Information ist recht einfach. Es kann eine allgemeine Konfiguration einer Rückblickkamera verwendet werden. Dieser Lösungsansatz kann aber auf Grund des Sonnenlichtes nicht während des Tages verwendet werden.
  • Der vierte Lösungsansatz erkennt benachbarte Fahrzeuge durch Verwendung eines monokularen Motion-Stereo-Verfahrens und Wegmessung. Fintzel at al haben ein System vorgeschlagen, das ein gerendertes Bild von einem virtuellen Aufnahmeort zum besseren Verständnis von Parksituationen und Prozeduren liefert (K. Fintzel et al.: ”3D Parking Assistant System”, Intelligent Vehicle Symposium 2004, IEEE, Seite 881–886). Besagtes System erhält externe Parameter und metrische Information anhand von Wegmessung und rekonstruiert die 3D-Struktur des Parkplatzes durch Verwendung von Punktkorrespondenzen. Besagte Forscher haben jedoch kein Verfahren zum Detektieren von freien Parkplätzen präsentiert. Es kann eine allgemeine Konfiguration der Rückblickkamera verwendet werden. Die Wegmessungsinformation kann jedoch fehlerhaft sein, wenn der Zustand der Straße auf Grund von Regen oder Schnee rutschig ist.
  • E. Wahl et al.: ”Realisierung eines Parkassistenten, basierend auf Motion-Stereo”, 16. Aachener Kolloquium Fahrzeug und Motorentechnik 2007, Seiten 871–880 beschreibt ein videobasiertes Verfahren zur Parklückenvermessung, das sich auf Motion Stereo stützt. Das Verfahren unterscheidet zwei Operationsmodi: Im ersten Modus wird die Parkklücke vermessen und ihre Länge bestimmt. Der zweite Modus dient der (verfeinerten) Rekonstruktion der Fahrumgebung beim Zurücksetzen in die Lücke um Warnfunktionen zu erzeugen bzw. autonome Fahrmanöver zu ermöglichen.
  • US 2006/0159308 A1 beschreibt ein System und ein Verfahren zum Analysieren von Videodaten einer nicht-statischen Kamera. Insbesondere soll überprüft werden, ob ein statisches Objekt entfernt wurde oder hinzukam, wie z. B. das Ein- und Ausparken von Fahrzeugen in einem Parkplatz.
  • OFFENBARUNG DER ERFINDUNG
  • Zur Lösung der oben genannten Probleme schlägt die vorliegende Erfindung vor, eine Bildsequenz durch Erfassen der Bilder von freien Parkplätzen mit einer Fahrzeugrückblickbilderfassungseinrichtung oder -kamera zu erfassen, die Ansicht hinter dem Fahrzeug bzw. Automobil unter Verwendung von Punktkorrespondenzen in der Bildsequenz dreidimensional zu rekonstruieren und metrische Informationen über die 3D-Strukturen anhand der bekannten Kamerahöhe wiederzugewinnen und freie Parkplätze durch Schätzen der Positionen von benachbarten Fahrzeugen zu detektieren.
  • Eine Ausführungsform der vorliegenden Erfindung liefert eine Vorrichtung zum Detektieren von freien Parkplätzen für Fahrzeuge, umfassend: eine Merkmalspunkteverfolgungseinrichtung zum Verfolgen von Merkmalspunkten durch Empfangen von Eingabebildern von einer Bilderfassungseinrichtung und Erfassen von Punktkorrespondenzen durch Analysieren der Eingabebilder; eine 3D-Strukturerzeugungseinrichtung zum Erzeugen einer dreidimensionalen Struktur durch dreidimensionales Rekonstruieren eines freien Parkplatzes durch Verwendung der Merkmalspunkte; eine 3D-Mosaikstrukturerzeugungseinrichtung zum Erzeugen eines dreidimensionalen Strukturmosaiks durch neues Auswählen der Merkmalspunkte zum Rekonstruieren der dreidimensionalen Struktur durch Verwendung einer De-Rotation-basierten Merkmalsauswahl und mosaikförmiges Zusammensetzen der rekonstruierten dreidimensionalen Struktur durch Schätzen einer Ähnlichkeitstransformation; eine metrische Wiedergewinnungseinrichtung zum Erfassen von metrischer Information anhand des dreidimensionalen Strukturmosaiks durch Verwendung eines Bilderfassungseinrichtungshöhenverhältnisses; und eine Parkplatzdetektionseinrichtung zum Detektieren eines freien Parkplatzes durch Schätzen der Positionen von benachbarten Fahrzeugen in dem dreidimensionalen Strukturmosaik.
  • Eine weitere Ausführungsform der vorliegenden Erfindung liefert eine Vorrichtung zum Detektieren von freien Parkplätzen für Fahrzeuge, umfassend: eine Bilderfassungseinrichtung zum Erfassen eines freien Parkplatzes und Erzeugen von Eingabebildern und Liefern derselben; eine Benutzerschnittstelle zum Anzeigen des detektierten freien Parkplatzes in einem Ausgabebild; eine Parkplatzdetektionseinrichtung zum Empfangen der Eingabebilder und Verfolgen von Merkmalspunkten durch Erfassen von Punktkorrespondenzen durch Analysieren der Eingabebilder, Erzeugen einer dreidimensionalen Struktur durch dreidimensionales Rekonstruieren des freien Parkplatzes durch Verwendung der Merkmalspunkte, Erzeugen eines dreidimensionalen Strukturmosaiks durch neues Auswählen der Merkmalspunkte zum Rekonstruieren der dreidimensionalen Struktur durch Verwendung einer De-Rotation-basierten Merkmalsauswahl und mosaikförmiges Zusammensetzen der rekonstruierten dreidimensionalen Struktur durch Schätzen einer Ähnlichkeitstransformation, Erfassen von metrischer Information anhand des dreidimensionalen Strukturmosaiks durch Verwendung eines Bilderfassungseinrichtungshöhenverhältnisses und Detektieren des freien Parkplatzes durch Schätzen der Positionen von benachbarten Fahrzeugen in dem dreidimensionalen Strukturmosaik zum Erzeugen des detektierten freien Parkplatzes und Liefern desselben; einen Sensor mit einer Anzahl von Messeinheiten zum Erkennen von Fahrzuständen des Fahrzeugs zum Erzeugen und Liefern von Fahrzeugfahrzustandsinformation; eine Einparkhilfesteuereinrichtung zum Empfangen der Fahrzustandsinformation von dem Sensor zum Schätzen der Fahrzeugposition, Erzeugen eines Wegplanes zum Einparken des Fahrzeugs in den freien Parkplatz durch Verwendung des gelieferten detektierten freien Parkplatzes und Erzeugen und Liefern von Steuersignalen zum Ausführen des Einparkens in den freien Parkplatz; ein aktives Lenksystem zum Lenken des Fahrzeugs als Reaktion auf die Steuersignale nach deren Empfang; und ein aktives Bremssystem zum Bremsen des Fahrzeugs als Reaktion auf die Steuersignale bei deren Empfang.
  • Wiederum eine weitere Ausführungsform der vorliegenden Erfindung liefert ein Verfahren für eine Vorrichtung zum Detektieren von freien Parkplätzen für Fahrzeuge zum Detektieren eines freien Parkplatzes, umfassend die Schritte: Verfolgen von Merkmalspunkten durch Empfangen von Eingabebildern von einer Bilderfassungseinrichtung und Erfassen von Punktkorrespondenzen durch Analysieren der Eingabebilder; Erzeugen einer dreidimensionalen Struktur durch dreidimensionales Rekonstruieren des freien Parkplatzes durch Verwendung der Merkmalspunkte; Rekonstruieren der dreidimensionalen Struktur durch neues Auswählen der Merkmalspunkte durch Verwendung einer De-Rotation-basierten Merkmalsauswahl; Erzeugen eines dreidimensionalen Strukturmosaiks durch mosaikförmiges Zusammensetzen der rekonstruierten dreidimensionalen Struktur durch Schätzen einer Ähnlichkeitstransformation; Erfassen von metrischer Information anhand des dreidimensionalen Strukturmosaiks durch Verwendung eines Bilderfassungseinrichtungshöhenverhältnisses; und Detektieren des freien Parkplatzes durch Schätzen der Positionen von benachbarten Fahrzeugen in dem dreidimensionalen Strukturmosaik.
  • Wie oben beschrieben, kann die vorliegende Erfindung eine Verschlechterung von dreidimensionalen Strukturen in der Nähe des Epipols durch Verwendung von De-Rotations-basierter Merkmalsauswahl und dreidimensionalen Strukturmosaikzusammensetzung lösen.
  • Zusätzlich schlägt die vorliegende Erfindung eine effiziente Art zum Lokalisieren von freien Parkplätzen in dreidimensionalen Punktwolken vor.
  • Außerdem kann die unzuverlässige Wegmessung gemäß der vorliegenden Erfindung nicht verwendet werden, da ihre Genauigkeit in großem Maße von Straßenzuständen abhängt, indem die externen Parameter durch Verwendung von lediglich der Bildinformation geschätzt werden und die metrische Information anhand des Verhältnisses der Kamerahöhe in der rekonstruierten Welt und der realen Welt wiedergewonnen wird.
  • Dies kann ein monokulares Motion-Stereo-basiertes System zum Detektieren von freien Parkplätzen implementieren.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Die oben genannten unten und weitere Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung werden anhand der folgenden ausführlichen Beschreibung in Verbindung mit den beigefügten Zeichnungen ersichtlicher werden, in denen:
  • 1 eine schematische Zeichnung von einem System zum automatischen Einparken unter Verwendung einer Vorrichtung zum monokularen Motion-Stereo-basierten Detektieren von freien Parkplätzen gemäß einer Ausführungsform der vorliegenden Erfindung ist;
  • 2 ein Blockdiagramm eines Verfahrens zum monokularen Motion-Stereo-basierten Detektieren von freien Parkplätzen gemäß einer Ausführungsform der vorliegenden Erfindung ist;
  • 3 eine Zeichnung zur Darstellung der Position eines Epipols in einer typischen Parksituation ist;
  • 4A, B den Ort des Epipols in dem ersten Frame der Bildsequenz und der rekonstruierten Rückblickstruktur zeigen;
  • 5A, B eine De-Rotation-basierte Merkmalsauswahlprozedur zeigen;
  • 6Aa6Ac, 6Ba6Bc, 6Ca6Cc die rekonstruierten 3D-Strukturen mit der und ohne die vorgeschlagene Merkmalsauswahl zeigen;
  • 7A, B die 3D-Strukturen mit bzw. ohne Verwendung des Merkmalsauswahl- und 3D-Mosaikzusammensetzungsverfahrens zeigen;
  • 8 ein Schemadiagramm ist, das eine Konfiguration einer Rückblickkamera zeigt;
  • 9 eine Grafik ist, die die Dichte der Y-Achsenkoordinate der 3D-Punkte zeigt;
  • 10A, B das Ergebnis von metrischer Wiedergewinnung der Kamerasicht bzw. Draufsicht von oben zeigen;
  • 11A, B das Ergebnis der Abmessungsreduzierung bzw. das Ergebnis des Beseitigens von isolierten Punkten zeigen;
  • 12A, B die Außenlinienpunktauswahl zeigen;
  • 13A, B einen Suchbereich der Lokalisierung von anderen benachbarten Fahrzeugen und freien Parkplätzen zeigen;
  • 14 das Endergebnis des Detektierens von freien Parkplätzen zeigt, das in dem letzten Frame der Bildsequenz dargestellt ist;
  • 15 ein Foto einer Fischaugenkamera und eines Laserscanners zeigt, die an dem Fahrzeug montiert sind;
  • 16Aa16Ab, 16Ba16Bb, 16Ca16Cb Vergleiche der rekonstruierten Rückblickstrukturen mit und ohne Verwendung des vorgeschlagenen Verfahrens zeigen;
  • 17Aa17Ac, 17Ba17Bc, 17Ca17Cc, 17Da17Dc sechs erfolgreiche Detektionen zeigen;
  • 18A, B, C, D vier Funktionsstörungen zeigen;
  • 19A, B Bewertungsergebnisse durch Verwendung von Laserscannerdaten zeigen.
  • AUSFÜHRLICHE BESCHREIBUNG VON BEISPIELHAFTEN AUSFÜHRUNGSFORMEN
  • Nachfolgend wird eine beispielhafte Ausführungsform der vorliegenden Erfindung unter Bezugnahme auf die beigefügten Zeichnungen beschrieben. In der folgenden Beschreibung werden dieselben Elemente mit denselben Bezugszahlen gekennzeichnet, obwohl sie in verschiedenen Zeichnungen gezeigt sind.
  • Darüber hinaus wird in der folgenden Beschreibung der vorliegenden Erfindung eine detaillierte Beschreibung von bekannten Funktionen und Konfigurationen, die hierin enthalten sind, weggelassen, wenn sie den Gegenstand der vorliegenden Erfindung stattdessen unklar werden lassen könnte.
  • 1 zeigt eine schematische Zeichnung von einem Sytsem 100 zum automatischen Parken mit einer Vorrichtung zum monokularen Motion-Stereo-basierten Detektieren von freien Parkplätzen gemäß einer Ausführungsform der vorliegenden Erfindung.
  • Das System 100 zum automatischen Parken enthält eine Bilderfassungseinrichtung 110, eine Benutzerschnittstelle 120, eine Einrichtung 130 zum Detektieren von freien Parkplätzen, eine Einparkhilfesteuereinrichtung 140, einen Sensor 150, ein aktives Lenksystem 160 und ein aktives Bremssystem 170.
  • Die Bilderfassungseinrichtung 110 ist ein Mittel, das zum Erfassen von Bildern an einem Fahrzeug montiert ist. Sie könnte an zahlreichen Orten des Fahrzeugs, wie zum Beispiel seiner Vorderseite, Rückseite oder seinen Seiten so montiert sein, dass sie das Bild von einem freien Parkplatz erfassen kann, um ein Eingabebild zur Übergabe an die Benutzerschnittstelle 120, die Einrichtung 130 zum Detektieren von freien Parkplätzen, Einparkhilfesteuereinrichtung 140 und andere zu erzeugen. Für diesen Zweck kann die Bilderfassungseinrichtung 110 durch zahlreiche Bilderfassungsvorrichtungen implementiert sein, die eine Filmkamera, digitale Kamera, einen digitalen Camcorder, CCTV, etc. einschließen.
  • Die Benutzerschnittstelle 120 ist ein Mittel, das zum Eingaben/Ausgeben von Daten oder Befehlen an dem Fahrzeug montiert ist. Sie kann an dem Fahrzeug in der Nähe seines Inneren, Fahrersitzes oder Beifahrersitzes zum Empfangen von Daten oder Befehlen durch einen Fahrer und Übergeben derselben an die Einrichtung 130 zum Detektieren von freien Parkplätzen und Einparkhilfesteuereinrichtung 140 und Empfangen von Daten von der Bilderfassungseinrichtung 110, Einrichtung 130 zum Detektieren von freien Parkplätzen und Einparkhilfesteuereinrichtung 140 und Ausgeben von Daten an selbige montiert sein.
  • Zusätzlich zeigt die Benutzerschnittstelle 120 bei Empfangen des Eingabebildes von der Bilderfassungseinrichtung 110 dasselbe an und überträgt es an die Einrichtung 130 zum Detektieren von freien Parkplätzen. Für diesen Zweck kann die Benutzerschnittstelle 120 durch zahlreiche Eingabe/Ausgabegeräte, wie zum Beispiel eine Flüssigkristallanzeige oder LCD, Touchpad, Tastatur, Maus und/oder berührungsempfindlicher Bildschirm implementiert sein.
  • Die Einrichtung 130 zum Detektieren von freien Parkplätzen ist ein Mittel zum Durchführen von Datenkommunikation und Berechnungen, das bei Erhalt des Eingabebildes von der Bilderfassungseinrichtung 110 einen freien Parkplatz in dem Eingabebild detektiert und Bilder, die den detektierten freien Parkplatz anzeigen, als ein Ausgabebild zum Übertragen an die Benutzerschnittstelle 120 erzeugt, die dann angesteuert wird, um das Ausgabebild anzuzeigen.
  • Diesbezüglich kann die Einrichtung 130 zum Detektieren von freien Parkplätzen eine Merkmalspunkteverfolgungseinrichtung (feature point tracker) 132, eine Einrichtung 134 zum Erzeugen einer dreidimensionalen Struktur (3D-Strukturerzeugungseinrichtung), eine Einrichtung 136 zum Erzeugen einer dreidimensionalen Mosaikstruktur (3D-Mosaikstrukturerzeugungseinrichtung), eine metrische Rückgewinnungseinrichtung 138 und einen Platzdetektor 139 umfassen.
  • Die Merkmalspunkteverfolgungseinrichtung 132 verfolgt Merkmalspunkte (feature points) durch Empfangen der Eingabebilder von der Bilderfassungseinrichtung 110 und Erfassen von Punktkorrespondenzen durch Analysieren der Eingabebilder. Hier detektiert die Merkmalspunkteverfolgungseinrichtung die Merkmalspunkte durch Analysieren der Eingabebilder und verfolgt die Merkmalspunkte über die Eingabebilder durch Verwendung des Lucas-Kanade-Verfahrens.
  • Die Einrichtung 134 zum Erzeugen von dreidimensionalen Strukturen erzeugt eine dreidimensionale Struktur durch dreidimensionale Rekonstruktion des freien Parkplatzes unter Verwendung der Merkmalspunkte. Hier wählt die Einrichtung 134 zum Erzeugen von dreidimensionalen Strukturen Keyframes der Eingabebilder aus, schätzt Bewegungsparameter und berechnet dann dreidimensionale Koordinaten der Merkmalspunkte durch Verwendung eines linearen Triangulationsverfahrens zum Erzeugen der dreidimensionalen Struktur.
  • Die Einrichtung 136 zum Erzeugen von dreidimensionalen Mosaiken erzeugt ein dreidimensionales Strukturmosaik durch neues Auswählen der Merkmalspunkte zum Rekonstruieren der dreidimensionalen Struktur durch Verwendung einer De-Rotation-basierten Merkmalsauswahl und mosaikförmiges Zusammensetzen der rekonstruierten dreidimensionalen Struktur durch Schätzen einer Ähnlichkeitstransformation.
  • Die metrische Wiedergewinnungseinrichtung 138 erfasst metrische Information von dem dreidimensionalen Strukturmosaik durch Verwendung eines Bilderfassungseinrichtungshöhenverhältnisses. Hier erfasst die metrische Wiedergewinnungseinrichtung 138 das Bilderfassungseinrichtungshöhenverhältnis durch Bestimmen der Höhe der Bilderfassungseinrichtung in der dreidimensionalen Mosaikstruktur durch eine Neigungswinkelkompensation, eine Dichteschätzungs-basierte Grundebenendetektion und eine dreidimensionale Ebenenschätzungs-basierte Grundebenenverfeinerung hinsichtlich Ort und Orientierung.
  • Der Platzdetektor 139 detektiert den freien Parkplatz durch Schätzen der Positionen von benachbarten Fahrzeugen in dem dreidimensionalen Strukturmosaik. Hier reduziert der Platzdetektor 139 das dreidimensionale Strukturmosaik auf eine Draufsicht von oben, beseitigt isolierte Punkte von Nachbarn, erfasst Außenlinienpunkte der benachbarten Fahrzeuge mit einem Einfallswinkel und der Distanz von der Mitte der Bilderfassungseinrichtung und schätzt einen Eckpunkt und die Orientierung des benachbarten Fahrzeugs, wodurch der freie Parkplatz detektiert wird.
  • Der Platzdetektor 139 schätzt zusätzlich andere benachbarte Fahrzeuge, die sich gegenüber dem geschätzten Fahrzeug befinden, durch Festlegen eines Kreises mit einem vorab festgelegten Radius als den Suchbereich der anderen benachbarten Fahrzeuge, wobei sich der Mittelpunkt des Kreises in einer vorab festgelegten Distanz von dem Eckpunkt in der orthogonalen Richtung der Orientierung befindet.
  • Hier können die Einrichtung 130 zum Detektieren von freien Parkplätzen und ihre Komponenten Merkmalspunkteverfolgungseinrichtung 132, Einrichtung 134 zum Erzeugen von dreidimensionalen Strukturen, Einrichtung 136 zum Erzeugen von dreidimensionalen Mosaikstrukturen, metrischen Wiedergewinnungseinrichtung 138 und Platzdetektor 139 durch ein unabhängige Vorrichtung mit Speichern zum Speichern von Programmen zum Ausführen der korrespondierenden Funktionen und Mikroprozessoren zum Ausführen der gespeicherten Programme in den Speichern implementiert sein, obwohl deren Implementierung durch Softwaremodule möglich sein könnte, die durch Hardware (Speicher, Mikroprozessoren und dergleichen), die in dem System 100 zum automatischen Parken vorgesehen sind, zum laufen gebracht werden.
  • Eine Einparkhilfesteuereinrichtung 140 empfängt Fahrzustandsinformation von einem Sensor 150, um die Fahrzeugposition zu schätzen, empfängt den detektierten freien Parkplatz von der Einrichtung 130 zum Detektieren von freien Parkplätzen und erzeugt einen Wegplan zum Parken des Fahrzeugs auf dem freien Parkplatz und erzeugt Steuersignale zum Ausführen des Einparkens in den freien Parkplatz zum Senden derselben Signale an das aktive Lenksystem 160 und aktive Bremssystem 170.
  • Außerdem kann die Einparkhilfesteuereinrichtung 140 steuern, dass der erzeugte Wegplan an die Benutzerschnittstelle 120 gesendet wird, die den Wegplan anzeigt, da sie die Bilder des Einparkprozesses des Fahrzeuges in den freien Parkplatz so steuert, dass sie von der Bilderfassungseinrichtung 110 erfasst und an die Benutzerschnittstelle 120 gesendet werden, die die erfassten Bilder anzeigt.
  • Für diesen Zweck umfasst die Einparkhilfesteuereinrichtung 140 eine Wegplanerzeugungseinrichtung 142 zum Erzeugen eines Wegplanes für das Parken des Fahrzeugs unter Verwendung des von der Einrichtung 130 zum Detektieren von freien Parkplätzen gelieferten detektierten freien Parkplatzes, eine Wegverfolgungssteuereinrichtung 144 zum Verfolgen des festgelegten Wegplanes auf der Grundlage der Fahrzeugposition und der Fahrzustände zum Erzeugen von Steuersignalen zur Steuerung des Einparkens des Fahrzeugs in dem freien Parkplatz und Senden der Steuersignale an das aktive Lenksystem 160 und aktive Bremssystem 170, und eine Fahrzeugpositionsschätzeinrichtung 146 zum Schätzen der Fahrzeugposition durch Verwendung der Fahrzustandsinformation, die von dem Sensor 150 erhalten wird.
  • Hier können die Einparkhilfesteuereinrichtung 140 und ihre Komponenten Wegplanerzeugungseinrichtung 142, Wegverfolgungssteuereinrichtung 144 und Fahrzeugpositionsschätzeinrichtung 146 durch eine unabhängige Vorrichtung mit Speichern zum Speichern von Programmen zum Ausführen der korrespondierenden Funktionen und Mikroprozessoren zum Ausführen der gespeicherten Programme in den Speichern implementiert sein, obwohl deren Implementierung durch Softwaremodule möglich sein kann, die durch Hardware (Speicher, Mikroprozessoren und dergleichen), die in dem automatischen Parksystem 100 vorgesehen ist, zum Laufen gebracht werden.
  • Der Sensor 150 kann mit einer Anzahl von Sensoreinheiten zum Erkennen von Fahrzuständen des Fahrzeugs, d. h. einem Radgeschwindigkeitssensor, einem Lenkwinkelsensor, einem Gierratensensor, Beschleunigungssensor etc. zum Messen der Fahrzustände des Fahrzeugs und Erzeugen von äquivalenten elektrischen Sensorsignalen für Fahrzeugfahrzustandsinformation versehen sein, die an eine Fahrzeugpositionsschätzeinrichtung 146 der Einparkhilfesteuereinrichtung 140 gesendet werden soll.
  • Das aktive Lenksystem 160 ist eine Lenkhilfeeinrichtung zum Erzeugen von sicherem Lenken des Fahrzeugs durch Verwendung von zahlreichen Sensoren und Steuereinrichtungen anhand von Fahrerlenkeingaben, die das Fahrzeug als Reaktion auf die von der Einparkhilfesteuereinrichtung 140 empfangenen Steuersignale lenkt.
  • Ohne darauf beschränkt zu sein, kann das aktive Lenksystem 160 EPS (Electronic Power Steering System), MDPS (Motor Driven Power Steering System), AFS (Active Front Steering System) etc. umfassen.
  • Das aktive Bremssystem 170 dient zum Beschränken der Fahrzeugbewegungsgeschwindigkeit durch Ändern des Bremsgrades des Fahrzeugs als Reaktion auf das von der Einparkhilfesteuereinrichtung 140 empfangene Steuersignal, um dadurch das Fahrzeug anzuhalten.
  • Zur Bewerkstelligung desselben kann das aktive Bremssystem 170 unter anderem ABS (Antilock Brake System), ESC (Electronic Stability Control System) etc. umfassen.
  • 2 zeigt ein Blockdiagramm eines Verfahrens zum monokularen Motion-Stereo-basierten Detektieren von freien Parkplätzen gemäß einer Ausführungsform der vorliegenden Erfindung.
  • Bei dem offenbarten Verfahren zum monokularen Motion-Stereo-basierten Detektieren von freien Parkplätzen empfängt das System 100 zum automatischen Parken in Schritt 210 das erfasste Bild von freien Parkplätzen von der Bilderfassungseinrichtung 110, verfolgt Merkmalspunkte der Bildeingabe in Schritt 230, rekonstruiert die Parkstruktur in 3D unter Verwendung der Merkmalspunkte in Schritt 230, wählt die Merkmalspunkte unter Verwendung der De-Rotation-basierten Merkmalsauswahl in Schritt 240, rekonstruiert 3D-Strukturen unter Verwendung der ausgewählten Punktkorrespondenzen und bildet die rekonstruierte 3D-Struktur zu einem 3D-Strukturmosaik durch Schätzen der Ähnlichkeitstransformation in Schritt 250, wiedergewinnt die 3D-Struktur durch Verwendung des Kamerahöhenverhältnisses in Schritt 260 und detektiert freie Parkplätze durch Schätzen der Positionen von benachbarten Fahrzeugen in Schritt 250. Danach kann das automatische Parksystem 100 das Bild, das den detektierten freien Parkplatz repräsentiert, als Ausgabebild zum Senden desselben und Anzeigen bei der Benutzerschnittstelle 120 in Schritt 280 erzeugen.
  • Gemäß der vorliegenden Erfindung werden die Rückblickstrukturen durch Verwendung einer einzigen Fischaugenkamera dreidimensional rekonstruiert und werden freie Parkplätze in der 3D-Struktur durch die Stufen von Video(Bildsequenz)-Erfassung, Merkmalspunkteverfolgung, 3D-Rekonstruktion, 3D-Strukturmosaikzusammensetzung, metrische Wiedergewinnung und Detektion von freien Parkplätzen ermittelt.
  • Im Vergleich zum Stand der Technik liefert das offenbarte System drei wichtige Vorteile. Erstens wird die Verschlechterung der 3D-Struktur in der Nähe des Epipols durch Verwendung von De-Rotation-basierter Merkmalsauswahl und 3D-Strukturmosaikzusammensetzung gelöst. Dies stellt ein ernstes Problem bei der Rekonstruktion von 3D-Strukturen mit einer Fahrzeugrückblickkamera dar, weil sich der Epipol gewöhnlich in dem Bild eines benachbarten Fahrzeugs befindet, das präzise rekonstruiert werden muss. Zweitens wird ein effizientes Verfahren zum Detektieren von freien Parkplätzen in 3D-Punktwolken bereitgestellt. Vorteilhafterweise wird Wegmessung aufgrund ihrer Unzuverlässigkeit nicht verwendet, da die Genauigkeit von dem Straßenzustand abhängen würde. Die externen Parameter können durch Verwendung von lediglich Bildinformation geschätzt werden. Die metrische Information kann anhand des Verhältnisses der Kamerahöhen in der rekonstruierten Welt und der realen Welt wiedergewonnen werden.
  • Nachfolgend wird die vorliegende Erfindung in Abschnitten 1 bis 4 detailliert erläutert. Abschnitt 1 beschreibt die Verfahren für Punktkorrespondenzen und 3D-Rekonstruktion. Abschnitt 2 erläutert das Problem des Epipols und bietet eine Lösung. Abschnitt 3 beschreibt metrische Wiedergewinnung und die Prozedur zum Detektieren von freien Parkplätzen. Abschnitt 4 präsentiert die experimentellen Ergebnisse im Vergleich zu den Lasescannerdaten. Im übrigen wird zum leichteren Verständnis die Bilderfassungseinrichtung 110 als „Kamera” bezeichnet.
  • 1. Monokulare Motion-Stereo-basierte 3D-Rekonstruktion
  • 1.1 Punktkorrespondenzen
  • Es müssen Punktkorrespondenzen in zwei verschiedenen Bildern, die mit einer sich bewegenden Kamera erfasst werden, ermittelt werden, um die Bewegungsparameter und 3D-Strukturen zu schätzen. In dieser Beschreibung werden drei unterschiedliche Lösungsansätze verglichen. Der erste Lösungsansatz ermittelt eine geringe Anzahl von zuverlässigen Punktkorrespondenzen, um die Fundamentalmatrix zu schätzen, und gleicht (matches) Merkmalspunkte durch Verwendung der epipolaren Einschränkungen bei den entzerrten Bildern ab. Dies wird als „guided matching” bezeichnet, was erfordert, dass die Fischaugenbilder nicht verzeichnet und entzerrt sind.
  • Der zweite Lösungsansatz findet Punktkorrespondenzen durch Verwendung eines naiven Algorithmus und verwirft falsche Paare (matches) durch Verwendung eines Ausreißerselektionsverfahrens, das für Kameras bei intelligenten Fahrzeugen entworfen ist. Obwohl dieser Lösungsansatz schnell ist und wenige fehlerhafte Paarungen (mismatches) erzeugt, ist er aufgrund des Mangels von Merkmalen auf den Oberflächen bzw. der Merkmalslosigkeit schwierig, Punktkorrespondenzen auf Fahrzeugoberflächen zu finden.
  • Der dritte Lösungsansatz detektiert Merkmalspunkte und verfolgt sie über Bildsequenzen. Da dieses Verfahren die Merkmalspunkte zwischen aufeinanderfolgenden Bildern verfolgt, kann es viele Punktkorrespondenzen auf Automobil- bzw. Fahrzeugoberflächen finden. Jedoch sind die Rechenkosten hoch, weil der Algorithmus auf viele Bilder angewendet werden muss.
  • Die ersten und zweiten Lösungsansätze erfordern mindestens zwei Bilder. Die Speichergröße zum Speichern der Bilder ist gering, aber es ist schwierig, Keyframes auszuwählen, ohne die gesamte Sequenz zu sichern. Der dritte Lösungsansatz erfordert auch mindestens zwei Bilder, jedes Mal wenn er in Echtzeit unter Verwendung von FPGA (Field-Programmable Gate Array) implementiert wird. Da die Punktkorrespondenzen für jeden Frame gesichert werden, können Keyframes unter Verwendung der Verfolgungsergebnisse ausgewählt werden. Unter Berücksichtigung dieses Vergleiches wird der dritte Lösungsansatz von Verfolgungsverfahren bei der vorliegenden Erfindung bevorzugt.
  • Zum Verfolgen wählt die vorliegende Erfindung das Lucas-Kanade-Verfahren, weil es genaue Ergebnisse erzeugt, erschwingliche Rechenleistung bietet und es einige vorhandene Beispiele für Echtzeit-Hardwareimplementierungen gibt. Dieses Verfahren verwendet auch die Least-Square-Lösung von optischen Flüssen (optical flows). Wenn I und J zwei aufeinanderfolgende Bilder sind und x und Ω die Merkmalsposition bzw. die geringe räumliche Nachbarschaft von x bezeichnen, dann besteht das Ziel darin, den optischen Flussvektor v zu finden, der minimiert:
    Figure DE102009012435B4_0002
  • Die Lösung von Gleichung (1), vopt, sieht wie folgt aus:
    Figure DE102009012435B4_0003
  • Ix und Iy sind die Bildgradienten in der horizontalen bzw. vertikalen Richtung und δI ist die Bildpixeldifferenz. Da die Matrix G nicht-singulär sein muss, kann der Bildort, wo der minimale Eigenwert von G größer als der Schwellenwert ist, als ein Merkmalspunkt ausgewählt und über die Bildsequenz verfolgt werden.
  • 1.2. 3D-Rekonstruktion
  • Wenn die Punktkorrespondenzen erhalten sind, kann die Struktur des Parkplatzes unter Verwendung der folgenden drei Schritte dreidimensional rekonstruiert werden: Keyframe-Auswahl, Bewegungsparameterschätzen und Triangulation. Zur 3D-Rekonstruktion müssen die Keyframes, die das 3D-Rekonstruktionsintervall bestimmen, geeignet ausgewählt werden. Wenn keine ausreichende Kamerabewegung zwischen den beiden Frames vorliegt, kann die Berechnung der Fundamentalmatrix ungenau sein, und im umgekehrten Fall kann die Anzahl von korrespondierenden Punkten vermindert sein.
  • Die vorliegende Erfindung verwendet ein einfaches, aber weniger allgemeines Verfahren, das die mittlere Länge des optischen Flusses verwendet. Dieses Verfahren funktioniert gut, da Drehbewegung immer durch Translationsbewegung in Fahrzeugrückblickkameras induziert wird. Da Parkplätze auf Anforderung des Fahrers rekonstruiert werden sollten, kann der letzte Frame als der erste Keyframe ausgewählt werden.
  • Der zweite Keyframe kann ausgewählt werden, wenn die mittlere Länge des optischen Flusses von dem ersten Keyframe den Schwellenwert überschreitet. Der nächste Keyframe kann auf dieselbe Art ausgewählt werden. Der Schwellenwert kann auf 50 Pixel eingestellt werden und dies führt zu einer Basislinienlänge von ca. 100~150 cm.
  • Wenn die Keyframes ausgewählt sind, wird die Fundamentalmatrix geschätzt, um die Relativdrehungs- und -translationswerte zwischen den beiden Kameras zu extrahieren. Für diese Aufgabe verwendet die vorliegende Erfindung den Random Sample Consensus (hierin nachfolgend als RANSAC bezeichnet), gefolgt vom M-Estimator. Torr und Murray waren der Ansicht, dass dies eine empirisch optimale Kombination ist. Außerdem wurden Fahrzeugrückblickbildexperimente unter Verwendung der zahlreichen Verfahren durchgeführt, die von Armangue, X., Salvi, J.: Overall view regarding fundamental matrix extimation, Image Vision Computing 21(2), 205–220 (2003), vorgeschlagen wurden.
  • Der RANSAC basiert auf zufallsmäßiges Auswählen einer Gruppe von Punkten zum Berechnen der Kandidaten der Fundamentalmatrix durch Verwendung eines linearen Verfahrens. Dieses Verfahren berechnet die Anzahl von Inliers (Einlieger) für jede Fundamentalmatrix und wählt diejenige aus, die sie maximiert. Wenn die Fundamentalmatrix bestimmt wurde, wurde sie in den Experimenten durch Verwendung aller Inliers verfeinert. Der M-Estimator kann zum Reduzieren des Effekts der Ausreißer (Outliers) durch Messen des Restwertes jeder Punktkorrespondenz verwendet werden. Es gilt, dass ri der Restwert von x' T / i, Fxi ist, wobei x'i und xi die Koordinaten der Punktkorrespondenzen in zwei Bildern sind und F die Fundamentalmatrix ist. Dann können die M-Estimators auf Lösen von Gleichungen (3) gestützt werden:
    Figure DE102009012435B4_0004
    in der wi eine Gewichtungsfunktion ist und die Huber-Funktion in Gleichung (4) verwendet wird:
    Figure DE102009012435B4_0005
  • Zum Erhalten von σ kann die robuste Standardabweichung in Gleichung (5) verwendet werden: σ = 1.4826{1 + 5/(n 7)}mediani|ri| (5)
  • Die Essentialmatrix (essential matrix) kann unter Verwendung der Fundamentalmatrix und der kameraspezifischen Parametermatrix (K) berechnet werden. Die kameraspezifischen Parameter werden vorab kalibriert, da sie sich bei der vorliegenden Erfindung nicht ändern. Die vier Kombinationen der Drehmatrix (R) und des Translationsvektors (t) können anhand der Essentialmatrix extrahiert werden. Da nur die korrekte Kombination ermöglicht, dass die 3D-Punkte vor beiden Kameras angeordnet sind, werden zufallsmäßig ausgewählte mehrere Punkte rekonstruiert, um die korrekte Kombination zu ermitteln. Danach können die 3D-Koordinaten jeder Punktkorrespondenz durch Verwendung eines linearen Triangulationsverfahrens berechnet werden. Wenn P und P' die Projektionsmatrizen der beiden Kameras präsentieren würden und X die 3D-Koordinate der Punktkorrespondenzen repräsentieren würde, würde Gleichung (6) wie folgt erscheinen: xx(PX) = 0 x'x(P'X) = 0 (6)
  • Durch Kombinieren der beiden obigen Gleichungen in der Form AX = 0 können die 3D-Koordinaten (X) leicht berechnet werden, indem der Einheitssingulärvektor ermittelt wird, der dem geringsten singulären Wert von A entspricht. Dies kann durch Verwendung einer SVD (Singular Value Decomposition) gelöst werden. Die Matrix A kann ausgedrückt werden als:
    Figure DE102009012435B4_0006
  • piT und p'iT repräsentieren die i-te Zeile von P bzw. P' und [x, y]T und [x', y']T repräsentieren die Bildkoordinaten der Punktkorrespondenzen. Zur 3D-Rekonstruktion wird vorzugsweise ein komplexer Optimierungsalgorithmus, wie zum Beispiel eine Bündelanpassung (bundle adjustment) verwendet, da die Rechenkosten zu hoch wären.
  • 2. Merkmalsauswahl und 3D-Strukturmosaikzusammensetzung
  • 2.1 Verschlechterung von 3D-Struktur in der Nähe des Epipols
  • Allgemeiner bei Rekonstruktion von 3D-Strukturen kann eine starke Verschlechterung in der Nähe des Epipols auftreten. Dies liegt daran, dass Triangulation unter einem kleinen Winkel durchgeführt werden muss, da die Genauigkeit der 3D-Koordinaten aufgrund der relativ hohen Punktdetektions- und Bildquantisierungseffekte vermindert wird. Dies kann als ein Rangabfall der Matrix A in Gleich (7) gezeigt werden. Wenn die Projektionsmatrizen der beiden Kameras durch P bzw. P' repräsentiert werden, könne sie wie folgt beschrieben werden: P = K[I|0] = [K|0] P' = K[R|t] = [KR|e] (8)
  • K und I repräsentieren eine kameraspezifische 3×3-Parametermatrix bzw. eine 3×3-Identitätsmatrix und R und t repräsentieren eine 3×3-Drehmatrix und einen 3×1-Translationsvektor. e ist der Epipol. Da die letzte Spalte von P' die Koordinaten des Epipols repräsentiert, nähert sich die letzte Spalte A Null, wenn sich die Punktkorrespondenz dem Epipol nähert.
  • Obwohl dieses Problem bei 3D-Rekonstruktion sehr ernst ist, ist es im Stand der Technik aus zwei Gründen noch nicht wirklich behandelt worden. Erstens befindet sich der Epipol aufgrund von Kamerakonfigurationen in vielen Anwendungen nicht innerhalb des Bildes. Dies geschieht, wenn die 3D-Strukturen durch Verwendung einer Stereokamera oder einer einzelnen sich bewegenden Kamera rekonstruiert werden, deren Translation in der optischen Achse nicht größer als die Translationen in den anderen Achsen ist. Zweitens befindet sich der Epipol innerhalb des Bildes, aber nicht auf den Zielobjekten. Dies ist der Fall, wenn ein mobiler Roboter mit einer einzigen nach vorne (oder nach hinten) schauenden Kamera sich entlang einer Straße oder eines Korridors bewegt. In diesem Fall befindet sich der Epipol innerhalb des Bildes, aber er befindet sich gewöhnlich auf Objekten fern von der Kamera, so dass das Gebiet um den Epipol nicht interessiert.
  • Bei dem Verfahren gemäß der vorliegenden Erfindung ist die Translation in der optischen Achse recht dominant. So befindet sich der Epipol immer innerhalb des Bildes. Außerdem befindet sich der Epipol gewöhnlich auf einem benachbarten Fahrzeug, das das vorliegende Zielobjekt ist, das zum Orten von freien Parkplätzen verwendet wird. 3 zeigt den Epipolort in einer typischen Parksituation. Wie in dieser Figur gezeigt, befindet sich der Epipol gewöhnlich in dem Bild eines benachbarten Fahrzeugs aufgrund der Bewegungscharakteristiken der Fahrzeugrückblickkamera.
  • Aus diesem Grund wird die 3D-Struktur des benachbarten Fahrzeugs gemäß der vorliegenden Erfindung fehlerhaft rekonstruiert. 4A, B zeigen den Ort des Epipols in dem letzten Frame der Bildsequenz und der rekonstruierten Rückblickstruktur. Der typische Ort des Epipols ist in 4A dargestellt, während 4B die Struktur aus Sicht von oben nach Entfernen der Punkte in der Nähe der Grundebene zeigt. In 4A scheinen die 3D-Punkte in der Nähe des Epipols auf dem benachbarten Fahrzeug recht fehlerhaft, so dass die Detektionsergebnisse verschlechtert sind. Zur Lösung dieses Problems werden die De-Rotation-basierte Merkmalsauswahl und 3D-Strukturmosaikzusammensetzung verwendet.
  • 2.2. De-Rotation-basierte Merkmalsauswahl und 3D-Strukturmosaikzusammensetzung
  • Zur Lösung des Problems mit dem Epipol und zum Erhalten einer genauen 3D-Rückblickstruktur verwendet die vorliegende Erfindung ein Verfahren mit zwei Schritten. In dem ersten Schritt wird der Dreheffekt aus dem optischen Fluss beseitigt und wird der Translationseffekt beibehalten. Da die optische Flusslänge bei einer reinen Translation proportional zur 3D-Strukturgenauigkeit ist, wirft die vorliegende Erfindung die Punktkorrespondenzen einfach weg, deren optischen Flusslängen kürzer als der Schwellenwert sind. Dies verhindert, dass die 3D-Struktur fehlerhaft rekonstruierte Punkte enthält. Zur Beseitigung des Dreheffekts des optischen Flusses kann eine konjugierte Rotationshomographie (conjugate rotation homography) verwendet werden. Wenn x und x' die Bilder eines 3D-Punktes X vor und nach der reinen Drehung wären: x = K[I|0]X x'= K[R|0]X = KRK–1x (9) so wäre x' = Hx mit H = KRK–1. Durch Verwendung dieser Homographie beseitigt die vorliegende Erfindung den Dreheffekt und setzt die Punktkorrespondenzen durch eine reine Translation in Beziehung. 5A, B zeigen die Prozedur der de-rotated-basierten Merkmalsauswahl. Zuerst werden die Punktkorrespondenzen in den Fischaugenbildern, wie in 5A gezeigt, entzerrt und transformiert. Danach werden die entzerrten Punktkorrespondenzen unter Verwendung einer Homographie, wie in 5B gezeigt, de-rotated. Alle Linien, die die Punktkorrespondenzen verbinden, zeigen in Richtung zum Epipol, weil der Dreheffekt vollständig beseitigt ist. In diesem Fall ist der Epipol als der Ausdehnungsfokus bekannt. Eine große Streubreite L1 von Linien zeigt die durch das De-Rotation-basierte Verfahren klassifizierten unzuverlässigen Punktkorrespondenzen an. Die unzuverlässigen Punktkorrespondenzen schließen die Merkmale in der Nähe des Eipols und fern von der Kamera ein. Der Schwellenwert für die optische Flusslänge kann auf 10 Pixel eingestellt werden.
  • In dem zweiten Schritt rekonstruiert die vorliegende Erfindung mehrere 3D-Strukturen durch Verwendung der ausgewählten Punktkorrespondenzen und setzt diese mosaikförmig zu einer Struktur durch Schätzen der Ähnlichkeitstransformation zusammen. Die Ähnlichkeitstransformationsparameter können bestehen aus R (3×3-Drehmatrix), t (3×1-Translationsvektor) und c (Maßstabstransformation) und die Anpassung nach der Methode der kleinsten Quadrate kann mit den anhand der Verfolgungsergebnisse bekannten 3D-Punktkorrespondenzen verwendet werden. Da die rekonstruierten 3D-Punkte fehlerhaft sind und Ausreißer enthalten, wird der RANSAC-Lösungsansatz zur Parameterschätzung verwendet. Die Anpassung nach der Methode der kleinsten Quadrate kann wie folgt erläutert werden. Es können zwei Gruppen von Punktkorrespondenzen Xi und Yi; i = 1, 2, ..., n im 3D-Raum vorliegen. Xi und Yi können als 3×1-Spaltenvektoren betrachtet werden und n ist gleich oder größer als 3. Die Beziehung zwischen Xi und Yi kann beschrieben werden als: Yi = cRXi + t (10)
  • Der Fehler der kleinsten Quadrate von zwei Gruppen von Punkten kann geschrieben werden als:
    Figure DE102009012435B4_0007
  • Wenn A und B die 3×n-Matrizen von {X1, X2, L, Xn} bzw. {Y1, Y2, L, Yn} sind, und wenn UDVT ein SVD von ABT (UUT = VVT = I, D = diag(d1), d1 ≥ d2 ≥ L > 0) ist, können die Transformationsparameter, die den mittleren quadratischen Fehler minimieren, berechnet werden durch:
    Figure DE102009012435B4_0008
  • σ2 X, μ2 X und μ2 Y können definiert werden als:
    Figure DE102009012435B4_0009
  • 6A, B, C zeigen die rekonstruierten 3D-Strukturen mit dem und ohne das vorgeschlagene Verfahren zur Merkmalsauswahl und 3D-Mosaikzuammensetzung. 6Aa-6Ac zeigen die Keyframe-Bilder, 6Ba6Bc die rekonstruierten 3D-Strukturen ohne Verwendung des offenbarten Merkmalsauswahlverfahrens und 6Ca6Cc die rekonstruierten 3D-Strukturen mit Verwendung des Merkmalsauswahlverfahrens. Die 3D-Strukturen sind aus Sicht von oben (nach Entfernen der Punkte in der Nähe des Grundes) gezeigt. Die 6Aa6Ac zeigen die Keyframe-Bilder und deren Epipolorte. Es ist ersichtlich, dass sich die Epipole an unterschiedlichen Positionen des benachbarten Fahrzeugs befinden. 4B zeigt die rekonstruierten 3D-Strukturen jedes Keyframes. Die Strukturen in der Nähe der Epipole sind schlecht rekonstruiert. Der fehlerhaft rekonstruierte Teil in einer Struktur ist jedoch in einer anderen Struktur korrekt rekonstruiert. 4C zeigt die rekonstruierten 3D-Strukturen von jedem Keyframe nach Entfernen der korrespondierenden Punkte durch Verwendung des De-Rotation-basierten Verfahrens. Die meisten fehlerhaften 3D-Punkte in 4 sind beseitigt.
  • 7A, B zeigen den Vergleich der 3D-Strukturen bei Verwendung des vorgeschlagenen Verfahrens zur Merkmalsauswahl und 3D-Mosaikzusammensetzung bzw. ohne Verwendung desselben.
  • Der Punkt CC kennzeichnet den Kameramittelpunkt. Die Verschlechterung der 3D-Struktur in der Nähe des Epipols wird durch das vorliegende Verfahren gelöst.
  • 3. Detektion von freien Parkplätzen
  • 3.1 Metrische Wiedergewinnung durch Verwendung des Kamerahöhenverhältnisses
  • Zum Orten von freien Parkplätzen in Zentimetern muss die metrische Information der 3D-Struktur wiedergewonnen werden. Dies wird gewöhnlich durch Verwendung einer bekannten Basislinienlänge oder Vorkenntnis von der 3D-Struktur erzielt. Da die Kamerahöhe in der realen Welt bei der vorliegenden Erfindung bekannt ist, kann eine Schätzung hinsichtlich der Kamerahöhe in der rekonstruierten Welt vorgenommen werden und wird das Verhältnis der geschätzten Kamerahöhe zur realen Höhe zur metrischen Wiedergewinnung verwendet. Die Kamerahöhe in der realen Welt kann bei dieser Erfindung als fest angenommen werden. Der Höhensensor kann mit Kamerahöhenvariationen verwendet werden, die aufgrund von Änderungen der Ladung oder Passagiere auftreten können.
  • Zur Berechnung des Kamerahöhenverhältnisses muss die Grundebene in der rekonstruierten Welt geschätzt werden, da der Kameraort auf den Ursprung eingestellt ist. Die Schätzprozedur kann aus drei Schritten bestehen: Neigungswinkelkompensation, Dichteschätzungs-basierte Grundebenendetektion (density estimation-based ground plane detection) und 3D-Ebenen-Schätzungs-basierte Grundebenenverfeinerung (3D plane estimation-based ground plane refinement). Der Neigungswinkel wird berechnet und die 3D-Struktur wird gemäß dieser Berechnung gedreht. Diese Prozedur macht die Grundebene parallel zur XZ-Ebene. 8 zeigt eine Konfiguration der Rückblickkamera. In der Kamerakonfiguration der 6A, B, C kann der Neigungswinkel (θ) durch Verwendung von Gleichung (14) berechnet werden.
  • Figure DE102009012435B4_0010
  • ex und y0 sind die y-Achsenkoordinaten des Epipols bzw. des Hauptpunkts. f ist die Brennweite der Kamera.
  • Die Grundebene kann durch Verwendung der Dichte der 3D-Punkte in der Y-Achse grob detektiert werden. Da es gewöhnlich nur eine Ebene (die Grundebene) gibt, die parallel zur XZ-Ebene ist, befindet sich die Dichte der Y-Achsenkoordinate der 3D-Punkte am Ort der Grundplatte auf dem maximalen Wert. 9 zeigt die Dichte der Y-Achsenkoordinate der 3D-Punkte. In dieser Figur erkennt man den Spitzenort als den Ort der Grundebene und erkennt man die Distanz von dem Spitzenort zum Ursprung als die Kamerahöhe in der 3D-Struktur.
  • In den Experimenten wurden der korrekte Ort und die Orientierung der Grundebene durch 3D-Ebenenschätzung verfeinert. Die 3D-Punkte in der Nähe der grob geschätzten Grundebene wurden ausgewählt und der RANSAC-Lösungsansatz wurde zum Schätzen der 3D-Ebene verwendet. Die Kamerahöhe wurde durch Berechnen der senkrechten Distanz zwischen dem Kameramittelpunkt und der Grundebene verfeinert. Die 3D-Struktur wurde durch Verwendung des Kamerahöhenverhältnisses in Zentimetern skaliert. Danach wurden die 3D-Punkte fern von dem Kameramittelpunkt beseitigt und wurden die verbleibenden Punkte gemäß der 3D-Ebenenorientierung gedreht, um die Grundebene parallel zur XZ-Ebene zu machen. Die 10A, B zeigen das Endergebnis der metrischen Wiedergewinnung. 8A repräsentiert die resultierende metrische Wiedergewinnung aus der Sicht der Kamera und 8B die metrische Wiedergewinnung aus der Sicht von oben, wobei der Punkt bei (0, 0, 0) den Kameramittelpunkt angibt.
  • 3.2. Detektion von freien Parkplätzen
  • Wenn die euklidische 3D-Struktur des Rückblicks rekonstruiert ist, müssen freie Parkplätze in den 3D-Punktwolken detektiert werden. Dazu kann eine Schätzung hinsichtlich der Position der benachbarten Fahrzeuge vorgenommen werden und können die freien Parkplätze entsprechend lokalisiert werden. Da eine Positionsschätzung kompliziert und zeitaufwendig sein kann, reduziert die vorliegende Erfindung die Dimensionen der Struktur von 3D auf 2D durch Verwendung der Draufsicht von oben. Die 3D-Punkte, deren Höhen von der Grundebene zwischen 30 bis 160 cm betragen, können ausgewählt werden und die Höheninformation kann durch Reduzieren der Dimensionen beseitigt werden. 11A, B zeigen das Ergebnis der Reduzierung der Dimension, wobei 11A das Ergebnis der Reduzierung der Dimension und 11B das Ergebnis des Beseitigens von isolierten Punkten zeigt. Wie dargestellt, sind in dem Ergebnis der Reduzierung der Dimension die Außenlinien des benachbarten Fahrzeugs und anderer Hindernisse zu sehen. In dieser Figur gibt es einige isolierte Punkte, die durch den 3D-Rekonstruktionsfehler verursacht worden sein können, so dass sie durch Zählen der Anzahl von Nachbarn beseitigt werden, die definiert sind als: N(x, ε) = {y|||y – x|| ≤ ε} (15)
  • x und y repräsentieren die 2D-Punkte und ε repräsentiert den Radius. Wenn N(x, ε) geringer als der Schwellenwert wäre, würde x als ein isolierter Punkt definiert und beseitigt. 11B zeigt das Ergebnis des Beseitigens von isolierten Punkten mit ε und dem Schwellenwert, die gleich 10 cm bzw. 3 gesetzt sind. Der Punkt bei (0, 0) gibt den Kameramittelpunkt an.
  • Da alle Punkte in den 11A, B nicht zur äußersten Fläche des Fahrzeugs gehören, werden die Außenlinienpunkte durch Verwendung der Beziehung zwischen dem Einfallswinkel und der Distanz von dem Kameramittelpunkt ausgewählt. Diese Prozedur wird zur besseren Schätzung der Position des benachbarten Fahrzeugs durchgeführt. Der Einfallswinkel ist der Winkel zwischen der horizontalen Achse und der Linie, die den Kameramittelpunkt und einen 2D-Punkt verbindet.
  • 12A, B zeigen die Außenlinienpunktauswahl, wobei 12A 2D-Punkte mit dem Einfallswinkel und der Distanz von dem Kameramittelpunkt neu darstellt und 12B das Ergebnis der Außenlinienpunktauswahl zeigt. 11B kann in 12A neu dargestellt werden, indem der Einfallswinkel und die Distanz von dem Kameramittelpunkt verwendet werden. Da die Punkte auf derselben vertikalen Linie unter demselben Einfallswinkel in 12A kommen, kann der nächste Punkt von dem Kameramittelpunkt von den Punkten auf derselben vertikalen Linie als der Außenlinienpunkt erkannt werden.
  • Wenn die Fahrzeugform bei Sicht von oben ein Rechteck ist, kann die Position des benachbarten Fahrzeugs durch einen Eckpunkt und Orientierung repräsentiert werden. Somit können der Eckpunkt und die Orientierung des benachbarten Fahrzeugs geschätzt werden und können dieser Werte verwendet werden, um freie Parkplätze zu lokalisieren. Da die rekonstruierte Struktur mit Rauschen behaftet ist und nicht nur benachbarte Fahrzeuge, sondern auch andere Hindernisse enthält, wird bevorzugtermaßen ein projektionsbasiertes Verfahren verwendet. Dieses Verfahren dreht die 2D-Punkte und projiziert sie auf die X-Achse und Z-Achsen. Es findet den Drehwinkel heraus, der die Summe der maximalen Spitzenwerte der zwei Projektionsergebnisse maximiert. Der Drehwinkel und die Orte der beiden maximalen Spitzenwerte werden als die Orientierung bzw. der Eckpunkt erkannt. Dieses Verfahren schätzt die Orientierung und den Eckpunkt gleichzeitig und ist robust gegen mit Rauschen behaftete Daten.
  • Bei Verwendung dieses Verfahrens ist es jedoch nicht möglich zu wissen, ob die geschätzte Orientierung longitudinal oder lateral ist. Zur Ermittlung desselben wird angenommen, das ein Fahrer rechts abbiegen würde, wenn sich ein freier Parkplatz links befindet, und umgekehrt. Unter Verwendung dieser Annahme ist es möglich zu ermitteln, ob die geschätzte Orientierung longitudinal oder lateral ist. Die Abbiegerichtung des Fahrzeugs kann anhand der von der fundamentalen Matrix extrahierten Drehmatrix geschätzt werden.
  • Nach Schätzen der Orientierung und des Eckpunktes können die Punkte in der longitudinalen Richtung des benachbarten Fahrzeugs ausgewählt und zum Verfeinern der Orientierung durch Verwendung von RANSAC-basierter Linienschätzung verwendet werden. Dieser Prozedur ist notwendig, da die laterale Seite von Fahrzeugen gewöhnlich gekrümmt ist, so dass die longitudinale Seite genauere Orientierungsinformation liefert. Der Eckpunkt wird auch gemäß der verfeinerten Orientierung verfeinert.
  • 13A zeigt einen Suchbereich des anderen benachbarten Fahrzeugs und 13B zeigt die Lokalisierung eines freien Parkplatzes. Zum Lokalisieren der geeignetsten freien Parkplätze werden auch andere benachbarte Fahrzeuge, die sich gegenüber dem geschätzten Fahrzeug befinden, gesucht. Der Suchbereich kann, wie in 13A gezeigt, durch Verwendung des geschätzten Eckpunktes und der Orientierung festgelegt werden. Ein Kreis mit einem Radius von 150 cm kann so festgelegt werden, dass sich sein Mittelpunkt 300 cm von den Eckpunkt in der orthogonalen Richtung der Orientierung weg befindet.
  • Wenn Punktwolken innerhalb des Suchbereiches vorhanden wären, gilt das andere Fahrzeug als gefunden und befindet sich der freie Parkplatz in der Mitte von zwei Fahrzeugen in der lateralen Richtung. Die Eckpunkte von zwei benachbarten Fahrzeugen werden in einer longitudinalen Richtung projiziert und der äußere kann zum Lokalisieren von freien Parkplätzen verwendet werden. Dies ist in 13B beschrieben. In dieser Figur wird der Eckpunkt 1 ausgewählt, da er der äußere ist. Wenn das andere Fahrzeug (Eckpunkt 2) nicht gefunden würde, befindet sich der freie Parkplatz neben dem identifizierten Fahrzeug mit einem Abstand von 50 cm in der lateralen Richtung. 14 zeigt das Endergebnis des in der letzten Bildsequenz dargestellten Prozesses zum Detektieren von freien Parkplätzen. Die Breite und Länge des freien Parkplatzes sind in 14 als 180 cm bzw. 480 cm festgelegt.
  • 4. Experimentelle Ergebnisse
  • Das System zum Detektieren von freien Parkplätzen wurde in 154 verschiedenen Parksituationen getestet. Anhand der Datenbank wurden 53 Sequenzen mit den Laserscannerdaten und 101 Sequenzen ohne dieselben zum Analysieren der Ergebnisse hinsichtlich Erfolgsrate und Detektionsgenauigkeit herangezogen.
  • 4.1 Vergleich der rekonstruierten Rückblickstrukturen
  • Dieses Experiment rekonstruierte die 3D-Rückblickstrukturen bei Verwendung und ohne Verwendung des beschriebenen Merkmalsauswahl- und 3D-Mosaikzusammensetzungsverfahrens und verglich sie mit den Laserscannerdaten. Die Winkelauflösung und Tiefenauflösung des verwendeten Laserscanners betrugen 0,125° bzw. 3,9 mm und der systematische Fehler betrug ±25 mm. 15 zeigt die Fischaugenkamera und den Laserscanner, die an dem Fahrzeug montiert sind. Diese beiden Sensoren wurden vorab kalibriert.
  • 16A, B, C zeigen Vergleiche der rekonstruierten Rückblickstrukturen bei Verwendung und ohne Verwendung des offenbarten Verfahrens. 16Aa16Ab zeigen die letzten Frames der beiden Bildsequenzen, 16Ba16Bb die Rückbildstrukturen bei Rekonstruktion mit dem offenbarten Verfahren und 16Ca16Cb die Rückblickstrukturen bei Rekonstruktion ohne Verwendung des offenbarten Verfahrens.
  • Die rekonstruierten Strukturen werden aus Sicht von oben nach Entfernen der Punkte in der Nähe der Grundebene gezeigt. Die Punkte auf dem Fahrzeug geben die Orte der Epipole an. In 16Ba16Bb, 16Ca16Cb geben die Punkte mit vollen und umrissenen Flächen die rekonstruierten Punkte bzw. die Laserscannerdaten an.
  • Durch Verwendung dieses Vergleichs ist es möglich, drei Vorteile des offenbarten Verfahrens zu erhalten. Erstens reduziert es die Anzahl von fehlerhaft rekonstruierten Punkten. 16Ca16Cb zeigen mehr fehlerhafte Punkte außerhalb der Grundwahrheitsdaten (ground truth data) als 16Ba16Bb, weil das offenbarte Verfahren die Punktkorrespondenzen in der Nähe des Epipols und fern von dem Kameramittelpunkt entfernt. Zweitens erhöht die vorliegende Erfindung die Menge von Information über benachbarte Fahrzeuge. Die Struktur in den 16Ba16Bb ist detaillierter als in den 16Ca16Cb, weil die Dichte der Punkte auf dem benachbarten Fahrzeug durch die mosaikartig zusammengesetzten 3D-Strukturen erhöht wird. Schließlich verbessert die vorliegende Erfindung die Ergebnisse der metrischen Wiedergewinnung. In den 16Ca16Cb unterscheidet sich der Maßstab der rekonstruierten Struktur von der Grundwahrheit (ground tuth), da das offenbarte Verfahren mehr Punkte auf der Grundebene erzeugt, so dass es die Grundebenenschätzung genauer macht.
  • 4.2. Ergebnisse der Detektion von freien Parkplätzen
  • Das offenbarte System wurde bei 154 realen Parksituationen eingesetzt. Die Grundebenen waren mit Asphalt, Schmutz, Schnee, stehendem Wasser und Parkmarkierungen bedeckt. Die Automobile variierten in der Farbe von dunkel bis hell und sie enthielten Limousinen, SUVs, Lastkraftwagen, Vans und Busse. Die Umgebung enthielt zahlreiche Typen von Gebäuden, Fahrzeugen und Bäumen. 17A, B, C, D zeigen sechs erfolgreiche Beispiele. 17Aa-17Ac, 17Ca17Cc zeigen die letzten Frames der Bildfolgen und 17Ba17Bc, 17Da17Dc zeigen die Rückblickstrukturen, die den 17Aa17Ac bzw. 17Ca17Cc entsprechen. In diesen Figuren gibt (0, 0) den Kameramittelpunkt an.
  • Um zu entscheiden, ob das System erfolgreich war, wurde freier Parkplatz in dem letzten Frame der Bildfolge angezeigt. Wenn er sich innerhalb des freien Raumes zwischen zwei benachbarten Fahrzeugen befand, wurde das Ergebnis als erfolgreich angesehen. Auf diese Weise hatte das System in 139 Situation Erfolg und versagte es in 15 Situationen, so dass die Detektionsrate 90,3% betrug.
  • 18A, B, C, D zeigen vier Typen von Fehlfunktionen aufgrund des reflektierten Sonnenlichts in 18A, eines dunklen Fahrzeugs in einem schattigen Gebiet in 18B, einer fernen Parkplatzes in 18C und einer unebenen Grundebene 18D.
  • In 18A wurde die Sonne an der Oberfläche des benachbarten Fahrzeugs und der Grundebene stark reflektiert, so dass Merkmalspunktverfolgung versagte. In 18B war das benachbarte Fahrzeug sehr dunkel und befand es sich in einem schattigen Gebiet, so dass wenige Merkmalspunkte detektiert und auf der Oberfläche des Fahrzeugs verfolgt wurden. In 18C befand sich der freie Parkplatz sehr weit von der Kamera, so dass die Seite des weißen Fahrzeugs bei W genauer rekonstruiert wurde als diejenige des silbernern Vans bei S. Dies bewirkte eine falsche Detektion. In 18D wurde ein Teil der Grundebene auf dem Parkplatz P mit Asphalt neu versehen, so dass die Grundebene nicht eben war. Dies führte zu einer fehlerhaften Grundebenenschätzung. Von den 15 Fehlfunktionen könnten drei durch 18A, neun durch 18B, zwei durch 18C und eine durch 18D dargestellt werden.
  • 4.3. Genauigkeit der Detektion von benachbarten Fahrzeugen
  • Das offenbarte Verfahren zum Detektieren von freien Parkplätzen schätzt den Eckpunkt und die Orientierung des benachbarten Fahrzeugs und lokalisiert dann den Zielraum entsprechend. Da das Detektionsergebnis von dem Schätzen des Eckpunktes und der Orientierung abhängt, wird eine Berechnung durchgeführt, um deren Fehler zur Bewertung der Genauigkeit zu erhalten. Die Grundwahrheit des Eckpunktes und der Orientierung durch Verwendung von Laserscannerdaten erhalten werden. Der Fehler der Eckpunkte ist die euklidische Distanz von dem geschätzten Punkt zum gemessenen Punkt und der Fehler der Orientierung ist die absolute Differenz zwischen dem geschätzten Winkel und dem gemessenen Winkel. Für diese Bewertung wurden 47 Bildsequenzen und die korrespondierenden Laserscannerdaten verwendet. Der Eckpunkt und die Orientierung des benachbarten Fahrzeugs wurden für jede Bildfolge 10mal geschätzt. Dies liegt daran, dass sich die rekonstruierte Struktur aufgrund der Parameterschätzergebnisse jedes Mal etwas unterscheiden kann.
  • 19A, B zeigen Bewertungsergebnisse durch Verwendung von Laserscannerdaten, wobei 19A den Eckpunktfehler und 19B den Orientierungsfehler zeigt. In den 19A, B werden die Fehler des Eckpunktes und der Orientierung als Histogramme dargestellt. Die mittleren und maximalen Fehler des Eckpunktes betrugen 14,9 cm bzw. 42,7 cm. Die Distanz zwischen dem Eckpunkt und dem Kameramittelpunkt betrug zwischen 281,4 cm und 529,2 cm. Da die laterale Distanz zwischen zwei benachbarten Fahrzeugen ca. zwischen 280 cm und 300 cm in einer gewöhnlichen Garagenparksituation beträgt, besteht ein Extraraum von ca. 50 cm auf jeder Seite des Fahrzeugs. Dies bedeutet, dass selbst der maximale Fehler des Eckpunktes für die Lokalisierung des freien Parkplatzes akzeptabel ist. Die mittleren und maximalen Fehler der Orientierung können 1,4° bzw. 7,7° betragen. Dieser mittlere Fehler der Orientierung ist akzeptabel, aber der maximale Fehler der Orientierung kann etwas groß sein. Dies liegt daran, dass die Seitenflächen der Fahrzeuge wenige korrespondierende Punkte aufgrund von Merkmalslosigkeit aufweisen und dies die Orientierungsschätzung schwierig macht. Diese Bewertung zeigt, dass das offenbarte System akzeptable Ergebnisse zum Detektieren von freien Parkplätzen erzeugt.
  • Die obigen beispielhaften Ausführungsformen der vorliegenden Erfindung sind zu Darstellungszwecken beschrieben worden und Fachleute auf dem Gebiet werden erkennen, dass zahlreiche Modifikationen, Hinzufügungen und Austausche möglich sind, ohne von den wesentlichen Eigenschaften der Erfindung abzuweichen. Somit die beispielhaften Ausführungsformen der vorliegenden Erfindung nicht zum Zwecke der Beschränkung beschrieben worden.
  • Es versteht sich, dass die vorliegende Erfindung nicht auf die oben beschriebenen Ausführungsformen beschränkt ist. Der Schutzbereich der vorliegenden Erfindung ergibt sich durch die folgenden Ansprüche und die gesamte technische Idee innerhalb des beanspruchten Schutzes soll bei der Bestimmung, was zur Erfindung gehört, ausgelegt werden.

Claims (8)

  1. Vorrichtung zum Detektieren von freien Parkplätzen für Fahrzeuge, umfassend: eine Merkmalspunkteverfolgungseinrichtung zum Verfolgen von Merkmalspunkten durch Empfangen von Eingabebildern von einer Bilderfassungseinrichtung und Erfassen von Punktkorrespondenzen durch Analysieren der Eingabebilder; eine 3D-Strukturerzeugungseinrichtung zum Erzeugen einer dreidimensionalen Struktur durch dreidimensionales Rekonstruieren eines freien Parkplatzes durch Verwendung der Merkmalspunkte; eine 3D-Mosaikstrukturerzeugungseinrichtung zum Erzeugen eines dreidimensionalen Strukturmosaiks durch neues Auswählen der Merkmalspunkte zum Rekonstruieren der dreidimensionalen Struktur durch Verwendung einer De-Rotation-basierten Merkmalsauswahl und mosaikförmiges Zusammensetzen der rekonstruierten dreidimensionalen Struktur durch Schätzen einer Ähnlichkeitstransformation; eine metrische Wiedergewinnungseinrichtung zum Erfassen von metrischer Information anhand des dreidimensionalen Strukturmosaiks durch Verwendung eines Bilderfassungseinrichtungshöhenverhältnisses; und eine Parkplatzdetektionseinrichtung zum Detektieren eines freien Parkplatzes durch Schätzen der Positionen von benachbarten Fahrzeugen in dem dreidimensionalen Strukturmosaik.
  2. Vorrichtung zum Detektieren von freien Parkplätzen für Fahrzeuge nach Anspruch 1, dadurch gekennzeichnet, dass die Merkmalspunkteverfolgungseinrichtung die Merkmalspunkte detektiert und die Merkmalspunkte über die Eingabebilder durch Verwendung des Lucas-Kanade-Verfahrens verfolgt.
  3. Vorrichtung zum Detektieren von freien Parkplätzen für Fahrzeuge nach Anspruch 1, dadurch gekennzeichnet, dass die 3D-Strukturerzeugungseinrichtung Keyframes der Eingabebilder auswählt und Bewegungsparameter schätzt und dann dreidimensionale Koordinaten der Merkmalspunkte durch Verwendung eines linearen Triangualationsverfahrens zum Erzeugen der dreidimensionalen Struktur berechnet.
  4. Vorrichtung zum Detektieren von freien Parkplätzen für Fahrzeuge nach Anspruch 1, dadurch gekennzeichnet, dass die Parkplatzdetektionseinrichtung das dreidimensionale Strukturmosaik auf eine Draufsicht von oben reduziert, isolierte Punkte von Nachbarn beseitigt, Außenpunkte von benachbarten Fahrzeugen mit einem Einfallswinkel und der Distanz von dem Mittelpunkt der Bilderfassungseinrichtung erfasst und einen Eckpunkt und eine Orientierung des benachbarten Fahrzeugs schätzt, wodurch ein freier Parkplatz detektiert wird.
  5. Vorrichtung zum Detektieren von freien Parkplätzen für Fahrzeuge nach Anspruch 4, dadurch gekennzeichnet, dass die Parkplatzdetektionseinrichtung zusätzlich andere benachbarte Fahrzeuge, die sich gegenüber dem geschätzten Fahrzeug befinden, durch Festlegen eines Kreises mit einem vorab festgelegten Radius als den Suchbereich der anderen benachbarten Fahrzeuge schätzt, wobei sich der Mittelpunkt des Kreises in einer vorab festgelegten Distanz von dem Eckpunkt in der orthogonalen Richtung der Orientierung befindet.
  6. Vorrichtung zum Detektieren von freien Parkplätzen für Fahrzeuge nach Anspruch 1, dadurch gekennzeichnet, dass die metrische Wiedergewinnungseinrichtung das Bilderfassungsrichtungshöhenverhältnis durch Bestimmen der Bilderfassungseinrichtungshöhe in der dreidimensionalen Mosaikstruktur durch eine Neigungswinkelkompensation, eine Dichteschätzungs-basierte Grundebenendetektion und eine dreidimensionale Ebenenschätzungs-basierte Grundebenenverfeinerung hinsichtlich ihres Ortes und ihrer Orientierung erfasst.
  7. Vorrichtung zum Detektieren von freien Parkplätzen für Fahrzeuge, umfassend: eine Bilderfassungseinrichtung zum Erfassen eines freien Parkplatzes und Erzeugen von Eingabebildern und Liefern derselben; eine Benutzerschnittstelle zum Anzeigen des detektierten freien Parkplatzes in einem Ausgabebild; eine Parkplatzdetektionseinrichtung zum Empfangen der Eingabebilder und Verfolgen von Merkmalspunkten durch Erfassen von Punktkorrespondenzen durch Analysieren der Eingabebilder, Erzeugen einer dreidimensionalen Struktur durch dreidimensionales Rekonstruieren des freien Parkplatzes durch Verwendung der Merkmalspunkte, Erzeugen eines dreidimensionalen Strukturmosaiks durch neues Auswählen der Merkmalspunkte zum Rekonstruieren der dreidimensionalen Struktur durch Verwendung einer De-Rotation-basierten Merkmalsauswahl und mosaikförmiges Zusammensetzen der rekonstruierten dreidimensionalen Struktur durch Schätzen einer Ähnlichkeitstransformation, Erfassen von metrischer Information anhand des dreidimensionalen Strukturmosaiks durch Verwendung eines Bilderfassungseinrichtungshöhenverhältnisses und Detektieren des freien Parkplatzes durch Schätzen der Positionen von benachbarten Fahrzeugen in dem dreidimensionalen Strukturmosaik zum Erzeugen des detektierten freien Parkplatzes und Liefern desselben; einen Sensor mit einer Anzahl von Messeinheiten zum Erkennen von Fahrzuständen des Fahrzeugs zum Erzeugen und Liefern von Fahrzeugfahrzustandsinformation; eine Einparkhilfesteuereinrichtung zum Empfangen der Fahrzustandsinformation von dem Sensor zum Schätzen der Fahrzeugposition, Erzeugen eines Wegplanes zum Einparken des Fahrzeugs in den freien Parkplatz durch Verwendung des gelieferten detektierten freien Parkplatzes und Erzeugen und Liefern von Steuersignalen zum Ausführen des Einparkens in den freien Parkplatz; ein aktives Lenksystem zum Lenken des Fahrzeugs als Reaktion auf die Steuersignale nach deren Empfang; und ein aktives Bremssystem zum Bremsen des Fahrzeugs als Reaktion auf die Steuersignale bei deren Empfang.
  8. Verfahren für eine Vorrichtung zum Detektieren von freien Parkplätzen für Fahrzeuge zum Detektieren eines freien Parkplatzes, umfassend die Schritte: Verfolgen von Merkmalspunkten durch Empfangen von Eingabebildern von einer Bilderfassungseinrichtung und Erfassen von Punktkorrespondenzen durch Analysieren der Eingabebilder; Erzeugen einer dreidimensionalen Struktur durch dreidimensionales Rekonstruieren des freien Parkplatzes durch Verwendung der Merkmalspunkte; Rekonstruieren der dreidimensionalen Struktur durch neues Auswählen der Merkmalspunkte durch Verwendung einer De-Rotation-basierten Merkmalsauswahl; Erzeugen eines dreidimensionalen Strukturmosaiks durch mosaikförmiges Zusammensetzen der rekonstruierten dreidimensionalen Struktur durch Schätzen einer Ähnlichkeitstransformation; Erfassen von metrischer Information anhand des dreidimensionalen Strukturmosaiks durch Verwendung eines Bilderfassungseinrichtungshöhenverhältnisses; und Detektieren des freien Parkplatzes durch Schätzen der Positionen von benachbarten Fahrzeugen in dem dreidimensionalen Strukturmosaik.
DE102009012435.7A 2008-03-27 2009-03-10 Vorrichtung und Verfahren zum monokularen Motion-Stereo-basierten Detektieren von freien Parkplätzen Active DE102009012435B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR2008-0028581 2008-03-27
KR1020080028581A KR101188588B1 (ko) 2008-03-27 2008-03-27 모노큘러 모션 스테레오 기반의 주차 공간 검출 장치 및방법

Publications (2)

Publication Number Publication Date
DE102009012435A1 DE102009012435A1 (de) 2010-01-07
DE102009012435B4 true DE102009012435B4 (de) 2014-08-28

Family

ID=41116295

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009012435.7A Active DE102009012435B4 (de) 2008-03-27 2009-03-10 Vorrichtung und Verfahren zum monokularen Motion-Stereo-basierten Detektieren von freien Parkplätzen

Country Status (3)

Country Link
US (1) US8134479B2 (de)
KR (1) KR101188588B1 (de)
DE (1) DE102009012435B4 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015209154A1 (de) * 2015-05-19 2016-11-24 Hella Kgaa Hueck & Co. Verfahren zur Parkflächenlokalisierung
DE102015214743A1 (de) 2015-08-03 2017-02-09 Audi Ag Verfahren und Vorrichtung in einem Kraftfahrzeug zur verbesserten Datenfusionierung bei einer Umfelderfassung

Families Citing this family (117)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201100279A (en) * 2009-06-23 2011-01-01 Automotive Res & Testing Ct Composite-image-type parking auxiliary system
US9361706B2 (en) * 2009-11-30 2016-06-07 Brigham Young University Real-time optical flow sensor design and its application to obstacle detection
US8866901B2 (en) * 2010-01-15 2014-10-21 Honda Elesys Co., Ltd. Motion calculation device and motion calculation method
US8692867B2 (en) * 2010-03-05 2014-04-08 DigitalOptics Corporation Europe Limited Object detection and rendering for wide field of view (WFOV) image acquisition systems
US10776635B2 (en) * 2010-09-21 2020-09-15 Mobileye Vision Technologies Ltd. Monocular cued detection of three-dimensional structures from depth images
DE102010047162A1 (de) 2010-09-30 2012-04-05 Valeo Schalter Und Sensoren Gmbh Verfahren und Vorrichtung zum Erkennen von freien Parkplätzen
US8744693B2 (en) * 2010-11-22 2014-06-03 Caterpillar Inc. Object detection system having adjustable focus
US8751103B2 (en) * 2010-11-22 2014-06-10 Caterpillar Inc. Object detection system having interference avoidance strategy
WO2012075250A1 (en) * 2010-12-01 2012-06-07 Magna Electronics Inc. System and method of establishing a multi-camera image using pixel remapping
DE102010063133A1 (de) 2010-12-15 2012-06-21 Robert Bosch Gmbh Verfahren und System zur Bestimmung einer Eigenbewegung eines Fahrzeugs
KR101532855B1 (ko) * 2011-01-31 2015-06-30 도요타 지도샤(주) 차량 제어 장치
US8723959B2 (en) 2011-03-31 2014-05-13 DigitalOptics Corporation Europe Limited Face and other object tracking in off-center peripheral regions for nonlinear lens geometries
JP5732988B2 (ja) * 2011-04-08 2015-06-10 ソニー株式会社 画像処理装置、表示制御方法及びプログラム
US20150197281A1 (en) * 2011-04-19 2015-07-16 Ford Global Technologies, Llc Trailer backup assist system with lane marker detection
DE102011112577A1 (de) * 2011-09-08 2013-03-14 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung für ein Assistenzsystem in einem Fahrzeg zur Durchführung eines autonomen oder teilautonomen Fahrmanövers
US8493459B2 (en) 2011-09-15 2013-07-23 DigitalOptics Corporation Europe Limited Registration of distorted images
DE102011113916A1 (de) * 2011-09-21 2013-03-21 Volkswagen Aktiengesellschaft Verfahren zur Klassifikation von Parkszenarien für ein Einparksystem eines Kraftfahrzeugs
US8693734B2 (en) * 2011-11-18 2014-04-08 Adobe Systems Incorporated Detecting poorly conditioned points in bundle adjustment
GB2496905B (en) * 2011-11-28 2017-11-29 Nissan Motor Mfg (Uk) Limited Parking assistance apparatus and parking method
AU2011253973B2 (en) 2011-12-12 2015-03-12 Canon Kabushiki Kaisha Keyframe selection for parallel tracking and mapping
DE102012201891A1 (de) * 2012-02-09 2013-08-14 Robert Bosch Gmbh Parkassistenzverfahren und Parkassistenzsystem zur Ermittlung einer Parklücke
FR2988504B1 (fr) * 2012-03-23 2014-05-09 Commissariat Energie Atomique Procede de determination d'un plan du sol a partir d'une image de profondeur
KR101947826B1 (ko) * 2012-04-10 2019-02-13 현대자동차주식회사 차량의 주차구획 인식방법
JP5845131B2 (ja) * 2012-04-17 2016-01-20 株式会社日本自動車部品総合研究所 駐車空間検知装置
JP2013225245A (ja) * 2012-04-23 2013-10-31 Sony Corp 画像処理装置、画像処理方法及びプログラム
KR101374878B1 (ko) * 2012-05-25 2014-03-18 주식회사 만도 차량의 주차제어시스템 및 그를 이용한 주차 제어 방법
ES2436845B1 (es) * 2012-06-29 2014-11-14 Seat, S.A. Procedimiento para memorizar y para reproducir una trayectoria realizada por un vehículo, y sistema que lo implementa.
US8928730B2 (en) 2012-07-03 2015-01-06 DigitalOptics Corporation Europe Limited Method and system for correcting a distorted input image
US8700258B2 (en) 2012-09-12 2014-04-15 GM Global Technology Operations LLC Park assist system
JP5910434B2 (ja) * 2012-09-25 2016-04-27 トヨタ自動車株式会社 衝突予測装置
FR2998400B1 (fr) * 2012-11-21 2016-01-15 Thales Sa Procede de reconstruction 3d et de mosaiquage 3d panoramique d'une scene
US9604637B2 (en) * 2012-11-27 2017-03-28 Nissan Motor Co., Ltd. Vehicle acceleration suppression device and vehicle acceleration suppression method
JP5987660B2 (ja) * 2012-11-30 2016-09-07 富士通株式会社 画像処理装置、画像処理方法及びプログラム
DE102013001308A1 (de) 2013-01-26 2014-07-31 Audi Ag Verfahren und Navigationsvorrichtung zum Bereitstellen von Informationen über einen Parkplatz
US8957786B2 (en) 2013-05-21 2015-02-17 Ford Global Technologies, Llc Enhanced alignment method for park assist
JP6197388B2 (ja) * 2013-06-11 2017-09-20 富士通株式会社 距離測定装置、距離測定方法、およびプログラム
US9224062B2 (en) * 2013-08-09 2015-12-29 Xerox Corporation Hybrid method and system of video and vision based access control for parking stall occupancy determination
US8923565B1 (en) * 2013-09-26 2014-12-30 Chengdu Haicun Ip Technology Llc Parked vehicle detection based on edge detection
US10373018B2 (en) * 2013-10-08 2019-08-06 Apple Inc. Method of determining a similarity transformation between first and second coordinates of 3D features
US9189689B2 (en) * 2013-10-30 2015-11-17 Nec Laboratories America, Inc. Robust scale estimation in real-time monocular SFM for autonomous driving
US9275547B2 (en) * 2013-11-08 2016-03-01 International Business Machines Corporation Prediction of free parking spaces in a parking area
DE102014209137B4 (de) * 2014-05-14 2023-02-02 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs
DE112014006493T5 (de) * 2014-05-27 2017-01-19 Application Solutions (Electronics and Vision) Ltd. Bestimmen eines Massstabs dreidimensonaler Informationen
US9805602B2 (en) * 2014-07-21 2017-10-31 Ford Global Technologies, Llc Parking service
US9157757B1 (en) 2014-09-03 2015-10-13 Sharp Laboratories Of America, Inc. Methods and systems for mobile-agent navigation
US9625912B2 (en) 2014-09-03 2017-04-18 Sharp Laboratories Of America, Inc. Methods and systems for mobile-agent navigation
US20180339655A1 (en) * 2015-03-03 2018-11-29 HangZhou HaiCun Information Technology Co., Ltd. Detecting Method for Front-Parked Vehicles At Night
US10737617B2 (en) * 2015-03-03 2020-08-11 HangZhou HaiCun Information Technology Co., Ltd. Detecting method for front-parked vehicles at night
DE102015104065A1 (de) * 2015-03-18 2016-09-22 Connaught Electronics Ltd. Verfahren zum Bestimmen einer Position eines Objekts in einem dreidimensionalen Weltkoordinatensystem, Computerprogrammprodukt, Kamerasystem und Kraftfahrzeug
CN107787508A (zh) * 2015-03-23 2018-03-09 飞利浦照明控股有限公司 灯具停车引导
KR102267562B1 (ko) * 2015-04-16 2021-06-22 한국전자통신연구원 무인자동주차 기능 지원을 위한 장애물 및 주차구획 인식 장치 및 그 방법
DE102015208058B4 (de) * 2015-04-30 2017-06-29 Robert Bosch Gmbh Automatisiertes Parksystem
DE102015209147A1 (de) * 2015-05-19 2016-11-24 Hella Kgaa Hueck & Co. Verfahren zur Parkflächenerkennung
JP6723798B2 (ja) * 2015-05-20 2020-07-15 キヤノン株式会社 情報処理装置、方法、プログラム
GB2533983A (en) * 2015-06-04 2016-07-13 Ford Global Tech Llc Parking assist method and system
CN104916163B (zh) * 2015-06-29 2017-05-03 惠州华阳通用电子有限公司 泊车位检测方法
US11691619B2 (en) 2015-08-12 2023-07-04 Hyundai Motor Company Automatic parking system and automatic parking method
US10392009B2 (en) 2015-08-12 2019-08-27 Hyundai Motor Company Automatic parking system and automatic parking method
US10919574B2 (en) * 2015-11-10 2021-02-16 Hyundai Motor Company Automatic parking system and automatic parking method
US10906530B2 (en) * 2015-11-10 2021-02-02 Hyundai Motor Company Automatic parking system and automatic parking method
CN105451000B (zh) * 2015-12-27 2019-02-15 高田汽车电子(上海)有限公司 一种基于单目后视摄像头的车载全景环视***及方法
US10156441B2 (en) * 2016-01-05 2018-12-18 Texas Instruments Incorporated Ground plane estimation in a computer vision system
WO2017123232A1 (en) * 2016-01-14 2017-07-20 Ford Global Technologies, Llc U-turn assistance based on difficulty in maneuvering
JP6564713B2 (ja) * 2016-02-01 2019-08-21 三菱重工業株式会社 自動運転制御装置、車両及び自動運転制御方法
US9996083B2 (en) 2016-04-28 2018-06-12 Sharp Laboratories Of America, Inc. System and method for navigation assistance
KR101780048B1 (ko) * 2016-07-04 2017-09-19 포항공과대학교 산학협력단 단안 카메라를 이용한 동적 상황에서의 움직이는 물체 검출 방법
KR101864127B1 (ko) * 2016-09-06 2018-06-29 국방과학연구소 무인 차량을 위한 주변 환경 매핑 방법 및 장치
DE102016220079B4 (de) 2016-10-14 2023-04-06 Audi Ag Verfahren zur Ermittlung von Entfernungsdaten
DE102016224131B3 (de) * 2016-12-05 2017-10-26 Audi Ag Ermittlung von Bewegungsdaten eines fahrzeugexternen Objekts durch ein Fahrerassistenzsystem
DE102016124888A1 (de) * 2016-12-20 2018-06-21 Connaught Electronics Ltd. Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Einparken unter Verwendung einer Fahrerassistenzvorrichtung, entsprechendes Computerprogrammprodukt und Fahrerassistenzvorrichtung
KR101915167B1 (ko) * 2016-12-30 2018-11-06 현대자동차주식회사 자동 주차 시스템 및 자동 주차 방법
JP6770903B2 (ja) * 2017-01-19 2020-10-21 株式会社デンソーテン 距離算出装置及び距離算出方法
DE102017201620A1 (de) 2017-02-01 2018-08-02 Volkswagen Aktiengesellschaft Vorrichtung und Verfahren zum automatisierten, teilautomatisierten oder assistierenden Rangieren eines Kraftfahrzeugs
DE102017104957A1 (de) 2017-03-09 2018-09-13 Connaught Electronics Ltd. Verfahren zum Bestimmen einer Bewegung von zueinander korrespondierenden Bildpunkten in einer Bildsequenz aus einem Umgebungsbereich eines Kraftfahrzeugs, Auswerteeinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102017208385A1 (de) * 2017-05-18 2018-11-22 Ford Global Technologies, Llc Verfahren zum Unterstützen eines Einparkvorgangs eines Kraftfahrzeugs, elektronisches Einparkhilfesystem sowie Kraftfahrzeug
AU2018292610B2 (en) * 2017-06-28 2022-11-17 Magic Leap, Inc. Method and system for performing simultaneous localization and mapping using convolutional image transformation
CN107316492B (zh) * 2017-07-25 2020-10-23 纵目科技(上海)股份有限公司 在图像中定位停车位的方法及***
KR20190041173A (ko) * 2017-10-12 2019-04-22 엘지전자 주식회사 자율주행 차량 및 그 제어 방법
EP3480624B1 (de) * 2017-11-07 2021-12-29 Veoneer Sweden AB Erkennung der parkreihenausrichtung
KR102008257B1 (ko) * 2017-11-10 2019-08-07 현대오트론 주식회사 차량 추적 장치 및 그것의 동작 방법
DE102018101513A1 (de) * 2018-01-24 2019-07-25 Valeo Schalter Und Sensoren Gmbh Verfahren zur Detektion von Garagenparkplätzen
EP3673233A4 (de) 2018-04-18 2021-05-19 Mobileye Vision Technologies Ltd. Fahrzeugumgebungsmodellierung mit einer kamera
DE102018205879A1 (de) * 2018-04-18 2019-10-24 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Verarbeitung von Sensordaten
CN110733373B (zh) * 2018-07-03 2023-10-03 奥迪股份公司 用于车辆充电的导引方法及***、装置以及计算机设备
US10778943B2 (en) 2018-07-17 2020-09-15 C-Tonomy, LLC Autonomous surveillance duo
CN109102559B (zh) * 2018-08-16 2021-03-23 Oppo广东移动通信有限公司 三维模型处理方法和装置
JP2020095624A (ja) 2018-12-14 2020-06-18 株式会社デンソーテン 画像処理装置、および画像処理方法
JP7236857B2 (ja) 2018-12-14 2023-03-10 株式会社デンソーテン 画像処理装置および画像処理方法
JP7195131B2 (ja) 2018-12-14 2022-12-23 株式会社デンソーテン 画像処理装置および画像処理方法
JP7359541B2 (ja) 2018-12-14 2023-10-11 株式会社デンソーテン 画像処理装置および画像処理方法
JP7203586B2 (ja) 2018-12-14 2023-01-13 株式会社デンソーテン 画像処理装置および画像処理方法
JP7226986B2 (ja) 2018-12-14 2023-02-21 株式会社デンソーテン 画像処理装置および画像処理方法
JP7203587B2 (ja) 2018-12-14 2023-01-13 株式会社デンソーテン 画像処理装置および画像処理方法
JP7141940B2 (ja) 2018-12-14 2022-09-26 株式会社デンソーテン 画像処理装置および画像処理方法
JP2020095623A (ja) * 2018-12-14 2020-06-18 株式会社デンソーテン 画像処理装置および画像処理方法
JP2020095620A (ja) 2018-12-14 2020-06-18 株式会社デンソーテン 画像処理装置および画像処理方法
JP7252750B2 (ja) 2018-12-14 2023-04-05 株式会社デンソーテン 画像処理装置および画像処理方法
CN109829935B (zh) * 2018-12-29 2021-02-19 百度在线网络技术(北京)有限公司 车辆的场景序列跟踪处理方法、装置及车辆
US10628688B1 (en) * 2019-01-30 2020-04-21 Stadvision, Inc. Learning method and learning device, and testing method and testing device for detecting parking spaces by using point regression results and relationship between points to thereby provide an auto-parking system
US10755571B1 (en) * 2019-03-01 2020-08-25 Amazon Technologies, Inc. Identifying parking location using single camera reverse projection
CN109785639A (zh) * 2019-03-01 2019-05-21 北京猎户智芯科技有限公司 一种基于虚拟摄像机的车辆识别方法
CN111845713A (zh) * 2019-04-26 2020-10-30 东莞潜星电子科技有限公司 一种基于车载3d全景环视的泊车路线规划方法
US10867192B1 (en) * 2019-08-06 2020-12-15 Black Sesame International Holding Limited Real-time robust surround view parking space detection and tracking
KR102673307B1 (ko) * 2019-08-09 2024-06-12 현대자동차주식회사 주차 제어 장치, 그를 포함한 시스템 및 그 방법
CN111160172B (zh) * 2019-12-19 2024-04-16 武汉佑驾创新科技有限公司 泊车位检测方法、装置、计算机设备和存储介质
US11961241B2 (en) 2020-07-07 2024-04-16 Lyft, Inc. Systems and methods for deriving an agent trajectory based on tracking points within images
US11961304B2 (en) * 2020-07-07 2024-04-16 Lyft, Inc. Systems and methods for deriving an agent trajectory based on multiple image sources
US20220343763A1 (en) * 2021-04-21 2022-10-27 Waymo Llc Identifying parkable areas for autonomous vehicles
CN113240734B (zh) * 2021-06-01 2024-05-17 深圳市捷顺科技实业股份有限公司 一种基于鸟瞰图的车辆跨位判断方法、装置、设备及介质
DE102021118658A1 (de) 2021-07-20 2023-01-26 Avl Software And Functions Gmbh Verfahren zur Erkennung von Parkflächen für ein Fahrzeug
JP2023017466A (ja) * 2021-07-26 2023-02-07 株式会社Subaru 駐車支援装置
US20230031425A1 (en) * 2021-08-02 2023-02-02 DUS Operating Inc, Methodology to estimate slot line direction for parking slot detection
CN113753029B (zh) * 2021-08-27 2023-11-17 惠州华阳通用智慧车载***开发有限公司 一种基于光流法的自动泊车方法及***
CN113870613B (zh) * 2021-10-14 2022-09-30 中国第一汽车股份有限公司 停车位确定方法、装置、电子设备及存储介质
DE102021127748A1 (de) 2021-10-26 2023-04-27 Valeo Schalter Und Sensoren Gmbh Verfahren, computerprogrammprodukt, parkassistenzsystem und fahrzeug
CN114648890B (zh) * 2022-03-23 2023-02-28 深圳一清创新科技有限公司 一种停车位状态检测方法、装置及智能车
CN115206130B (zh) * 2022-07-12 2023-07-18 合众新能源汽车股份有限公司 一种车位检测方法、***、终端及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060159308A1 (en) * 2005-01-20 2006-07-20 International Business Machines Corporation System and method for analyzing video from non-static camera

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE20105340U1 (de) * 2001-03-26 2001-07-26 Daimler Chrysler Ag Dimensionale Umfelderfassung
DE10138719A1 (de) * 2001-08-07 2003-03-06 Siemens Ag Verfahren und Vorrichtung zur Darstellung von Fahrhinweisen, insbesondere in Auto-Navigationssystemen
JP3943363B2 (ja) 2001-10-18 2007-07-11 クラリオン株式会社 駐車支援装置
JP3977368B2 (ja) 2004-09-30 2007-09-19 クラリオン株式会社 駐車支援システム
WO2006076904A1 (de) * 2005-01-19 2006-07-27 Takata-Petri Ag Lenkradbaugruppe für ein kraftfahrzeug
JP2007176244A (ja) 2005-12-27 2007-07-12 Aisin Seiki Co Ltd 駐車支援装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060159308A1 (en) * 2005-01-20 2006-07-20 International Business Machines Corporation System and method for analyzing video from non-static camera

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
Armangué, X. u.a.: Overall view regarding fundamental matrix estimation. 2003, Image and Vision Computing 21, S. 205-220 *
E. Wahl et al.: "Realisierung eines Parkassistenten, basierend auf Motion-Stereo", 16. Aachener Kolloquium Fahrzeug- und Motorentechnik 2007, S. 871-880 *
Ho Gi Jung et al.: Parking Slot Markings Recognition for Automatic Parking Assist System. In: Intelligent Vehicle Symposium 2006, IEEE, 2006, 106-113. *
Jin Xu et al.: Vision-Guided Automatic Parking for Smart Car. In: Intelligent Vehicle Symposium 2000, IEEE, 2000, 725-730. *
K. Fintzel et al.: 3D Parking Assistant System. In: Intelligent Vehicle Symposium 2004, IEEE, 2004, 881-886. *
N. Kaempchen et al.: "Stereo vision based pose estimation of parking lots using 3D vehicle models", Intelligent Vehicle Symposium, 2002, IEEE, S. 459-464 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015209154A1 (de) * 2015-05-19 2016-11-24 Hella Kgaa Hueck & Co. Verfahren zur Parkflächenlokalisierung
DE102015214743A1 (de) 2015-08-03 2017-02-09 Audi Ag Verfahren und Vorrichtung in einem Kraftfahrzeug zur verbesserten Datenfusionierung bei einer Umfelderfassung
US11348342B2 (en) 2015-08-03 2022-05-31 Volkswagen Aktiengesellschaft Method and device in a motor vehicle for improved data fusion in an environment detection

Also Published As

Publication number Publication date
KR101188588B1 (ko) 2012-10-08
DE102009012435A1 (de) 2010-01-07
US8134479B2 (en) 2012-03-13
US20090243889A1 (en) 2009-10-01
KR20090103165A (ko) 2009-10-01

Similar Documents

Publication Publication Date Title
DE102009012435B4 (de) Vorrichtung und Verfahren zum monokularen Motion-Stereo-basierten Detektieren von freien Parkplätzen
EP3731187B1 (de) Verfahren und vorrichtung zur bestimmung der geografischen position und orientierung eines fahrzeugs
DE102020112314A1 (de) Verifizierung von fahrzeugbildern
DE112018000899T5 (de) Gemeinsame 3D-Objekterfassung und Ausrichtungsabschätzung über multimodale Fusion
DE102015203016B4 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
DE102014222617B4 (de) Fahrzeugerfassungsverfahren und Fahrzeugerfassungssytem
DE112016000187T5 (de) Verfahren und Vorrichtung zur Schätzung einer Fahrzeugeigenbewegung ausgehend von Rundumsichtbildern
EP2209091A1 (de) System und Verfahren zur Objektbewegungsdetektion auf Grundlage von mehrfachem 3D-Warping und mit solch einem System ausgestattetes Fahrzeug
DE102018124033B4 (de) Bodenkontaktbestimmungsvorrichtung für ein dreidimensionales Objekt
EP1480187A2 (de) Kamerabasierte Positionserkenung für ein Strassenfahrzeug
DE102019114622A1 (de) Erfassung und planare darstellung dreidimensionaler fahrspuren in einer strassenszene
CN108174089B (zh) 基于双目摄像头的倒车影像拼接方法和装置
WO2006081906A1 (de) Objektdetektion auf bildpunktebene in digitalen bildsequenzen
DE102020116964A1 (de) Visuelle odometrie für fahrzeug
DE102021101270A1 (de) Trainieren eines neuronalen netzwerks eines fahrzeugs
DE112017007347T5 (de) Objekterkennungsvorrichtung und fahrzeug
DE102016104730A1 (de) Verfahren zum Detektieren eines Objekts entlang einer Straße eines Kraftfahrzeugs, Rechenvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102018100909A1 (de) Verfahren zum Rekonstruieren von Bildern einer Szene, die durch ein multifokales Kamerasystem aufgenommen werden
WO2021219353A1 (de) Autonomes und/oder assistiertes kuppeln eines anhängers unter berücksichtigung des höhenprofils des untergrunds
DE102021125592A1 (de) Verkehrskamerakalibrierung
DE102020100230A1 (de) Rekonstruktion von landmarkenpositionen in autonomen maschinenanwendungen
DE102017100062A1 (de) Visuelle Odometrie
WO2021126090A1 (en) Autonomous parking systems and methods for vehicles
DE102018132676A1 (de) Verfahren zum Lokalisieren eines Fahrzeugs in einer Umgebung
EP4198894A1 (de) Kamerabasierte fahrzeugkonturerfassung für fahrzeugbehandlungsanlagen

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8128 New person/name/address of the agent

Representative=s name: BOSCH JEHLE PATENTANWALTSGESELLSCHAFT MBH, 80639 M

R018 Grant decision by examination section/examining division
R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: HL KLEMOVE CORP., KR

Free format text: FORMER OWNER: MANDO CORP., PYUNGTAEK, KYONGGI, KR

Owner name: MANDO MOBILITY SOLUTIONS CORP., PYEONGTAEK-SI, KR

Free format text: FORMER OWNER: MANDO CORP., PYUNGTAEK, KYONGGI, KR

R081 Change of applicant/patentee

Owner name: HL KLEMOVE CORP., KR

Free format text: FORMER OWNER: MANDO MOBILITY SOLUTIONS CORP., PYEONGTAEK-SI, GYEONGGI-DO, KR