DE112018001056T5 - Automatisches fahrzeug-parksystem und -verfahren - Google Patents

Automatisches fahrzeug-parksystem und -verfahren Download PDF

Info

Publication number
DE112018001056T5
DE112018001056T5 DE112018001056.2T DE112018001056T DE112018001056T5 DE 112018001056 T5 DE112018001056 T5 DE 112018001056T5 DE 112018001056 T DE112018001056 T DE 112018001056T DE 112018001056 T5 DE112018001056 T5 DE 112018001056T5
Authority
DE
Germany
Prior art keywords
vehicle
image
parking
virtual
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112018001056.2T
Other languages
English (en)
Inventor
Haruyuki Iwama
Chen Feng
Yuichi Taguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112018001056T5 publication Critical patent/DE112018001056T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/002Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles specially adapted for covering the peripheral part of the vehicle, e.g. for viewing tyres, bumpers or the like
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0225Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving docking at a fixed facility, e.g. base station or loading bay
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Transportation (AREA)
  • Artificial Intelligence (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

Ein System zum Parken eines Fahrzeugs innerhalb eines Park-Zwischenraums (PS) steuert die Bewegung des Fahrzeugs gemäß einem ersten Parkpfad (FPP), der bei einem Ziel-Zustand endet, und bestimmt einen zweiten Parkpfad (SPP) von einem gegenwärtigen zu dem Ziel-Zustand unter Verwendung eines Modells des PS. Das System bezieht Bilder des PS unter Verwendung von Sensor(en) während der Bewegung des Fahrzeugs entlang des FPP und konstruiert das Modell unter Verwendung der Bilder. Das Modell wird verwendet, um eine virtuelle Bildmenge der Umgebung des PS bei Betrachtung von einer Menge von virtuellen Blickpunkten aus zu erzeugen, die Zustände des Fahrzeugs außerhalb des FPP definieren. Der gegenwärtige Zustand des Fahrzeugs wird bestimmt, indem ein gegenwärtiges Bild des PS von dem Sensor, während sich das Fahrzeug im gegenwärtigen Zustand befindet, mit virtuellen Bildern verglichen wird. Der SPP wird aus dem gegenwärtigen Zustand zu den Ziel-Zuständen bestimmt.

Description

  • Technisches Gebiet
  • Diese Erfindung betrifft allgemein eine Pfadplanung für Fahrzeuge. Sie betrifft insbesondere Pfad-Planungsverfahren zum automatischen Parken eines Fahrzeugs in einem Ziel-Zwischenraum.
  • Stand der Technik
  • Viele Steuerungssysteme, die von Fahrzeugen verwendet werden - entweder autonomen Fahrzeugen oder halbautonomen Fahrzeugen, die einen Modus mit autonomem Fahren ausführen - sagen zukünftige, sichere Bewegungen, oder Pfade, des Fahrzeugs voraus, und zwar sowohl um Hindernisse zu vermeiden, wie z. B. andere Fahrzeuge oder Fußgänger, als auch um einige Kriterien zu optimieren, die mit dem Betrieb des Fahrzeugs zusammenhängen. Der Ziel-Zustand kann entweder ein fester Ort, ein beweglicher Ort, ein Geschwindigkeitsvektor, ein Bereich oder eine Kombination davon sein. Eine der Aufgaben zum Steuern der autonomen oder halbautonomen Fahrzeuge ist es, ein Fahrzeug automatisch in einer Parkposition und -ausrichtung zu parken, was hier als ein Ziel-Zustand bezeichnet wird.
  • Die meisten existierenden Pfadplanungsverfahren kommen nur mit spezifischen Parkszenarien zurecht. Beispielsweise berechnet ein in der Patentliteratur 1 beschriebenes Verfahren einen Pfad zum parallelen Parken und Rückwärts-Einparken. Das in der Patentliteratur 2 beschriebene Verfahren nimmt ebenfalls eine spezielle Struktur des Parkpfades an. Auch das in der Patentliteratur 3 beschriebene Verfahren widmet sich dem parallelen Parken, und es verlangt, dass der Anfangszustand des Fahrzeugs innerhalb eines sogenannten brauchbaren Startbereichs liegt, von welchem aus vorab codierte parallele Parkmanöver eingeleitet werden. Obwohl sie eine Pfaderzeugung in Echtzeit ermöglichen, sind solche Verfahren von einer spezifischen Struktur des Parkpfads abhängig.
  • Um allgemeine Parkpfade aufzunehmen, verwendet ein in der Patentliteratur 4 beschriebenes Verfahren ein zweistufiges automatisches Parksystem, das den Parkpfad während eines Lernmodus berechnet und abruft, wenn ein Fahrzeug manuell von einem Fahrer geparkt wird, und das später das Parken unterstützt, und zwar entlang des gelernten Parkpfads während eines Auto-Parkmodus. Dieses Verfahren kann beim Parken in spezifizierten Zwischenräumen unterstützen, wie z. B. Garagen in Wohngebieten, und zwar entlang des beliebigen, aber im Vorfeld gelernten Parkpfads. Ein solches Verfahren berücksichtigt die Abweichung von jenem Parkpfad als einen fehlerhaften Kurs, der vermieden werden muss. Solch ein Grundprinzip ist nicht immer wünschenswert.
  • Literaturverzeichnis
  • Patentliteratur
  • Zusammenfassung der Erfindung
  • Es ist Aufgabe von einigen Ausführungsformen, ein Pfad-Planungsverfahren für das automatische Fahrzeug-Parksystem und Parkverfahren anzugeben. Es ist eine weitere Aufgabe von einigen Ausführungsformen, ein solches Verfahren anzugeben, das den Rechenaufwand für die Pfadplanung verringert, der von den Spezifika des automatischen Parkens für eine Vielfalt von echten Parkszenarien verursacht wird.
  • Einige Ausführungsformen basieren auf dem Verständnis, dass ein zweistufiges automatisches Parken das automatische Parken für eine Vielfalt von Parksituationen vereinfachen kann. Das zweistufige automatische Parken weist eine Lernstufe und eine automatische Parkstufe auf. In der Lernstufe parkt der Fahrer das Fahrzeug, beispielsweise durch manuelle Steuerung, und es werden Lernverfahren durchgeführt, Referenzdaten zu beobachten und zu speichern, die den Parkpfad angeben, der vom Anfangsort zu dem Ort des Ziel-Parkzwischenraums führt, während Strukturen der umgebenden Umwelt vermieden werden.
  • In der automatischen Parkstufe wird das Fahrzeug automatisch geparkt, und es werden eine Selbstortung des Fahrzeugs und eine Pfadplanung zum Ziel-Parkzwischenraum durchgeführt, und zwar sequenziell und iterativ, indem sie die gegenwärtigen Sensorbeobachtungen mit den Referenzdaten abgleichen, die in der Lernstufe gespeichert worden sind. Genauer gesagt: Geometrische Merkmale von Objekten und relative örtliche Relationen zwischen den Objekten in den Bildern des Park-Zwischenraums weerden als Beobachtungen für die Selbstortung abgeglichen.
  • Wenn die Parkpfade während der Lernstufe und der automatischen Parkstufe ähnlich sind, ermöglicht der Vergleich von verschiedenen Bildern des Park-Zwischenraums die Selbstortung. Im Allgemeinen hängen jedoch die Eigenschaften der bildbasierten 2D-Merkmale inklusive der geometrischen Merkmale und örtlichen Relationen zwischen den Objekten von der Betrachtungsansicht der Kamera ab, die das Bild erfasst. Beispielsweise erscheint eine rechteckige Form, wie z. B. ein Fensterrahmen eines Gebäudes als ein Rechteck in dem Bild, das aus der Vorderansicht heraus erfasst wird, während es als Trapezoid (verzerrtes Rechteck) in dem Bild erscheint, das aus der Schrägansicht heraus erfasst wird.
  • Dieses Problem wird hier als ein Abgleichproblem der großen Grundlinie bezeichnet, das seine Wurzeln in der automatischen Selbstortung hat, die von dem zweistufigen Parken verwendet wird. Genauer gesagt: Eine Landmarke bzw. ein Ortungspunkt, d. h. ein Unterscheidungsmerkmal aus einem Bild, beobachtet von zwei voneinander beabstandeten Betrachtungen bzw. Blickwinkeln aus, kann von dem automatischen Selbstortungs-Abgleichprozess verpasst werden, da sich die Erscheinungen derselben Landmarke, betrachtet von verschiedenen Betrachtungspunkten aus, signifikant ändern können.
  • Daher ist es prinzipiell schwierig, bildbasierte 2D-Merkmale korrekt unter den Bildern abzugleichen, die von unterschiedlichen Beobachtungsansichten bzw. Beobachtungsblickwinkeln aus gemacht werden, und der Abgleich mit bildbasierten 2D-Merkmalen kann versagen, wenn die Beobachtungsansichten in der Lernstufe verschieden sind von denjenigen in der automatischen Parkstufe. Das Versagen des Merkmalsabgleichs kann zu einem Versagen der Selbstortung und dem Versagen des automatischen Parkens führen.
  • Solch eine Abhängigkeit von der Erscheinungs-Invarianz von verschiedenen Merkmalen in den Bildern des Park-Zwischenraums beschränkt die Verwendbarkeit oder den Anwendungsbereich des automatischen Parkens, da Fahrer ihr Fahrzeug nahe dem Pfad anordnen müssen, der im Lernmodus verwendet worden ist, und zwar bevor sie den Auto-Parkmodus starten, d. h. die Fahrer können den Auto-Parkmodus nicht nutzen, wenn sich das Fahrzeug vom Pfad entfernt befindet. Einige Ausführungsformen basieren jedoch auf der allgemeinen Erkenntnis, dass es vorteilhaft ist, die während der Lernstufe erlernten Daten zum automatischen Parken des Fahrzeugs entlang von unterschiedlichen Parkpfaden wiederzuverwenden.
  • Einige Ausführungsformen basieren auf der Realisierung, dass virtuelle Bilder dabei helfen können, solch eine Abhängigkeit der automatischen Selbstortung von einer Erscheinungs-Invarianz zu umgehen. Beispielsweise ist es möglich, einige neue virtuelle Bilder von neuen Blickpunkten aus zu synthetisieren, die in der Zukunft besucht werden könnten. Beispielsweise ist es möglich, die Bilder, die von der Kamera erfasst werden, die von einem Ort A in Richtung eines Orts B zeigt, in virtuelle Bilder zu transformieren, als wenn sie von einem virtuellen Blickpunkt aus betrachtet würden, der vom Ort B aus in Richtung von Ort A zeigt. Das virtuelle Bild kann zum Vergleich mit einem Bild verwendet werden, das von der Kamera neu aufgenommen wird, die vom Ort B zum Ort A weist, um das Abgleichproblem mit großer Grundlinie zu umgehen.
  • Zu diesem Zweck erzeugen einige Ausführungsformen zunächst ein 3D-Modell der umgebenden Umwelt, und zwar aus Bildern, die erfasst werden, während ein Fahrzeug entlang eines ersten Parkpfads geparkt wird, und sie geben dann virtuelle Blickpunkte im 3D-Modell vor. Wie hier verwendet, ist ein virtueller Blickpunkt ein virtueller Punkt einer Ausrichtung bzw. Pose einer Kamera, die ein virtuelles Bild erfasst. Beispielsweise kann ein virtuelles Bild erzeugt werden, indem die 3D-Modell-Daten auf eine virtuelle Bildebene am virtuellen Beobachtungspunkt reprojiziert wird.
  • Die virtuellen Blickpunkte sind so vorgegeben, dass sich deren Beobachtungsansichten von denjenigen der ursprünglichen Blickpunkte im Lernmodus unterscheiden. Dann wird eine Menge von virtuellen Bildern für eine Menge von virtuellen Beobachtungspunkten erzeugt. Schließlich werden Bildmerkmale sowohl aus den ursprünglichen, als auch aus den virtuellen Bildern extrahiert und im System als Referenzdaten gespeichert, die für die automatische Parkstufe verwendet werden.
  • Hinsichtlich der virtuellen Bilder vom 3D-Modell können die Referenzdaten die Merkmale aus realen und virtuellen Bildern enthalten, die eine Vielfalt von Beobachtungsansichten bilden. Diese Anreicherung der Bank von Merkmalen erlaubt es dem System, beim Merkmalsabgleich erfolgreich zu sein, der von der Selbstortung im automatischen Parkmodus gefolgt wird, und zwar sogar dann, wenn sich das Fahrzeug entfernt von dem im Lernmodus genommenen Pfad befindet. Demzufolge können einige Ausführungsformen die Verwendbarkeit und den Anwendungsbereich des automatischen Parksystems verbessern.
  • Demzufolge offenbart eine Ausführungsform ein Verfahren zum Parken eines Fahrzeugs innerhalb eines Park-Zwischenraums. Das Verfahren verwendet einen Prozessor, der betriebsmäßig mit einem Speicher verbunden ist, mindestens einen Sensor zum Erfassen von Bildern, die die Umgebung von zumindest einem Teil des Park-Zwischenraums angeben, und eine Steuerung zum Steuern der Bewegung des Fahrzeugs, wobei der Prozessor mit gespeicherten Anweisungen gekoppelt ist, die das Verfahren implementieren, wobei die Anweisungen, wenn sie von dem Prozessor ausgeführt werden, zumindest einige Schritte des Verfahrens ausführen, inklusive einem Steuern der Bewegung des Fahrzeugs gemäß einem ersten Parkpfad, der in einem Ziel-Zustand endet, wobei jeder Zustand des Fahrzeugs eine Position und Ausrichtung des Fahrzeugs einschließt; Erfassen einer Bildmenge des Park-Zwischenraums während der Bewegung des Fahrzeugs entlang des ersten Parkpfads, so dass jedes Bild in der Bildmenge von einem Blickpunkt aus erfasst wird, der durch einen Zustand des Fahrzeugs entlang des ersten Parkpfads definiert ist; Konstruieren eines Modells des Park-Zwischenraums unter Verwendung der Bildmenge; Auswählen einer Menge von virtuellen Blickpunkten außerhalb des ersten Parkpfads inklusive mindestens eines Blickpunkts, der einen Zustand des Fahrzeugs außerhalb des ersten Parkpfads definiert; Erzeugen, unter Verwendung des Modells des Park-Zwischenraums, einer Menge von virtuellen Bildern der Umgebung des Park-Zwischenraums, als wenn die Betrachtung von der Menge von virtuellen Blickpunkten aus erfolgt; Bestimmen eines gegenwärtigen Zustands des Fahrzeugs, indem ein gegenwärtiges Bild des Park-Zwischenraums, das von dem Sensor erfasst wird, während das Fahrzeug im gegenwärtigen Zustand ist, mit mindestens einem virtuellen Bild verglichen wird; Bestimmen, unter Verwendung des Modells des Fahrzeugs, eines zweiten Parkpfads von dem gegenwärtigen Zustand zum Ziel-Zustand; und Steuern der Bewegung des Fahrzeugs gemäß dem zweiten Parkpfad.
  • Eine weitere Ausführungsform offenbart ein System zum Parken eines Fahrzeugs innerhalb eines Park-Zwischenraums. Das System weist Folgendes auf: einen Speicher zum Speichern eines Modells des Fahrzeugs; mindestens einen Sensor zum Erfassen von Informationen, die die Umgebung von zumindest einem Teil des Park-Zwischenraums angeben; eine Steuerung zum Steuern der Bewegung des Fahrzeugs gemäß unterschiedlichen Trajektorien inklusive eines ersten Parkpfads und eines zweiten Parkpfads, der an einem Ziel-Zustand endet, wobei jeder Zustand des Fahrzeugs durch eine Position und Ausrichtung des Fahrzeugs definiert ist; und mindestens einen Prozessor, der so konfiguriert ist, dass er eine Bildmenge der Umgebung des Park-Zwischenraums während der Bewegung des Fahrzeugs entlang des ersten Parkpfads erfasst, so dass jedes Bild in der Bildmenge von einem Blickpunkt aus erfasst wird, der durch einen Zustand des Fahrzeugs entlang des ersten Parkpfads definiert ist; Konstruieren eines Modells des Park-Zwischenraums unter Verwendung der Bildmenge; Auswählen einer Menge von virtuellen Blickpunkten außerhalb des ersten Parkpfads inklusive mindestens eines Blickpunkts, der einen Zustand des Fahrzeugs außerhalb des ersten Parkpfads definiert; Erzeugen, unter Verwendung des Modells des Park-Zwischenraums, einer Menge von virtuellen Bildern der Umgebung des Park-Zwischenraums, als wenn die Betrachtung von der Menge von virtuellen Blickpunkten aus erfolgt; Bestimmen eines gegenwärtigen Zustands des Fahrzeugs, indem ein gegenwärtiges Bild des Park-Zwischenraums, das von dem Sensor erfasst wird, während das Fahrzeug im gegenwärtigen Zustand ist, mit mindestens einem virtuellen Bild verglichen wird; und Bestimmen des zweiten Parkpfads von dem gegenwärtigen Zustand zum Ziel-Zustand unter Verwendung des Modells des Fahrzeugs.
  • Noch eine weitere Ausführungsform offenbart ein nichtflüchtiges computerlesbares Speichermedium, auf welchem ein Programm abgespeichert ist, das von einem Prozessor ausgeführt werden kann, zum Durchführen eines Verfahrens zum Parken eines Fahrzeugs innerhalb eines Park-Zwischenraums. Das Verfahren weist Folgendes auf: Steuern der Bewegung des Fahrzeugs gemäß einem ersten Parkpfad, der an einem Ziel-Zustand endet, wobei jeder Zustand des Fahrzeugs eine Position und Ausrichtung des Fahrzeugs einschließt, das eine Bildmenge des Park-Zwischenraums während der Bewegung des Fahrzeugs entlang des ersten Parkpfads erfasst, so dass jedes Bild in der Bildmenge von einem Blickpunkt aus erfasst wird, der durch einen Zustand des Fahrzeugs entlang des ersten Parkpfads definiert wird; Konstruieren eines Modells des Park-Zwischenraums unter Verwendung der Bildmenge; Auswählen einer Menge von virtuellen Blickpunkten außerhalb des ersten Parkpfads inklusive mindestens eines Blickpunkts, der einen Zustand des Fahrzeugs außerhalb des ersten Parkpfads definiert; Erzeugen, unter Verwendung des Modells des Park-Zwischenraums, einer Menge von virtuellen Bildern der Umgebung des Park-Zwischenraums, als wenn die Betrachtung von der Menge von virtuellen Blickpunkten aus erfolgt; Bestimmen eines gegenwärtigen Zustands des Fahrzeugs, indem ein gegenwärtiges Bild des Park-Zwischenraums, das von dem Sensor erfasst wird, während das Fahrzeug im gegenwärtigen Zustand ist, mit mindestens einem virtuellen Bild verglichen wird; Bestimmen, unter Verwendung des Modells des Fahrzeugs, eines zweiten Parkpfads von dem gegenwärtigen Zustand zum Ziel-Zustand; und Steuern der Bewegung des Fahrzeugs gemäß dem zweiten Parkpfad.
  • Figurenliste
    • 1 zeigt eine schematische Darstellung eines Fahrzeugs, das automatisches Parken nutzt, unter Verwendung von Prinzipien einiger Ausführungsformen.
    • 2 zeigt eine schematische Darstellung eines beispielhaften Parkvorgangs während einer Lernstufe, entlang eines ersten Parkpfads, gemäß einigen Ausführungsformen.
    • 3A zeigt eine schematische Darstellung eines beispielhaften Parkvorgangs während einer automatischen Parkstufe, entlang des ersten Parkpfads, gemäß einigen Ausführungsformen.
    • 3B zeigt eine schematische Darstellung eines beispielhaften Parkvorgangs während einer automatischen Parkstufe entlang eines zweiten Parkpfads, der verschieden ist von dem ersten Parkpfad, gemäß einigen Ausführungsformen.
    • 4 zeigt ein Beispiel eines Parkszenarios unter Verwendung von Prinzipien, die von einigen Ausführungsformen verwendet werden.
    • 5 zeigt ein Blockdiagramm eines Verfahrens zum Parken eines Fahrzeugs innerhalb eines Park-Zwischenraums, gemäß einigen Ausführungsformen.
    • 6A veranschaulicht ein Beispiel eines Fahrzeug-Koordinatensystems, wie von einigen Ausführungsformen verwendet.
    • 6B zeigt eine beispielhafte schematische geometrische Darstellung eines Fahrzeugs gemäß einigen Ausführungsformen.
    • 7 zeigt ein Ablaufdiagramm der Lernstufe des Parksystems gemäß einer Ausführungsform.
    • 8 zeigt ein Ablaufdiagramm der automatischen Parkstufe des Parksystems gemäß einer Ausführungsform.
    • 9A zeigt ein Blockdiagramm eines Systems, das geeignet ist für ein automatisches Parken gemäß einigen Ausführungsformen.
    • 9B zeigt eine Darstellung der funktionalen Komponenten des automatischen Parksystems gemäß einer Ausführungsform.
    • 10 zeigt ein Blockdiagramm von Funktionsmodulen, die in dem Lernmodus von einigen Ausführungsformen verwendet werden.
    • 11 veranschaulicht ein Beispiel des 3D-Modells des Park-Zwischenraums.
    • 12 zeigt Beispiele von virtuellen Zuständen des Fahrzeugs, die die Ursprünge der Koordinatensysteme definieren, sowie entsprechende virtuelle Blickpunkte.
    • 13 zeigt eine Darstellung von beispielhaften virtuellen Bildern, die hinsichtlich einer Menge von virtuellen Blickpunkten erzeugt werden, gemäß einigen Ausführungsformen.
    • 14 zeigt eine schematische Darstellung eines Datenflusses der Referenzdatenerzeugung gemäß einigen Ausführungsformen.
    • 15 zeigt ein Blockdiagramm von Funktionsmodulen, die im automatischen Parkmodus verwendet werden, gemäß einer Ausführungsform.
    • 16 zeigt einen Datenfluss eines Merkmals-Übereinstimmungsprozesses gemäß einer Ausführungsform.
    • 17 zeigt ein Blockdiagramm von Funktionsmodulen, die im Lernmodus verwendet werden, und zwar von einigen Ausführungsformen.
    • 18 zeigt ein Blockdiagramm von Funktionsmodulen, die im automatischen Parkmodus verwendet werden, und zwar von einigen Ausführungsformen.
    • 19 veranschaulicht ein weiteres Blockdiagramm von Funktionsmodulen, die im Lernmodus verwendet werden, und zwar von einer sich unterscheidenden Ausführungsform.
    • 20 zeigt ein anderes Blockdiagramm von Funktionsmodulen, die im Lernmodus verwendet werden.
    • 21 zeigt eine beispielhafte Schnittstelle zum Auswählen der Richtung des Parkens, gemäß einer Ausführungsform.
    • 22 zeigt eine weitere Schnittstelle zum Auswählen der Richtung des Parkens gemäß einer Ausführungsform.
    • 23A zeigt ein Blockdiagramm eines Verfahrens, das von einigen Ausführungsformen verwendet wird, zum Auswählen von Blickpunkten außerhalb des ersten Parkpfads.
    • 23B zeigt ein Blockdiagramm eines alternativen Verfahrens, das von einer Ausführungsform verwendet wird, zum Auswählen von Blickpunkten außerhalb des ersten Parkpfads.
    • 23C zeigt eine schematische Darstellung von beispielhaften nicht erreichbaren Bereichen für ein Fahrzeug, gemäß einigen Ausführungsformen.
    • 24 zeigt eine beispielhafte schematische Darstellung von möglichen Parkpfaden des Fahrzeugs durch den Park-Zwischenraum.
    • 25A zeigt ein Funktionsdiagramm eines automatisierten Parksystems gemäß einer Ausführungsform.
    • 25B zeigt eine allgemeine Struktur des Bewegungsplanungssystems gemäß einer Ausführungsform.
    • 26A zeigt ein Blockdiagramm eines VA-VSLAM-Grundgerüsts gemäß einigen Ausführungsformen.
    • 26B zeigt ein Beispiel einer schematischen Darstellung zum Angehen des Abgleichproblems der großen Grundlinie unter Verwendung von virtuellen Bildern, gemäß einigen Ausführungsformen.
    • 27 zeigt ein Blockdiagramm eines Verfahrens zum Rekonstruieren eines 3D-Modells eines Park-Zwischenraums unter Verwendung von virtuellen Bildern, gemäß einigen Ausführungsformen.
  • Ausführliche Beschreibung
  • Beschreibung von Ausführungsformen
  • 1 zeigt eine schematische Darstellung eines Fahrzeugs, das ein automatisches Parken nutzt, unter Verwendung von Prinzipien einiger Ausführungsformen. Ein Fahrzeug 101 weist mindestens einen Sensor zum Erfassen von Informationen auf, die die Umgebung von zumindest einem Teil des Park-Zwischenraums angeben, eine Steuerung zum Steuern der Bewegung des Fahrzeugs, sowie mindestens einen Prozessor zum Bestimmen von verschiedenen Trajektorien des Fahrzeugs. Beispielsweise kann das Fahrzeug 101 Umgebungskameras 102 bis 105 aufweisen, sowie ein automatisches Parksystem 106, das unter Verwendung des Prozessors implementiert ist.
  • Bei diesem Beispiel ist die Frontkamera 102 auf dem vorderen Stoßdämpfer platziert und beobachtet den Frontbereich des Fahrzeugs 101. Die linke Kamera 103 und die rechte Kamera 104 sind unter den Seitenspiegeln platziert, so dass sie die Seitenbereiche auf der linken und rechten Seite beobachten. Die Rückkamera 105 ist auf der Heckklappe platziert, so dass sie den rückwärtigen Bereich beobachtet. Jede Kamera ist mit dem automatischen Parksystem 106 verbunden. In einigen Implementierungen hat jede Kamera einen Weitwinkel-Blickbereich, und sie ist im Voraus kalibriert, und der gesamte Beobachtungsbereich eines Satzes von Kameras deckt den Umgebungsbereich des Fahrzeugs 101 ab. Es versteht sich, dass unterschiedliche Ausführungsformen unterschiedliche Anzahlen, Typen und Orte der Kameras verwenden können.
  • Das automatische Parksystem 106 hat zwei Betriebsstufen und/oder Betriebsmodi, einen Lernmodus und einen automatischen Parkmodus. Im Lernmodus steuert der Fahrer das Fahrzeug und parkt das Fahrzeug in einem Ziel-Parkzwischenraum, während das System Beobachtungen der umgebenden Umwelt aus einem Satz von Kameras bezieht und eine Menge von verarbeiteten Daten der Beobachtungen als Referenzdaten speichert. Im automatischen Parkmodus wird das Fahrzeug automatisch gesteuert und von dem System im Ziel-Parkzwischenraum geparkt. Während des automatischen Parkens werden eine Selbstortung des Fahrzeugs und eine Pfadplanung zum Ziel-Parkzwischenraum durchgeführt, indem eingegebene Beobachtungen von einem Satz Kameras mit den Beobachtungen von Referenzdaten abgeglichen werden.
  • 2 zeigt eine schematische Darstellung eines beispielhaften Parkvorgangs während einer Lernstufe, entlang eines ersten Parkpfads, gemäß einigen Ausführungsformen. Beispielsweise wird das Fahrzeug 101 entlang eines ersten Parkpfads 505 in einen Ziel-Zustand 502 geparkt. Wie hier verwendet, weist jeder Zustand des Fahrzeugs eine Position und Ausrichtung des Fahrzeugs auf. Beispielsweise kann der Ziel-Zustand eine Position und Ausrichtung des Fahrzeugs in einem vorgesehenen Parkraum einschließen, der frei von Hindernissen ist, wie z. B. den Strukturen 503 und 504. In einigen Ausführungsformen hat die Position drei Freiheitsgrade (3-DOF), z. B. (x, y, z)-Koordinaten im 3D-Raum, und die Ausrichtung hat 3-DOF, z. B. (Roll-, Nick-, Gier-) Winkel, und folglich hat der Zustand insgesamt 6-DOF.
  • In einigen anderen Ausführungsformen kann der Zustand dargestellt werden als 3-DOF mit einer 2-DOF-Position, z. B. (x, y)-Koordinaten auf einer 2D-Ebene, und einer 1-DOF-Ausrichtung, z. B. einem Gierwinkel, der einer Rotation innerhalb der Ebene entspricht. Die 3-DOF-Zustandsdarstellung ist vorteilhaft hinsichtlich des Rechenaufwands und des Speicherverbrauchs, und sie kann verwendet werden, wenn der Park-Zwischenraum eine ebene Straßenoberfläche aufweist und sich das Fahrzeug auf der ebenen Straßenoberfläche bewegt, wo der Zustand in Bezug auf die ebene Straßenoberfläche definiert sein kann.
  • Die Bewegung gemäß einem ersten Parkpfad, der am Ziel-Zustand 502 endet, kann manuell gesteuert werden, z. B. unter Verwendung von eingegebenen Steuerbefehlen von einem Fahrer des Fahrzeugs, kann automatisch gesteuert werden, z. B. unter Verwendung eines automatischen Parksystems, oder Kombinationen davon. Während der Bewegung des Fahrzeugs entlang des ersten Parkpfads bezieht das Fahrzeug eine Bildmenge 506 des Park-Zwischenraums unter Verwendung von Kameras 102-105. Jedes Bild in der Bildmenge 506 wird von einem Blickpunkt aus bezogen, der durch einen Zustand des Fahrzeugs entlang des ersten Parkpfads definiert ist.
  • Beispielsweise unterscheidet sich bei jedem Zustand des Fahrzeugs 101 auf dem Pfad 505 das von der Kamera 103 aufgenommene Bild von dem Bild, das von der Kamera 105 aufgenommen wird. Beide Bilder und beide Blickpunkte der Kameras 103 und 105 sind jedoch eindeutig durch den Zustand und die Geometrie des Fahrzeugs sowie die Anordnung der Kameras auf dem Fahrzeug definiert.
  • 3A zeigt eine schematische Darstellung eines beispielhaften Parkvorgangs während einer automatischen Parkstufe, entlang des ersten Parkpfads, gemäß einigen Ausführungsformen. 3B zeigt eine schematische Darstellung eines beispielhaften Parkvorgangs während einer automatischen Parkstufe entlang eines zweiten Parkpfads, der verschieden ist von dem ersten Parkpfad, gemäß einigen Ausführungsformen. Genauer gesagt: In dem in 3A gezeigten Beispiel folgt das Fahrzeug einem Pfad, der dem Pfad 505 ähnelt. In dem in 3B gezeigten Szenario nimmt das Fahrzeug einen davon verschiedenen Pfad und nähert sich dem Ziel-Parkzwischenraum von der gegenüberliegenden Seite des Startpunkts des Pfades 505 an.
  • Zu diesem Zweck stellen das Bild 507 in 3A und das Bild 508 in 3B erfasste Bildbeispiele dar, bei welchen das gesamte Erscheinungsbild des Gebäudes 503 in jedem der Bilder beobachtet wird. Es sei angemerkt, dass das Gebäude 503 in Bild 507 von der Schrägansicht aus beobachtet wird, und dass es in Bild 508 von der Frontalansicht aus betrachtet wird, während keine Bilder die Beobachtung des Gebäudes 503 in einer Bildmenge 506 von der Frontalansicht aus enthalten, und zwar in 2.
  • Wenn die Parkpfade während der Lernstufe und der automatischen Parkstufe einander ähneln, wie in dem in 3A gezeigten Beispiel, erlaubt der Vergleich der unterschiedlichen Bilder des Park-Zwischenraums die Selbstortung. Wenn jedoch die Parkpfade während der Lernstufe und der automatischen Parkstufe unterschiedlich sind, wie in dem in 3B gezeigten Beispiel, dann kann der Vergleich von unterschiedlichen Bildern des Park-Zwischenraums fehlschlagen.
  • Einige Ausführungsformen basieren auf der Erkenntnis, dass es vorteilhaft ist, die während er Lernstufe gelernten Daten zum automatischen Parken des Fahrzeugs entlang von unterschiedlichen Parkpfaden wiederzuverwenden. Beispielsweise kann es vorteilhaft sein, die Daten wiederzuverwenden, die gelernt werden, während die Bewegung entlang des ersten Parkpfads erfolgt, um das Fahrzeug entlang des zweiten - d. h. davon verschiedenen - Parkpfads zu parken. Einige Ausführungsformen basieren auf der Erkenntnis, dass virtuelle Bilder dabei helfen können, solche eine Abhängigkeit der automatischen Selbstortung von einer Erscheinungs-Invarianz zu umgehen. Beispielsweise ist es möglich, einige neue virtuelle Bilder von neuen Blickpunkten aus zu synthetisieren, die in der Zukunft besucht werden könnten.
  • Zu diesem Zweck erzeugen einige Ausführungsformen ein 3D-Modell der umgebenden Umwelt aus den Bildern, die von den Kameras erfasst werden, und sie geben dann virtuelle Blickpunkte im 3D-Modell vor. Wie hier verwendet, ist ein virtueller Blickpunkt ein virtueller Punkt einer Ausrichtung bzw. Pose einer Kamera, die ein virtuelles Bild erfasst. Beispielsweise kann ein virtuelles Bild erzeugt werden, indem die 3D-Modell-Daten auf eine virtuelle Bildebene am virtuellen Beobachtungspunkt reprojiziert werden.
  • Die virtuellen Blickpunkte werden so vorgegeben, dass sie sich von den Blickpunkten unterscheiden, die zum Erfassen von Bildern im Lernmodus verwendet werden. Dann wird eine Menge von virtuellen Bildern für eine Menge von virtuellen Blickpunkten erzeugt. Schließlich werden Bildmerkmale sowohl aus den ursprünglichen, als auch aus den virtuellen Bildern extrahiert und im System als Referenzdaten gespeichert, die zur Selbstortung und zum automatischen Parken verwendet werden.
  • 4 zeigt ein Beispiel eines Parkszenarios unter Verwendung von Prinzipien, die von einigen Ausführungsformen verwendet werden. In 4 sind Beispiele der virtuellen Beobachtungspunkte 510 und der entsprechenden virtuellen Bilder 511 gezeigt. In diesem Beispiel schließen die virtuellen Bilder 511 das gesamte Erscheinungsbild des Gebäudes 503 von der Frontalansicht aus ein. In diesem Fall gilt Folgendes: Obwohl sich der erste 505 und zweite Parkpfad 509 des Fahrzeugs zwischen den zwei Modi unterscheiden, kann der Merkmalsabgleich gefolgt von der Selbstortung im automatischen Parkmodus erfolgreich sein, da die Referenzdaten im Lernmodus Bildmerkmale aus den virtuellen Bildern 511 einschließen, die ähnlich den Merkmalen der Bilder sind, die von einer Kamera des Fahrzeugs erfasst werden, das dem zweiten Parkpfad 509 folgt.
  • 5 zeigt ein Blockdiagramm eines Verfahrens zum Parken eines Fahrzeugs innerhalb eines Park-Zwischenraums, gemäß einigen Ausführungsformen. Das Verfahren verwendet einen Prozessor, der betriebsmäßig mit einem Speicher verbunden ist, mindestens einen Sensor zum Erfassen von Bildern, die die Umgebung von zumindest einem Teil des Park-Zwischenraums angeben, und eine Steuerung zum Steuern der Bewegung des Fahrzeugs. Der Prozessor ist mit gespeicherten Anweisungen gekoppelt, die das Verfahren implementieren, wobei die Anweisungen, wenn sie von dem Prozessor ausgeführt werden, zumindest einige Schritte des Verfahrens ausführen.
  • Das Verfahren steuert im Schritt 520 die Bewegung des Fahrzeugs gemäß einem ersten Parkpfad, der an einem Ziel-Zustand endet, und es erfasst im Schritt 525 eine Bildmenge des Park-Zwischenraums während der Bewegung des Fahrzeugs entlang des ersten Parkpfads. Beispielsweise kann der erste Parkpfad der Pfad 505 sein, und die Bilder des Park-Zwischenraums werden unter Verwendung der Kameras 102-105 erfasst, so dass jedes Bild in der Bildmenge von einem Blickpunkt aus erfasst wird, der durch einen Zustand des Fahrzeugs entlang des ersten Parkpfads definiert ist.
  • Das Verfahren konstruiert im Schritt 530 ein Modell des Park-Zwischenraums unter Verwendung der Bildmenge, wählt im Schritt 535 eine Menge von virtuellen Blickpunkten außerhalb des ersten Parkpfads aus, und erzeugt im Schritt 540, unter Verwendung des Modells des Park-Zwischenraums, eine Menge von virtuellen Bildern der Umgebung des Park-Zwischenraums, als würde er von der Menge von virtuellen Blickpunkten aus betrachtet. Wie hier verwendet, schließt die Menge von virtuellen Blickpunkten mindestens einen virtuellen Blickpunkt ein, der einen Zustand des Fahrzeugs außerhalb des ersten Parkpfads definiert.
  • In einigen Ausführungsformen werden die oben erwähnten Schritte während einer Lernstufe 570 des Verfahrens durchgeführt. Die Merkmale der realen und virtuellen Bilder werden zur Selbstortung der automatischen Parkstufe 575 des Verfahrens gespeichert. Es versteht sich jedoch, dass die Pfade, die während der automatischen Parkstufe 575 bestimmt werden, dazu dienen können, das Modell des Park-Zwischenraums zum anschließenden Parken zu lernen und zu aktualisieren.
  • Während der automatischen Parkstufe 575 bestimmt im Schritt 550 das Verfahren einen gegenwärtigen Zustand des Fahrzeugs, indem es ein gegenwärtiges Bild des Park-Zwischenraums, das von dem Sensor erfasst wird, während sich das Fahrzeug im gegenwärtigen Zustand befindet, mit mindestens einem virtuellen Bild vergleicht. Ein Vergleich mit den virtuellen Bildern, z. B. geometrischen Merkmalen der virtuellen Bilder, gestattet eine Selbstortung des Fahrzeugs außerhalb des ersten Parkpfads. Das Verfahren bestimmt im Schritt 555, z. B. unter Verwendung eines Modells des Fahrzeugs, einen zweiten Parkpfad aus dem gegenwärtigen Zustand zum Ziel-Zustand, und es steuert im Schritt 560 die Bewegung des Fahrzeugs gemäß dem zweiten Parkpfad.
  • 6A veranschaulicht ein Beispiel eines Fahrzeug-Koordinatensystems, wie von einigen Ausführungsformen verwendet. Der Ursprung 107 des Fahrzeug-Koordinatensystems 108 ist als ein Punkt definiert, bei welchem eine senkrechte Linie, die den Fahrzeugmittelpunkt durchquert, die Bodenebene 110 schneidet. Die senkrechte Linie ist als Z-Achse vorgegeben, und die Y-Achse ist so vorgegeben, dass sie parallel zur Fahrzeug-Mittellinie 109 verläuft.
  • 6B zeigt eine beispielhafte schematische geometrische Darstellung eines Fahrzeugs gemäß einigen Ausführungsformen. In diesem Beispiel ist das Fahrzeug als ein Rechtecke 615 abstrahiert worden. Der Fahrzeugzustand weist einen 3-DOF auf, nämlich die Position (x, y)von 617, die den Mittelpunkt von dessen Hinterachse darstellt, und die Ausrichtung θ von 619, die den Winkel zwischen der Fahrzeugkörperachse und der Horizontalachse bezeichnet.
  • 7 zeigt ein Ablaufdiagramm der Lernstufe 570 gemäß einer Ausführungsform. Zunächst platziert der Fahrer (Benutzer) das Fahrzeug an der gewünschten Park-Startposition und startet den Lernmodus (das Startsignal wird vom Fahrer gegeben). Dann fährt im Schritt S001 der Fahrer das Fahrzeug so, dass er es im Ziel-Parkzwischenraum parkt, und er beurteilt im Schritt S002, ob das Parken abgeschlossen ist. Sobald der Fahrer geurteilt hat, dass das Parken abgeschlossen ist, gibt im Schritt S003 der Fahrer ein Parkenabgeschlossen-Signal an das System ab. Danach konstruiert im Schritt S004 das System ein 3D-Modell der umgebenden Umwelt, und es erzeugt im Schritt S005 Referenzdaten aus einer Menge von während des Parkens erfassten Bildern. Schließlich speichert im Schritt S006 das System die Referenzdaten und Informationen über den Ziel-Parkzwischenraum und beendet den Lernmodus.
  • 8 zeigt ein Ablaufdiagramm der automatischen Parkstufe 575 gemäß einer Ausführungsform. Zunächst startet der Fahrer den automatischen Parkmodus. Beim Fahrzeug-Anfangsort ortet im Schritt S101 das System das Fahrzeug, indem es gegenwärtige Beobachtungen aus einem Satz von Kameras mit den Referenzdaten abgleicht, die im Lernmodus gespeichert worden sind. Falls das System bei der Ortung versagt, wird das Fahrzeug an einen anderen Ort bewegt im Schritt S102, und zwar vom Fahrer oder automatisch vom System. Die Schritte S101 und S102 werden wiederholt, bis das System bei der anfänglichen Ortung erfolgreich ist.
  • Nach dem Erfolg der anfänglichen Ortung berechnet im Schritt S103 das System einen Pfad (Route) vom gegenwärtigen Ort zum Ziel-Parkzwischenraum. Falls das System bei der Pfadplanung (-berechnung) versagt, wird das Fahrzeug wie oben beschrieben bewegt (Schritt S102), bis das System bei der anfänglichen Ortung erfolgreich ist. Sobald die Pfadplanung erfolgreich ist, steuert und fährt im Schritt S104 das System das Fahrzeug entlang des geplanten Pfads, und dann ortet im Schritt S105 es erneut.
  • Im Schritt S105 wird die Ortung durch Beobachtungsabgleich durchgeführt, wie oben beschrieben, oder alternativ wird sie durch Koppelnavigation durchgeführt, und zwar auf der Basis von Fahrzeug-Steuerungsinformationen, wie z. B. der Gierrate und der Geschwindigkeit.
  • Danach beurteilt im Schritt S106 das System, ob das Parken abgeschlossen ist. Falls das Parken nicht abgeschlossen ist, wird eine Abfolge von Schritten (S103 bis S105) wiederholt. Falls das Parken abgeschlossen ist, beendet das System den automatischen Parkmodus.
  • 9A zeigt ein Blockdiagramm eines Systems 100, das geeignet ist für ein automatisches Parken gemäß einigen Ausführungsformen. Das System 100 kann einen Mehrzweck-Prozessor 161 und einen Speicher 164 aufweisen. Zusätzlich oder alternativ kann das System 100 Prozessoren für spezielle Zwecke aufweisen, wie z. B. einen Bildprozessor 166, einen Lageprozessor 168 bzw. Posenprozessor, und einen Prozessor 167 für virtuelles Bild. Die Einrichtung 100 kann außerdem eine Anzahl von Sensoren aufweisen, die mit einem oder mehreren Bussen 177 oder Signalleitungen gekoppelt sind, die weiter mit zumindest einem der Prozessoren 161, 166, 167 und 168 gekoppelt sind. Das System 100 kann ein Teil des Fahrzeugs 101 sein und kann verwendet werden, um die Funktionalität des automatischen Parksystems 106 zu implementieren.
  • Das System 100 kann Sensoren zum Erfassen eines Bildes einer Szene aufweisen, wie z. B. Kameras 124, 3D-Sensoren und/oder Kombinationen von Kameras und 3D-Sensoren, die als Rot-Grün-Blau-Tiefensensoren (RGBD, nicht dargestellt) bezeichnet werden, und es kann optional Bewegungssensoren 121, wie z. B. Beschleunigungssensoren, Gyroskope, einen elektronischen Kompass oder ähnliche bewegungserfassende Elemente aufweisen.
  • Das System 100 kann auch Bilder einer nach vom oder nach hinten weisenden Kamera erfassen (z. B. Kameras 124). Das System 100 kann außerdem eine Benutzerschnittstelle 150 aufweisen, die eines oder eine Kombination der folgenden Elemente aufweist: Eine Anzeige 112, eine Eingabeeinrichtung, wie z. B. eine Tastatur und ein Keypad 152. Falls gewünscht, kann eine Integration eines virtuellen Keypads in die Anzeige 122 mit einem berührungsempfindlichen Schirm oder Sensor die Tastatur oder das Keypad 152 entbehrlich machen. Die Benutzerschnittstelle 150 kann auch ein Mikrofon 154 und Lautsprecher 156 aufweisen, z. B. wenn die Einrichtung 100 eine mobile Plattform ist, wie z. B. ein Mobiltelefon. In einigen Implementierungen kann das System 100 als eine mobile oder drahtlose Einrichtung fungieren und kann über eine oder mehrere Drahtlos-Kommunikationsverbindungen unter Verwendung eines Transceivers 140 kommunizieren.
  • In einer oder mehreren beispielhaften Ausführungsformen können die beschriebenen Funktionen oder Module in Hardware implementiert sein (z. B. Hardware 162), in Software (z. B. Software 165), in Firmware (z. B. Firmware 163) oder irgendeiner Kombination daraus von einer Steuerung 160. Falls die Implementierung als ein Computerprogrammprodukt erfolgt, können die Funktionen oder Module gespeichert sein oder übertragen werden, und zwar als eine oder mehrere Anweisungen oder Code auf einem nichtflüchtigen computerlesbaren Medium. Computerlesbare Medien können sowohl Computerspeichermedien, als auch Kommunikationsmedien enthalten, einschließlich irgendeines Mediums, das den Transfer eines Computerprogramms von einem Ort zu einem anderen ermöglicht.
  • Ein Speichermedium kann irgendein verfügbares Medium sein, auf das von einem Computer zugegriffen werden kann. Beispielhaft und nicht einschränkend können solche nichtflüchtigen computerlesbaren Medien Folgendes aufweisen: RAM, ROM, EEPROM, CD-ROM oder andere optische Speicher auf Scheiben, Magnetscheibenspeicher oder andere magnetische Speichereinrichtungen, oder irgendein anderes Medium, das verwendet werden kann, um einen gewünschten Programmcode in der Form von Anweisungen oder Datenstrukturen zu enthalten, und auf das von einem Computer zugegriffen werden kann.
  • 9B zeigt eine Darstellung der funktionalen Komponenten des automatischen Parksystems 106 gemäß einer Ausführungsform. Das automatische Parksystem 106 ist aus drei Einheiten gebildet: einer Benutzer-Eingabe-Ausgabeeinheit 201 (I/O-Einheit), einer Wahrnehmungs- und Planungseinheit 202 und einer Fahrzeug-Steuerungseinheit 203.
  • Im Lernmodus kann die Wahrnehmungs- und Planungseinheit 202 ein 3D-Modell als eine 3D-Karte konstruieren, das die umgebende Umwelt des Park-Zwischenraums darstellt; virtuelle Blickpunkte im 3D-Modell bestimmen; und virtuelle Bilder für virtuelle Beobachtungspunkte erzeugen. Die Einheit 202 kann auch Bildmerkmale aus ursprünglich erfassten Bildern und virtuellen Bildern extrahieren, einen Ziel-Parkzustand bestimmen; eine Entsprechung der 2D-Bildposition von jedem Bildmerkmal hinsichtlich einer 3D-Position im 3D-Modell finden, und die Speicherung der Bildmerkmale und deren 3D-Positionen im 3D-Model als Referenzdaten und Ziel-Parkzwischenrauminformationen im 3D-Modell ermöglichen. Außerdem kann die Einheit 202 das 3D-Modell und die Ziel-Parkzwischenrauminformationen an die Benutzer-Eingabe-Ausgabeeinheit 201 ausgeben. Die Benutzer-Eingabe-Ausgabeeinheit 201 zeigt den Fortschritt, den Zustand und die Ergebnisse des Lernmodus dem Fahrer an.
  • Im automatischen Parkmodus kann die Wahrnehmungs- und Planungseinheit 202 Bildmerkmale aus erfassten Bildern extrahieren, die gegenwärtigen Bildmerkmale mit den Bildmerkmalen in den Referenzdaten abgleichen, die im Lernmodus gespeichert worden sind, und mittels der Abgleich-Ergebnisse das Fahrzeug bezüglich des 3D-Modells orten. Die Einheit 202 kann auch den Pfad zum Ziel-Parkzwischenraum vom gegenwärtigen Ort des Fahrzeugs aus bestimmen und den geplanten Pfad an die Fahrzeug-Steuerungseinheit 203 ausgeben. Die Fahrzeug-Steuerungseinheit 203 steuert das Fahrzeug auf der Basis des von der Einheit 202 eingegebenen Pfades.
  • 10 zeigt ein Blockdiagramm von Funktionsmodulen, die in dem Lernmodus von einigen Ausführungsformen verwendet werden. Das Bilderfassungsmodul 301 steuert einen Satz Kameras und erfasst Bilder. Das Bildspeichermodul 302 speichert die erfassten Bilder.
  • Das 3D-Modell-Erzeugungsmodul 303 erzeugt ein 3D-Modell von erfassten Bildern durch 3D-Rekonstruktionstechniken, wie z. B. SFM (Struktur aus Bewegung) und VSLAM (visuelle simultane Positionsbestimmung und Kartierung). In diesem Kontext wird ein 3D-Modell als eine 3D-Punktwolke definiert, in welcher jeder Punkt zu seinem ursprünglichen Bildpunkt (2D) in Bezug gesetzt wird. Das bedeutet, dass jeder Punkt in der Punktwolke nicht nur die 3D-Position im 3D-Modell aufweist, sondern auch die ursprüngliche Bildposition und Farbe (RGB), Intensität und/oder Merkmalsinformationen.
  • Bei einigen Ausführungsformen wird das Koordinatensystem der Punktwolke gemäß dem Fahrzeug-Koordinatensystem an einem gewissen Fahrzeugort im Lernmodus vorgegeben. Beispielsweise kann das Fahrzeug-Koordinatensystem am Startort oder Endort im Lernmodus als das Koordinatensystem des 3D-Modells vorgegeben werden.
  • 11 veranschaulicht ein Beispiel des 3D-Modells. In 11 wird das 3D-Modell 602 (von dem angenommen wird, dass es eine dichte Punktwolke hat) mit einem Koordinatensystem 603 aus einer Bildmenge 601 erzeugt, deren Bilder im Lernmodus erfasst werden.
  • Das Bestimmungsmodul 304 für Ziel-Parkzwischenraum bestimmt einen Ziel-Parkzwischenraum im 3D-Modell. Der Zwischenraum, an welchem der Fahrer das Parken im Lernmodus abschließt, wird als ein Ziel-Parkzwischenraum vorgegeben, und dessen Ort wird im 3D-Modell dargestellt. Es können verschiedene Darstellungsformen erwogen werden. Beispielsweise kann die Darstellung durch die Position und Ausrichtung des Fahrzeug-Koordinatensystems im 3D-Modell erfolgen. Alternativ kann die Darstellung in der Form einer 2D- oder 3D-Begrenzungsbox des Fahrzeugs erfolgen. Das Speichermodul 305 für Ziel-Parkzwischenraum speichert die Informationen über den Ziel-Parkzwischenraum.
  • Das Bestimmungsmodul 306 für virtuellen Beobachtungspunkt bestimmt virtuelle Blickpunkte im 3D-Modell. In einer Ausführungsform werden die virtuellen Blickpunkte bestimmt, indem im 3D-Modell zufällig oder regelmäßig Punkte ausgewählt werden, beispielsweise Zustände des Fahrzeugs. Als nächstes wird ein Satz von virtuellen Kameras, z. B. vier Kameras die mit den Kameras 102-105 abgeglichen werden, für jedes virtuelle Fahrzeug-Koordinatensystem auf der Basis der Kamera-Kalibrierungsdaten (relative Position und Ausrichtung zum Fahrzeug-Koordinatensystem) vorgegeben. Der Ursprung jedes virtuelle Kamera-Koordinatensystems kann als ein virtueller Beobachtungspunkt angesehen werden, und demzufolge können vier virtuelle Beobachtungspunkte von einem Satz von virtuellen Kameras an diesem Punkt bestimmt werden.
  • 12 zeigt Beispiele von virtuellen Zuständen 610 des Fahrzeugs, die die Ursprünge der Koordinatensysteme 611 definieren, sowie entsprechende virtuelle Beobachtungspunkte 612 bis 623. In dieser 12 ist die Karte in der Form einer Draufsicht-Karte (Vogelperspektive) des 3D-Modells 602 in 11 gezeigt.
  • Das Erzeugungsmodul 307 für virtuelle Bilder erzeugt eine Menge von virtuellen Bildern in Bezug auf die virtuellen Beobachtungspunkte. Die unterschiedlichen Ausführungsformen verwenden unterschiedliche Verfahren zum Erzeugen eines virtuellen Rahmens, bei gegebenem virtuellem Blickpunkt. Beispielsweise können die virtuellen Bilder unter Verwendung eines oder eine Kombination aus einem Krümmen bzw. Verziehen mindestens eines Bildes aus der Bildmenge, einem Projizieren des Modells der Szene in den virtuellen Blickpunkt und einer ebeneninduzierten Homographie erzeugt werden.
  • Beispielsweise hat in einer Ausführungsform der virtuelle Blickpunkt dieselbe Betrachtungsposition wie ein reales Bild, während er sich nur hinsichtlich der Ausrichtung unterscheidet. In dieser Ausführungsform kann der virtuelle Rahmen erzeugt werden, indem jedes Pixel pv im neuen Rahmen aus dem Pixel pr in jenem realen Rahmen durch pv = Hpr gekrümmt bzw. verzogen wird, wobei pv und pr die homogenen 2D-Koordinaten der Pixel sind, H eine 3 × 3-Homographie-Matrix ist, die definiert ist durch H = K v R K r 1 , R
    Figure DE112018001056T5_0001
    eine 3D-Drehmatrix ist, die der Ausrichtung des virtuellen Blickpunkts in Bezug auf den realen Blickpunkt entspricht, und Kv und Kr die virtuelle bzw. reale intrinsische 3 × 3-Matrix für Kamera ist.
  • Beispielsweise kann in einer weiteren Ausführungsform das virtuelle Bild direkt aus einer dichten Punktwolke erzeugt werden, die die Szene 602 beschreibt, die mittels des 3D-Modell-Erzeugungsmoduls 303 rekonstruiert wird. Beispielsweise kann in einer Implementierung ein texturiertes Maschenmodell dieser Szene aus der dichten Punktwolke erzeugt werden. Dann wird diese texturierte Masche einer Grafik-Pipeline, wie z. B. OpenGL zugeführt, wobei die Lage bzw. Pose der virtuellen Kamera (in der Bezeichnung gemäß OpenGL: die Model-View-Matrix) auf den gegebenen virtuellen Blickpunkt vorgegeben wird, und wobei deren Projektionsmatrix durch eine gewünschte intrinsische Matrix für Kamera vorgegeben wird, und zwar für gewöhnlich identisch oder nahe derjenigen der realen Kamera. An diesem Punkt werden die RGB-Informationen aus dem Farbpuffer der OpenGL-Pipeline und den Tiefeninformationen aus dem Tiefenpuffer extrahiert. Folglich wird ein virtueller Rahmen des RGBD-Bildes am gewünschten virtuellen Blickpunkt erzeugt.
  • In noch einer anderen Ausführungsform gilt Folgendes: Wenn die 3D-Punktwolke der Szene relativ dünn besetzt ist, werden die virtuellen Bilder unter Verwendung von ebeneninduzierter Homographie erzeugt. Für diesen Fall ist es schwierig, das virtuelle Bild aus einem weit weg befindlichen virtuellen Blickpunkt für jedes Pixel im Bild zu erzeugen, da pixelbezogene 3D-Informationen häufig fehlen. Anstatt ein dichtbesetztes virtuelles Bild zu erzeugen, wie in den obigen zwei Fällen, kann in einigen Ausführungsformen ein dünnbesetztes virtuelles Bild erzeugt werden, wobei der Fokus auf Pixelorten mit vorab geschätzten 3D-Informationen liegt, d. h. allen Merkmalspunkten in den realen Bildern.
  • Dieser Erzeugungsprozess kann durch bildbasiertes Krümmen bzw. Verziehen unter Verwendung von ebeneninduzierter Homographie erfolgen, wie nachfolgend erläutert. Unter der Annahme, dass die einem Merkmalspunkt entsprechende Landmarke bzw. der entsprechende Ortungspunkt in einer kleinen Ebene lokal (nw , dw ) ist, wobei nw die Normalenrichtung der Ebene im Weltkoordinatensystem ist, und wobei dw der Abstand des Welt-Ursprungs zur Ebene ist.
  • Falls dieser Merkmalspunkt vorher in einem realen Rahmen beobachtet worden ist, dessen Lage bzw. Pose in der Welt T r ( R r , t r ; 0,1 )
    Figure DE112018001056T5_0002
    ist, wobei Rr und tr die 3D-Drehmatrix der realen Kamera bzw. ihr Translationsvektor ist, und wenn die Lage bzw. Pose des gegebenen virtuellen Blickpunkts T v ( R v , t v ; 0,1 )
    Figure DE112018001056T5_0003
    ist, wobei Rv und tv die 3D-Drehmatrix der virtuellen Kamera bzw. ihr Translationsvektor ist, dann ergibt sich aus der Theorie der Mehrfachbetrachtungs-Geometrie eine Homographie-Matrix zwischen dem realen Rahmen und dem virtuellen Rahmen, induziert durch Beobachten derselben lokalen Ebene, wie folgt: H K v ( R t n T d 1 ) K r 1 ,
    Figure DE112018001056T5_0004
    wobei ( R , t ; 0,1 ) = T v 0,1 T r ,   n = R r T n w ,   d = n w T t r + d w
    Figure DE112018001056T5_0005
    und Kv und Kr die virtuelle bzw. die reale intrinsische 3 × 3-Matrix für Kamera ist.
  • Diese Homographie-Matrix kann verwendet werden, um diesen Merkmalspunkt und dessen Nachbarpixel zu krümmen bzw. zu verziehen, und zwar als Flicken (Patch) auf dem realen Bild zu einem Flicken auf dem virtuellen Bild. Dieser gekrümmte Flicken stellt dar, was zu beobachten erwartet würde, falls eine reale Kamera die entsprechende Landmarke bzw. Ortungspunkt von der virtuellen Lage bzw. Pose Tv aus betrachten würde. Indem dieser Krümmungsvorgang für jeden Merkmalspunkt auf dem realen Bild wiederholt wird, wird ein virtuelles Bild mit dünn besetzten Merkmalen erzeugt.
  • 13 zeigt eine Veranschaulichung von beispielhaften virtuellen Bildern 631, die in Hinblick auf eine Menge von virtuellen Blickpunkten 630 im 3D-Modell 602 erzeugt werden, gemäß einigen Ausführungsformen. In diesem Beispiel werden die geometrischen Strukturen von Objekten (z. B. Gebäude und Haus) in der Szene nicht in den virtuellen Bildern verzerrt, da die virtuellen Bilder über das 3D-Modell erzeugt werden.
  • Das Bildmerkmal-Extraktionsmodul 308 extrahiert Bildmerkmale. Beispielsweise werden Eckpunkte in einem Bild detektiert, und dann werden lokale Merkmale jedes Eckpunkts (z. B. SIFT, SURF usw.) berechnet.
  • Das Referenzdaten-Erzeugungsmodul 309 ordnet jedes Bildmerkmal (im Modul 308 extrahiert) einer 3D-Position im 3D-Modell zu. Ein Paar aus Bildmerkmal und zugeordneter 3D-Position wird als Referenzdaten definiert.
  • 14 zeigt eine schematische Darstellung eines Datenflusses der Referenzdatenerzeugung gemäß einigen Ausführungsformen. Das Bildmerkmal-Extraktionsmodul 308 extrahiert Bildmerkmale 650 für eine ursprünglich erfasste Bildmenge 601 und eine virtuelle Bildmenge 631. An diesem Punkt ist jede Bild-2D-Position einer 3D-Position im 3D-Modell zugeordnet. Im Ergebnis werden Paare aus Bildmerkmal und 3D-Position als Referenzdaten 651 erzeugt. Das Referenzdaten-Speichermodul 310 speichert die Referenzdaten.
  • Das Benutzer-Ausgabemodul 311 zeigt die Zwischeninformationen und die resultierenden Informationen aus dem Lernmodus dem Benutzer in einfach verständlicher Weise an. Beispielsweise wird eine vereinfachte Ansicht des 3D-Modells aus der Vogelperspektive dem Benutzer angezeigt, wobei der Startort, der Ziel-Parkzwischenraum und der Parkpfad visualisiert werden, die im Lernmodus angenommen worden sind.
  • 15 zeigt ein Blockdiagramm von Funktionsmodulen, die im automatischen Parkmodus verwendet werden, gemäß einer Ausführungsform. Das Bilderfassungsmodul 301 und das Bildmerkmal-Extraktionsmodul 308 sind dieselben wie im Lernmodus. Im automatischen Parkmodus gibt jedoch das Bilderfassungsmodul 301 direkt eine Bildmenge aus, z. B. vier Bilder für jeden Rahmen, und zwar an das Bildmerkmal-Extraktionsmodul 308.
  • Das Referenzdaten-Abgleichmodul 312 gleicht die Eingangsbildmerkmale mit den Bildmerkmalen in den Referenzdaten ab, die im Lernmodus erzeugt werden. Auf der Basis der Abgleich-Ergebnisse wird jeder der Referenzdaten ein Rang zugeordnet, und zwar mittels der Bildmerkmal-Übereinstimmungspunktzahl, und die oberen N Referenzdaten (N ist eine festgelegte Zahl und im Voraus definiert) werden ausgewählt. Der euklidische Abstand zwischen Merkmalsvektoren ist ein Beispiel für ein Ähnlichkeitsmaß. Nach dem Abgleichen wird eine 3D-Position jedem Bildmerkmal zugeordnet, und zwar auf der Basis der 3D-Punkte der abgeglichenen Referenzdaten.
  • 16 zeigt einen Datenfluss eines Merkmals-Übereinstimmungsprozesses gemäß einer Ausführungsform. Zunächst werden Bildmerkmale einer Eingabe-Bildmenge 660 mit den Referenzdaten 651 auf der Basis von Bildmerkmal-Ähnlichkeit abgeglichen. Dann werden 3D-Positionen der abgeglichenen Referenzdaten jedem Eingabebildmerkmal zugeordnet. Im Ergebnis wird eine Abgleich-Ergebnismenge 661 erzeugt.
  • Das Fahrzeug-Ortungsmodul 313 berechnet einen gegenwärtigen Zustand des Fahrzeugs, d. h. die Fahrzeugposition und Fahrzeugausrichtung im 3D-Model, und zwar im gegenwärtigen Rahmen bzw. Frame aus dem Abgleich-Ergebnis, das aus dem Modul 312 ausgegeben wird. Da die Entsprechungen bzw. Zuordnungen zwischen den 2D-Bildmerkmalen und den 3D-Positionen im 3D-Modell an diesem Punkt bekannt sind, kann die 3D-Position und -Ausrichtung jeder Kamera unter Verwendung einer Klasse von Algorithmen berechnet werden, die als Perspektive-n-Punkt-Algorithmen bezeichnet werden. Da außerdem jede Kamera auf das Fahrzeug-Koordinatensystem kalibriert ist (da die Relationen bekannt sind), können die 3D-Position und -Ausrichtung des Fahrzeugs auch mittels derjenigen von jeder Kamera berechnet werden, d. h. das Fahrzeug kann im 3D-Modell geortet werden.
  • Das Pfad-Planungsmodul 314 berechnet einen Pfad zum Parken vom gegenwärtigen Fahrzeugort zum Ziel-Parkzwischenraum auf der Basis der Ortungsergebnisse. Das Fahrzeug-Steuerungsmodul 315 steuert das Fahrzeug so, dass sich das Fahrzeug entlang des im Pfad-Planungsmodul 314 berechneten Pfades bewegt.
  • 17 und 18 zeigen Blockdiagramme von Funktionsmodulen, die im Lernmodus bzw. im automatischen Parkmodus von einigen Ausführungsformen verwendet werden. In dieser Ausführungsform werden die Referenzdaten im automatischen Parkmodus erzeugt und nicht im Lernmodus.
  • Im Lernmodus speichert das Speichermodul 801 für 3D-Modell das 3D-Modell, und das Bildmerkmal-Speichermodul 802 speichert eine Bildmerkmalmenge. Im automatischen Parkmodus erzeugt das Referenzdaten-Erzeugungsmodul 310 die Referenzdaten aus dem 3D-Modell und den im Lernmodus gespeicherten Bildmerkmalen.
  • 19 veranschaulicht ein weiteres Blockdiagramm von Funktionsmodulen, die im Lernmodus verwendet werden, und zwar von einer sich unterscheidenden Ausführungsform. Das 3D-Modell-Analysemodul 320 detektiert einen freien Raum (Straßenbereich) zum Fahren (Parken) im 3D-Modell durch Segmentierung, wie z. B. eine Straßenszenen-Segmentierung auf der Basis von 2D-Ebenen-Passung oder eine Straßenbereichsdetektion auf der Basis von Textur, Farbe und Gradient. Außerdem detektiert das Modul 320 auch spezifische statische Objekte, wie z. B. Gebäude, Häuser oder Hinweistafeln, und zwar mit Maschinenlerntechniken.
  • Das Bestimmungsmodul 306 für virtuellen Beobachtungspunkt gibt die virtuellen Fahrzeug-Ursprünge und Koordinatensysteme auf dem freien Raum und um die im Modul 320 detektierten spezifischen Objekte herum zufällig oder regelmäßig vor. Die virtuellen Beobachtungspunkte werden dann gemäß den virtuellen Fahrzeug-Koordinatensystemen bestimmt.
  • Diese Ausführungsform ermöglicht es, die virtuellen Beobachtungspunkte wirksamer vorzugeben. Wenn das System die virtuellen Beobachtungspunkte dicht und gleichmäßig auf dem freien Raum vorgegeben hat, kann man die virtuellen Bilder erzeugen, die möglicherweise ähnlichere Erscheinungsbilder und Bildmerkmale zu denen der Eingabebilder im automatischen Parkmodus haben, da alle Eingabebilder stets irgendwo auf dem freien Raum erfasst werden. Indem die virtuellen Beobachtungspunkte um die spezifischen Objekte herum vorgegeben werden, kann die Ausführungsform außerdem dichte Bildmerkmale erzeugen. Im Ergebnis macht diese Ausführungsform den automatischen Parkmodus stabiler und robuster.
  • 20 zeigt ein anderes Blockdiagramm von Funktionsmodulen, die im Lernmodus verwendet werden. Das Benutzer-Eingabemodul 330 empfängt die Eingaben des Fahrers und gibt sie an das Bestimmungsmodul 306 für virtuellen Beobachtungspunkt aus. In dieser Ausführungsform bestimmt das Bestimmungsmodul 306 für virtuellen Beobachtungspunkt die virtuellen Blickpunkte auf der Basis der Eingaben des Benutzers (Fahrers).
  • Das Benutzer-Eingabemodul 330 stellt eine Schnittstellenfunktion bereit, die es dem Fahrer ermöglicht, die Quelleninformationen der virtuellen Beobachtungspunkte im 3D-Modell intuitiv zu spezifizieren, während das Benutzer-Ausgabemodul 311 das 3D-Modell und die analysierten Ergebnisse (freier Raum und spezifische statische Objekte, die im 3D-Modell-Analysemodul 320 detektiert werden) auf eine leicht verständliche Weise auf der Schnittstelleneinrichtung anzeigt, so dass der Fahrer die umgebende Umwelt auf Anhieb verstehen kann.
  • Sei beispielsweise eine berührungsempfindliche Anzeigetafel als Schnittstelleneinrichtung angenommen. Das Benutzer-Ausgabemodul 311 zeigt die Draufsicht des 3D-Modells an, in welchem der freie Raum und Objekte mit deren Bezeichnungen auf der Tafel dargestellt werden. Dann spezifiziert der Fahrer die gewünschten Punkte für die virtuelle Beobachtung auf der angezeigten Karte mittels eines Berührungsvorgangs, während das Benutzer-Eingabemodul 330 die Eingaben des Fahrers entgegennimmt. Das Benutzer-Eingabemodul 330 gibt die Punktdaten an das Bestimmungsmodul 306 für virtuellen Beobachtungspunkt aus.
  • 21 zeigt eine beispielhafte Schnittstelle zum Auswählen der Richtung des Parkens gemäß einer Ausführungsform. In dieser Zeichnung sind der Ziel-Parkzwischenraum 402, Objekte (Gebäude und Haus) 403 und 404, der freie Raum (Straßenbereich) 405, der Parkpfad 406, der im Lernmodus genommen wird, und spezifische virtuelle Beobachtungspunkte 407 in der Ansicht des 3D-Modells 401 aus der Vogelperspektive visualisiert. In diesem Beispiel sind die spezifizierten virtuellen Beobachtungspunkte 407 in der Form von kameraförmigen Piktogrammen visualisiert, um die intuitive Betätigung des Fahrers zu unterstützen.
  • 22 zeigt eine weitere Schnittstelle zum Auswählen der Richtung des Parkens gemäß einer Ausführungsform. In diesem Beispiel kann der Fahrer die virtuellen Beobachtungspunkte spezifizieren, indem er den gewünschten Parkpfad auf der Vogelperspektive-Karte zeichnet.
  • Der gewünschte Parkpfad oder die gewünschte Richtung 408 des Parkens ist in der Vogelperspektive-Karte 401 in dieser Zeichnung visualisiert. Das Benutzer-Eingabemodul 330 gibt die Eingaben des Fahrers in der Form von Pfaden an das Bestimmungsmodul 306 für virtuellen Beobachtungspunkt aus, und das Bestimmungsmodul 306 für virtuellen Beobachtungspunkt erzeugt virtuelle Beobachtungspunkte einhergehend mit den spezifischen Pfaden, indem es die linearen Pfadinformationen in diskrete Punktsequenz-Informationen umwandelt. Diese Ausführungsform erweitert die Nutzbarkeit des automatischen Parksystems. Das bedeutet, dass der Fahrer das automatische Parksystem einfacher und intuitiver nutzen kann, so dass es den Bedürfnissen des Fahrers angepasst ist.
  • 23A zeigt ein Blockdiagramm eines Verfahrens, das von Ausführungsformen verwendet wird, zum Auswählen von Blickpunkten außerhalb des ersten Parkpfads. In diesen Ausführungsformen empfängt im Schritt 2320 das Verfahren in Ansprechen auf das Rendern 2310 einer Darstellung des Modells des Park-Zwischenraums auf einer Anzeigeeinrichtung eine Auswahl einer Richtung des Parkens. Diese Auswahl wird verwendet, um den zweiten Parkpfad zu bestimmen im Schritt 2330, der sich dem Ziel-Zustand von der ausgewählten Richtung aus annähert. Beispielsweise wird ein Zustand des Fahrzeugs gemäß der Richtung ausgewählt, und der zweite Parkpfad wird unter Verwendung des Modells des Fahrzeugs bestimmt. Nachdem der zweite Pfad bestimmt worden ist, wird die Menge von virtuellen Blickpunkten ausgewählt im Schritt 2340, und zwar auf dem zweiten Parkpfad.
  • 23B zeigt ein Blockdiagramm eines alternativen Verfahrens, das von einer Ausführungsform verwendet wird, zum Auswählen von Blickpunkten außerhalb des ersten Parkpfads. In dieser Ausführungsform werden die Blickpunkte ohne die Eingabe vom Benutzer ausgewählt. Genauer gesagt: Diese Ausführungsform detektiert im Schritt 2350 einen Teil des Park-Zwischenraums, der frei von Hindernissen ist. Beispielsweise kann der Teil des Park-Zwischenraums, der frei von Hindernissen ist, unter Verwendung der Segmentierung des Modells des Park-Zwischenraums bestimmt werden, wie in Bezug auf 19 beschrieben.
  • Die Ausführungsform tastet im Schritt 2360 den Teil des Park-Zwischenraums ab und erzeugt eine Menge von abgetasteten Zuständen, und sie wählt die Blickpunktmenge aus der Menge von abgetasteten Zuständen aus. In einer Ausführungsform werden alle abgetasteten Zustände als die virtuellen Blickpunkte verwendet. Einige alternative Ausführungsformen führen die Abtastung unter Verwendung eines Erreichbarkeits-Kriteriums durch. Gemäß dem Erreichbarkeits-Kriterium wird das Abtastelement im Zustandsraum nur bewahrt, wenn das Abtastelement vom Ziel-Zustand aus erreichbar ist. In einer Ausführungsform gilt Folgendes: Um eine Verwendung der Dynamik des Fahrzeugs zu vermeiden, um die Stabilität zu testen, wird die Erreichbarkeit als eine Abwesenheit einer Nicht-Erreichbarkeit definiert, und die Nicht-Erreichbarkeit ist ein vorbestimmter Bereich nahe den Seiten des Fahrzeugs.
  • 23C zeigt eine schematische Darstellung von beispielhaften nicht-erreichbaren Bereichen 2393 und 2397 für ein Fahrzeug 101 im Zustand 2391, der die Position und die Ausrichtung des Fahrzeugs definiert. In diesem Beispiel werden die nicht-erreichbaren Bereiche mit den Kreisen der Fahrzeugbewegung beginnend beim Zustand 2391 und sich mit der vorbestimmten Geschwindigkeit bewegend dargestellt, wobei das Rad des Fahrzeugs die maximale Auslenkung nach links oder nach rechts erreicht.
  • Falls der Ziel-Zustand 2390 innerhalb der nicht erreichbaren Bereiche 2393 und 2397 liegt, wird der Zustand 2391 zurückgewiesen. Zu diesem Zweck wird in dieser Ausführungsform eine Erreichbarkeit des Ziel-Zustands von einem abgetasteten Zustand aus getestet im Schritt 2370, und zwar unter Verwendung des Modells des Fahrzeugs, und es wird der Blickpunkt ausgewählt im Schritt 2380, der dem abgetasteten Zustand in die Blickpunktmenge hinein entspricht, falls der Ziel-Zustand vom abgetasteten Zustand aus erreichbar ist.
  • In einigen Ausführungsformen wird die Pfadplanung im Voraus oder in Echtzeit durchgeführt. Beispielsweise kann die Pfadplanung im Voraus unterschiedliche Parkpfade bestimmen, die zum Ziel-Zustand aus unterschiedlichen Richtungen führen. In diesen Situationen ermöglicht die Richtung 408 eine Auswahl des zweiten Parkpfads aus den vorbestimmten Parkpfaden. Zusätzlich oder alternativ wird in einigen Implementierungen der freie Raum des Park-Zwischenraums wie mit der Richtung 408 angegeben abgetastet, und der abgetastete Zustand des Fahrzeugs wird zum Bestimmen der alternativen Parkpfade verwendet, wie z. B. der zweite Parkpfad.
  • 24 zeigt eine beispielhafte schematische Darstellung von möglichen Parkpfaden des Fahrzeugs 101 durch den Park-Zwischenraum. In diesem Beispiel erfassen die Kameras Bilder nur bei den Zuständen {X0 , X1 , X2 ,...XM-1, XM }, die als Sterne dargestellt sind und der Blickpunktmenge entsprechen. Diese Zustände werden als Saat (Seed) verwendet, um einen Graphen 2410 zu bilden bzw. wachsen zu lassen. Der Graph 2410 hat mehrere Knoten, die mit Kanten verbunden sind. Jeder Knoten definiert den Zustand des Fahrzeugs, und jede Kante, die zwei Knoten verbindet, definiert einen brauchbaren Pfad zwischen den zwei Knoten.Zu diesem Zweck ist ein Pfad von irgendeinem Knoten zu einem Zielknoten 195 des Ziel-Zustands durch die Kanten, die den Knoten mit dem Zielknoten verbinden, ein möglicher Parkpfad.
  • Die Knoten des Graphen werden als die virtuellen Blickpunkte zum Bestimmen von virtuellen Bildern ausgewählt. Die Merkmale aus den virtuellen Bildern entsprechend den Knoten, die unter Verwendung von Kreisen und Sternen dargestellt sind, wie z. B. die Knoten 191, 192, 193, 194, 195, werden als Referenzdaten verwendet. Während der automatischen Parkstufe gilt Folgendes: Falls die gegenwärtige Position des Fahrzeugs in der Nähe von zumindest einem der Knoten ist, kann der Pfad von diesem Knoten zum Ziel-Zustand 195 leicht aus dem Graphen 2410 ausgewählt werden.
  • Der Graph 2410 kann unter Verwendung eines Modells des Fahrzeugs erzeugt werden, z. B. eines dynamischen und/oder kinematischen Modells. Wie hier verwendet, berücksichtigt ein dynamisches Modell eines Fahrzeugs die zeitabhängigen Änderungen im Zustand des Fahrzeugs. Dynamische Modelle werden typischerweise durch Differentialgleichungen dargestellt. In einer Ausführungsform wird das dynamische Modell des Fahrzeugs durch die folgenden Differentialgleichungen fünfter Ordnung dargestellt: x ˙ = cos ( θ ) cos ( ζ ) v y ˙ = sin ( θ ) sin ( ζ ) v θ ˙ = sin ( ζ ) v l v ˙ = a 1 ζ ˙ = a 2 ,
    Figure DE112018001056T5_0006
    wobei v die Geschwindigkeit der Vorderräder ist, ζ der Winkel zwischen den Vorderrädern und der Fahrzeug-Ausrichtung ist, a1 die Translationsbeschleunigung ist, a2 die Lenkwinkelgeschwindigkeit ist, und l der Abstand zwischen (x, y)und dem Mittelpunkt der Vorderräder ist.
  • Für die Pfadplanung verwenden einige Ausführungsformen ein kinematisches Modell des Fahrzeugs, das die Bewegung des Fahrzeugs beschreibt, ohne dass die Masse des Fahrzeugs oder die Kräfte berücksichtigt werden, die die Bewegung verursacht haben.
  • Bei einer Ausführungsform wird das folgende kinematische Modell verwendet: x ˙ = cos ( θ ) u 1 y ˙ = sin ( θ ) u 1 θ ˙ = u 2 ,
    Figure DE112018001056T5_0007
    wobei u1 = cos(ζ)v die Geschwindigkeit des Mittelpunkts der Hinterachse ist, u2 = tan(ζ)u1/l.
  • Ein Pfad ist kinematisch brauchbar, wenn es eine Lösung des kinematischen Modells (2) gibt. Ein Fahrzeugzustand X = (x, y, θ) ist nur dann kollisionsfrei, wenn das Fahrzeug, das sich an der Position X befindet, nicht mit irgendeinem Hindernis kollidiert und vollständig innerhalb der Grenzen des Park-Zwischenraums liegt. Der Anfangszustand 101 wird abgekürzt als X0 = (x0, y0, θ0),und der Ziel-Zustand 102 ist mit Xf = (xf, yf, θf)bezeichnet. Für eine spezifische Parkaufgabe mit einem Park-Zwischenraum, der durch ein Rechteck L × H dargestellt wird, gehört der Fahrzeugzustand stets zu einem Zustandsraum X: [0, L) × [0, H) × [0,2π
  • 25A zeigt ein Funktionsdiagramm eines automatisierten Parksystems gemäß einer Ausführungsform. Der Umgebungs-Kartierungs- und Ortungsblock 201 konstruiert oder aktualisiert das Modell des Park-Zwischenraums und bestimmt den gegenwärtigen Ort des Fahrzeugs, indem er die Umgebung und die Fahrzeugs-Betriebsbedingung erfasst. Beispielsweise kann der Kartierungs- und Ortungsblock 201 den Ortungsblock 313 enthalten. Beispielsweise kann der Kartierungs- und Ortungsblock 201 auch eine Inertialmesseinheit aufweisen, welche 3-Achsen-Beschleunigungssensor(en), 3-Achsen-Gyroskop(e) und/oder Magnetometer (Sg./Pl.) aufweist, und welche zum Erfassen des Fahrzeugs-Betriebs verwendet werden kann. Ein Sensor für globales Positionsbestimmungs-System kann verwendet werden, um die Position und Geschwindigkeit des Fahrzeugs bereitzustellen. Sensoren zum Erfassen der Umgebung 200 können Videokameras sein, die Hindernisse inklusive anderer Fahrzeuge, Fußgänger und Gebäude erfassen, Ultraschall-/Radarsensoren, die den Abstand zwischen dem Fahrzeug und Hindernissen detektieren.
  • Der Ziel-Zustand-Auswahlblock 202 wählt einen Ziel-Zustand für einen Parkplatz zum Parken des Fahrzeugs aus, indem er Parkplatz-Kandidaten identifiziert, und er sendet den Ziel-Zustand an einen Bewegungsplanungsblock 203. In einer Ausführungsform werden die verfügbaren Parkplätze von einem separaten System verfolgt, das mit der Verwaltung der Parkgarage zusammenhängt. Zusätzlich oder alternativ können die Parkplätze unter Verwendung der Sensoren 121, 124 des automatischen Parksystems detektiert werden.
  • Die Bewegungsplanung 203 initiiert eine vollständige Bewegungsplanungs-Prozedur zum Bestimmen eines Parkpfades 241 auf der Basis der Fahrzeugmodelle 210, der Anfangs- und Ziel-Zustände des Fahrzeugs sowie der Karte des Park-Zwischenraums. In einer Ausführungsform definiert der Parkpfad Profile der Fahrzeug-Geschwindigkeit und des Lenkwinkels im Zeitverlauf. In einer weiteren Ausführungsform definiert der Parkpfad das Profil des Fahrzeugzustands (x, y, θ)im Zeitverlauf.
  • Bei gegebenem Parkpfad 241 bestimmen die Fahrzeugsteuerungen und -aktuatoren 204 Steuerbefehle und führen diese aus, um zu veranlassen, dass der Fahrzeugzustand dem Parkpfad 241 folgt, falls der Parkpfad ein Zustandsprofil ist, oder um zu veranlassen, dass die Fahrzeug-Geschwindigkeit und der Lenkwinkel dem Parkpfad folgen, falls der Parkpfad die Fahrzeug-Geschwindigkeit und die Lenkwinkel-Profile sind. In einer Ausführungsform können die Steuerbefehle der Gaspedal-Druck oder das Lenkmoment sein. Die Fahrzeugsteuerungen/-aktuatoren können auch das Signal 243 verwenden, um Steuerbefehle zu bestimmen. Das Signal 243 kann ein gemessener Lenkwinkel sein oder gemessene Ströme von Motoren, die das Lenkrad oder das Gaspedal bewegen.
  • 25B zeigt eine allgemeine Struktur des Bewegungsplanungssystems 203 gemäß einer Ausführungsform. Das Bewegungsplanungssystem 203 weist mindestens einen Prozessor 270 zum Ausführen von Modulen des Bewegungsplanungssystems 203 auf. Der Prozessor 270 ist mit einem Speicher 280 verbunden über einen Pfad 271, der geometrische Informationen 281 speichert, wie z. B. die Geometrie des Fahrzeugs und ein Modell des Park-Zwischenraums. Der Speicher 280 kann auch die Modelle des Fahrzeugs 282 speichern, wie z. B. ein kinematisches Modell des Fahrzeugs und ein dynamisches Modell des Fahrzeugs.
  • Der Speicher 280 kann auch die internen Informationen 283 des Bewegungsplaners speichern, inklusive und ohne Beschränkung eines Anfangszustands des Fahrzeugs, eines Ziel-Zustands des geparkten Fahrzeugs. In einigen Ausführungsformen kann der Speicher 280 gespeicherte Anweisungen enthalten, die das Verfahren für das automatische Parken implementieren, wobei die Anweisungen, wenn sie von dem Prozessor 270 ausgeführt werden, zumindest einige Schritte des Verfahrens ausführen.
  • Einige Ausführungsformen basieren auf der Erkennung, dass die virtuellen Bilder ferner dazu verwendet werden können, die Dichte und Genauigkeit des Modells des Park-Zwischenraums zu erhöhen. Beispielsweise verwenden einige Ausführungsformen eine visuelle simultane Positionsbestimmung und Kartierung (SLAM), die Bilder als visuelle Sensordaten-Eingaben zum Rekonstruieren eines dreidimensionalen (3D) Modells einer Szene nutzen. Einige Ausführungsformen verwenden virtuelle Bilder, die für das automatische Parken erzeugt werden, um solch eine visuelle SLAM (VSLAM) bereitzustellen, die geeignet ist zum Konstruieren eines 3D-Modells der Szene mit einer verringerten Anzahl von Bildern, die zum Verfolgen der Lage bzw. Pose des Sensors verwendet werden.
  • Solch eine VSLAM wird hier als eine virtuell-augmentierte VSLAM (VA-VSLAM) bezeichnet. Die VA-VSLAM kann ähnliche Modelle der Szene mit einer kleineren Anzahl von Bildern konstruieren, oder sie kann alternativ bessere Modelle der Szene mit der gleichen Anzahl von Bildern konstruieren als eine herkömmliche VSLAM. Zu diesem Zweck kann durch Verwenden einer kleineren Anzahl von Bildern die VA-VSLAM die Rechenleistung und den Speicherverbrauch verringern und die Trajektorie verbessern, der von dem Sensor gefolgt wird, um die Umgebung zu kartieren. Alternativ kann durch Verwenden der gleichen Anzahl von Bildern die VA-VSLAM ein 3D-Modell mit höherer Genauigkeit erzeugen, was zu einer höheren Genauigkeit bei der Selbstortung unter Verwendung des 3D-Modells führt.
  • 26A zeigt ein Blockdiagramm eines VA-VSLAM-Grundgerüsts 2600 gemäß einigen Ausführungsformen, wobei die Vorteile eines VSLAM-Grundgerüsts 2610 genutzt werden, um sowohl eine oder mehrere 6D-Posen (Positionen und Ausrichtungen) von Kameras, als auch eine 3D-Beschreibung der geometrischen Umgebungen zu schätzen. Das VA-VSLAM-Grundgerüst arbeitet, indem es einen Abgleich zwischen einer Merkmalsmenge auf den gegenwärtig beobachteten realen Bildern, die von den Kameras und/oder Sensoren aus einigen realen Betrachtungs-Posen erfasst werden, und einer Merkmalsmenge auf den virtuell erzeugten Bildern durchführt, die von einer virtuellen Kamera aus einigen virtuellen Betrachtungs-Posen beobachtet werden.
  • Die Schritte des Verfahrens können von einem Prozessor durchgeführt werden, wie z. B. einem Allzweckprozessor 161 und/oder spezialisierten Prozessoren 166, 167 und 168, die mit einem Speicher verbunden sind, wie z. B. dem Speicher 164, der die Bildmenge speichert und mit den gespeicherten Anweisungen gekoppelt ist, wie z. B. der Software 165, die das Verfahren implementiert. Wenn sie von dem Prozessor ausgeführt werden, führen die Anweisungen zumindest einige Schritte des Verfahrens des VA-VA-VSLAM-Grundgerüsts 2600 aus.
  • Das VA-VSLAM-Grundgerüst 2610 arbeitet wie folgt. Eine Menge von realen Rahmen oder Frames, { F i }
    Figure DE112018001056T5_0008
    der Bilder, wird von einigen Merkmals-Extraktoren verarbeitet, so dass eine Merkmalsmenge, f l { f j i } ,
    Figure DE112018001056T5_0009
    auf jedem Rahmen F i
    Figure DE112018001056T5_0010
    des Bildes ausgewählt wird. Ein Rahmen F i
    Figure DE112018001056T5_0011
    kann ein reguläres 2D-Bild mit einem Kanal von Grauinformationen oder drei Kanälen von RGB-Informationen und/oder ein 3D-Bild mit vier Kanälen von RGBD-Informationen enthalten, wobei der vierte Kanal die Tiefe des Pixels beschreibt, d. h. den Abstand entlang der Betrachtungsrichtung der Kamera zwischen dem Kamera-Zentrum und dem nächsten Objekt entlang der Strahlrichtung jenes Pixels.
  • Ein Prozess zum Bestimmen der Strahlrichtung eines Pixels ist als Rückprojektion des Pixels bekannt, und er kann unter Verwendung von intrinsischen Parametern der Kamera durchgeführt werden. Beispielsweise kann ein Merkmal f j i
    Figure DE112018001056T5_0012
    entweder ein 2D-Punkt sein, falls der Rahmen F i
    Figure DE112018001056T5_0013
    ein 2D-Bild ist, oder es kann ein 3D-Punkt sein, falls der Rahmen F i
    Figure DE112018001056T5_0014
    ein 3D-Bild ist, solange sich dieses Merkmal entweder geometrisch oder im Erscheinungsbild signifikant von seinen Nachbarbereichen unterscheidet. Beispiele für Merkmals-Extraktoren schließen Harris, FAST oder ORB-Schlüsselpunkt-Detektoren ein.
  • Dann wird diese Merkmalsmenge fimit einer anderen Merkmalsmenge f' abgeglichen, um entsprechende Merkmalspaare {(j, j')} zu finden, wie z. B. dass das Merkmale f j i
    Figure DE112018001056T5_0015
    und das Merkmal f j i
    Figure DE112018001056T5_0016
    demselben physischen Bereich entsprechen, was als eine Landmarke bzw. Ortungspunkt oder ein Interessenspunkt bezeichnet wird, und zwar in der Szene. Solch ein Abgleich kann durch verschiedenartige Merkmals-Beschreibungsverfahren durchgeführt werden, wie z. B. maßstabsinvariante Merkmalstransformation (SIFT), die Interessenspunkte ortet und deren Beschreibungen erzeugt, beschleunigte robuste Merkmale (SURF), Gradienten-Orts-Ausrichtungs-Histogramm (GLOH), ORB oder andere vergleichbare Techniken und/oder sampling-basierte Verfahren, wie z. B. RANSAC.
  • Unter Verwendung der entsprechenden Merkmals-Paare kann die visuelle SLAM 2610 die Pose 2620 dieses Rahmens F i
    Figure DE112018001056T5_0017
    verfolgen, und zwar hinsichtlich eines von einem vorab beobachteten Rahmen F k
    Figure DE112018001056T5_0018
    oder einer Karte 2640 M { f k ;   k = 0, n } ,
    Figure DE112018001056T5_0019
    die alle vorher beobachteten Rahmen enthält, abhängig davon, wie die Merkmalsmengef' konstruiert wird. Die verfolgten Posen- und Merkmals-Entsprechungen werden einer Bündel-Anpassung 2630 zugeführt, um die besten 6-DOF-Posen oder Rahmen zu finden, sowie 3D-Geometrie-Beschreibungen von Merkmalen, die verwendet werden, um die Karte 2640 weiter zu aktualisieren.
  • Bei einer gegebenen Bildmenge, die eine Anzahl von 3D-Punkten von unterschiedlichen Blickpunkten aus darstellt, kann die Bündel-Anpassung 2630 definiert werden als das Problem, dass gleichzeitig eines oder eine Kombination von einem Verfeinern von Folgendem gelöst wird: 3D-Koordinaten, die die Szenen-Geometrie beschreiben, Parameter der relativen Bewegung der Kamera, und optische Eigenschaften der Kamera(s), die verwendet wird/werden, um die Bilder zu erfassen, und zwar gemäß einem Optimierungskriterium, das die entsprechenden Bildprojektionen aller Punkte beinhaltet.
  • In einer Ausführungsform schließt die Bündel-Anpassung ein Minimieren des Rückprojektions-Fehlers zwischen den Bildorten der beobachteten und der vorhergesagten Bildpunkte ein, was als die Summe der Quadrate einer großen Zahl von nichtlinearen, reellwertigen Funktionen ausgedrückt wird. Demzufolge wird die Minimierung unter Verwendung von nichtlinearen Verfahren der kleinsten Quadrate erzielt. Beispielsweise wird in einer Ausführungsform die Levenberg-Marquardt-Optimierung verwendet, da sie einfach zu implementieren ist und da sie eine wirksame Dämpfungsstrategie nutzt, die ihr die Fähigkeit verleiht, von einem breiten Bereich von anfänglichen geratenen Werten aus rasch zu konvergieren.
  • Indem die zu minimierende Funktion in der Nachbarschaft der gegenwärtigen Schätzung iterativ linearisiert wird, arbeitet das Levenberg-Marquardt-Verfahren mit der Lösung von linearen Systemen, die Normalengleichungen genannt werden. Wenn die Minimierungsprobleme gelöst werden, die im Grundgerüst der Bündel-Anpassung auftreten, haben die Normalengleichungen eine dünnbesetzte Blockstruktur, was dem Fehlen von Interaktion unter den Parametern für unterschiedliche 3D-Punkte und Kameras geschuldet ist.
  • Dies kann ausgenutzt werden, um einen rechentechnischen Nutzen zu ziehen, indem eine dünnbesetzte Variante des Levenberg-Marquardt-Algorithmus verwendet wird, was sich explizit das Nullmuster der Normalengleichungen zunutze macht, und so dass ein Speichern und eine Verarbeitung von Nullelementen vermieden wird.
  • Die VA-VSLAM von einigen Ausführungsformen zielt darauf ab, eine Anzahl von Bildern 2615 zu verringern, die zum Konstruieren der 3D-Karte oder des 3D-Modells der Szene 2640 bezogen werden. Zu diesem Zweck basieren einige Ausführungsformen auf der Erkenntnis, dass die Bilder 2615 von relativ weit entfernten Blickpunkten aus erfasst werden müssen. Auf diese Weise können weniger Bilder verwendet werden, um die Feinheiten der Szene zu erfassen. Ein solcher Ansatz erzeugt jedoch das Abgleichproblem der großen Grundlinie, das in der Lageverfolgung 2620 wurzelt. Genauer gesagt: Eine Landmarke bzw. ein Ortungspunkt, beobachtet von zwei voneinander beabstandeten Betrachtungen bzw. Blickwinkeln aus, kann von dem VSLAM-Abgleichprozess verpasst werden, da sich die Erscheinungen derselben Landmarke, betrachtet von verschiedenen Betrachtungspunkten aus, signifikant ändern können.
  • Zu diesem Zweck weist das VA-VSLAM-Grundgerüst 2600 einen virtuellen Bildgenerator 2650 auf, um das Konzept von virtuellen Rahmen oder Bildern 2655 anzuwenden, um die oben erwähnten Beschränkungen anzugehen. Die VA-VSLAM transformiert explizit die beobachteten Merkmale auf realen Bildern in Merkmale auf virtuell beobachteten Bildern, anstatt sich bloß auf die beschränkte Blickpunkt-Invarianz von bestehenden Merkmals-Abgleichverfahren zu verlassen.
  • Der virtuelle Rahmengenerator 2650 transformiert die Bilder 2615 und erzeugt virtuelle Bilder {Vi } 2655 der Szene bei Betrachtung von virtuellen Blickpunkten aus. Diese virtuellen Bilder werden dann an die visuelle SLAM 2610 übermittelt, um virtuelle Merkmale { v j i }
    Figure DE112018001056T5_0020
    zu extrahieren, um dem Posen-Verfolger dabei zu helfen, die Ortungs-Robustheit und -Genauigkeit zu verbessern, und um die SLAM-Karte als Ψ { f k U v l ;   k = 0, , n ,   l = 0, , m }
    Figure DE112018001056T5_0021
    zu augmentieren.
  • 26B zeigt ein Beispiel einer schematischen Darstellung zum Angehen des Abgleichproblems der großen Grundlinie unter Verwendung von virtuellen Bildern, gemäß einigen Ausführungsformen. In diesem Beispiel sind die Bilder 2660, 2670 und 2690 reale Bilder, die von einem Sensor bezogen werden, der verschiedene Posen hat, d. h. die Bilder 2660, 2670 und 2690 haben unterschiedliche Blickpunkte. Das Bild 2680 ist ein virtuelles Bild mit einem virtuellen Blickpunkt. Die Blickpunkte der Bilder 2660 und 2670 sind relativ nah beieinander.
  • Zu diesem Zweck weisen die Bilder 2660 und 2670 Landmarken bzw. Ortungspunkte 2665 und 2675 auf, die demselben Merkmal in der Szene entsprechen, d. h. die Pixel der Landmarken 2665 und 2675 entsprechen demselben Punkt P in der Szene und haben eine ähnliche Geometrie und/oder Erscheinungsbild. Unter Verwendung von Triangulation oder irgendeiner anderen passenden Berechnungstechnik ist es möglich, die Koordinaten 2625 des Punkts P in der Szene zu berechnen. Wenn nur zwei Bilder zum Bestimmen der Koordinaten des Punkts P verwendet werden, können solche Koordinaten ungenau sein.
  • Das Bild 2690 weist auch die Landmarke 2695 auf, die denselben Punkt P in der Szene darstellt wie die Landmarken 2665 und 2675. Der Blickpunkt des Bildes 2690 ist jedoch so verschieden von den Blickpunkten der Bilder 2660 und 2670, dass die Landmarke 2695 ein sich unterscheidendes Erscheinungsbild hat und nicht mit den Landmarken 2665 und 2675 abgeglichen bzw. in Übereinstimmung gebracht werden kann. Der Blickpunkt des virtuellen Bildes 2680 ist jedoch näher an dem Blickpunkt des Bildes 2690, und die Landmarke 2685, die demselben Punkt P wie die Landmarken 2665 und 2675 entspricht, hat eine ähnlichere Erscheinung wie die Landmarke 2695 und kann mit der Landmarke 2695 abgeglichen werden.
  • Auf diese Weise können einige Ausführungsformen bestimmen, dass die Landmarken 2665, 2675 und 2695 demselben Punkt P in der Szene entsprechen. Zu diesem Zweck kann die Pose des Bildes 2690 verwendet werden, um die Koordinaten des Punkts P auf die Koordinaten 2635 des Punkts P' zu aktualisieren. Auf diese Weise erhöht die Verwendung des virtuellen Bildes die Genauigkeit des Modells der Szene.
  • Auf ähnliche Weise weist das Bild 2670 eine Landmarke 2677 auf, die einem Punkt Q in der Szene entspricht. Das Bild 2690 weist auch eine Landmarke 2697 auf, die demselben Punkt Q in der Szene entspricht wie die Landmarken 2677. Der Blickpunkt des Bildes 2690 ist jedoch so verschieden von den Blickpunkten des Bilds 2670, dass die Landmarke 2697 ein sich unterscheidendes Erscheinungsbild hat und nicht mit der Landmarke 2677 abgeglichen bzw. in Übereinstimmung gebracht werden kann. Daher sind die Koordinaten des Punkts Q unbekannt, und der Punkt Q kann dem Modell der Szene nicht hinzugefügt werden.
  • Der Blickpunkt des virtuellen Bildes 2680 ist jedoch näher an dem Blickpunkt des Bildes 2690, und die Landmarke 2687, die demselben Punkt Q wie die Landmarke 2677 entspricht, hat eine ähnlichere Erscheinung wie die Landmarke 2697 und kann mit der Landmarke 2697 abgeglichen werden. Auf diese Weise können einige Ausführungsformen bestimmen, dass die Landmarken 2677 und 2697 demselben Punkt Q in der Szene entsprechen. Zu diesem Zweck kann die Pose des Bildes 2690 verwendet werden, um die Koordinaten 2645 des Punkts Q zu bestimmen, und der Punkt Q kann dem Modell der Szene hinzugefügt werden. Auf diese Weise erhöht die Verwendung des virtuellen Bildes die Dichte des Modells der Szene mit weniger Bildern, als andernfalls benötigt würden.
  • 27 zeigt ein Blockdiagramm eines Verfahrens zum Rekonstruieren eines 3D-Modells eines Park-Zwischenraums unter Verwendung von virtuellen Bildern, gemäß einigen Ausführungsformen. Das Verfahren transformiert im Schritt 2720 die Bilder aus der Bildmenge 2710, so dass eine virtuelle Bildmenge 2725 der Szene bei Betrachtung von virtuellen Blickpunkten aus erzeugt wird. Die Größen der Mengen 2710 und 2725 können gleich oder unterschiedlich sein. In einer Ausführungsform werden die virtuellen Bilder bedarfsweise erzeugt, wenn die realen Bilder aus der Menge 2710 nicht miteinander abgeglichen bzw. in Übereinstimmung gebracht werden können. Zusätzlich oder alternativ können die virtuellen Bilder proaktiv erzeugt werden.
  • Als nächstes vergleicht im Schritt 2730 das Verfahren zumindest einige Merkmale von den Bildern 2710 und den virtuellen Bildern 2725, um den Blickpunkt 2735 von jedem Bild in der Bildmenge zu bestimmen, und es aktualisiert im Schritt 2740 die 3D-Koordinaten von zumindest einem Punkt in dem Modell 2745 auf die Szene, so dass eine Übereinstimmung mit den Koordinaten von Kreuzungspunkten von Strahl-Rückprojektionen von den Pixeln von mindestens zwei Bildern aus herbeigeführt wird, die dem Punkt gemäß den Blickpunkten der zwei Bilder entsprechen. Da unterschiedliche Pixel von unterschiedlichen Bildern 2710 miteinander abgeglichen werden, können einige Ausführungsformen beispielsweise eine Stereo-Triangulation und/oder eine Lichtflächen-Triangulation verwenden, um die Tiefe der Szene zu bestimmen.
  • Die oben beschriebenen Ausführungsformen der vorliegenden Erfindung können auf verschiedene Arten implementiert sein. Beispielsweise können die Ausführungsformen unter Verwendung von Hardware, Software oder einer Kombination daraus implementiert werden. Wenn sie in Software implementiert sind, kann der Software-Code auf einem jeglichen geeigneten Prozessor oder einer Zusammenstellung von Prozessoren ausgeführt werden, egal ob sie in einem einzelnen Computer bereitgestellt sind oder auf mehrere Computer verteilt sind. Solche Prozessoren können als integrierte Schaltungen implementiert sein, mit einem oder mehreren Prozessoren in einer IC-Komponente. Ein Prozessor kann jedoch auch unter Verwendung einer Schaltung in jeglichem geeigneten Format implementiert sein.
  • Die Ausführungsformen der Erfindung können auch als ein Verfahren ausgeführt sein, von welchem ein Beispiel angegeben ist. Die als Teil des Verfahrens vollzogenen Handlungen können eine beliebige geeignete Reihenfolge haben. Demzufolge können Ausführungsformen konstruiert werden, bei welchen Handlungen in einer anderen Reihenfolge als dargestellt durchgeführt werden, was einschließen kann, dass einige Handlungen gleichzeitig durchgeführt werden, obwohl sie in den beispielhaften Ausführungsformen als aufeinanderfolgende Handlungen dargestellt sind.
  • Die Verwendung von Ordinalausdrücken, wie z. B. „erster“, „zweiter“ in den Ansprüchen, um ein Anspruchselement zu modifizieren, bedeutet nicht aus sich heraus irgendeine Priorität, Vorrang oder Reihenfolge von einem Anspruchselement gegenüber einem anderen oder ein zeitliche Reihenfolge, in welcher die Handlungen eines Verfahrens durchgeführt werden, sondern sie werden nur als Bezeichnungen verwendet, um ein Anspruchselement mit einem gewissen Namen von einem anderen Element mit dem gleichen Namen (außer der Verwendung des Ordinalausdrucks) zur Unterscheidung der Anspruchselemente abzugrenzen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 7737866 B2 [0004]
    • US 8497782 B2 [0004]
    • US 8862321 B2 [0004]
    • US 9140553 B2 [0004]

Claims (20)

  1. Verfahren zum Parken eines Fahrzeugs innerhalb eines Park-Zwischenraums, wobei das Verfahren einen Prozessor, der betriebsmäßig mit einem Speicher verbunden ist, mindestens einen Sensor zum Erfassen von Bildern, die die Umgebung von zumindest einem Teil des Park-Zwischenraums angeben, und eine Steuerung zum Steuern der Bewegung des Fahrzeugs verwendet, wobei der Prozessor mit gespeicherten Anweisungen gekoppelt ist, die das Verfahren implementieren, wobei die Anweisungen, wenn sie von dem Prozessor ausgeführt werden, zumindest einige Schritte des Verfahrens ausführen, das Folgendes aufweist: - Steuern der Bewegung des Fahrzeugs gemäß einem ersten Parkpfad, der bei einem Ziel-Zustand endet, wobei jeder Zustand des Fahrzeugs eine Position und Ausrichtung des Fahrzeugs aufweist, - Erfassen einer Bildmenge des Park-Zwischenraums während der Bewegung des Fahrzeugs entlang des ersten Parkpfads, so dass jedes Bild in der Bildmenge von einem Blickpunkt aus erfasst wird, der durch einen Zustand des Fahrzeugs entlang des ersten Parkpfads definiert ist; - Konstruieren eines Modells des Park-Zwischenraums unter Verwendung der Bildmenge; - Auswählen einer Menge von virtuellen Blickpunkten außerhalb des ersten Parkpfads inklusive mindestens eines Blickpunkts, der einen Zustand des Fahrzeugs außerhalb des ersten Parkpfads definiert; - Erzeugen, unter Verwendung des Modells des Park-Zwischenraums, einer Menge von virtuellen Bildern der Umgebung des Park-Zwischenraums, als wenn die Betrachtung von der Menge von virtuellen Blickpunkten aus erfolgt; - Bestimmen eines gegenwärtigen Zustands des Fahrzeugs, indem ein gegenwärtiges Bild des Park-Zwischenraums, das von dem Sensor erfasst wird, während das Fahrzeug im gegenwärtigen Zustand ist, mit mindestens einem virtuellen Bild verglichen wird; - Bestimmen eines zweiten Parkpfads von dem gegenwärtigen Zustand zum Ziel-Zustand; und - Steuern der Bewegung des Fahrzeugs gemäß dem zweiten Parkpfad.
  2. Verfahren nach Anspruch 1, wobei das Auswählen Folgendes umfasst: - Rendern, auf einer Anzeigeeinrichtung, einer Darstellung des Modells des Park-Zwischenraums; - Empfangen, in Ansprechen auf das Rendern, einer Auswahl einer Richtung des Parkens; - Bestimmen des zweiten Parkpfades, der sich dem Ziel-Zustand aus der ausgewählten Richtung nähert; und Bestimmen der Menge von virtuellen Blickpunkten auf dem zweiten Parkpfad.
  3. Verfahren nach Anspruch 2, wobei die Darstellung des Modells des Park-Zwischenraums ein Draufsicht-Bild des Park-Zwischenraums ist.
  4. Verfahren nach Anspruch 1, wobei das Auswählen Folgendes umfasst: - Detektieren eines Teils des Park-Zwischenraums, der frei von Hindernissen ist, unter Verwendung einer Segmentierung des Modells des Park-Zwischenraums; - Abtasten des Teils des Park-Zwischenraums, so dass eine Menge von abgetasteten Zuständen erzeugt wird; und - Auswählen der Menge von virtuellen Blickpunkten aus der Menge von abgetasteten Zuständen.
  5. Verfahren nach Anspruch 1, das ferner Folgendes umfasst: Testen einer Erreichbarkeit des Ziel-Zustands aus einem abgetasteten Zustand unter Verwendung eines Modells des Fahrzeugs, das im Speicher gespeichert ist; und Hinzufügen eines virtuellen Blickpunkts entsprechend dem abgetasteten Zustand zur Menge von virtuellen Blickpunkten, falls der Ziel-Zustand vom abgetasteten Zustand erreichbar ist.
  6. Verfahren nach Anspruch 1, das ferner Folgendes umfasst: Wachsenlassen eines Graphen, der mehrere Knoten aufweist, die mit Kanten verbunden sind, aus einer Menge von Saaten, sogenannten seeds, entsprechend der Blickpunktmenge, wobei jeder Knoten den Zustand des Fahrzeugs definiert, und wobei jede Kante, die zwei Knoten verbindet, einen kollisionsfreien Pfad zwischen den zwei Knoten definiert; und Auswählen der Menge von virtuellen Blickpunkten, so dass sie zumindest einigen Knoten des Graphen entspricht.
  7. Verfahren nach Anspruch 6, das ferner Folgendes umfasst: - Abtasten eines Zustands im Zustandsraum des Park-Zwischenraums, so dass ein abgetasteter Zustand erzeugt wird; - Bestimmen eines nächsten Knotens des Graphens mit einem Zustand, der dem abgetasteten Zustand am nächsten ist; und - Hinzufügen eines Knotens für den abgetasteten Zustand zum Graphen und Verbinden des hinzugefügten Knotens mit dem nächstgelegenen Knoten über eine Kante, falls die Kante kollisionsfrei ist.
  8. Verfahren nach Anspruch 6, das ferner Folgendes umfasst: - Rendern, auf einer Anzeigeeinrichtung, einer Darstellung des Modells des Park-Zwischenraums; - Empfangen, in Ansprechen auf das Rendern, einer Auswahl einer Richtung des Parkens; - Bestimmen des zweiten Parkpfades, der sich dem Ziel-Zustand aus der ausgewählten Richtung nähert, durch zumindest einige der Knoten und Kanten des Graphen; und - Bestimmen der Menge von virtuellen Blickpunkten auf dem zweiten Parkpfad.
  9. Verfahren nach Anspruch 1, wobei die virtuellen Bilder unter Verwendung von einem oder einer Kombination aus einem Krümmen mindestens eines Bildes aus der Bildmenge, einem Projizieren des Modells der Szene in den virtuellen Blickpunkt und einer ebeneninduzierten Homographie erzeugt werden.
  10. Verfahren nach Anspruch 1, das ferner Folgendes umfasst: - Extrahieren einer Menge von Merkmalen aus der Bildmenge und der virtuellen Bildmenge; - Speichern, im Speicher, der Menge von Merkmalen und Abbilden jedes Merkmals mit einem abgeglichenen Zustand des Fahrzeugs; - Extrahieren mindestens eines Merkmals aus dem gegenwärtigen Bild; und - Suchen der Abbildung mit dem extrahierten Merkmal zum Erzeugen des gegenwärtigen Zustands des Fahrzeugs.
  11. Verfahren nach Anspruch 1, das ferner Folgendes umfasst: - Vergleichen zumindest einiger Merkmale aus den Bildern und den virtuellen Bildern zum Bestimmen des Blickpunkts von jedem Bild in der Bildmenge; und - Aktualisieren von 3D-Koordinaten von mindestens einem Punkt in dem Modell des Park-Zwischenraums zum Abgleichen von Koordinaten von Kreuzungspunkten von Strahl-Rückprojektionen von den Pixeln von mindestens zwei Bildern aus, die dem Punkt gemäß den Blickpunkten der zwei Bilder entsprechen.
  12. Verfahren nach Anspruch 11, wobei die Bildmenge ein erstes Bild der Szene enthält, die von dem Sensor in einer ersten Pose betrachtet wird, die einen ersten Blickpunkt definiert, und ein zweites Bild der Szene enthält, die von dem Sensor in einer zweiten Pose betrachtet wird, die einen zweiten Blickpunkt definiert, das Folgendes umfasst: - Transformieren des ersten Bildes zum Erzeugen eines ersten virtuellen Bildes entsprechend einem virtuellen Blickpunkt, der vom ersten Blickpunkt verschieden ist, wobei das Transformieren eine Entsprechung zwischen zumindest einigen Pixeln des ersten Bildes und des virtuellen Bildes bewahrt, so dass dieselben Punkte der Szene dargestellt werden; - Vergleichen zumindest einiger Merkmale des zweiten Bildes mit zumindest einigen Merkmalen des virtuellen Bildes zum Bestimmen einer Entsprechung zwischen zumindest einigen Pixeln des zweiten Bildes, des virtuellen Bildes und des ersten Bildes; - Bestimmen des zweiten Blickpunkts des zweiten Bildes hinsichtlich des ersten Blickpunkts des ersten Bildes unter Verwendung einer Untermenge der entsprechenden Pixel aus dem ersten und zweiten Bild auf der Basis von Koordinaten der Untermenge von Pixeln aus dem zweiten Bild und Koordinaten von Punkten der Szene entsprechend der Untermenge von Pixeln aus dem ersten Bild; und - Aktualisieren von 3D-Koordinaten der Punkte in dem Modell des Park-Zwischenraums unter Verwendung einer Bündel-Anpassung von entsprechenden Pixeln im ersten und zweiten Bild.
  13. System zum Parken eines Fahrzeugs innerhalb eines Park-Zwischenraums, das Folgendes aufweist: - mindestens einen Sensor zum Erfassen von Informationen, die die Umgebung von zumindest einem Teil des Park-Zwischenraums angeben; - eine Steuerung zum Steuern der Bewegung des Fahrzeugs gemäß unterschiedlichen Trajektorien inklusive eines ersten Parkpfads und eines zweiten Parkpfads, der an einem Ziel-Zustand endet, wobei jeder Zustand des Fahrzeugs durch eine Position und Ausrichtung des Fahrzeugs definiert ist; und - mindestens einen Prozessor, der zu Folgendem konfiguriert ist: Erfassen einer Bildmenge der Umgebung des Park-Zwischenraums während der Bewegung des Fahrzeugs entlang des ersten Parkpfads, so dass jedes Bild in der Bildmenge von einem Blickpunkt aus erfasst wird, der durch einen Zustand des Fahrzeugs entlang des ersten Parkpfads definiert ist, Konstruieren eines Modells des Park-Zwischenraums unter Verwendung der Bildmenge; Auswählen einer Menge von virtuellen Blickpunkten außerhalb des ersten Parkpfads inklusive mindestens eines Blickpunkts, der einen Zustand des Fahrzeugs außerhalb des ersten Parkpfads definiert; Erzeugen, unter Verwendung des Modells des Park-Zwischenraums, einer Menge von virtuellen Bildern der Umgebung des Park-Zwischenraums, als wenn die Betrachtung von der Menge von virtuellen Blickpunkten aus erfolgt; Bestimmen eines gegenwärtigen Zustands des Fahrzeugs, indem ein gegenwärtiges Bild des Park-Zwischenraums, das von dem Sensor erfasst wird, während das Fahrzeug im gegenwärtigen Zustand ist, mit mindestens einem virtuellen Bild verglichen wird; und Bestimmen des zweiten Parkpfads von dem gegenwärtigen Zustand zum Ziel-Zustand unter Verwendung des Modells des Fahrzeugs.
  14. System nach Anspruch 13, das ferner Folgendes aufweist: eine Anzeigeeinrichtung zum Rendern einer Darstellung des Modells des Park-Zwischenraums und zum Empfangen einer Auswahl einer Richtung des Parkens, wobei der Prozessor ferner konfiguriert ist zum Bestimmen des zweiten Parkpfades, der sich dem Ziel-Zustand aus der ausgewählten Richtung nähert; und Bestimmen der Menge von virtuellen Blickpunkten auf dem zweiten Parkpfad.
  15. System nach Anspruch 14, wobei die Darstellung des Modells des Park-Zwischenraums ein Draufsicht-Bild des Park-Zwischenraums ist.
  16. System nach Anspruch 14, wobei der Prozessor zu Folgendem konfiguriert ist: - Wachsenlassen eines Graphen, der mehrere Knoten aufweist, die mit Kanten verbunden sind, aus einer Menge von Saaten, seeds, entsprechend der Blickpunktmenge, wobei jeder Knoten den Zustand des Fahrzeugs definiert, und wobei jede Kante, die zwei Knoten verbindet, einen kollisionsfreien Pfad zwischen den zwei Knoten definiert; - Bestimmen des zweiten Parkpfades, der sich dem Ziel-Zustand aus der ausgewählten Richtung nähert, durch zumindest einige der Knoten und Kanten des Graphen; und - Bestimmen der Menge von virtuellen Blickpunkten auf dem zweiten Parkpfad.
  17. System nach Anspruch 13, wobei die virtuellen Bilder unter Verwendung von einem oder einer Kombination aus einem Krümmen mindestens eines Bildes aus der Bildmenge, einem Projizieren des Modells des Park-Zwischenraums in den virtuellen Blickpunkt und einer ebeneninduzierten Homographie erzeugt werden.
  18. System nach Anspruch 13, wobei der Prozessor zu Folgendem konfiguriert ist: - Extrahieren einer Menge von Merkmalen aus der Bildmenge und der virtuellen Bildmenge; - Speichern, in einem Speicher, der Menge von Merkmalen und Abbilden jedes Merkmals mit einem abgeglichenen Zustand des Fahrzeugs; - Extrahieren mindestens eines Merkmals aus dem gegenwärtigen Bild; und - Suchen der Abbildung mit dem extrahierten Merkmal zum Erzeugen des gegenwärtigen Zustands des Fahrzeugs.
  19. System nach Anspruch 13, wobei der Prozessor zu Folgendem konfiguriert ist: - Vergleichen zumindest einiger Merkmale aus den Bildern und den virtuellen Bildern zum Bestimmen des Blickpunkts von jedem Bild in der Bildmenge; und - Aktualisieren von 3D-Koordinaten von mindestens einem Punkt in dem Modell des Park-Zwischenraums zum Abgleichen von Koordinaten von Kreuzungspunkten von Strahl-Rückprojektionen von den Pixeln von mindestens zwei Bildern aus, die dem Punkt gemäß den Blickpunkten der zwei Bilder entsprechen.
  20. Nichflüchtiges computerlesbares Speichermedium, auf welchem ein Programm gespeichert ist, das von einem Prozessor ausführbar ist, zum Durchführen eines Verfahrens zum Parken eines Fahrzeugs innerhalb eines Park-Zwischenraums, wobei das Verfahren Folgendes umfasst: - Steuern der Bewegung des Fahrzeugs gemäß einem ersten Parkpfad, der bei einem Ziel-Zustand endet, wobei jeder Zustand des Fahrzeugs eine Position und Ausrichtung des Fahrzeugs aufweist; - Erfassen einer Bildmenge des Park-Zwischenraums während der Bewegung des Fahrzeugs entlang des ersten Parkpfads, so dass jedes Bild in der Bildmenge von einem Blickpunkt aus erfasst wird, der durch einen Zustand des Fahrzeugs entlang des ersten Parkpfads definiert ist; - Konstruieren eines Modells des Park-Zwischenraums unter Verwendung der Bildmenge; - Auswählen einer Menge von virtuellen Blickpunkten außerhalb des ersten Parkpfads inklusive mindestens eines Blickpunkts, der einen Zustand des Fahrzeugs außerhalb des ersten Parkpfads definiert; - Erzeugen, unter Verwendung des Modells des Park-Zwischenraums, einer Menge von virtuellen Bildern der Umgebung des Park-Zwischenraums, als wenn die Betrachtung von der Menge von virtuellen Blickpunkten aus erfolgt; - Bestimmen eines gegenwärtigen Zustands des Fahrzeugs, indem ein gegenwärtiges Bild des Park-Zwischenraums, das von dem Sensor erfasst wird, während das Fahrzeug im gegenwärtigen Zustand ist, mit mindestens einem virtuellen Bild verglichen wird; - Bestimmen eines zweiten Parkpfads von dem gegenwärtigen Zustand zum Ziel-Zustand; und - Steuern der Bewegung des Fahrzeugs gemäß dem zweiten Parkpfad.
DE112018001056.2T 2017-02-28 2018-01-19 Automatisches fahrzeug-parksystem und -verfahren Pending DE112018001056T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/444,583 2017-02-28
US15/444,583 US10268201B2 (en) 2017-02-28 2017-02-28 Vehicle automated parking system and method
PCT/JP2018/002602 WO2018159177A1 (en) 2017-02-28 2018-01-19 Vehicle automated parking system and method

Publications (1)

Publication Number Publication Date
DE112018001056T5 true DE112018001056T5 (de) 2019-11-07

Family

ID=61258577

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112018001056.2T Pending DE112018001056T5 (de) 2017-02-28 2018-01-19 Automatisches fahrzeug-parksystem und -verfahren

Country Status (5)

Country Link
US (1) US10268201B2 (de)
JP (1) JP6896077B2 (de)
CN (1) CN110312912B (de)
DE (1) DE112018001056T5 (de)
WO (1) WO2018159177A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020111659A1 (de) 2020-04-29 2021-11-04 Car.Software Estonia As Verfahren, System und Computerprogrammprodukt zur Bestimmung der Pose einer mobilen Einheit

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018147329A1 (ja) * 2017-02-10 2018-08-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点映像生成方法及び自由視点映像生成システム
KR20180099280A (ko) * 2017-02-28 2018-09-05 삼성전자주식회사 가상 차로 생성 장치 및 방법
US10606273B2 (en) * 2017-04-20 2020-03-31 Baidu Usa Llc System and method for trajectory re-planning of autonomous driving vehicles
CN111094893A (zh) * 2017-07-28 2020-05-01 高通股份有限公司 机器人式运载工具的图像传感器初始化
CA3072034C (en) * 2017-08-10 2023-06-20 Nissan Motor Co., Ltd. Parking control method and parking control device
JP6504578B2 (ja) * 2017-09-05 2019-04-24 三菱電機株式会社 自動駐車装置
GB2567144B (en) * 2017-09-27 2019-11-13 Jaguar Land Rover Ltd Apparatus and method for localising a vehicle
US11062461B2 (en) * 2017-11-16 2021-07-13 Zoox, Inc. Pose determination from contact points
JP6984373B2 (ja) * 2017-12-07 2021-12-17 トヨタ自動車株式会社 駐車支援装置
US10652743B2 (en) 2017-12-21 2020-05-12 The Chamberlain Group, Inc. Security system for a moveable barrier operator
GB201802475D0 (en) * 2018-02-15 2018-04-04 Jaguar Land Rover Ltd Controller and vehicle
GB2573792B (en) * 2018-05-17 2022-11-09 Denso Corp Surround monitoring system for vehicles
US11074773B1 (en) 2018-06-27 2021-07-27 The Chamberlain Group, Inc. Network-based control of movable barrier operators for autonomous vehicles
US11423717B2 (en) 2018-08-01 2022-08-23 The Chamberlain Group Llc Movable barrier operator and transmitter pairing over a network
US10967851B2 (en) * 2018-09-24 2021-04-06 Ford Global Technologies, Llc Vehicle system and method for setting variable virtual boundary
JP7212486B2 (ja) * 2018-09-26 2023-01-25 フォルシアクラリオン・エレクトロニクス株式会社 位置推定装置
CN109240301B (zh) * 2018-09-28 2024-06-21 北京奇虎科技有限公司 扫地机器人路线规划方法、装置及扫地机器人
KR20200046156A (ko) * 2018-10-16 2020-05-07 주식회사 만도 차량 제어 시스템 및 차량 제어 방법
US11215462B2 (en) * 2018-10-26 2022-01-04 Here Global B.V. Method, apparatus, and system for location correction based on feature point correspondence
DE102018130745A1 (de) * 2018-12-03 2020-06-04 Sick Ag Verfahren zur Steuerung eines autonomen Fahrzeugs
KR102559686B1 (ko) * 2018-12-17 2023-07-27 현대자동차주식회사 차량 및 차량 영상 제어방법
JP7190919B2 (ja) * 2019-01-25 2022-12-16 株式会社ソニー・インタラクティブエンタテインメント 画像解析システム
CN110082779A (zh) * 2019-03-19 2019-08-02 同济大学 一种基于3d激光雷达的车辆位姿定位方法及***
US11353878B2 (en) * 2019-03-26 2022-06-07 Baidu Usa Llc Soft-boundary based path optimization for complex scenes for autonomous driving vehicles
JP7135977B2 (ja) * 2019-03-29 2022-09-13 マツダ株式会社 車両用演算装置
US11220856B2 (en) 2019-04-03 2022-01-11 The Chamberlain Group Llc Movable barrier operator enhancement device and method
CN111791801B (zh) * 2019-04-04 2023-09-26 中科创达(重庆)汽车科技有限公司 实时校准动态倒车辅助线显示位置的方法、装置及电子设备
US11485353B2 (en) * 2019-04-30 2022-11-01 Baidu Usa Llc Segmenting a parking trajectory to control an autonomous driving vehicle to park
US10997810B2 (en) 2019-05-16 2021-05-04 The Chamberlain Group, Inc. In-vehicle transmitter training
CN112016342B (zh) * 2019-05-28 2024-06-21 惠州市德赛西威汽车电子股份有限公司 一种学习型智能泊车方法及***
CN110188689B (zh) * 2019-05-30 2022-11-29 重庆大学 基于真实场景建模的虚拟驾驶目标碰撞检测方法
CN110503597B (zh) * 2019-07-09 2023-05-16 浙江浩腾电子科技股份有限公司 一种基于2d结构模型的车辆视点规范化方法
DE102019211681B4 (de) * 2019-08-05 2021-07-15 Volkswagen Aktiengesellschaft Verfahren eines Fahrzeugs zum automatisierten Parken
JP7239001B2 (ja) * 2019-08-29 2023-03-14 日産自動車株式会社 駐車支援方法及び駐車支援装置
CN112447058B (zh) * 2019-09-03 2022-09-06 比亚迪股份有限公司 泊车方法、装置、计算机设备及存储介质
DE102019214256B3 (de) * 2019-09-19 2021-03-18 Volkswagen Aktiengesellschaft Verfahren zur Unterstützung von Parkvorgängen von Fahrzeugen, Parkassistenzvorrichtung für eine Verwendung mit einem Fahrzeug, Steuer- und Rechenvorrichtung, Fahrzeug
JP7256463B2 (ja) * 2019-10-11 2023-04-12 トヨタ自動車株式会社 車両駐車支援装置
JP7226235B2 (ja) * 2019-10-11 2023-02-21 トヨタ自動車株式会社 車両駐車支援装置
JP7238722B2 (ja) * 2019-10-11 2023-03-14 トヨタ自動車株式会社 車両駐車支援装置
JP7160014B2 (ja) * 2019-10-11 2022-10-25 トヨタ自動車株式会社 駐車支援装置
CN110794970B (zh) * 2019-11-07 2023-08-25 广州小鹏汽车科技有限公司 一种自动泊车界面的三维显示方法、***及车辆
US11034298B2 (en) * 2019-11-18 2021-06-15 Continental Automotive Systems, Inc. Vehicle surround view system for identifying unobservable regions while reversing a trailer
WO2021126090A1 (en) * 2019-12-18 2021-06-24 Moovita Pte Ltd Autonomous parking systems and methods for vehicles
CN111428616B (zh) * 2020-03-20 2023-05-23 东软睿驰汽车技术(沈阳)有限公司 一种车位检测方法、装置、设备及存储介质
CN111397623A (zh) * 2020-03-27 2020-07-10 湖南大学 一种基于最佳泊车起始点的路径规划方法
GB2594249B (en) 2020-04-20 2024-05-29 Continental Autonomous Mobility Germany GmbH Method for creating a virtual environment reconstruction of an actual location
CN111723659B (zh) * 2020-05-14 2024-01-09 上海欧菲智能车联科技有限公司 泊车位确定方法、装置、计算机设备和存储介质
JP2021191658A (ja) * 2020-06-05 2021-12-16 パナソニックIpマネジメント株式会社 運転支援装置、運転支援方法、及び、運転支援プログラム
CN111915672B (zh) * 2020-07-20 2022-08-16 中国汽车技术研究中心有限公司 一种基于3d虚拟驾驶场景的目标标注方法及设备
KR102300570B1 (ko) * 2020-07-31 2021-09-09 주식회사 쓰리아이 전방위 이미지 촬영 어셈블리 및 이에 의해 수행되는 방법
JP2022114526A (ja) 2021-01-27 2022-08-08 トヨタ自動車株式会社 駐車支援装置
US20240185499A1 (en) * 2021-03-15 2024-06-06 Nissan Motor Co., Ltd. Information processing device and information processing method
CN113071478A (zh) * 2021-04-28 2021-07-06 中国第一汽车股份有限公司 一种自动泊车控制方法、自动泊车***及车辆
CN113076261B (zh) * 2021-04-29 2024-06-21 安徽江淮汽车集团股份有限公司 自动泊车测试方法、设备、存储介质及装置
KR102529835B1 (ko) * 2021-05-14 2023-05-08 주식회사 넥스트칩 차량의 운행 정보와 관련된 그래픽 객체 출력 방법 및 장치
CN113525357B (zh) * 2021-08-25 2022-12-09 吉林大学 自动泊车决策模型优化***及方法
CN113753029B (zh) * 2021-08-27 2023-11-17 惠州华阳通用智慧车载***开发有限公司 一种基于光流法的自动泊车方法及***
US11794726B2 (en) * 2021-09-28 2023-10-24 Ford Global Technologies, Llc Systems and methods for virtual vehicle parking assistance background
DE102021212445A1 (de) 2021-11-04 2023-05-04 Continental Autonomous Mobility Germany GmbH Verfahren und System zum Festlegen der Position und Ausrichtung einer virtuellen Kamera eines Umfeldbeobachtungssystems
CN114461061B (zh) * 2022-01-05 2023-12-15 东风柳州汽车有限公司 车辆展示方法、装置、设备及存储介质
WO2023175988A1 (ja) * 2022-03-18 2023-09-21 株式会社ソシオネクスト 画像処理装置、画像処理方法、及び画像処理プログラム
CN114863096B (zh) * 2022-04-02 2024-04-16 合众新能源汽车股份有限公司 室内停车场的语义地图构建及定位方法和装置
TWI817594B (zh) * 2022-07-04 2023-10-01 鴻海精密工業股份有限公司 圖像深度識別方法、電腦設備及儲存介質

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7366595B1 (en) 1999-06-25 2008-04-29 Seiko Epson Corporation Vehicle drive assist system
US7737866B2 (en) 2007-09-27 2010-06-15 Automotive Research & Testing Center Auto-parking device
DE102007055391A1 (de) 2007-11-20 2009-05-28 Valeo Schalter Und Sensoren Gmbh Verfahren und Vorrichtung zur Bahnplanung beim Einparken eines Fahrzeugs
US8095273B2 (en) * 2009-10-14 2012-01-10 GM Global Technology Operations LLC Autonomous parking strategy of the vehicle with rear steer
DE102010023162A1 (de) 2010-06-09 2011-12-15 Valeo Schalter Und Sensoren Gmbh Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Einparken in eine Parklücke, Fahrerassistenzeinrichtung und Kraftfahrzeug
JP5618138B2 (ja) * 2010-09-13 2014-11-05 アイシン精機株式会社 駐車支援装置
JP5618139B2 (ja) 2010-09-21 2014-11-05 アイシン精機株式会社 駐車支援装置
CN101976460B (zh) * 2010-10-18 2012-02-22 无锡维森智能传感技术有限公司 车载多目摄像机环视***的虚拟视点图像生成方法
KR101265711B1 (ko) * 2011-11-30 2013-05-20 주식회사 이미지넥스트 3d 차량 주변 영상 생성 방법 및 장치
US8862321B2 (en) 2012-08-15 2014-10-14 GM Global Technology Operations LLC Directing vehicle into feasible region for autonomous and semi-autonomous parking
KR102062923B1 (ko) * 2013-06-12 2020-01-06 현대모비스 주식회사 주차지원시스템
US9900583B2 (en) * 2014-12-04 2018-02-20 Futurewei Technologies, Inc. System and method for generalized view morphing over a multi-camera mesh
CN104837000B (zh) * 2015-04-17 2017-03-15 东南大学 一种利用轮廓感知的虚拟视点合成方法
CN105015419B (zh) * 2015-07-17 2017-09-22 中山大学 基于立体视觉定位与建图的自动泊车方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020111659A1 (de) 2020-04-29 2021-11-04 Car.Software Estonia As Verfahren, System und Computerprogrammprodukt zur Bestimmung der Pose einer mobilen Einheit

Also Published As

Publication number Publication date
US20180246515A1 (en) 2018-08-30
JP2020500767A (ja) 2020-01-16
CN110312912A (zh) 2019-10-08
WO2018159177A8 (en) 2019-07-25
WO2018159177A1 (en) 2018-09-07
JP6896077B2 (ja) 2021-06-30
US10268201B2 (en) 2019-04-23
CN110312912B (zh) 2023-07-21

Similar Documents

Publication Publication Date Title
DE112018001056T5 (de) Automatisches fahrzeug-parksystem und -verfahren
DE112018001050T5 (de) System und verfahren zur virtuell erweiterten visuellen gleichzeitigen lokalisierung und kartographierung
US9989969B2 (en) Visual localization within LIDAR maps
DE112018000332T5 (de) Dichtes visuelles slam mit probabilistic-surfel-map
DE102009012435B4 (de) Vorrichtung und Verfahren zum monokularen Motion-Stereo-basierten Detektieren von freien Parkplätzen
DE102007045835B4 (de) Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
DE102018121019A1 (de) Erweitern von realen sensoraufzeichnungen mit simulierten sensordaten
DE112018000605T5 (de) Informationsverarbeitungsvorrichtung, Datenverwaltungsvorrichtung, Datenverwaltungssystem, Verfahren und Programm
DE102018105417A1 (de) Fahrzeugortung unter verwendung von kameras
DE102019133536A1 (de) Verfahren und Vorrichtung zum Ermöglichen der sequentiellen Bodenansichts-Bildprojektionssynthese und der komplizierten Szenenrekonstruktion an Kartenanomalie-Hotspots
DE102017120112A1 (de) Tiefenkartenschätzung mit stereobildern
DE102018215344A1 (de) System und verfahren für fahrzeugkonvois
DE102014222617B4 (de) Fahrzeugerfassungsverfahren und Fahrzeugerfassungssytem
DE102018205915A1 (de) Monokulare Lokalisierung in städtischen Umgebungen unter Verwendung von Straßenmarkierungen
DE102015201951A1 (de) System und Verfahren zum Kartieren, Lokalisieren und Korrigieren einer Raumlage
DE112020000590T5 (de) Karte und verfahren zum erstellen einer karte
DE102016104732A1 (de) Verfahren zur Bewegungsabschätzung zwischen zwei Bildern eines Umgebungsbereichs eines Kraftfahrzeugs, Rechenvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE112018003986T5 (de) Steuervorrichtung, steuerverfahren, programm und mobileinheit
DE112016006213T5 (de) System und Verfahren zum Fusionieren von Ausgängen von Sensoren, die unterschiedliche Auflösungen aufweisen
DE102020126973A1 (de) Verfahren und system zur lokalisierten fahrspurwahrnehmung
DE112015007054T5 (de) Fahrunterstützungsvorrichtung, fahrunterstützungssystem, fahrunterstützungsverfahren und fahrunterstützungsprogramm
DE102016203710A1 (de) Abstands- und Richtungsschätzung eines Zielpunkts von einem Fahrzeug unter Verwendung einer monokularen Videokamera
DE102021206075A1 (de) Fahrzeuglokalisierung als Mitfahrgelegenheit und Insassenidentifikation für autonome Fahrzeuge
DE102021112616A1 (de) Selbstüberwachte schätzung einer beobachteten fahrzeugpose
DE102021116356A1 (de) Einstellung von zielen in fahrzeugnavigationssystemen basierend auf bildmetadaten von tragbaren elektronischen vorrichtungen und von aufgenommenen bildern unter verwendung von nullklick-navigation

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G01C0021000000

Ipc: B60W0030060000

R084 Declaration of willingness to licence
R016 Response to examination communication