DE102016215301A1 - Verfahren zum Unterstützen eines Parkvorgangs eines Fahrzeugs - Google Patents

Verfahren zum Unterstützen eines Parkvorgangs eines Fahrzeugs Download PDF

Info

Publication number
DE102016215301A1
DE102016215301A1 DE102016215301.3A DE102016215301A DE102016215301A1 DE 102016215301 A1 DE102016215301 A1 DE 102016215301A1 DE 102016215301 A DE102016215301 A DE 102016215301A DE 102016215301 A1 DE102016215301 A1 DE 102016215301A1
Authority
DE
Germany
Prior art keywords
vehicle
drone
obstacle
distance
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102016215301.3A
Other languages
English (en)
Inventor
Raphael Cano
Jose Domingo Esparza Garcia
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102016215301.3A priority Critical patent/DE102016215301A1/de
Publication of DE102016215301A1 publication Critical patent/DE102016215301A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren zum Unterstützen eines Parkvorgangs eines Fahrzeugs. Das Verfahren umfasst die Schritte des Erkennens (100) eines Parkvorgangs des Fahrzeugs, des automatischen Startens (200) einer Drohne basierend auf der Erkenntnis des Parkvorgangs, des Aufnehmens (300) von Bilddaten eines ersten Teils einer Umgebung des Fahrzeugs, insbesondere von kollisionsrelevanten Objekten, mittels eines ersten optischen Sensors der Drohne, und des Sendens (400) der aufgenommenen Bilddaten an das Fahrzeug und/oder einen Fahrer des Fahrzeugs. Ferner betrifft die Erfindung ein Fahrzeug sowie eine Drohne, die jeweils am Verfahren teilnehmen können.

Description

  • Stand der Technik
  • Die vorliegende Erfindung betrifft ein Verfahren zum Unterstützen eines Parkvorgangs eines Fahrzeugs mit einer Drohne. Ferner betrifft die vorliegende Erfindung ein Fahrzeug und eine Drohne, die das Verfahren durchführen können, sowie eine Mobileinheit, welche ein derartiges Fahrzeug und eine derartige Drohne umfassen.
  • Der Stand der Technik kennt Verfahren zum Unterstützen eines Parkvorgangs eines Fahrzeugs, bei denen eine Umgebung des Fahrzeugs durch Rund-um-Sicht-Kameras aufgenommen wird. Basierend auf den aufgenommenen Bildern wird dann ein Bird-View-Bild generiert. Dabei bedeutet das Bird-View-Bild ein Gesamtbild von einem virtuellen Blickpunkt oberhalb des Fahrzeugs. Das generierte Bird-View-Bild, in dem das Fahrzeug in dessen Umgebung von oben dargestellt ist, wird dem Fahrer des Fahrzeugs angezeigt, so dass der Fahrer beim Parkvorgang unterstützt wird. Allerdings birgt dieses Verfahren den Nachteil, dass das Bird-View-Bild ein errechnetes Bild ist und keinem echten, von oben erfassten, Bild entspricht. So können Bird-View-Bilder Artefakte, insbesondere Projektionsartefakte, aufweisen.
  • Offenbarung der Erfindung
  • Das erfindungsgemäße Verfahren zum Unterstützen eines Parkvorgangs eines Fahrzeugs mit den Merkmalen des Anspruchs 1 weist demgegenüber den Vorteil auf, dass eine richtige bzw. realistische Darstellung einer Umgebung des Fahrzeugs erzielt wird. Somit kann ein Fahrer das Fahrzeug anhand der Darstellung der Fahrzeugumgebung in eine Parklücke schneller und einfacher parken. Dies wird erfindungsgemäß durch die Schritte des Erkennens eines Parkvorgangs des Fahrzeugs, des Automatischen Startens einer Drohne basierend auf der Erkenntnis des Parkvorgangs, des Aufnehmens von Bilddaten eines ersten Teils einer Umgebung des Fahrzeugs mittels der Drohne, insbesondere von kollisionsrelevanten Objekten, mittels eines ersten optischen Sensors der Drohne, und des Sendens der aufgenommenen Bilddaten an das Fahrzeug und/oder einen Fahrer des Fahrzeugs erreicht. Mit anderen Worten wird zunächst erkannt, dass ein Parkvorgang ansteht bzw. dass der Fahrer parken will. Ein Parkvorgang kann beispielsweise durch das Drücken einer Taste oder durch Sprachsteuerung angedeutet werden. Danach wird die Drohne automatisch gestartet und nimmt über den ersten optischen Sensor Bilder zumindest eines Bereichs um das Fahrzeug von oben auf. Hierbei kann bevorzugt der erste optische Sensor als Kamera, bevorzugt als Weitwinkel-Kamera, ausgebildet sein. Insbesondere werden Objekte aufgenommen, gegen welche das Fahrzeug während des Parkens kollidieren könnte, und welche somit das Parken des Fahrzeugs erschweren könnten. Bevorzugt wird die ganze Umgebung des Fahrzeugs erfasst, das heißt, die Umgebung auf allen Seiten des Fahrzeugs. Mit dem Begriff „Starten der Drohne“ ist gemeint, dass die Drohne aktiviert wird und von einer Abflugstation abfliegt. Die Abflugstation kann vorzugsweise auf dem Fahrzeug angeordnet sein. Hierbei kann vorzugsweise das Fahrzeug eingerichtet sein, basierend auf dem Erkennen des Parkvorgangs die Drohne automatisch zu starten. Alternativ kann auch die Drohne eingerichtet sein, basierend auf dem Erkennen des Parkvorgangs automatisch zu starten. Anschließend werden die aufgenommenen Bilddaten an eine Anzeigeeinrichtung des Fahrzeugs wie etwa ein Touchscreen, und/oder den Fahrer, beispielsweise an ein Smartphone des Fahrers, übertragen. Als Bilddaten sind Daten zu verstehen, die als Bild wiedergegeben werden können, wobei ein „Bild“ im Rahmen der Erfindung ein einzelnes Bild oder ein Video sein kann.
  • Die Unteransprüche zeigen bevorzugte Weiterbildungen der Erfindung.
  • Vorzugsweise wird eine aktuelle Position der Drohne in Bezug auf das Fahrzeug erkannt, indem der erste optische Sensor der Drohne einen Bereich des Fahrzeugs erfasst, und der erfasste Bereich mit Referenzdaten verglichen wird. So kann die Drohne über den ersten optischen Sensor einen Bereich, beispielsweise einen Spiegel, des Fahrzeugs, erfassen. Das aufgenommene Bild des Bereichs wird dann mit vorgespeicherten Bildern desselben Bereichs aus mehreren unterschiedlichen Blickwinkeln verglichen, wodurch die aktuelle Position der Drohne erkannt wird. Das heißt, dass sich die Drohne anhand der aufgenommenen Bilder und der Referenzdaten in Bezugs auf das Flugzeug orientiert. Alternativ können visuelle Referenzmarkierungen am Fahrzeug, insbesondere auf einem Dach des Fahrzeugs, vorgesehen sein, die durch die Drohne mittels des ersten optischen Sensors erfasst werden. In ähnlicher Weise kann dann durch einen Vergleich des aufgenommenen Bildes der visuellen Referenzmarkierungen mit entsprechenden Referenzbildern die aktuelle Position der Drohne bestimmt werden.
  • Zum Bestimmen der aktuellen Position der Drohne ist es auch möglich, dass ein optisches Höhenbild, welches durch einen Ultraschallsensor der Drohne erzeugt ist, in einem Speicher der Drohne hinterlegt ist. Die unterschiedlichen Bereiche des Höhenbilds sind dabei unterschiedlichen Bereichen des Fahrzeugs zugeordnet. So entspricht beispielsweise ein sehr hoher Bereich im Höhenbild dem Dach des Fahrzeugs oder ein hoher Bereich im Höhenbild einer Motorhaube des Fahrzeugs usw. Durch den Ultraschallsensor wird zunächst eine Entfernung der Drohne in Bezug auf das Fahrzeug erfasst und anschließend mit dem Höhenbild verglichen. So kann erkannt werden, wo sich die Drohne momentan befindet.
  • Alternativ oder zusätzlich kann eine aktuelle Position der Drohne in Bezug auf das Fahrzeug erkannt werden, indem ein optischer Sensor des Fahrzeugs einen Bereich der Drohne erfasst, und der erfasste Bereich mit Referenzdaten verglichen wird. Umgekehrt zur vorherigen Situation wird hier ein zweiter optischer Sensor am Fahrzeug benutzt, um ein Bild von einem Bereich der Drohne aufzunehmen. Dieses Bild wird dann mit vorgespeicherten Bildern desselben Bereichs der Drohne bei mehreren unterschiedlichen Positionen verglichen. Daraus kann die Position der Drohne erkannt werden.
  • Basierend auf der erkannten Position der Drohne kann die Drohne ihre Flugbahn genau berechnen.
  • Besonders bevorzugt kann die erkannte Position der Drohne mit einem vorbestimmten erlaubten Flugraum verglichen werden. Darauffolgend kann ein automatisches Steuern, insbesondere ein autonomes, Steuern der Drohne stattfinden, so dass sich die Drohne immer innerhalb des vorbestimmten erlaubten Flugraums befindet. Somit können potentielle Kollisionen der Drohne mit anderen Objekten, beispielsweise Ampeln oder Schildern, vermieden werden und eine einfachere Flugbahn verfolgt werden, ohne die Aufnahme von Bildern bei einem Parkvorgang zu beeinträchtigen. Ferner kann bevorzugt der vorbestimmte erlaubte Flugraum in Echtzeit autonom eingestellt werden.
  • Als Flugraum ist der Raum zu verstehen, in dem sich die Drohne befindet bzw. fliegt. Der Flugraum ist dabei ein Raum oberhalb des Fahrzeugs. So befindet sich die Drohne in einem Flugraum oberhalb des Fahrzeugs, wenn die Drohne oberhalb eines Dachs des Fahrzeugs, einer Motorhaube oder eines Kofferraums befindet. Um oberhalb des Fahrzeugs positioniert zu sein, ist es nicht nötig, dass die Drohne direkt oberhalb des Fahrzeugs befindet. Dies bedeutet, dass es reicht, wenn die Drohne im Hinblick auf die Höhe eines Bereichs des Fahrzeugs oberhalb des Fahrzeugs positioniert ist. Mit anderen Worten wird die Drohne immer noch als „oberhalb des Fahrzeugs befindlich“ verstanden, auch wenn sich die Drohne außerhalb eines Bereichs befindet, der durch die Länge und die Breite des Fahrzeugs definiert ist, so lange die Drohne in einer Flughöhe fliegt, die größer als die Höhe eines Bereiches des Flugzeugs ist.
  • Der erlaubte Flugraum wird vorzugsweise durch eine Höhe, eine Breite und eine Länge definiert. Vorteilhafterweise wird die Höhe des vorbestimmten erlaubten Flugraums in Bezug auf den höchsten Bereich bzw. Punkt des Fahrzeugs definiert. Das heißt, dass die Höhe des erlaubten Flugraums vorzugsweise vom höchsten Bereich bzw. Punkt des Fahrzeugs gemessen wird.
  • Ferner bevorzugt umfasst das Verfahren die Schritte des Überwachens eines zweiten Teils der Umgebung des Fahrzeugs zum Erkennen eines Hindernisses mittels zumindest eines am Fahrzeug angeordneten Umgebungssensors, und des Steuerns der Drohne durch das Fahrzeug, um näher zum Hindernis zu fliegen, wenn ein Hindernis in der Umgebung des Fahrzeugs erkannt wird. Der Umgebungssensor kann dabei vorzugsweise als Kamera oder Ultraschallsensor ausgebildet sein. Das Fahrzeug ist bevorzugt eingerichtet, mittels des Umgebungssensors eine Entfernung zu einem Hindernis zu erfassen, und die Drohne zu befehlen, in Richtung des Hindernisses zu fliegen. Dabei ist besonders vorteilhaft, wenn die Position der Drohne bekannt ist. Somit ist eine genauere Steuerung der Drohne möglich.
  • Das Steuern der Drohne kann vorzugsweise durch das Fahrzeug automatisch erfolgen, wenn ein Hindernis in der Umgebung erkannt wird. Alternativ ist es auch vorstellbar, dass der Fahrer des Fahrzeugs über eine Bedieneinrichtung des Fahrzeugs, beispielsweise ein Touchscreen, einen Befehl gibt, zum Hindernis zu fliegen. Diese Option kann der Fahrer von alleine wählen, wenn er selber ein Hindernis mit dem Auge sieht oder auch wenn ein Hindernis mittels des Umgebungssensors des Fahrzeugs erkannt worden ist.
  • Vorzugsweise kann sich der erste Teil der Umgebung des Fahrzeugs, der durch die Drohne optisch erfasst wird, mit dem zweiten Teil der Umgebung des Fahrzeugs, der durch den Umgebungssensor erfasst wird, teilweise oder vollständig überlappen. Dadurch wird eine schnellere Steuerung der Drohne erzielt.
  • Weiterhin bevorzugt wird mittels eines Abstandssensors des Fahrzeugs erkannt, ob sich ein Hindernis oberhalb des Fahrzeugs befindet, und bei erkanntem Hindernis ein erster Abstand zwischen dem Fahrzeug und dem Hindernis in vertikaler Richtung, bestimmt. Der Abstandsensor ist vorzugsweise eingerichtet, auch ein Hindernis zu erkennen, welches sich vor dem Fahrzeug in Fahrtrichtung befindet und welches das Fahrzeug noch nicht erreicht hat. Das Hindernis kann beispielsweise eine Decke eines geschlossen Parkplatzes oder einer Garage sein. Der erste Abstand wird vorteilhafterweise mit einem ersten vorbestimmten Referenzabstand verglichen. Dieser Referenzabstand entspricht einem Mindestabstand gemessen von einem Bereich des Fahrzeugs in vertikaler Richtung, insbesondere gemessen vom höchsten Bereich des Fahrzeugs, der einen sicheren Abflug bzw. Flug in Bezug auf das Fahrzeug und/oder eine genaue optische Erfassung der Umgebung des Fahrzeugs ermöglicht. Wenn der erste Abstand größer als der erste vorbestimmte Referenzabstand ist, wird die Drohne gestartet. Im Gegenteil wird ein Abflug der Drohne verboten, wenn der erste Abstand gleich oder kleiner dem ersten vorbestimmten Referenzabstand ist. Zusätzlich kann vorzugsweise eine Differenz zwischen dem ersten Abstand und dem ersten vorbestimmten Referenzabstand berechnet und mit einer vorbestimmten Schwelle verglichen werden. Die Drohne wird erst dann gestartet, wenn die berechnete Differenz größer als die vorbestimmte Schwelle ist.
  • Wenn die Drohne schon gestartet ist, d.h. wenn die Drohne schon fliegt, und der erste Abstand gleich oder kleiner dem ersten vorbestimmten Referenzabstand ist, wird die Drohne gesteuert, zur Abflugstation zurückzukehren. Wenn der erste Abstand größer als der erste vorbestimmte Referenzabstand ist, und die Drohne in der Luft ist, wird vorzugsweise die aktuelle Position der Drohne mit dem ersten Abstand verglichen. Wenn die aktuelle Position der Drohne gleich oder größer dem ersten Abstand ist, kann die Drohne weiterfliegen, jedoch wird die Drohne gesteuert, ihre Flughöhe zu reduzieren. Somit wird sichergestellt, dass die Drohne mit dem Hindernis nicht kollidiert. Auf der anderen Seite kann die Drohne ihre Flughöhe behalten, wenn die aktuelle Position kleiner als der erste Abstand ist.
  • Des Weiteren kann bevorzugt ein Hindernis oberhalb der Drohne mittels eines Ultraschallsensors der Drohne erkannt werden. Bei erkanntem Hindernis wird die Drohne gesteuert, so dass ein zweiter Abstand zwischen der Drohne und dem Hindernis in vertikaler Höhe gleich oder größer einem zweiten vorbestimmten Referenzabstand ist. Der zweite vorbestimmte Referenzabstand entspricht einem Mindestabstand zwischen der Drohne und einem Hindernis, der einen sicheren, kollisionsfreien Flug der Drohne ermöglicht.
  • Bevorzugt wird eine Flugbahn der Drohne bestimmt, welche einer Fahrtbahn bzw. einer Bewegung des Fahrzeugs entspricht. Insbesondere bleibt die Drohne beim Fliegen immer oberhalb eines Zentrums des Fahrzeugs. Somit kann sowohl das Fahrzeug als auch die Umgebung des Fahrzeugs optisch genau erfasst werden.
  • Nach einer bevorzugten Ausgestaltung der vorliegenden Erfindung werden aus den aufgenommenen Bilddaten Informationen über den ersten Teil der Umgebung, insbesondere über kollisionsrelevante Objekte, extrahiert und einem am Fahrzeug vorgesehenen Parkmanöversystem zugeführt. Somit können die aufgenommenen Bilddaten als Input eines Parkmanöversystems dienen, wodurch das Parkmanöversystem diese zum Bestimmen von durchzuführenden Parkmanövern berücksichtigt.
  • Die vorliegende Erfindung betrifft ferner eine Drohne, welche eingerichtet ist, an einem zuvor beschriebenen Verfahren teilzunehmen. Insbesondere ist die Drohne eingerichtet, am Verfahren nach einem der Ansprüche 2, 7 oder 3, 4, 5, 6, solange die letzteren auf Anspruch 2 rückbezogen sind.
  • Ein weiterer Aspekt der Erfindung bezieht sich auf ein Fahrzeug, welches eingerichtet ist, an einem zuvor beschriebenen Verfahren teilzunehmen. Insbesondere ist das Fahrzeug eingerichtet, am Verfahren gemäß einem der Ansprüche 3, 6 oder 4, 5, 7, solange die letzteren auf Anspruch 3 rückbezogen sind.
  • Ferner betrifft die Erfindung eine Mobileinheit, die eine derartige Drohne und ein derartiges Fahrzeug umfasst. Die Drohne und das Fahrzeug können beide das Verfahren unabhängig voneinander durchführen.
  • Die mit Bezug auf das oben beschriebene Verfahren erläuterten Vorteile sind auch hier gegeben.
  • Kurze Beschreibung der Zeichnungen
  • Nachfolgend wird ein bevorzugtes Ausführungsbeispiel der Erfindung unter Bezugnahme auf die begleitende Zeichnung im Detail beschrieben. In der Zeichnung ist:
  • 1 eine vereinfachte, schematische Ansicht eines Fahrzeugs, welches eingerichtet ist, an einem Verfahren gemäß einem ersten Ausführungsbeispiel der vorliegenden Erfindung teilzunehmen,
  • 2 eine vereinfachte, schematische Ansicht einer Drohne, welche eingerichtet ist, an einem Verfahren gemäß einem ersten Ausführungsbeispiel der vorliegenden Erfindung teilzunehmen,
  • 3 eine vereinfachte, schematische Darstellung einer Szene während eines Parkvorgangs in einem ersten Zeitpunkt,
  • 4 eine vereinfachte, schematische Darstellung der Szene von 3 während des Parkvorgangs in einem zweiten Zeitpunkt,
  • 5 eine vereinfachte, schematische Darstellung der Szene von 3 und 4,
  • 6 eine vereinfachte, schematische Seitenansicht des Fahrzeugs, wobei ein vorbestimmter erlaubter Flugraum der Drohne dargestellt ist,
  • 7 eine vereinfachte, schematische Vorderansicht des Fahrzeugs, wobei ein vorbestimmter erlaubter Flugraum der Drohne dargestellt ist, und
  • 8 ein Flussdiagramm, in dem das Verfahren dargestellt ist.
  • Ausführungsform der Erfindung
  • Nachfolgend wird unter Bezugnahme auf die 1 bis 8 ein Verfahren zum Unterstützen eines Parkvorgangs gemäß einem ersten bevorzugten Ausführungsbeispiel der vorliegenden Erfindung im Detail beschrieben.
  • In 1 ist ein Fahrzeug 2 und in 2 eine Drohne 3 dargestellt, welche jeweils eingerichtet sind, am Verfahren teilzunehmen. Das Fahrzeug 2 und die Drohne 3 bilden zusammen eine Mobileinheit 1. Im Rahmen der Erfindung ist jedes unbemannte Flugzeug, welches zum Durchführen des Verfahrens geeignet ist, als Drohne zu verstehen.
  • Wie aus der 1 ersichtlich ist, weist das Fahrzeug 2 einen ersten Signaleingang 20, eine erste Auswerteeinheit 21 und einen ersten Signalausgang 22 auf. Entsprechend ist die Drohne 3 gemäß 2 mit einem zweiten Signaleingang 30, einer zweiten Auswerteeinheit 31 und einem zweiten Signalausgang 32 versehen. Das Fahrzeug 2 und die Drohne 3 kommunizieren miteinander, indem Signale aus dem ersten Signalausgang 22 des Fahrzeugs 2 vom zweiten Signaleingang 30 der Drohne 3 empfangen werden, und Signale, die die Drohne 3 über ihren zweiten Signalausgang 32 ausgibt, vom ersten Signaleingang 20 des Fahrzeugs 2 empfangen werden. In vorteilhafter Weise erfolgt die Kommunikation zwischen dem Fahrzeug 2 und der Drohne 3 drahtlos und/oder gesichert. Die jeweiligen empfangenen Signale werden fahrzeugseitig durch die erste Auswerteeinheit 21 analysiert, wobei die zweite Auswerteeinheit 31 die an die Drohne 3 übertragenen Signale auswertet.
  • Aus der 2 ergibt sich, dass die Drohne 3 mit einem ersten optischen Sensor 33, einem Ultraschalsensor 34 und einer Beleuchtungseinrichtung 35 ausgestattet ist. Diese Komponenten stehen in Signalverbindung mit der zweiten Auswerteeinheit 31. Die zweite Auswerteeinheit 31 kann auch bevorzugt als Steuerung dienen.
  • Am Fahrzeug 2 sind ferner ein zweiter optischer Sensor 23, ein Umgebungssensor 24, eine Bedieneinrichtung 25, eine Anzeigeeinrichtung 26 und ein Abstandssensor 27 angeordnet. Deren Funktion wird in Bezug auf das Verfahren später beschrieben. Es sei ferner angemerkt, dass die Anzahl dieser Komponenten, insbesondere der Sensoren, je nach Anwendung variieren kann.
  • Außerdem ist am Fahrzeug 2, insbesondere auf dem Fahrzeug 2, eine Abflugstation 28 für die Drohne 3 angeordnet. Die Abflugstation 28 kann alternativ in einem Kofferraum 29 untergebracht sein. Vorzugsweise stehen alle Komponenten in Signalverbindung mit der ersten Auswerteeinheit 21, die wie die zweite Auswerteeinheit 31 vorzugsweise als Steuerung dienen kann.
  • Das Verfahren zum Unterstützen eines Parkvorgangs des Fahrzeugs 2 wird nachfolgend anhand der 3 bis 8 beschrieben. Die 3 zeigt einen ersten Zeitpunkt einer Szene während eines Parkvorgangs und die 4 einen zweiten Zeitpunkt der Szene während des Parkvorgangs. In 4 ist das Fahrzeug 2 in die Parklücke P eingeparkt. Im Flussdiagramm der 8 sind die Schritte des Verfahrens dargestellt.
  • Sobald der Fahrer eine Parklücke P findet bzw. erkennt, drückt der Fahrer beispielsweise eine Taste der Bedieneinrichtung 25. Dieses Signal wird beispielsweise über einen (nicht gezeigten) Sensor des Fahrzeugs 2 erkannt. Dadurch wird im Schritt 100 erkannt, dass ein Parkvorgang ansteht.
  • Bevorzugt wird im Schritt 120 mittels eines Abstandssensors 27 des Fahrzeugs 2 erkannt, ob sich ein Hindernis oberhalb des Fahrzeugs 2 befindet, und bei erkanntem Hindernis im Schritt 140 ein erster Abstand zwischen dem Fahrzeug 2 und dem Hindernis in vertikaler Richtung bestimmt. Der Abstandsensor 27 ist vorzugsweise ferner eingerichtet, ein Hindernis zu erkennen, welches sich oberhalb des Fahrzeugs 2 und vor dem Fahrzeug 2 in Fahrtrichtung befindet und welches das Fahrzeug 2 noch nicht erreicht hat, und den ersten Abstand zwischen dem Fahrzeug 2 und dem Hindernis zu bestimmen.
  • Der erste Abstand wird im Schritt 160 vorteilhafterweise mit einem ersten vorbestimmten Referenzabstand verglichen. Dieser Referenzabstand entspricht einem Mindestabstand gemessen von einem Bereich des Fahrzeugs 2 in vertikaler Richtung, insbesondere gemessen vom höchsten Bereich des Fahrzeugs 2, der einen sicheren Abflug bzw. Flug der Drohne 3 in Bezug auf das Fahrzeug 2 ermöglicht.
  • Bevorzugt kann geprüft werden, ob die Drohne 3 schon gestartet ist. Dies kann beispielsweise parallel zu einem der Schritte 120 bis 160 oder nach dem Schritt 160 erfolgen.
  • Im Falle einer noch nicht gestarteten Drohne 3, wenn der erste minimale Abstand größer als der erste vorbestimmte Referenzabstand ist, d.h. wenn genug Flugraum oberhalb des Fahrzeugs 2 vorhanden ist, wird ein Startsignal an die Drohne 3 ausgegeben, wodurch die Drohne 3 gestartet wird (Schritt 200). Die Drohne 3 fliegt dann ab und bleibt oberhalb des Fahrzeugs 2.
  • Zusätzlich kann vorzugsweise eine Differenz zwischen dem ersten Abstand und dem ersten vorbestimmten Referenzabstand berechnet und mit einer vorbestimmten Schwelle verglichen werden. Die Drohne 3 wird dann gestartet, wenn diese Differenz größer als die vorbestimmte Schwelle ist. Im Gegenteil wird im Schritt 180 ein Abflug der Drohne 3 verboten, wenn der zur Verfügung stehende Flugraum dafür nicht ausreicht. Das Verfahren kehrt dann zum Schritt 100 zurück und das Verfahren wird wiederholt.
  • Wenn kein Hindernis im Schritt 120 erkannt wird, schreitet das Verfahren zum Schritt 200 weiter.
  • Wenn die Drohne 3 schon gestartet ist und der erste Abstand gleich oder kleiner dem vorbestimmten Referenzabstand ist, wird die Drohne 3 gesteuert, zu der Abflugstation 28 zurückzukehren. Wenn der erste Abstand größer als der erste vorbestimmte Referenzabstand ist, wird vorzugsweise die aktuelle Position der Drohne 3 mit dem ersten Abstand verglichen. Wenn die aktuelle Position gleich oder größer dem ersten Abstand, kann die Drohne 3 weiterfliegen, jedoch wird die Drohne 3 gesteuert, ihre Flughöhe zu reduzieren.
  • Die Drohne 3 ist bevorzugt ferner eingerichtet, eine Flugbahn zu verfolgen, welche einer Fahrtbahn des Fahrzeugs 2 entspricht. Bevorzugt ist die Drohne 3 eingerichtet, derart zu fliegen, dass sich die Drohne 3 immer ungefähr oberhalb eines Zentrums Z des Fahrzeugs 2, insbesondere genau oberhalb eines Zentrums Z des Fahrzeugs 2, befindet. Das Zentrum Z wird als der geometrische Schwerpunkt einer virtuellen Fläche definiert, die durch die Länge L und die Breite B des Fahrzeugs 2 bestimmt ist (3).
  • Dazu wird vorzugsweise während des Fliegens der Drohne 3 im Schritt 210 eine aktuelle Position der Drohne 3 in Bezug auf das Fahrzeug 2 erkannt, indem der erste optische Sensor 33 der Drohne 3 einen Bereich des Fahrzeugs 2 erfasst. Dieser Bereich des Fahrzeugs 2, welcher beispielsweise einen Spiegel 30 umfassen kann, wird mit Referenzdaten verglichen. Die Referenzdaten entsprechen vorgespeicherten Bildern desselben Bereichs aus mehreren unterschiedlichen Blickwinkeln.
  • Alternativ oder zusätzlich kann eine aktuelle Position der Drohne 3 relativ zum Fahrzeug 2 erkannt werden, indem der zweite optische Sensor 23 des Fahrzeugs 2 einen Bereich der Drohne 3 erfasst (Schritt 220). Entsprechend wird der erfasste Bereich mit Referenzdaten verglichen.
  • Basierend auf deren erkannten Position kann die Drohne 2 ihre Flugbahn genau berechnen.
  • Besonders bevorzugt wird im Schritt 230 die erkannte Position der Drohne 3 mit einem vorbestimmten erlaubten Flugraum F verglichen. Dieser Flugraum F ist in 6 und 7 dargestellt, und vorzugsweise durch eine Box mit Länge l, Breite b und Höhe h definiert. Insbesondere ist die Länge l des vorbestimmten erlaubten Flugraums F größer als die Länge L des Fahrzeugs 2. Dasselbe gilt auch für die Breite b bzw. die Höhe h des vorbestimmten erlaubten Flugraums F in Bezug auf die Breite B bzw. eine Höhe H des Fahrzeugs 2.
  • Die Drohne 3 wird basierend auf dem Ergebnis des Vergleichs deren erkannten Position mit dem vorbestimmten erlaubten Flugraum F automatisch gesteuert, so dass sich die Drohne 3 immer innerhalb des vorbestimmten erlaubten Flugraums F befindet (Schritt 240). Dies kann autonom oder durch das Fahrzeug 2 erfolgen. Somit können potentielle Kollisionen der Drohne 3 mit anderen Objekten, beispielsweise Ampeln oder Schildern, deren Position in der Regel absehbar ist, vermieden werden. Außerdem kann die Komplexität der Flugbahn der Drohne 3 bei unbeeinträchtigter Aufnahme von Bildern reduziert werden.
  • In 3 ist die Drohne 3 schon abgeflogen und befindet sich oberhalb des Fahrzeugs 2, in der Nähe des Zentrums Z.
  • Des Weiteren kann bevorzugt im Schritt 250 ein Hindernis oberhalb der Drohne 3 mittels eines Ultraschallsensors 34 der Drohne 3 erkannt werden. Bei erkanntem Hindernis wird die Drohne 3 gesteuert, so dass ein zweiter Abstand zwischen der Drohne 3 und dem Hindernis in vertikaler Höhe gleich oder größer einem zweiten vorbestimmten Referenzabstand ist (Schritt 260). Der zweite vorbestimmte Referenzabstand entspricht einem Mindestabstand zwischen der Drohne 3 und einem Hindernis, der für einen sicheren, kollisionsfreien und ungestörten Flug der Drohne 3 eingehalten werden muss.
  • Es sei angemerkt, dass die Schritte 210 bis 260 während des Verfahrens mehrmals wiederholt werden können.
  • Ferner bevorzugt umfasst das Verfahren die Schritte des Überwachens 270 eines zweiten Teils der Umgebung U des Fahrzeugs 2 zum Erkennen eines Hindernisses mittels des am Fahrzeug 2 angeordneten Umgebungssensors 24, und des Steuerns 280 der Drohne 3 durch das Fahrzeug 2, um näher zum Hindernis zu fliegen, wenn ein Hindernis in der Umgebung des Fahrzeugs 2 erkannt wird. Somit kann die Drohne 3 ein genaueres Bild vom Hindernis aufnehmen.
  • Dies ist in 4 und 5 veranschaulicht.
  • Durch den Umgebungssensor 24 des Fahrzeugs 2 wird ein Hindernis H vor dem Fahrzeug 2 erkannt (4). Der Umgebungssensor 24 kann dabei vorzugsweise als Kamera oder Ultraschallsensor ausgebildet sein.
  • Das Fahrzeug 2 ist bevorzugt eingerichtet, mittels des Umgebungssensors 24 eine Entfernung d zum Hindernis H zu erfassen. Basierend auf der erfassten Entfernung d wird die Drohne 3 befohlen, in Richtung des Hindernisses H zu fliegen (5). So kann beispielsweise beim erkanntem Hindernis H die Drohne 3 eine Strecke gleich der Entfernung d zurücklegen.
  • Es ist allerdings besser, wenn die genaue Position der Drohne 3 in Bezug auf das Fahrzeug 2 bekannt ist. Für die Steuerung der Drohne 3 kann auch vorteilhafterweise der erlaubte Flugraum F mitberücksichtigt werden. Somit ist es möglich, die von der Drohne 3 zurückzulegende Strecke genauer zu bestimmen, um einen besseren Blick auf das Hindernis H zu haben.
  • Das Steuern der Drohne 3 kann bei einem mittels des Umgebungssensors 24 erkannten Hindernis H vorzugsweise durch das Fahrzeug 2 automatisch erfolgen. Alternativ ist es auch vorstellbar, dass der Fahrer des Fahrzeugs 2 die Drohne 3 über die Bedieneinrichtung 25 des Fahrzeugs 2 instruiert, zum Hindernis H zu fliegen. Dabei kann die Bedieneinrichtung 25 beispielsweise ein Touchscreen umfassen, das ein durch die Drohne 3 erfasstes Bild der Umgebung U anzeigt. Der Fahrer kann dann auf dem Touchscreen einen Bereich drücken, zu dem die Drohne 3 fliegen muss.
  • Es sei angemerkt, dass die Schritte 270 und 280 optional sind.
  • Während die Drohne 3 fliegt, nimmt die Drohne 3 mittels des ersten optischen Sensors 33 Bilder eines ersten Teils einer Umgebung U um das Fahrzeug 2 auf. Dies ist durch den Schritt 300 dargestellt. Hierbei kann bevorzugt der erste optische Sensor 33 als Kamera, bevorzugt als Weitwinkel-Kamera, ausgebildet sein. Insbesondere werden in diesem Schritt kollisionsrelevante Objekte aufgenommen. Bevorzugt wird die ganze Umgebung U des Fahrzeugs 2 erfasst, das heißt, die Umgebung auf allen Seiten des Fahrzeugs 2 bzw. um das ganze Fahrzeug 2. Ferner wird durch den optischen Sensor 33 auch das Fahrzeug 2 optisch erfasst.
  • Vorzugsweise kann sich der erste Teil der Umgebung U des Fahrzeugs 2, der durch die Drohne 3 optisch erfasst wird, mit dem zweiten Teil der Umgebung U des Fahrzeugs 2, der durch den Umgebungssensor 24 erfasst wird, teilweise oder vollständig überlappen. Dadurch wird eine schnellere Steuerung der Drohne 3 erzielt.
  • Die aufgenommenen Bilddaten werden im Schritt 400 über den zweiten Signalausgang 32 der Drohne 3 an den ersten Signaleingang 20 des Fahrzeugs 2 verschickt. Danach werden die Bilddaten durch die Anzeigeeinrichtung 26 des Fahrzeugs 2 angezeigt. Die Anzeigeeinrichtung 26 kann dabei ein am Fahrzeug 2 angeordnetes Touchscreen und/oder ein Head-Up-Display (Blickfelddarstellung) und/oder ein Smartphone des Fahrers umfassen.
  • Die Schritte 300 und 400 werden in vorteilhafter Weise parallel zu den Schritten 210 bis 280 durchgeführt.
  • Anhand der visuellen Darstellung des Bereichs der Umgebung U oder der ganzen Umgebung U des Fahrzeugs 2 sowie des Fahrzeugs 2 kann sich der Fahrer im Raum bzw. in der Parklücke P besser orientieren, was zu einem erleichterten Einparken führt.
  • Wenn der Parkvorgang zu Ende ist, kann dies durch den Fahrer signalisiert werden, beispielsweise durch das Drücken einer Taste der Bedieneinrichtung 25. Dieses Endsignal wird beispielsweise über einen (nicht gezeigten) Sensor des Fahrzeugs 2 erkannt.
  • Basierend auf der Erkenntnis des beendeten Parkvorgangs wird die Drohne 3 gesteuert, zur Abflugstation 28 zurückzufliegen. Die Abflugstation 28 dient vorzugsweise auch als Aufladestation zum Aufladen der Drohne 3.
  • Außerdem fliegt die Drohne 3 automatisch zur Abflugstation 28 zurück, wenn während des Fliegens ein niedriger Stand eines Akkus der Drohne 3 erreicht wird.
  • Wenn kein Endsignal vorhanden ist, wird das Verfahren wiederholt.

Claims (10)

  1. Verfahren zum Unterstützen eines Parkvorgangs eines Fahrzeugs (2), umfassend die Schritte: – Erkennen (100) eines Parkvorgangs des Fahrzeugs (2), – Automatisches Starten (200) einer Drohne (3) basierend auf der Erkenntnis des Parkvorgangs, – Aufnehmen (300) von Bilddaten eines ersten Teils einer Umgebung (U) des Fahrzeugs (2), insbesondere von kollisionsrelevanten Objekten, mittels eines ersten optischen Sensors (33) der Drohne (3), und – Senden (400) der aufgenommenen Bilddaten an das Fahrzeug (2) und/oder einen Fahrer des Fahrzeugs (2).
  2. Verfahren nach Anspruch 1, umfassend ferner den Schritt: – Erkennen (210) einer aktuellen Position der Drohne (3) in Bezug auf das Fahrzeug (2), indem der erste optische Sensor (33) der Drohne (3) einen Bereich des Fahrzeugs (2) erfasst, und der erfasste Bereich mit Referenzdaten verglichen wird.
  3. Verfahren nach Anspruch 1 oder 2, umfassend ferner den Schritt: – Erkennen (220) einer aktuellen Position der Drohne (3) in Bezug auf das Fahrzeug (2), indem ein zweiter optischer Sensor (23) des Fahrzeugs (2) einen Bereich der Drohne (3) erfasst, und der erfasste Bereich mit Referenzdaten verglichen wird.
  4. Verfahren nach Anspruch 2 oder 3, umfassend ferner die Schritte: – Vergleichen (230) der erkannten aktuellen Position der Drohne (3) mit einem vorbestimmten erlaubten Flugraum (F), und – Automatisches Steuern (240) der Drohne (3), so dass sich die Drohne (3) immer innerhalb des vorbestimmten erlaubten Flugraums (F) befindet.
  5. Verfahren nach einem der vorherigen Ansprüche, umfassend ferner die Schritte: – Überwachen (270) eines zweiten Teils der Umgebung (U) des Fahrzeugs (2) zum Erkennen eines Hindernisses (H) mittels zumindest eines am Fahrzeug (2) angeordneten Umgebungssensors (24), – Steuern (280) der Drohne (3) durch das Fahrzeug (2), um näher zum Hindernis zu fliegen, wenn ein Hindernis in der Umgebung (U) des Fahrzeugs (2) erkannt wird.
  6. Verfahren nach einem der vorherigen Ansprüche, umfassend die Schritte: – Erkennen (120) mittels eines Abstandssensors (27) des Fahrzeugs (2), ob sich ein Hindernis oberhalb des Fahrzeugs (2) befindet, – Erfassen (140) bei erkanntem Hindernis eines ersten Abstands zwischen dem Fahrzeug (2) und dem Hindernis in vertikaler Richtung, – Vergleichen (160) des ersten Abstands mit einem ersten vorbestimmten Referenzabstand, und – Verbieten (180) des Startens der Drohne (3), wenn der erste Abstand gleich oder kleiner dem ersten vorbestimmten Referenzabstand ist, oder Steuern der Drohne (3) zu einer Abflugstation, wenn die Drohne (3) schon gestartet ist und der erste Abstand gleich oder kleiner dem ersten vorbestimmten Referenzabstand ist.
  7. Verfahren nach einem der vorherigen Ansprüche, ferner umfassend die Schritte: – Erkennen (250) eines Hindernisses oberhalb der Drohne (3) mittels eines Ultraschallsensors (34) der Drohne (3), – Steuern (260) der Drohne (3) bei erkanntem Hindernis, so dass ein zweiter Abstand zwischen der Drohne (3) und dem Hindernis in vertikaler Höhe gleich oder größer einem zweiten vorbestimmten Referenzabstand ist.
  8. Drohne, welche eingerichtet ist, an einem Verfahren nach einem der vorherigen Ansprüche teilzunehmen.
  9. Fahrzeug, welches eingerichtet ist, an einem Verfahren nach einem der Ansprüche 1 bis 7 teilzunehmen.
  10. Mobileinheit, umfassend eine Drohne (3) nach Anspruch 8 und ein Fahrzeug (2) nach Anspruch 9.
DE102016215301.3A 2016-08-17 2016-08-17 Verfahren zum Unterstützen eines Parkvorgangs eines Fahrzeugs Withdrawn DE102016215301A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016215301.3A DE102016215301A1 (de) 2016-08-17 2016-08-17 Verfahren zum Unterstützen eines Parkvorgangs eines Fahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016215301.3A DE102016215301A1 (de) 2016-08-17 2016-08-17 Verfahren zum Unterstützen eines Parkvorgangs eines Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102016215301A1 true DE102016215301A1 (de) 2018-02-22

Family

ID=61082700

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016215301.3A Withdrawn DE102016215301A1 (de) 2016-08-17 2016-08-17 Verfahren zum Unterstützen eines Parkvorgangs eines Fahrzeugs

Country Status (1)

Country Link
DE (1) DE102016215301A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020082363A1 (zh) * 2018-10-26 2020-04-30 深圳市大疆创新科技有限公司 一种环境感知***及移动平台
CN113291296A (zh) * 2021-05-24 2021-08-24 的卢技术有限公司 基于无人机的辅助泊车***及方法
CN113696815A (zh) * 2021-10-27 2021-11-26 江苏日盈电子股份有限公司 多旋翼无人机和车辆的交互方法、交互***
DE102022113743A1 (de) 2022-05-31 2023-11-30 ASFINAG Maut Service GmbH Verfahren zum Finden einer Notfallabstellposition für ein Kraftfahrzeug
DE102023004121B4 (de) 2023-10-12 2024-06-20 Mercedes-Benz Group AG Verfahren zur erweiterten Umfeldsicht für ein Kraftfahrzeug und System mit einem Kraftfahrzeug und einem beweglichen unbemannten Luftfahrzeug

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020082363A1 (zh) * 2018-10-26 2020-04-30 深圳市大疆创新科技有限公司 一种环境感知***及移动平台
US12013464B2 (en) 2018-10-26 2024-06-18 SZ DJI Technology Co., Ltd. Environment sensing system and movable platform
CN113291296A (zh) * 2021-05-24 2021-08-24 的卢技术有限公司 基于无人机的辅助泊车***及方法
CN113696815A (zh) * 2021-10-27 2021-11-26 江苏日盈电子股份有限公司 多旋翼无人机和车辆的交互方法、交互***
DE102022113743A1 (de) 2022-05-31 2023-11-30 ASFINAG Maut Service GmbH Verfahren zum Finden einer Notfallabstellposition für ein Kraftfahrzeug
WO2023232875A1 (de) 2022-05-31 2023-12-07 Robert Bosch Gmbh Verfahren zum finden einer notfallabstellposition für ein kraftfahrzeug
DE102023004121B4 (de) 2023-10-12 2024-06-20 Mercedes-Benz Group AG Verfahren zur erweiterten Umfeldsicht für ein Kraftfahrzeug und System mit einem Kraftfahrzeug und einem beweglichen unbemannten Luftfahrzeug

Similar Documents

Publication Publication Date Title
EP2700567B1 (de) Verfahren und System zum Betreiben eines Fahrzeugs unter Überwachung der Fortbewegung des Fahrzeugs mit Hilfe einer Kameraeinrichtung einer mobilen Bedieneinrichtung
EP2700566B1 (de) Verfahren und System zum Betreiben eines Fahrzeugs unter Überwachung der Kopforientierung und/oder Blickrichtung eines Bedieners mit Hilfe einer Kameraeinrichtung einer mobilen Bedieneinrichtung
DE102016215301A1 (de) Verfahren zum Unterstützen eines Parkvorgangs eines Fahrzeugs
EP3195186B1 (de) Verfahren und vorrichtung zum überwachen eines automatischen parkens eines fahrzeugs
EP3094542B1 (de) Verfahren zum autonomen parken eines fahrzeugs, fahrerassistenzvorrichtung zur durchführung des verfahrens, sowie fahrzeug mit der fahrerassistenzvorrichtung
EP3517409B1 (de) Verfahren zur detektion von garagenparkplätzen
DE102009051463B4 (de) Kraftfahrzeug, externe Steuerungsvorrichtung sowie Verfahren zum Durchführen eines Ausparkvorgangs eines Kraftfahrzeugs
DE102010023162A1 (de) Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Einparken in eine Parklücke, Fahrerassistenzeinrichtung und Kraftfahrzeug
EP3251922B1 (de) Verfahren zum autonomen einparken eines kraftfahrzeugs in eine parklücke mit ausgabe eines ausstiegssignals an den fahrer, fahrerassistenzsystem sowie kraftfahrzeug
WO2019096357A1 (de) Verfahren zur steuerung eines parkvorgangs eines kraftfahrzeugs
DE102020121899A1 (de) System zum ausrichten einer standort-kennung einer fahrzeugkupplung mit einem anhängerkoppler
DE102021111303A1 (de) Speichern und abrufen eines gps-orts eines anhängers für einen kupplungsunterstützungsvorgang
DE102015214802A1 (de) Verfahren und Vorrichtung zum Leiten eines Fahrzeugs
EP2947601A1 (de) Verfahren und vorrichtung zum ermitteln einer fahrzeugposition eines fahrzeuges gegenüber einer referenzposition
WO2020048718A1 (de) Konzept zum überwachen und planen einer bewegung eines fortbewegungsmittels
WO2018001422A1 (de) Verfahren und fahrzeugsteuersystem zum erzeugen von abbildungen eines umfeldmodells und entsprechendes fahrzeug
EP3774499A1 (de) Verfahren zur überwachung und steuerung eines fernbedienten park- oder manövriervorgangs eines fahrzeugs
EP3728000B1 (de) Verfahren zur mobilen einparkhilfe
DE102015212252A1 (de) Verfahren zur Einparkunterstützung eines Fahrzeugs
DE102017006924A1 (de) Verfahren und System zur Fernsteuerung einer Funktion eines Fahrzeuges
EP1798621B1 (de) System zum führen und operieren eines Fahrzeugs ohne Fahrer
DE102018211905A1 (de) Steuereinrichtung für ein unbemanntes Luftfahrzeug
DE102017210173A1 (de) Trajektorienbasiertes Führen eines Kraftfahrzeugs
DE102019218921A1 (de) Verfahren und Steuergerät zur situativen Übertragung einer Umgebungsinformation eines Fahrzeugs
DE102019131390B3 (de) Verfahren zum Betreiben einer Kameraeinrichtung

Legal Events

Date Code Title Description
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee