DE102014226458A1 - Verfahren und System zur Steuerung eines autonom bewegbaren, datentechnisch mit einem Fahrzeug gekoppelten Flugkörpers - Google Patents

Verfahren und System zur Steuerung eines autonom bewegbaren, datentechnisch mit einem Fahrzeug gekoppelten Flugkörpers Download PDF

Info

Publication number
DE102014226458A1
DE102014226458A1 DE102014226458.8A DE102014226458A DE102014226458A1 DE 102014226458 A1 DE102014226458 A1 DE 102014226458A1 DE 102014226458 A DE102014226458 A DE 102014226458A DE 102014226458 A1 DE102014226458 A1 DE 102014226458A1
Authority
DE
Germany
Prior art keywords
vehicle
missile
data
drone
driving mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102014226458.8A
Other languages
English (en)
Inventor
Patrick Pascheka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102014226458.8A priority Critical patent/DE102014226458A1/de
Publication of DE102014226458A1 publication Critical patent/DE102014226458A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0044Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/141Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces
    • G08G1/143Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces inside the vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren und ein System zur Steuerung eines autonom bewegbaren, datentechnisch mit einem Fahrzeug (1) gekoppelten Flugkörpers (2), wobei für das Fahrzeug (1) verschiedene Fahrmodi definiert sind. Dabei werden mittels einer Steuereinheit (6) des Fahrzeugs (1) Steuersignale zum Steuern der Position des Flugkörpers (2) erzeugt und an den Flugkörper (2) übertragen und von dem Flugkörper (2) werden Daten zu der Umgebung des Fahrzeugs (1) erfasst. Erfindungsgemäß wird ein Steuersignal für die Flughöhe des Flugkörpers (2) in Abhängigkeit von dem aktuellen Fahrmodus des Fahrzeugs (1) erzeugt und an den Flugkörper (2) übertragen.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zur Steuerung eines autonom bewegbaren, datentechnisch mit einem Fahrzeug gekoppelten Flugkörpers, wobei für das Fahrzeug verschiedene Fahrmodi definiert sind. Dabei werden mittels einer Steuereinheit des Fahrzeugs Steuersignale zum Steuern der Position des Flugkörpers erzeugt und an den Flugkörper übertragen und von dem Flugkörper werden Daten zu der Umgebung des Fahrzeugs erfasst. Des Weiteren betrifft die Erfindung ein System mit einem Fahrzeug, für das verschiedene Fahrmodi definiert sind. Das System umfasst ferner einen autonom bewegbaren Flugkörper, durch den mittels einer Datenerfassungseinheit Daten zu der Umgebung des Fahrzeugs erfassbar sind und der datentechnisch mit dem Fahrzeug gekoppelt ist. Außerdem ist im Fahrzeug eine Steuereinheit angeordnet, durch die Signale zum Steuern der Position des Flugkörpers erzeugbar und an den Flugkörper übertragbar sind.
  • Moderne Fahrzeuge umfassen eine große Zahl von Sensoren, die nicht nur den Zustand des Fahrzeugs selbst, wie etwa Geschwindigkeit oder Energiereserven, sondern auch die Umgebung des Fahrzeugs erfassen. Insbesondere sind viele Fahrerassistenzsysteme, wie sie in zunehmendem Maße in Fahrzeugen integriert sind, auf Informationen über die Umgebung angewiesen.
  • Unter einem „Fahrerassistenzsystem“ wird eine Einrichtung eines Fahrzeugs verstanden, welche den Fahrer beim Fahren des Fahrzeugs unterstützt. Fahrerassistenzsysteme umfassen somit sowohl reine Informationssysteme, welche den Fahrer unterstützen, als auch Einrichtungen, welche bei unterschiedlichen Graden der Automatisierung die Fortbewegung des Fahrzeugs beeinflussen können.
  • Beim geringsten Grad der Automatisierung beeinflusst der Fahrer direkt die Bewegung des Fahrzeugs. Es werden allenfalls Signale oder Bewegungen von vom Fahrer betätigten Bedienelementen, wie der Pedalerie, dem Schaltknüppel oder dem Lenkrad, an entsprechende Einrichtungen des Fahrzeugs übertragen, welche die Fortbewegung des Fahrzeugs beeinflussen.
  • Bei einem höheren Grad der Automatisierung wird zum Teil in Einrichtungen eingegriffen, welche der Fortbewegung des Fahrzeugs dienen. Beispielsweise wird die Lenkung des Fahrzeugs oder die Beschleunigung in positiver oder negativer Richtung beeinflusst. Bei einem noch höheren Grad der Automatisierung wird soweit in Einrichtungen des Fahrzeugs eingegriffen, dass bestimmte Fortbewegungsarten des Fahrzeugs, z. B. eine Geradeausfahrt, automatisch ausgeführt werden können. Beim höchsten Grad der Automatisierung können ganze Routen eines Navigationssystems im Wesentlichen automatisch gefahren werden. Es wird jedoch darauf hingewiesen, dass der Fahrer zwar mit der Wahl eines höheren Grades der Automatisierung die Kontrolle über die Fahrzeugführung in zunehmendem Maße abgeben kann, er kann diese Kontrolle jedoch durch aktives Lenken oder Betätigen der Pedalerie sofort wieder zurückgewinnen.
  • Ein Beispiel für ein solches System ist ein Parkassistent, der bei verschiedenen Graden der Automatisierung in die Steuerung des Fahrzeugs eingreifen kann: Beim geringsten Grad der Automatisierung werden lediglich Hinweise ausgegeben, beispielsweise durch einen Piepton bei Annäherung an ein Hindernis oder das Bild einer Kamera am Heck des Wagens. Dabei beeinflusst allein der Fahrer die Bewegung des Fahrzeugs, etwa durch Betätigen der Pedalerie oder des Lenkrades. Bei einem höheren Grad der Automatisierung wird unterstützend in Einrichtungen des Fahrzeugs eingegriffen, beispielsweise durch Abbremsen vor einem Hindernis. Beim höchsten Grad der Automatisierung kann der gesamte Vorgang im Wesentlichen automatisch und ohne weiteres Eingreifen des Benutzers durchgeführt werden.
  • Analog dazu kann eine Vielzahl anderer Funktionen ausgeführt werden, etwa die Regelung des Abstands zu einem vorausfahrenden Fahrzeug, die Führung des Fahrzeugs innerhalb der Fahrbahnmarkierung oder automatisierte Fahrmanöver bis hin zum autonomen Fahren einer vorgegebenen Route.
  • Je komplexer die von einem Fahrerassistenzsystem durchgeführten Eingriffe in die Steuerung des Fahrzeugs sind und je mehr Schritte dabei gesteuert werden, desto mehr unterschiedliche Daten über die Umgebung müssen erfasst und berücksichtigt werden. Zu diesem Zweck werden unterschiedliche Sensoren in Fahrzeuge integriert, etwa Kameras, Infrarotsensoren, Ultraschall- und Radarsensoren oder Laserscanner. Da ein einzelner Sensor typischerweise nur Daten in einem beschränkten Raumwinkel erfasst, müssen mehrere Einheiten an verschiedenen Positionen am Fahrzeug verbaut werden, um einen größeren Bereich zu erfassen oder den Rundumblick zu ermöglichen. Die Integration einer Vielzahl von Sensoren in ein Fahrzeug führt dabei zu zusätzlichen Kosten und Einschränkungen bei der Gestaltung des Fahrzeugs.
  • Alternativ zu dem beschriebenen Ansatz, durch eine größere Zahl von Sensoren am Fahrzeug den erfassten Raumbereich zu vergrößern, wurde vorgeschlagen, Daten von außerhalb des Fahrzeugs angeordneten Sensoren zu nutzen.
  • Bei dem in der DE 10 2012 006 882 A1 beschriebenen Verfahren wird der Fahrer eines Fahrzeugs beim Einfädeln in eine Fahrspur unterstützt. Dazu werden Positions- und Bewegungsdaten der Fahrzeuge in einem Bereich von einer stationären Messeinrichtung am Rand Strecke aufgenommen und an das Fahrzeug gesendet.
  • Das in der JP 2010 250 478 A2 beschriebene Fahrzeug umfasst eine Flugeinheit, die dem Fahrzeug vorausfliegt, Bilder von der vor dem Fahrzeug liegenden Route aufnimmt und diese an das Fahrzeug sendet. Der Fahrer erhält so insbesondere Bilddaten aus Bereichen, die hinter Hindernissen liegen und nicht direkt vom Fahrzeug aus einsehbar sind.
  • Die DE 10 2011 106 170 A1 beschreibt ein Verfahren zur Unterstützung eines Fahrers bei der Steuerung eines Fahrzeugs. Kameras an einem unbemannten Luftfahrzeug und am Fahrzeug nehmen Bilder auf, aus denen Eigenschaften der Umgebung, ein dreidimensionales Geländeprofil und mögliche Fahrspuren für das Fahrzeug ermittelt werden. Dem Fahrer können unterstützende Hinweise ausgegeben werden oder die Steuerung des Fahrzeugs kann beeinflusst werden.
  • Die FR 2 986 647 A3 schließlich beschreibt ein Verfahren, bei dem eine Beobachtungsdrohne Bilddaten vom vor dem Fahrzeug liegenden Weg erfasst und an ein Fahrzeug sendet. Eine eventuell auftauchende Gefahr oder ein Hindernis wird erfasst und der Fahrer gewarnt. Die Drohne fliegt dabei in einer konstanten Höhe, von der sie bei Hindernissen, beispielsweise einer Brücke, abweichen kann. Ferner kann der Benutzer eine feste Flughöhe einstellen, etwa um ein gewünschtes Sichtfeld zu überblicken.
  • Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein verbessertes Verfahren zur Steuerung eines Flugkörpers bereitzustellen, der Daten zu der Umgebung des Fahrzeugs erfasst.
  • Erfindungsgemäß wird diese Aufgabe durch ein Verfahren mit den Merkmalen des Anspruchs 1, sowie durch ein System mit den Merkmalen des Anspruchs 10 gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen ergeben sich aus den abhängigen Ansprüchen.
  • Bei dem erfindungsgemäßen Verfahren zur Steuerung eines autonom bewegbaren, datentechnisch mit einem Fahrzeug gekoppelten Flugkörpers, im Folgenden auch „Drohne“ genannt, sind für das Fahrzeug verschiedene Fahrmodi definiert. Mittels einer Steuereinrichtung des Fahrzeugs werden Steuersignale zum Steuern der Position des Flugkörpers erzeugt und an den Flugkörper übertragen. Daten zu der Umgebung des Fahrzeugs werden von dem Flugkörper erfasst. Das erfindungsgemäße Verfahren ist dadurch gekennzeichnet, dass ein Steuersignal für die Flughöhe des Flugkörpers in Abhängigkeit von dem aktuellen Fahrmodus des Fahrzeugs erzeugt und an den Flugkörper übertragen wird.
  • Ein „Fahrmodus“ im Sinne der vorliegenden Erfindung bezeichnet die Fahrsituation des Fahrzeugs. Dazu können Eigenschaften des Fahrzeugs gehören, wie etwa Geschwindigkeit, Fahrtrichtung sowie Längs- und Querbeschleunigung. Ferner können dazu auch bestimmte Fahraufgaben gehören, die das Fahrzeug erfüllen soll, zum Beispiel Parkplatzsuche und Einparken, Überholen oder Fahren auf einer gegebenen Route.
  • Je nach Fahrmodus werden sich die Anforderungen der Fahrerassistenzsysteme an die von der Drohne erfassten Daten unterscheiden, insbesondere im Hinblick auf Reichweite und Auflösungsvermögen, etwa von Bildern einer optischen Kamera: Bei einer höheren Flughöhe kann die Drohne Bilddaten bis in größere Entfernung erfassen. Gleichzeitig ist jedoch das Auflösungsvermögen in diesem Fall geringer, das heißt nur größere Objekte sind bei hoher Flughöhe erkennbar. Umgekehrt ist der Erfassungsbereich der Sensoren bei geringer Flughöhe kleiner, während die Auflösung höher ist und etwa kleinere Hindernisse erkennbar sind. Je nach Fahrmodus sind die Prioritäten für diese beiden Parameter neu gegeneinander abzuwiegen.
  • Beispielsweise muss bei der schnellen Geradeausfahrt auf der Autobahn, d. h. in einem Fahrmodus „Autobahnfahrt“, ein unerwartetes Hindernis aus möglichst großem Abstand erkannt werden, um eine Kollision zu vermeiden. Dabei sind meist primär größere Objekte von Interesse, etwa andere Fahrzeuge, und die Drohne wird in diesem Fall eine größere Flughöhe einnehmen, um einen möglichst großen vor dem Fahrzeug liegenden Bereich zu erfassen. In einem Fahrmodus „Stadtverkehr“ kann sie niedriger fliegen, um kleinere Objekte, etwa einen auf die Straße rollenden Ball, zu erkennen. Komplexe Fahrmanöver können auch verschiedene Flughöhen für einzelne Schritte erfordern: Wenn beim Einparken zunächst ein Stellplatz gefunden werden soll, muss die Drohne einen großen Bereich überblicken, etwa einen Großparkplatz. Während des eigentlichen Einparkvorgangs, d. h. in einem Fahrmodus „Einparken“, muss sie in geringerer Höhe Daten mit höherer Auflösung erfassen, um Hindernisse für das Fahrzeug genau zu erkennen.
  • So kann mit Hilfe des erfindungsgemäßen Verfahrens vorteilhafterweise der Flugkörper so gesteuert werden, dass die Flughöhe gemäß den Erfordernissen des Fahrmodus an Reichweite und Detailgehalt der erfassten Daten angepasst ist.
  • In einer Ausgestaltung des erfindungsgemäßen Verfahrens wird das Steuersignal für die Flughöhe des Flugkörpers ferner in Abhängigkeit von den Daten zu der Umgebung des Fahrzeugs erzeugt. Diese Daten zu der Umgebung des Fahrzeugs können beispielsweise den umgebenden Verkehr betreffen: Wird etwa dichter Verkehr in der Umgebung des Fahrzeugs festgestellt, so kann eine geringere Flughöhe und das damit verbundene bessere Auflösungsvermögen vorteilhafterweise genauere Informationen über die Position der einzelnen Fahrzeuge in der Umgebung liefern. Zu den von der Drohne erfassten Daten über die Umgebung können auch Informationen über das ihr zugeordnete Fahrzeug gehören, beispielsweise dessen Orientierung relativ zu anderen Fahrzeugen.
  • Auftauchende Hindernisse können gemäß dieser Ausgestaltung des erfindungsgemäßen Verfahrens eine größere Flughöhe nötig machen, um vorteilhafterweise Daten in durch sie verdeckten Bereichen zu erfassen: Zum Beispiel kann eine vor dem Fahrzeug liegende Bergkuppe erkannt und die Flughöhe so gesteuert werden, dass Daten über die dahinterliegende Fahrbahn erfasst werden. Dagegen kann bei der Fahrt über eine unebene Oberfläche die Drohne in geringer Flughöhe kleinere Hindernisse, wie etwa Gesteinsbrocken, erfassen. Ferner können vorteilhafterweise Verkehrszeichen mittels der Drohne erfasst werden. Dazu gehört auch die Fahrbahnmarkierung, innerhalb derer das Fahrzeug zum Beispiel geführt werden soll.
  • In einer weiteren Ausbildung der Erfindung wird ein Steuersignal für die Position des Flugkörpers in der horizontalen Ebene in Abhängigkeit von dem aktuellen Fahrmodus des Fahrzeugs und/oder den Daten zu der Umgebung des Fahrzeugs erzeugt und an den Flugkörper übertragen. Dadurch wird nicht nur die Flughöhe der Drohne gesteuert, sondern die Position in allen drei Raumrichtungen. Die Drohne kann beispielsweise in Fahrtrichtung vorverlagert fliegen und so vorteilhafterweise einen größeren Bereich vor dem Fahrzeug erfassen. Sie kann auch Hindernisse umfliegen, indem sie beispielsweise bei einem Überholvorgang vor dem Spurwechsel seitlich zum Fahrzeug fliegt und entgegenkommenden Verkehr erfasst, der aus der Perspektive des Fahrzeugs durch ein anderes Fahrzeug verdeckt wird. Ferner können etwa beim Einparken Daten aus verschiedenen Bereichen um das Fahrzeug herum erfasst werden. Die Drohne kann somit nah genug an beliebige Bereiche herankommen, um Daten mit dem erforderlichen Auflösungsvermögen zu erfassen.
  • In einer Ausgestaltung werden die von der Drohne erfassten Daten im Fahrzeug ausgegeben. Dies kann beispielsweise durch ein Display erfolgen, das dem Fahrer von einer Kamera der Drohne aufgenommene Bilder anzeigt. Der Fahrer kann somit vorteilhafterweise in Bereiche sehen, die durch Hindernisse verdeckt oder schlecht einsehbar sind, etwa vor einem vorausfahrenden Fahrzeug oder hinter einer Häuserecke.
  • In einer weiteren Ausgestaltung wird mittels einer Eingabe durch den Benutzer der Fahrmodus ausgewählt und mittels einer Eingabe durch den Benutzer eine stationäre Position des Flugkörpers relativ zum Fahrzeug festgelegt. Der Benutzer des Fahrzeugs kann dabei zum Beispiel eine Fahraufgabe vorgeben, anhand derer die Drohne dann gesteuert wird. Beispielsweise kann der Benutzer vorgeben, dass auf der Autobahn geradeaus gefahren werden soll. Die Drohne wird dann vorteilhafterweise abhängig von diesem manuell gewählten Fahrmodus gesteuert, wobei die Position der Drohne weiterhin von anderen Daten, zum Beispiel der Geschwindigkeit des Fahrzeugs, abhängig sein kann. Andererseits kann der Benutzer auch eine feste Position vorgeben, etwa um einen vom Benutzer definierten Bereich um das Fahrzeug herum über längere Zeit hinweg zu beobachten. Ferner ist es zum Beispiel möglich, die Drohne vom stehenden Fahrzeug in die Höhe fliegen zu lassen, beispielsweise um das Fahrzeug auf einem Parkplatz wiederzufinden.
  • In einer Ausbildung des erfindungsgemäßen Verfahrens werden anhand der von dem Flugkörper erfassten Daten zu der Umgebung des Fahrzeugs die Verkehrsdichte, die Geschwindigkeit und/oder Richtung anderer Fahrzeuge und/oder Verkehrszeichen entlang der Fahrstecke erfasst. Diese Informationen können vorteilhafterweise von einem Fahrerassistenzsystem genutzt werden, um etwa automatische Fahrmanöver zu planen und durchzuführen oder dem Fahrer Warnungen bei gefährlichen Situationen anzuzeigen.
  • Ferner kann der Fahrmodus des Fahrzeugs fortlaufend automatisch erfasst werden, wobei die von dem Flugkörper erfassten Daten berücksichtigt werden. Die von der Drohne erfassten Daten umfassen Informationen über das Fahrzeug selbst, etwa dessen Geschwindigkeit und Richtung, sowie über seine Umgebung, also etwa den umgebenden Verkehr und die Straßenverhältnisse. Ferner können Daten von anderen Einrichtungen des Fahrzeugs erfasst und berücksichtigt werden, beispielsweise von einem Navigationssystem, das Daten über den Verlauf der Route, das Höhenprofil und den Typ der befahrenen Wegstrecke zur Verfügung stellt. Anhand dieser Daten kann die Fahrsituation des Fahrzeugs bewertet werden. Zum Beispiel kann das System erkennen, dass sich das Fahrzeug auf einer Autobahn zunächst in der Geradeausfahrt befindet und in kurzer Zeit ein Überholvorgang eingeleitet werden soll. Auch beim Einfahren auf einen Parkplatz kann das System automatisch erkennen, dass Daten zur Parkplatzsuche und zum Einparken erfasst werden sollen. Dazu ist in diesem Fall keine manuelle Eingabe nötig, was den Bedienaufwand minimiert, die Benutzung des Systems vereinfacht und den Fahrer entlastet.
  • In einer Ausbildung des erfindungsgemäßen Verfahrens ermittelt die Steuereinheit des Fahrzeugs Bereiche, die für den Fahrer des Fahrzeugs nicht einsehbar sind und erzeugt Signale zur Steuerung der Flughöhe des Flugkörpers und/oder der Position des Flugkörpers in der horizontalen Ebene so, dass von dem Flugkörper Daten zu dem für den Fahrer nicht einsehbaren Bereich erfasst werden. Solche uneinsehbaren Bereiche können etwa vor einem vorausfahrenden Fahrzeug liegen, hinter einer Kurve oder nach einer Bergkuppe. Innerhalb von Ortschaften sind typische Situationen etwa Kreuzungen, Ausfahrten und Einmündungen, an deren Rändern Häuserwände, andere Fahrzeuge, Mauern oder Hecken die Sicht versperren. Die Steuereinheit kann derartige Gefahrenstellen vorteilhafterweise erkennen, wobei zum Beispiel auch eine Kombination von Benutzereingaben, von der Drohne erfasste Daten und/oder Daten des Navigationssystems zur Bestimmung nicht einsehbarer Bereiche verwendet werden können.
  • Erkennt die Steuereinheit eine Sichtbarriere, dann wird im nächsten Schritt insbesondere eine Position der Drohne so berechnet, dass Daten über den hinter dem Hindernis liegenden Bereich erfasst werden können. Dies kann abhängig von der Situation durch die geeignete Wahl der Flughöhe und/oder eine Verlagerung der Drohne in der horizontalen Ebene relativ zum Fahrzeug erreicht werden. Die Steuereinheit erzeugt dann Signale, durch welche die Drohne zur berechneten Position gesteuert wird.
  • In einer Ausbildung der Erfindung erzeugt ein Fahrerassistenzsystem des Fahrzeugs anhand der von dem Flugkörper erfassten Daten Signale so, dass eine Ausgabeeinheit, ein Antrieb, eine Bremse und/oder die Lenkung des Fahrzeugs gesteuert oder geregelt wird. Auf diese Weise kann der Fahrer bei der Führung des Fahrzeugs unterstützt werden, wobei unterschiedliche Grade der Automatisierung umgesetzt werden können. Beispielsweise kann ein solches System Warnmeldungen im Fahrzeug ausgeben, wenn eine gefährliche Situation erkannt wird. Ein Parkassistent etwa kann den Fahrer sowohl durch die Anzeige von durch die Drohne aufgenommenen Bildern, als auch durch einen Warnton vor der Annäherung an ein Hindernis warnen. Bei einem höheren Automatisierungsgrad kann automatisch vor einem Hindernis abgebremst werden. Durch Eingriffe in Antrieb, Bremse und Lenkung des Fahrzeugs kann ein Fahrerassistenzsystem Fahrmanöver teilweise oder vollständig automatisch steuern, beispielsweise die Geradeausfahrt auf der Autobahn.
  • In einer Weiterbildung des erfindungsgemäßen Verfahrens erzeugt in zumindest einem Fahrmodus die Steuereinheit des Fahrzeugs Signale zur Steuerung der Flughöhe des Flugkörpers so, dass anhand der von dem Flugkörper erfassten Daten durch das Fahrerassistenzsystem ein Stellplatz und/oder eine Trajektorie zum Parken des Fahrzeugs ermittelt wird. Zur Implementierung eines solchen Parkassistenten kann ein entsprechender Fahrmodus beispielsweise durch Eingabe des Benutzers gewählt oder durch Daten des Navigationssystems automatisch erkannt werden. Um einen geeigneten Stellplatz für das Fahrzeug zu ermitteln, kann die Steuereinheit die Flughöhe und die Position der Drohne so steuern, dass ein Überblick über beispielsweise einen Großparkplatz oder eine Reihe von Parkplätzen am Rand einer Straße erfassbar ist. Wird eine in Position und Größe geeignete Parklücke erkannt, so kann die Steuereinheit eine Trajektorie zum Einparken des Fahrzeugs ermitteln, wobei die Flughöhe der Drohne nötigenfalls vermindert werden kann, um beispielsweise kleinere Hindernisse beim Einparken zu erkennen und Kollisionen zu vermeiden. Beim höchsten Automatisierungsgrad kann das Fahrzeug vollautomatisch durch das Fahrerassistenzsystem in die Parklücke gesteuert werden. Bei einer nur teilweise automatisierten Steuerung werden einzelne Manöver durch das System übernommen.
  • In einer weiteren Ausbildung des erfindungsgemäßen Verfahrens erzeugt in zumindest einem Fahrmodus die Steuereinheit des Fahrzeugs Signale zur Steuerung der Flughöhe des Flugkörpers so, dass anhand der von dem Flugkörper erfassten Daten durch das Fahrerassistenzsystem eine Trajektorie zum Überholen eines vorausfahrenden Fahrzeugs ermittelt wird. Auch hier kann der Fahrmodus beispielsweise durch die Eingabe eines Benutzers oder durch die vom System erfassten Daten automatisch erkannt werden. Die Position der Drohne wird dann so berechnet und gesteuert, dass alle für den Überholvorgang notwendigen Daten durch die Drohne erfasst werden. Zum Beispiel kann das Fahrerassistenzsystem die Geschwindigkeit des Fahrzeugs und eines vorausfahrenden Fahrzeugs erfassen und erkennen, ob ein Überholen angezeigt ist. Anhand der Verkehrszeichen und der Daten des Navigationssystems kann es ein Überholverbot ausschließen. Mittels der von der Drohne erfassten Daten kann es den entgegenkommenden Verkehr und den Straßenverlauf erfassen sowie eine geeignete Trajektorie und eine Zielgeschwindigkeit des Fahrzeugs berechnen, durch die der Überholvorgang sicher ausgeführt werden kann. Durch Eingriffe in die Steuerung des Fahrzeugs kann das Überholmanöver in Teilen oder vollständig automatisiert durchgeführt werden.
  • Das erfindungsgemäße System umfasst ein Fahrzeug, für das verschiedene Fahrmodi definiert sind, einen autonom bewegbaren Flugkörper durch den mittels einer Datenerfassungseinheit Daten zu der Umgebung des Fahrzeugs erfassbar sind und der datentechnisch mit dem Fahrzeug gekoppelt ist, und eine im Fahrzeug angeordneten Steuereinheit, durch die Signale zum Steuern der Position des Flugkörpers erzeugbar und an den Flugkörper übertragbar sind. Das System ist dadurch gekennzeichnet, dass mittels der Steuereinheit in Abhängigkeit von dem aktuellen Fahrmodus des Fahrzeugs ein Steuersignal für die Flughöhe des Flugkörpers erzeugbar und an den Flugkörper übertragbar ist. Das erfindungsgemäße System ist insbesondere ausgebildet, das vorstehend beschriebene erfindungsgemäße Verfahren zu implementieren. Das System weist somit dieselben Vorteile auf wie das erfindungsgemäße Verfahren.
  • In einer Ausgestaltung der Erfindung erfasst die Drohne mittels der Datenerfassungseinheit Daten über die Umgebung des Fahrzeugs. Auf diese Weise ist es möglich, die von der Drohne erfassten Daten für ein Fahrerassistenzsystem zu nutzen, indem beispielsweise der das Fahrzeug umgebende Verkehr beobachtet wird oder Daten in vom Fahrzeug aus nicht einsehbaren Bereichen erfasst werden.
  • In einer Ausbildung des erfindungsgemäßen Systems ist mittels der Steuereinheit in Abhängigkeit von dem aktuellen Fahrmodus des Fahrzeugs ein Steuersignal für die Position des Flugkörpers in der horizontalen Ebene erzeugbar und an den Flugkörper übertragbar. Auf diese Weise kann der Bereich, in dem Daten erfasst werden, flexibel an den Fahrmodus angepasst werden. Beispielsweise kann die Drohne bei der Geradeausfahrt in Fahrtrichtung nach vorne versetzt fliegen, um ein auftauchendes Hindernis möglichst früh zu erfassen. Ferner kann die Drohne seitlich zum Fahrzeug versetzt fliegen, um beispielsweise vor einem Überholmanöver den Verkehr auf der benachbarten Fahrspur zu erfassen, auf den die Sicht aus der Perspektive des Fahrzeugs womöglich durch andere Fahrzeuge verdeckt ist.
  • Gemäß einer Weiterbildung der Erfindung sind mittels eines Fahrerassistenzsystems des Fahrzeugs in Abhängigkeit von dem aktuellen Fahrmodus und den von dem Flugkörper erfassten Daten Signale erzeugbar, durch die eine Ausgabeeinheit, ein Antrieb, eine Bremse und/oder die Lenkung des Fahrzeugs steuerbar ist. Dadurch kann der Fahrer bei verschiedenen Graden der Automatisierung unterstützt werden. Beispielsweise kann ein Parkassistent mittels einer Ausgabeeinrichtung des Fahrzeugs einen Warnton oder eine Anzeige ausgeben, wenn sich das Fahrzeug einem Hindernis nähert. Ferner kann durch Eingriffe in den Antrieb und die Bremse automatisch etwa der Abstand zu einem vorausfahrenden Fahrzeug konstant gehalten oder das Fahrzeug in einer Fahrspur geführt werden.
  • In einer Ausbildung der Erfindung umfasst die Datenerfassungseinheit zumindest einen optischen Sensor, einen Radarsensor und/oder einen Infrarotsensor. Je nach Einsatzbereich können verschiedene Arten von Umgebungsdaten benötigt werden. Beispielsweise kann ein optischer Sensor Bilder erfassen, die den natürlichen Gewohnheiten des Fahrers des Fahrzeugs entsprechen und daher intuitiv verständlich sind, wenn sie im Fahrzeug angezeigt werden. Bei Nebel und schlechten Sichtverhältnissen kann ein Infrarotsensor vorteilhaft sein, da Infrarotstrahlung Nebel besser durchdringt als Licht im sichtbaren Teil des Spektrums elektromagnetischer Strahlung. Ferner können Infrarotkameras beispielsweise Personen auf der Fahrbahn anhand der von ihnen ausgehenden Wärmestrahlung erfassen und den Fahrer warnen. Die Kombination mehrerer Sensoren unterschiedlichen Typs erlaubt die Verwendung unterschiedlicher Fahrerassistenzsysteme in Verbindung mit dem erfindungsgemäßen System.
  • Das Fahrzeug kann ferner zumindest ein Kennzeichen umfassen, das von dem Flugkörper erfassbar ist. Beispielsweise kann es sich dabei um einen Barcode auf dem Dach des Fahrzeugs handeln, anhand dessen das Fahrzeug auf den aus einer erhöhten Position aufgenommenen Bildern identifiziert werden kann. Selbst in einer Gruppe ähnlicher Fahrzeuge gleichen Typs und gleicher Farbe ist das der Drohne zugeordnete Fahrzeug damit auf den von der Drohne aufgenommenen Bildern einer optischen Kamera in einfacher Weise zu identifizieren. Alternativ kann ein Transponder eingesetzt werden. Dies erlaubt die Fahrsituation des Fahrzeugs zu bewerten, etwa seine Position, den Abstand zu anderen Fahrzeugen und die Orientierung relativ zur Fahrbahnmarkierung.
  • Die Erfindung wird nun anhand von Ausführungsbeispielen mit Bezug zu den Zeichnungen im Detail erläutert.
  • 1 zeigt schematisch ein Ausführungsbeispiel des erfindungsgemäßen Systems zur Ausführung des erfindungsgemäßen Verfahrens,
  • 2 zeigt schematisch die Steuereinheit und mit ihr gekoppelte Einrichtungen des in 1 dargestellten Systems,
  • 3 zeigt schematisch den Ablauf eines Ausführungsbeispiels des erfindungsgemäßen Verfahrens,
  • 4 zeigt schematisch das in 1 dargestellte System beim Einparken,
  • 5 zeigt die in 4 dargestellte Situation in der Draufsicht,
  • 6 zeigt schematisch das in 1 dargestellte System beim Einfahren in eine Kreuzung und
  • 7 zeigt die in 6 dargestellte Situation in der Draufsicht.
  • Mit Bezug zu den 1 und 2 wird ein Ausführungsbeispiel des erfindungsgemäßen Systems zur Ausführung des erfindungsgemäßen Verfahrens erläutert.
  • Das System umfasst ein Fahrzeug 1 mit einer Steuereinheit 6 und einer Halterung 4. Ein autonom vom Fahrzeug 1 bewegbarer Flugkörper 2, im Folgenden auch als „Drohne“ 2 bezeichnet, ist datentechnisch mit dem Fahrzeug 1 gekoppelt und umfasst eine Datenerfassungseinheit 3, in diesem Fall eine optische Kamera. In anderen Ausführungen kann sie auch andere Sensoren, etwa eine Infrarotkamera oder einen Radarsensor, umfassen. Die Drohne 2 erfasst auch Daten über ihre Position relativ zum Fahrzeug 1. Der Erfassungsbereich 5 der Kamera 3 ist von der Position der Drohne 2 abhängig, insbesondere von ihrer Flughöhe. Die Drohne 2 ist in einem Ruhezustand an der Halterung 4 am Fahrzeug 1 befestigt. Die Drohne 2 ist in der Halterung 4 mit der Energieversorgung des Fahrzeugs 1 verbunden und nutzt diese zum Auffüllen ihrer Energiereserven.
  • Die Steuereinheit 6 des Fahrzeugs 1 und die Drohne 2 können miteinander Daten austauschen. Mittels der Steuereinheit 6 sind Steuersignale erzeugbar, durch welche die Position der Drohne 2 festgelegt werden kann. Diese Steuersignale werden drahtlos über geeignete Schnittstellen der Drohne 2 und des Fahrzeugs 1 an die Drohne 2 übertragen. Insbesondere wird durch die von der Steuereinheit 6 erzeugten Steuersignale die Flughöhe der Drohne 2 festgelegt. Umgekehrt kann die Drohne 2 über diese Schnittstellen Positionsdaten und Daten der Kamera 3 an das Fahrzeug 1 senden. Die zwischen dem Fahrzeug 1 und der Drohne 2 ausgetauschten Daten umfassen ferner die aktuelle Geschwindigkeit, Beschleunigung und Gierrate des Fahrzeugs 1, die Fahrstufe bzw. den eingelegten Gang des Fahrzeugs 1 sowie den Zustand des Energiespeichers der Drohne 2.
  • Auf ein Steuersignal hin löst sich die Drohne 2 aus der Halterung 4, beziehungsweise bewegt sie sich zur Halterung 4 zurück. Dies kann auch am parkenden Fahrzeug 1 durchgeführt werden: Die Drohne 2 steigt dann auf eine Eingabe eines Benutzers hin in eine festgelegte Flughöhe, wodurch das Finden des Fahrzeugs 1 erleichtert wird.
  • Ferner umfasst das Fahrzeug 1 ein Fahrerassistenzsystem 10, das in die Steuereinheit 6 integriert ist. Die Steuereinheit 6 ist über einen Datenbus 14 des Fahrzeugs 1 mit anderen Einrichtungen datentechnisch gekoppelt, im hier dargestellten Fall mit einem Display 9, dem Antrieb 11, der Bremse 12 sowie der Lenkung 13 des Fahrzeugs 1. Das Fahrerassistenzsystem 10 kann Signale so erzeugen, dass die genannten Einrichtungen des Fahrzeugs gesteuert werden. Im vorliegenden Fall ist das Fahrerassistenzsystem 10 ein Parkassistent, der Meldungen mittels des Displays 9 anzeigt und das Fahrzeug 1 automatisch in eine Parklücke steuert.
  • Mit Bezug zu 3 wird der Ablauf eines Ausführungsbeispiels des erfindungsgemäßen Verfahrens erläutert.
  • Im ersten Schritt S1 wird der Fahrmodus erfasst. Der Benutzer wählt durch eine Eingabe einen Fahrmodus aus einem Menü aus. Auf diese Weise stehen unter anderem die Fahrmodi „Einparken“, „Autobahnfahrt“ und „Überholen“ zur Verfügung. Ferner kann in einem Fahrmodus „Manuell“ eine stationäre Position der Drohne 2 festgelegt werden, wobei der Benutzer durch eine Eingabe die Höhe und die horizontale Position der Drohne 2 bestimmt, z. B. relativ zum Fahrzeug 1. Ferner kann die Option „Automatischer Fahrmodus“ ausgewählt werden. In diesem Fall wird der Fahrmodus des Fahrzeugs 1 automatisch von der Steuereinheit 6 bestimmt.
  • Bei der automatischen Bestimmung des Fahrmodus werden von der Kamera 3 erfasste Daten zu der Umgebung des Fahrzeugs 1 berücksichtigt, aber auch Daten von anderen Einrichtungen des Fahrzeugs 1, etwa des Navigationssystems, fließen in die Bestimmung ein. Beispielsweise wird der Fahrmodus „Autobahnfahrt“ automatisch erkannt, wenn das Fahrzeug 1 vom Navigationssystem auf einer Autobahn lokalisiert wird. Nach dem Erreichen des vorher definierten Ziels einer Route wird automatisch der Parkvorgang im Fahrmodus „Einparken“ eingeleitet. Wird ein vorausfahrendes Fahrzeug mit geringerer Geschwindigkeit erfasst, so wird der Fahrmodus „Überholen“ übernommen.
  • Im nächsten Schritt S2 wird eine Trajektorie der Drohne 2 berechnet, wobei der Fahrmodus des Fahrzeugs 1 berücksichtig wird. Insbesondere wird die Flughöhe der Drohne 2 so gewählt, dass die im jeweiligen Fahrmodus benötigten Daten mittels der Kamera 3 erfasst werden. Die Flughöhe wird dabei an die Erfordernisse im jeweiligen Fahrmodus angepasst: In größerer Höhe wird eine größerer Bereich mit geringerer Auflösung erfasst, bei geringerer Flughöhe ein kleinerer Bereich mit höherer Auflösung.
  • Auch die gewünschte Position der Drohne 2 relativ zum Fahrzeug 1 in der horizontalen Ebene wird berechnet. Bei hoher Geschwindigkeit des Fahrzeugs 1 fliegt die Drohne 2 insbesondere in großer Höhe und in Fahrtrichtung vorverlagert, um einen möglichst großen Bereich der vor dem Fahrzeug 1 liegenden Fahrbahn zu erfassen und bei Auftauchen eines Hindernisses rechtzeitig warnen zu können. Umgekehrt befindet sich die Drohne 2 beim Einparken in geringer Höhe direkt über oder in der unmittelbaren Nähe des Fahrzeugs 1, um mit ausreichend hoher Auflösung kleinere Hindernisse im Bereich um das Fahrzeug 1 zu erfassen. Ferner ist eine Anpassung der Flughöhe erforderlich, wenn beispielsweise der Bereich hinter einer Bergkuppe oder einer anderen Sichtbarriere erfasst werden soll.
  • Im dritten Schritt S3 erzeugt die Steuereinheit 6 Steuersignale, durch welche die Drohne 2 auf die berechnete Trajektorie gesteuert wird. Diese Signale werden an die Drohne 2 übertragen. Währenddessen kann die Drohne 2 Daten über ihren Zustand an das Fahrzeug 1 senden. Dazu gehören Daten zu ihren Energiereserven, ihrer Geschwindigkeit und ihrer Position. Sinken die Energiereserven der Drohne 2 unter einen definierten Wert, so wird die Drohne 2 zu Halterung 4 am Fahrzeug 1 gesteuert, um dort die elektrische Batterie wieder aufzuladen. Verfügt die Drohne 2 über ausreichende Energiereserven, so nimmt sie mittels ihres eigenen Antriebs die von der Steuereinheit 6 bestimmte Position relativ zum Fahrzeug 1 ein.
  • Im vierten Schritt S4 erfasst die Drohne 2 mittels der Kamera 3 Daten über die Umgebung des Fahrzeugs 1 und überträgt diese Daten an das Fahrzeug 1, wo sie von der Steuereinheit 6 verarbeitet werden. Diese Daten sind in diesem Fall Bilddaten, wobei der Erfassungsbereich 5 durch den Aufnahmewinkel und die Position der Kamera 3 bestimmt wird. Die erfassten Umgebungsdaten können damit auch Daten über das Fahrzeug 1 selbst umfassen, sofern sich die Drohne 2 in der Nähe des Fahrzeugs 1 befindet. Auf diese Weise können Positionen, Richtungen und Geschwindigkeiten sämtlicher Fahrzeuge im Erfassungsbereich einschließlich des eigenen Fahrzeugs 1 erfasst werden.
  • Die im vierten Schritt S4 erfassten Umgebungsdaten werden wiederum zur genaueren Bestimmung des Fahrmodus im ersten Schritt S1 herangezogen werden. Auf diese Weise entsteht eine Rückkopplungsschleife, wobei der Fahrmodus immer wieder anhand der von der Drohne 2 erfassten Daten an die aktuelle Situation angepasst wird. So werden anhand der von der Drohne 2 erfassten Daten die Verkehrsdichte, die Geschwindigkeit und Richtung anderer Fahrzeuge, sowie Verkehrszeichen an der Strecke erfasst. Diese Informationen über die Verkehrssituation fließen in die Bestimmung des Fahrmodus ein. So fliegt die Drohne 2 niedriger, wenn dichter Verkehr um das Fahrzeug 1 herum festgestellt wird, um den kritischen Bereich um das Fahrzeug 1 herum mit größerer Auflösung zu erfassen. Umgekehrt fliegt bei weniger dichtem Verkehr und hoher Reisegeschwindigkeit des Fahrzeugs 1 die Drohne 2 in größerer Flughöhe und in Fahrtrichtung vorversetzt, um kommende Hindernisse frühzeitig zu erkennen.
  • Im fünften Schritt S5 werden die von der Drohne 2 erfassten Daten durch ein Fahrerassistenzsystem 10 ausgewertet. Der Parkassistent bestimmt aus von der Drohne 2 aufgenommenen Bilddaten die Position eines freien Parkplatzes und erzeugt eine Trajektorie zum Einparken des Fahrzeugs 1. Je nach dem Grad der gewünschten Automatisierung wird der Fahrer durch Anzeigen einer Karte auf dem Display 9 entlang der Trajektorie geführt, oder die Fahrzeugführung wird teilweise oder vollständig automatisch durch das Fahrerassistenzsystem 10 ausgeführt. Bei der automatischen Geradeausfahrt führt das Fahrerassistenzsystem 10 das Fahrzeug 1 innerhalb der Fahrstreifenbegrenzung und regelt den Abstand zu vorausfahrenden Fahrzeugen.
  • Mit Bezug zu 4 wird ein Parkassistent als Ausführungsbeispiel des erfindungsgemäßen Verfahrens erläutert. Zur Verdeutlichung ist die in 4 dargestellte Situation in 5 in der Draufsicht dargestellt.
  • Das Fahrzeug 1 befindet sich auf einem Parkplatz. Der Fahrmodus zum Einparken wird manuell vom Fahrer ausgewählt werden. Das Fahrerassistenzsystem 10 erlaubt allerdings auch die Einstellung „Automatischer Fahrmodus“. In diesem Fall wird der Fahrmodus zum Einparken automatisch aktiviert, wenn das Navigationssystem erkennt, dass sich das Fahrzeug 1 auf einem Parkplatz befindet oder dass das Ziel der Routenführung erreicht ist. Die Drohne 2 mit der Kamera 3 nimmt eine Position direkt oberhalb des Fahrzeugs 1 ein. Die Flughöhe der Drohne 2 wird so gesteuert, dass der Erfassungsbereich 5 der Kamera 3 so groß ist, dass Daten über die in der Umgebung des Fahrzeugs 1 zur Verfügung stehenden Parkplätze erfasst werden. Während der Parkplatzsuche ist dabei ein großer Erfassungsbereich 5 vorteilhaft, während das Auflösungsvermögen eine untergeordnete Rolle spielt. Um einen größeren Bereich abzusuchen, wird die Drohne 2 auch in der horizontalen Ebene gesteuert.
  • Bei der Suche nach einem geeigneten Stellplatz werden anhand der erfassten Daten Bereiche ermittelt, die nicht bereits durch parkende Fahrzeuge blockiert sind und in denen das Parken gemäß den relevanten Vorschriften zulässig ist. Verschiedene potentielle Parkplätze werden abhängig von der Entfernung zu einem Gebäudeeingang als mehr oder weniger günstig bewertet. Gegebenenfalls werden anhand der von der Drohne 2 erfassten Daten auch gesondert gekennzeichnete Parkplätze, beispielsweise für Behinderte oder Mitarbeiter, erkannt und als besonders günstig bewertet. Wird ein potentiell geeigneter Bereich identifiziert, so wird die Geometrie des freien Raumes in der Parklücke mit den Abmessungen des Fahrzeugs 1 abgeglichen, um sicherzustellen, dass das Fahrzeug 1 in der Lücke ausreichen Platz findet.
  • Während des Einparkvorgangs selbst nimmt die Drohne 2 eine geringere Flughöhe ein, um Daten mit höherer Auflösung zu erfassen und kleinere Hindernisse erkennen zu können. Eine Position direkt über dem Fahrzeug 1 erlaubt ein gleichmäßiges Sichtfeld 5 rund um das Fahrzeug 1, andererseits können durch das Anfliegen verschiedener anderer Position innerhalb der horizontalen Ebene kritische Bereiche besonders gut überwacht werden.
  • Das Fahrerassistenzsystem 10 des Fahrzeugs 1 berechnet anhand der von der Drohne 2 ermittelten Daten eine Trajektorie zum Einparken des Fahrzeugs 1. Hat der Fahrer einen Fahrmodus zur manuellen Steuerung des Fahrzeugs 1 ausgewählt, so können entsprechende Anweisungen zur Steuerung des Fahrzeugs 1 auf dem Display 9 ausgegeben werden. In einem Fahrmodus zum automatischen Einparken kann das Fahrerassistenzsystem 10 aber auch Signale so erzeugen, dass das Display 9, der Antrieb 11, die Bremse 12 und die Lenkung 13 des Fahrzeugs 1 gesteuert werden. Teile des Manövers oder das gesamte Einparken werden auf diese Weise teilweise oder vollständig automatisch durchgeführt.
  • Mit Bezug zu 6 wird ein Fahrassistent zur Vermeidung von Kollisionen beim Einfahren in eine Kreuzung als Ausführungsbeispiel des erfindungsgemäßen Verfahrens erläutert. Zur Verdeutlichung ist die in 6 dargestellte Situation in 7 in der Draufsicht dargestellt.
  • Das Fahrzeug 1 befindet sich vor der Einfahrt in eine Kreuzung. Aus einer Richtung quer zur Fahrtrichtung des Fahrzeugs 1 nähert sich ein anderes Fahrzeug 8. Aus der Perspektive des im Fahrzeug 1 sitzenden Fahrers ist die Sicht auf das herannahende Fahrzeug 8 durch eine Sichtbarriere 7, hier die Wand eines Hauses, verdeckt. Anhand der von der Kamera 3 der Drohne 2 erfassten Bilddaten wird die Sichtbarriere 7 identifiziert und ein Fahrmodus gewählt, bei dem die Drohne 2 Daten in uneinsehbaren Bereichen erfasst. Die Wahl des Fahrmodus kann – abhängig davon, ob der Benutzer das System auf automatische oder manuelle Wahl des Fahrmodus einstellt – auch anhand der Daten des Navigationssystems 10 oder durch eine Benutzereingabe erfolgen, wobei die Daten mehrerer Einrichtungen kombiniert werden können.
  • Die Drohne 2 fliegt auf ein Steuersignal der Steuereinheit 6 hin zu einer Position, von der aus Daten über herannahenden Verkehr erfasst werden können. Insbesondere kann durch Einnehmen einer größeren Höhe über die Sichtbarriere 7 hinweg der dahinter liegende Bereich erfasst werden. Durch eine relative zum Fahrzeug 1 in Fahrtrichtung vorgelagerte Position ist die Kreuzung zusätzlich besser einsehbar. Ferner wird die Drohne 2 seitlich versetzt zum Fahrzeug 1 gesteuert, um den hinter der Sichtbarriere 7 liegenden Bereich einzusehen.
  • Das Fahrerassistenzsystem 10 erkennt anhand der von der Drohne 2 erfassten Daten eine Gefahrensituation durch das herannahende Fahrzeug 8 und zeigt dem Fahrer des Fahrzeugs 1 eine Warnmeldung an. Ferner wird ein Warnton ausgegeben. Wurde ein höherer Automatisierungsgrad gewählt, so leitet das Fahrerassistenzsystem 10 gegebenenfalls eine Bremsung zur Vermeidung einer Kollision ein.
  • Auf die gleiche Weise unterstützt das Fahrerassistenzsystem 10 den Fahrer beim Rückwärtsfahren aus einer Ausfahrt heraus, insbesondere wenn sich am Rand der Ausfahrt eine Sichtbarriere, etwa eine Hecke, befindet. In diesem Fall befindet sich die Drohne 2 hinter dem Fahrzeug 1, um Daten in uneinsichtigen Bereichen zu erfassen.
  • Analog dazu wird die Drohne 2 bei einem Fahrmodus zum Überholen eines vorausfahrenden Fahrzeugs so gesteuert, dass sie Daten in denjenigen Bereichen erfasst, die zum Beispiel beim Spurwechsel überwacht werden müssen, aber schwer oder nicht vom Fahrzeug 1 aus einsehbar sind. So erfasst die Drohne 2 etwa in einer ausreichenden Flughöhe den Bereich vor dem vorausfahrenden Fahrzeug. In einer relativ zum Fahrzeug 1 seitlich versetzten Position wird der Verkehr auf der benachbarten Fahrspur überwacht.
  • Ebenfalls analog zu der oben beschriebenen Situation wird verfahren, wenn eine vor dem Fahrzeug 1 befindliche Bergkuppe die Sicht auf den dahinter liegenden Bereich verdeckt. Eine solche Situation wird anhand der Daten des Navigationssystems, einer Benutzereingabe und/oder der von der Datenerfassungseinheit 3 der Drohne 2 erfassten Daten identifiziert. Die Steuerungseinheit 6 berechnet eine Flughöhe der Drohne 2 so, dass die Drohne 2 Daten in dem hinter der Kuppe befindlichen Bereich erfassen kann.
  • Es sei angemerkt, dass der Anwendungsbereich des erfindungsgemäßen Verfahrens und Systems nicht auf Kraftfahrzeuge beschränkt ist. In einem Ausführungsbeispiel ist das Fahrzeug 1 ein Schienenfahrzeug 1 mit einem erfindungsgemäßen System. In diesem Fall fliegt die Drohne 2 in Fahrtrichtung nach vorne versetzt und warnt vor auftauchenden Hindernissen. Der typischerweise lange Bremsweg erfordert während der Geradeausfahrt die Steuerung der Drohne 2 in großer Höhe, um einen großen Erfassungsbereich 5 zu überwachen. Bei Auftauchen eines Hindernisses wird eine Warnmeldung ausgegeben und eine Notbremsung durchgeführt.
  • Analog kann das erfindungsgemäße System für ein Wasserfahrzeug 1 implementiert werden. In einem Ausführungsbeispiel kann ein solches Wasserfahrzeug 1 automatisch in einer Schiffsschleuse rangieren oder zu einem Liegeplatz in einem Hafen gesteuert werden, während die Drohne 2 Daten erfasst, die zur Durchführung des Manövers benötigt werden.
  • Bezugszeichenliste
  • 1
    Fahrzeug
    2
    Flugkörper; Drohne
    3
    Datenerfassungseinheit; Kamera
    4
    Halterung
    5
    Erfassungsbereich
    6
    Steuereinheit
    7
    Sichtbarriere
    8
    anderes Fahrzeug
    9
    Ausgabeeinheit
    10
    Fahrerassistenzsystem
    11
    Antrieb
    12
    Bremse
    13
    Lenkung
    14
    Datenbus
    S1
    Erfassung des Fahrmodus
    S2
    Berechnung einer Flugkörpertrajektorie
    S3
    Erzeugung von Steuersignalen
    S4
    Erfassung und Übertragung von Daten
    S5
    Datenauswertung durch Fahrerassistenzsystems
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102012006882 A1 [0010]
    • JP 2010250478 A2 [0011]
    • DE 102011106170 A1 [0012]
    • FR 2986647 A3 [0013]

Claims (10)

  1. Verfahren zur Steuerung eines autonom bewegbaren, datentechnisch mit einem Fahrzeug (1) gekoppelten Flugkörpers (2), wobei für das Fahrzeug (1) verschiedene Fahrmodi definiert sind, bei dem mittels einer Steuereinheit (6) des Fahrzeugs (1) Steuersignale zum Steuern der Position des Flugkörpers (2) erzeugt und an den Flugkörper (2) übertragen werden und von dem Flugkörper (2) Daten zu der Umgebung des Fahrzeugs (1) erfasst werden, dadurch gekennzeichnet, dass ein Steuersignal für die Flughöhe des Flugkörpers (2) in Abhängigkeit von dem aktuellen Fahrmodus des Fahrzeugs (1) erzeugt und an den Flugkörper (2) übertragen wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Steuersignal für die Flughöhe des Flugkörpers (2) ferner in Abhängigkeit von den Daten zu der Umgebung des Fahrzeugs (1) erzeugt wird.
  3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein Steuersignal für die Position des Flugkörpers (2) in der horizontalen Ebene in Abhängigkeit von dem aktuellen Fahrmodus des Fahrzeugs (1) und/oder den Daten zu der Umgebung des Fahrzeugs (1) erzeugt und an den Flugkörper (2) übertragen wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mittels einer Eingabe durch den Benutzer der Fahrmodus ausgewählt wird und mittels einer Eingabe durch den Benutzer eine stationäre Position des Flugkörpers (2) relativ zum Fahrzeug (1) festgelegt wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass anhand der von dem Flugkörper (2) erfassten Daten zu der Umgebung des Fahrzeugs (1) die Verkehrsdichte, die Geschwindigkeit und/oder Richtung anderer Fahrzeuge (8) und/oder Verkehrszeichen entlang der Fahrstecke erfasst werden.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Steuereinheit (6) des Fahrzeugs (1) Bereiche ermittelt, die für den Fahrer des Fahrzeugs (1) nicht einsehbar sind, und Signale zur Steuerung der Flughöhe des Flugkörpers (2) und/oder der Position des Flugkörpers (2) in der horizontalen Ebene so erzeugt, dass von dem Flugkörper (2) Daten zu dem für den Fahrer nicht einsehbaren Bereich erfasst werden.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein Fahrerassistenzsystem (10) des Fahrzeugs (1) anhand der von dem Flugkörper (2) erfassten Daten Signale so erzeugt, dass eine Ausgabeeinheit (9), ein Antrieb (11), eine Bremse (12) und/oder die Lenkung (13) des Fahrzeugs (1) gesteuert oder geregelt wird.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass in zumindest einem Fahrmodus die Steuereinheit (6) des Fahrzeugs (1) Signale zur Steuerung der Flughöhe des Flugkörpers (2) so erzeugt, dass anhand der von dem Flugkörper (2) erfassten Daten durch das Fahrerassistenzsystem (10) ein Stellplatz und/oder eine Trajektorie zum Parken des Fahrzeugs (1) ermittelt wird.
  9. Verfahren nach Anspruch 7 oder 8, dadurch gekennzeichnet, dass in zumindest einem Fahrmodus die Steuereinheit (6) des Fahrzeugs (1) Signale zur Steuerung der Flughöhe des Flugkörpers (2) so erzeugt, dass anhand der von dem Flugkörper (2) erfassten Daten durch das Fahrerassistenzsystem (10) eine Trajektorie zum Überholen eines vorausfahrenden Fahrzeugs (1) ermittelt wird.
  10. System mit einem Fahrzeug (1), für das verschiedene Fahrmodi definiert sind, einem autonom bewegbaren Flugkörper (2), durch den mittels einer Datenerfassungseinheit (3) Daten zu der Umgebung des Fahrzeugs (1) erfassbar sind und der datentechnisch mit dem Fahrzeug (1) gekoppelt ist, und einer im Fahrzeug (1) angeordneten Steuereinheit (6), durch die Signale zum Steuern der Position des Flugkörpers (2) erzeugbar und an den Flugkörper (2) übertragbar sind, dadurch gekennzeichnet, dass mittels der Steuereinheit (6) in Abhängigkeit von dem aktuellen Fahrmodus des Fahrzeugs (1) ein Steuersignal für die Flughöhe des Flugkörpers (2) erzeugbar und an den Flugkörper (2) übertragbar ist.
DE102014226458.8A 2014-12-18 2014-12-18 Verfahren und System zur Steuerung eines autonom bewegbaren, datentechnisch mit einem Fahrzeug gekoppelten Flugkörpers Withdrawn DE102014226458A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102014226458.8A DE102014226458A1 (de) 2014-12-18 2014-12-18 Verfahren und System zur Steuerung eines autonom bewegbaren, datentechnisch mit einem Fahrzeug gekoppelten Flugkörpers

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014226458.8A DE102014226458A1 (de) 2014-12-18 2014-12-18 Verfahren und System zur Steuerung eines autonom bewegbaren, datentechnisch mit einem Fahrzeug gekoppelten Flugkörpers

Publications (1)

Publication Number Publication Date
DE102014226458A1 true DE102014226458A1 (de) 2016-06-23

Family

ID=56099636

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014226458.8A Withdrawn DE102014226458A1 (de) 2014-12-18 2014-12-18 Verfahren und System zur Steuerung eines autonom bewegbaren, datentechnisch mit einem Fahrzeug gekoppelten Flugkörpers

Country Status (1)

Country Link
DE (1) DE102014226458A1 (de)

Cited By (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106740584A (zh) * 2017-01-20 2017-05-31 驭势科技(北京)有限公司 悬浮探测***、智能驾驶***以及安装该***的交通工具
DE102016202033A1 (de) * 2016-02-11 2017-08-17 Robert Bosch Gmbh Verfahren zum Überwachen eines Parkplatzes für Kraftfahrzeuge und Drohne
DE102016001827A1 (de) * 2016-02-17 2017-08-17 Audi Ag Verfahren zum Betreiben eines Fahrzeugs und System mit einem Fahrzeug und wenigstens einem unbemannten Luftfahrzeug
DE102016008428A1 (de) * 2016-07-11 2018-01-11 Klaus Schneider Parkleitsystem
WO2018045354A3 (en) * 2016-09-02 2018-04-19 FLIR Belgium BVBA Unmanned aerial system assisted navigational systems and methods
DE102018200218A1 (de) * 2018-01-09 2019-07-11 Continental Teves Ag & Co. Ohg Positionsbestimmung mittels Beobachtungseinrichtung
DE102018203484A1 (de) * 2018-03-08 2019-09-12 Zf Friedrichshafen Ag Verfahren und Vorrichtung zur Ermittlung von Fahrbahnreibwerten
GB2572842A (en) * 2018-02-12 2019-10-16 FLIR Belgium BVBA Unmanned aerial system assisted navigational systems and methods
US10493981B2 (en) 2018-04-09 2019-12-03 Ford Global Technologies, Llc Input signal management for vehicle park-assist
US10507868B2 (en) 2018-02-22 2019-12-17 Ford Global Technologies, Llc Tire pressure monitoring for vehicle park-assist
US10529233B1 (en) 2018-09-24 2020-01-07 Ford Global Technologies Llc Vehicle and method for detecting a parking space via a drone
US10580304B2 (en) 2017-10-02 2020-03-03 Ford Global Technologies, Llc Accelerometer-based external sound monitoring for voice controlled autonomous parking
US10578676B2 (en) 2017-11-28 2020-03-03 Ford Global Technologies, Llc Vehicle monitoring of mobile device state-of-charge
US10585430B2 (en) 2017-06-16 2020-03-10 Ford Global Technologies, Llc Remote park-assist authentication for vehicles
US10585431B2 (en) 2018-01-02 2020-03-10 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10583830B2 (en) 2018-01-02 2020-03-10 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10628687B1 (en) 2018-10-12 2020-04-21 Ford Global Technologies, Llc Parking spot identification for vehicle park-assist
US10627811B2 (en) 2017-11-07 2020-04-21 Ford Global Technologies, Llc Audio alerts for remote park-assist tethering
WO2020117601A1 (en) * 2018-12-03 2020-06-11 Trumpore Ryan Systems and methods for improving vehicle operations using movable sensors
US10683034B2 (en) 2017-06-06 2020-06-16 Ford Global Technologies, Llc Vehicle remote parking systems and methods
US10684627B2 (en) 2018-02-06 2020-06-16 Ford Global Technologies, Llc Accelerometer-based external sound monitoring for position aware autonomous parking
US10684773B2 (en) 2018-01-03 2020-06-16 Ford Global Technologies, Llc Mobile device interface for trailer backup-assist
US10683004B2 (en) 2018-04-09 2020-06-16 Ford Global Technologies, Llc Input signal management for vehicle park-assist
US10688918B2 (en) 2018-01-02 2020-06-23 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10717432B2 (en) 2018-09-13 2020-07-21 Ford Global Technologies, Llc Park-assist based on vehicle door open positions
US10732622B2 (en) 2018-04-05 2020-08-04 Ford Global Technologies, Llc Advanced user interaction features for remote park assist
US10737690B2 (en) 2018-01-02 2020-08-11 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10747218B2 (en) 2018-01-12 2020-08-18 Ford Global Technologies, Llc Mobile device tethering for remote parking assist
US10759417B2 (en) 2018-04-09 2020-09-01 Ford Global Technologies, Llc Input signal management for vehicle park-assist
US10775781B2 (en) 2017-06-16 2020-09-15 Ford Global Technologies, Llc Interface verification for vehicle remote park-assist
US10793144B2 (en) 2018-04-09 2020-10-06 Ford Global Technologies, Llc Vehicle remote park-assist communication counters
US10814864B2 (en) 2018-01-02 2020-10-27 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10821972B2 (en) 2018-09-13 2020-11-03 Ford Global Technologies, Llc Vehicle remote parking assist systems and methods
DE102019209486A1 (de) * 2019-06-28 2020-12-31 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Klassifizierung von Verkehrsflächen
US10908603B2 (en) 2018-10-08 2021-02-02 Ford Global Technologies, Llc Methods and apparatus to facilitate remote-controlled maneuvers
US10917748B2 (en) 2018-01-25 2021-02-09 Ford Global Technologies, Llc Mobile device tethering for vehicle systems based on variable time-of-flight and dead reckoning
DE102019212842A1 (de) * 2019-08-27 2021-03-04 Volkswagen Aktiengesellschaft Steuerung eines Kraftfahrzeugs unter Verwendung einer unbemannten Flugvorrichtung
DE102019133680B3 (de) * 2019-12-10 2021-03-04 Audi Ag Verfahren und System zum Durchführen einer Rekuperation
US10967851B2 (en) 2018-09-24 2021-04-06 Ford Global Technologies, Llc Vehicle system and method for setting variable virtual boundary
US10974717B2 (en) 2018-01-02 2021-04-13 Ford Global Technologies, I.LC Mobile device tethering for a remote parking assist system of a vehicle
EP3273201B1 (de) 2016-07-21 2021-06-30 Arquus Methode zur berechnung einer fahrstrecke für geländefahrzeug
US11097723B2 (en) 2018-10-17 2021-08-24 Ford Global Technologies, Llc User interfaces for vehicle remote park assist
US11137754B2 (en) 2018-10-24 2021-10-05 Ford Global Technologies, Llc Intermittent delay mitigation for remote vehicle operation
US11148661B2 (en) 2018-01-02 2021-10-19 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US20210331666A1 (en) * 2019-06-24 2021-10-28 Zhejiang University Environment active sensing-type automatic parking system in parking lot
US11169517B2 (en) 2019-04-01 2021-11-09 Ford Global Technologies, Llc Initiation of vehicle remote park-assist with key fob
US11188070B2 (en) 2018-02-19 2021-11-30 Ford Global Technologies, Llc Mitigating key fob unavailability for remote parking assist systems
US11195344B2 (en) 2019-03-15 2021-12-07 Ford Global Technologies, Llc High phone BLE or CPU burden detection and notification
US11275368B2 (en) 2019-04-01 2022-03-15 Ford Global Technologies, Llc Key fobs for vehicle remote park-assist
US11430332B2 (en) 2016-09-02 2022-08-30 FLIR Belgium BVBA Unmanned aerial system assisted navigational systems and methods
DE102022201799B3 (de) 2022-02-22 2023-03-30 Zf Friedrichshafen Ag Verfahren und Steuereinrichtung zum Überwachen eines Arbeitsumfelds einer Arbeitsmaschine sowie Arbeitsmaschine
DE102021212493A1 (de) 2021-11-05 2023-05-11 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum infrastrukturgestützten Assistieren eines Kraftfahrzeugs
US11789442B2 (en) 2019-02-07 2023-10-17 Ford Global Technologies, Llc Anomalous input detection
DE102022113736A1 (de) 2022-05-31 2023-11-30 ASFINAG Maut Service GmbH Verfahren zum Finden einer Ladestation für Elektrofahrzeuge

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010250478A (ja) 2009-04-14 2010-11-04 Toyota Motor Corp 運転支援装置
DE102011106170A1 (de) 2011-07-01 2012-02-02 Daimler Ag Verfahren und Vorrichtung zur Unterstützung eines Fahrers bei einer Steuerung eines Fahrzeugs
DE102012006882A1 (de) 2012-04-03 2012-11-08 Daimler Ag Verfahren zum Unterstützen eines Fahrers eines Kraftwagens beim Einfädeln in eine Fahrspur
FR2986647A3 (fr) 2012-02-07 2013-08-09 Renault Sas Vehicule automobile associe a un drone d'observation
DE102012024873A1 (de) * 2012-12-19 2014-06-26 Audi Ag Verfahren und Steuervorrichtung zum Bereitstellen eines vorausliegenden Straßenverlaufs

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010250478A (ja) 2009-04-14 2010-11-04 Toyota Motor Corp 運転支援装置
DE102011106170A1 (de) 2011-07-01 2012-02-02 Daimler Ag Verfahren und Vorrichtung zur Unterstützung eines Fahrers bei einer Steuerung eines Fahrzeugs
FR2986647A3 (fr) 2012-02-07 2013-08-09 Renault Sas Vehicule automobile associe a un drone d'observation
DE102012006882A1 (de) 2012-04-03 2012-11-08 Daimler Ag Verfahren zum Unterstützen eines Fahrers eines Kraftwagens beim Einfädeln in eine Fahrspur
DE102012024873A1 (de) * 2012-12-19 2014-06-26 Audi Ag Verfahren und Steuervorrichtung zum Bereitstellen eines vorausliegenden Straßenverlaufs

Cited By (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10165232B2 (en) 2016-02-11 2018-12-25 Robert Bosch Gmbh Method for monitoring a parking facility for motor vehicles, and drone
DE102016202033A1 (de) * 2016-02-11 2017-08-17 Robert Bosch Gmbh Verfahren zum Überwachen eines Parkplatzes für Kraftfahrzeuge und Drohne
DE102016001827A1 (de) * 2016-02-17 2017-08-17 Audi Ag Verfahren zum Betreiben eines Fahrzeugs und System mit einem Fahrzeug und wenigstens einem unbemannten Luftfahrzeug
DE102016008428A1 (de) * 2016-07-11 2018-01-11 Klaus Schneider Parkleitsystem
EP3273201B1 (de) 2016-07-21 2021-06-30 Arquus Methode zur berechnung einer fahrstrecke für geländefahrzeug
CN109690250A (zh) * 2016-09-02 2019-04-26 菲力尔比利时有限公司 无人机***辅助导航***和方法
GB2568851A (en) * 2016-09-02 2019-05-29 FLIR Belgium BVBA Unmanned aerial system assisted navigational systems and methods
CN109690250B (zh) * 2016-09-02 2023-10-27 菲力尔比利时有限公司 无人机***辅助导航***和方法
US11430332B2 (en) 2016-09-02 2022-08-30 FLIR Belgium BVBA Unmanned aerial system assisted navigational systems and methods
GB2568851B (en) * 2016-09-02 2022-05-04 FLIR Belgium BVBA Unmanned aerial system assisted navigational systems and methods
WO2018045354A3 (en) * 2016-09-02 2018-04-19 FLIR Belgium BVBA Unmanned aerial system assisted navigational systems and methods
CN106740584A (zh) * 2017-01-20 2017-05-31 驭势科技(北京)有限公司 悬浮探测***、智能驾驶***以及安装该***的交通工具
US10683034B2 (en) 2017-06-06 2020-06-16 Ford Global Technologies, Llc Vehicle remote parking systems and methods
US10585430B2 (en) 2017-06-16 2020-03-10 Ford Global Technologies, Llc Remote park-assist authentication for vehicles
US10775781B2 (en) 2017-06-16 2020-09-15 Ford Global Technologies, Llc Interface verification for vehicle remote park-assist
US10580304B2 (en) 2017-10-02 2020-03-03 Ford Global Technologies, Llc Accelerometer-based external sound monitoring for voice controlled autonomous parking
US10627811B2 (en) 2017-11-07 2020-04-21 Ford Global Technologies, Llc Audio alerts for remote park-assist tethering
US10578676B2 (en) 2017-11-28 2020-03-03 Ford Global Technologies, Llc Vehicle monitoring of mobile device state-of-charge
US10814864B2 (en) 2018-01-02 2020-10-27 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10585431B2 (en) 2018-01-02 2020-03-10 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10583830B2 (en) 2018-01-02 2020-03-10 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10974717B2 (en) 2018-01-02 2021-04-13 Ford Global Technologies, I.LC Mobile device tethering for a remote parking assist system of a vehicle
US11148661B2 (en) 2018-01-02 2021-10-19 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10737690B2 (en) 2018-01-02 2020-08-11 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10688918B2 (en) 2018-01-02 2020-06-23 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10684773B2 (en) 2018-01-03 2020-06-16 Ford Global Technologies, Llc Mobile device interface for trailer backup-assist
DE102018200218A1 (de) * 2018-01-09 2019-07-11 Continental Teves Ag & Co. Ohg Positionsbestimmung mittels Beobachtungseinrichtung
US10747218B2 (en) 2018-01-12 2020-08-18 Ford Global Technologies, Llc Mobile device tethering for remote parking assist
US10917748B2 (en) 2018-01-25 2021-02-09 Ford Global Technologies, Llc Mobile device tethering for vehicle systems based on variable time-of-flight and dead reckoning
US10684627B2 (en) 2018-02-06 2020-06-16 Ford Global Technologies, Llc Accelerometer-based external sound monitoring for position aware autonomous parking
GB2572842B (en) * 2018-02-12 2021-10-13 FLIR Belgium BVBA Unmanned aerial system assisted navigational systems and methods
GB2572842A (en) * 2018-02-12 2019-10-16 FLIR Belgium BVBA Unmanned aerial system assisted navigational systems and methods
US11188070B2 (en) 2018-02-19 2021-11-30 Ford Global Technologies, Llc Mitigating key fob unavailability for remote parking assist systems
US10507868B2 (en) 2018-02-22 2019-12-17 Ford Global Technologies, Llc Tire pressure monitoring for vehicle park-assist
DE102018203484A1 (de) * 2018-03-08 2019-09-12 Zf Friedrichshafen Ag Verfahren und Vorrichtung zur Ermittlung von Fahrbahnreibwerten
US10732622B2 (en) 2018-04-05 2020-08-04 Ford Global Technologies, Llc Advanced user interaction features for remote park assist
US10759417B2 (en) 2018-04-09 2020-09-01 Ford Global Technologies, Llc Input signal management for vehicle park-assist
US10683004B2 (en) 2018-04-09 2020-06-16 Ford Global Technologies, Llc Input signal management for vehicle park-assist
US10493981B2 (en) 2018-04-09 2019-12-03 Ford Global Technologies, Llc Input signal management for vehicle park-assist
US10793144B2 (en) 2018-04-09 2020-10-06 Ford Global Technologies, Llc Vehicle remote park-assist communication counters
US10821972B2 (en) 2018-09-13 2020-11-03 Ford Global Technologies, Llc Vehicle remote parking assist systems and methods
US10717432B2 (en) 2018-09-13 2020-07-21 Ford Global Technologies, Llc Park-assist based on vehicle door open positions
US10529233B1 (en) 2018-09-24 2020-01-07 Ford Global Technologies Llc Vehicle and method for detecting a parking space via a drone
US10967851B2 (en) 2018-09-24 2021-04-06 Ford Global Technologies, Llc Vehicle system and method for setting variable virtual boundary
US10908603B2 (en) 2018-10-08 2021-02-02 Ford Global Technologies, Llc Methods and apparatus to facilitate remote-controlled maneuvers
US10628687B1 (en) 2018-10-12 2020-04-21 Ford Global Technologies, Llc Parking spot identification for vehicle park-assist
US11097723B2 (en) 2018-10-17 2021-08-24 Ford Global Technologies, Llc User interfaces for vehicle remote park assist
US11137754B2 (en) 2018-10-24 2021-10-05 Ford Global Technologies, Llc Intermittent delay mitigation for remote vehicle operation
GB2589016B (en) * 2018-12-03 2022-10-19 Motional Ad Llc Systems and methods for improving vehicle operations using movable sensors
GB2589016A (en) * 2018-12-03 2021-05-19 Motional Ad Llc Systems and methods for improving vehicle operations using movable sensors
WO2020117601A1 (en) * 2018-12-03 2020-06-11 Trumpore Ryan Systems and methods for improving vehicle operations using movable sensors
CN114667460A (zh) * 2018-12-03 2022-06-24 动态Ad有限责任公司 使用可移动传感器改善运载工具操作的***和方法
US11835948B2 (en) 2018-12-03 2023-12-05 Motional Ad Llc Systems and methods for improving vehicle operations using movable sensors
US11789442B2 (en) 2019-02-07 2023-10-17 Ford Global Technologies, Llc Anomalous input detection
US11195344B2 (en) 2019-03-15 2021-12-07 Ford Global Technologies, Llc High phone BLE or CPU burden detection and notification
US11169517B2 (en) 2019-04-01 2021-11-09 Ford Global Technologies, Llc Initiation of vehicle remote park-assist with key fob
US11275368B2 (en) 2019-04-01 2022-03-15 Ford Global Technologies, Llc Key fobs for vehicle remote park-assist
US20210331666A1 (en) * 2019-06-24 2021-10-28 Zhejiang University Environment active sensing-type automatic parking system in parking lot
DE102019209486A1 (de) * 2019-06-28 2020-12-31 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Klassifizierung von Verkehrsflächen
DE102019212842A1 (de) * 2019-08-27 2021-03-04 Volkswagen Aktiengesellschaft Steuerung eines Kraftfahrzeugs unter Verwendung einer unbemannten Flugvorrichtung
DE102019133680B3 (de) * 2019-12-10 2021-03-04 Audi Ag Verfahren und System zum Durchführen einer Rekuperation
US11767027B2 (en) 2019-12-10 2023-09-26 Audi Ag Method and system for performing recuperation
CN112937589A (zh) * 2019-12-10 2021-06-11 奥迪股份公司 用于执行能量回收的方法和***
DE102021212493A1 (de) 2021-11-05 2023-05-11 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum infrastrukturgestützten Assistieren eines Kraftfahrzeugs
DE102022201799B3 (de) 2022-02-22 2023-03-30 Zf Friedrichshafen Ag Verfahren und Steuereinrichtung zum Überwachen eines Arbeitsumfelds einer Arbeitsmaschine sowie Arbeitsmaschine
DE102022113736A1 (de) 2022-05-31 2023-11-30 ASFINAG Maut Service GmbH Verfahren zum Finden einer Ladestation für Elektrofahrzeuge
WO2023232873A1 (de) * 2022-05-31 2023-12-07 Robert Bosch Gmbh Verfahren zum finden einer ladestation für elektrokraftfahrzeuge

Similar Documents

Publication Publication Date Title
DE102014226458A1 (de) Verfahren und System zur Steuerung eines autonom bewegbaren, datentechnisch mit einem Fahrzeug gekoppelten Flugkörpers
DE102017117698B4 (de) Fahrassistenzvorrichtung für ein Fahrzeug
DE102018218843B4 (de) Anzeigesystem, Anzeigverfahren und Speichermedium
EP3543059B1 (de) Verfahren zur berechnung einer einblendung von zusatzinformationen für eine anzeige auf einer anzeigeeinheit, vorrichtung zur durchführung des verfahrens sowie kraftfahrzeug und computerprogramm
EP3160813B1 (de) Verfahren zur erstellung eines umfeldmodells eines fahrzeugs
DE102017202115B4 (de) Fahrzeugeigene vorrichtung, verfahren zum steuern einer fahrzeugeigenen vorrichtung und computerlesbares speichermedium
DE112014005021B4 (de) Fahrtsteuervorrichtung, Server und In-Vehicle-Vorrichtung
DE69333543T2 (de) Unterstützungssystem für den Fahrer eines Fahrzeugs und damit ausgerüstetes Fahrzeug
EP3569465B1 (de) Verfahren und system zur bereitstellung einer automatisierungsfunktion für ein fahrzeug
DE102014219110A1 (de) Fahrerassistenzsystem für Kraftfahrzeuge
DE112016006614T5 (de) Fahrzeug-Regel-/Steuersystem, Fahrzeug-Regel-/Steuerverfahren und Fahrzeug-Regel-/Steuerprogramm
DE112018007027T5 (de) Abbiegewegvisualisierung zum verbessern von räumlichem und situativem bewusstsein bei abbiegemanövern
EP2479077A1 (de) Verfahren zum Betrieb eines eine auf einen Überholvorgang bezogene Empfehlung ausgebenden Fahrerassistenzsystems eines Kraftfahrzeugs und Kraftfahrzeug
DE102012201112A1 (de) Verfahren zur Unterstützung eines Fahrers beim Vorwärtseinparken
EP2594461B1 (de) Verfahren zum Erkennen einer Parklücke für ein Kraftfahrzeug, Parkhilfesystem und Kraftfahrzeug mit einem Parkhilfesystem
EP2676857A2 (de) Verfahren und Vorrichtung zum Erzeugen eines Steuerparameters für ein Abstandsassistenzsystem eines Fahrzeugs
WO2008061890A1 (de) Verfahren zur drahtlosen kommunikation zwischen fahrzeugen
DE102016013811A1 (de) Verkehrszeichenerkennungssystem, Verfahren zum Steuern eines Verkehrszeichenerkennungssystems und Computerprogrammprodukt
DE102012216753B4 (de) Verfahren zur Unterstützung eines Fahrmanövers eines Fahrzeugs und Fahrassistenzsystem
EP3373268A1 (de) Verfahren zum betreiben eines fahrerassistenzsystems für ein fahrzeug auf einer strasse und fahrerassistenzsystem
DE102017212432A1 (de) Verfahren und Vorrichtung zum Betreiben eines Fahrerassistenzsystems eines Kraftfahrzeugs und Fahrerassistenzsysteme
DE102016201190A1 (de) Wendeassistent
WO2021115759A1 (de) Verfahren zum bereitstellen einer dreidimensionalen landkarte in einem kraftfahrzeug
EP2603403B1 (de) Verfahren zum anzeigen von bildern auf einer anzeigeeinrichtung in einem kraftfahrzeug, fahrerassistenzsystem und kraftfahrzeug
DE102016203662A1 (de) Fahrerassistenzsystem und Verfahren zum Betreiben eines solchen

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee