DE102018211905A1 - Steuereinrichtung für ein unbemanntes Luftfahrzeug - Google Patents

Steuereinrichtung für ein unbemanntes Luftfahrzeug Download PDF

Info

Publication number
DE102018211905A1
DE102018211905A1 DE102018211905.8A DE102018211905A DE102018211905A1 DE 102018211905 A1 DE102018211905 A1 DE 102018211905A1 DE 102018211905 A DE102018211905 A DE 102018211905A DE 102018211905 A1 DE102018211905 A1 DE 102018211905A1
Authority
DE
Germany
Prior art keywords
vehicle
uav
user
processor
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018211905.8A
Other languages
English (en)
Inventor
Adam Hussein Adwan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jaguar Land Rover Ltd
Original Assignee
Jaguar Land Rover Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jaguar Land Rover Ltd filed Critical Jaguar Land Rover Ltd
Publication of DE102018211905A1 publication Critical patent/DE102018211905A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0033Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by having the operator tracking the vehicle either by direct line of sight or via one or more cameras located remotely from the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D1/00Steering controls, i.e. means for initiating a change of direction of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/14Flying platforms with four distinct rotor axes, e.g. quadcopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • B64U2201/104UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS] using satellite radio beacon positioning systems, e.g. GPS
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

Eine Steuereinrichtung (80) für ein unbemanntes Luftfahrzeug (60), UAV (60), das eine Bilderfassungseinrichtung (100) umfasst, wobei die Steuereinrichtung umfasst: Eingänge (82), die dafür ausgelegt sind, Folgendes zu empfangen: Positionsdaten, die auf das UAV (60), ein Fahrzeug (40) und eine Benutzervorrichtung (70) bezogen sind; Bilddaten, die von der Bilderfassungseinrichtung erfasst werden; einen Prozessor (84), der dafür ausgelegt ist, die empfangenen Positionsdaten zu verarbeiten, um die relative Position des UAV, des Fahrzeugs und der Benutzervorrichtung zu bestimmen; einen Ausgang (86), der dafür ausgelegt ist, ein Steuersignal zum Steuern des UAV auszugeben und ein Bildsignal auszugeben, das erfasste Bilddaten umfasst; wobei der Prozessor für Folgendes ausgelegt ist: Erzeugen des Steuersignals für das UAV (60) auf solche Weise, dass die Bilddaten, die von der Bilderfassungseinrichtung erfasst werden, zumindest ein Bild eines nicht sichtbaren Abschnitts (104) des Fahrzeugs (40), der in einem Blickfeld (73) eines Benutzers der Benutzervorrichtung nicht sichtbar ist, umfassen.

Description

  • GEBIET DER TECHNIK
  • Die vorliegende Offenbarung betrifft eine Steuereinrichtung für ein unbemanntes Luftfahrzeug und insbesondere, aber nicht ausschließlich, eine Steuereinrichtung für eine Drohne. Aspekte der Erfindung betreffen eine Steuereinrichtung, ein unbemanntes Luftfahrzeug, eine Fernsteuervorrichtung, eine Benutzervorrichtung, ein Fahrzeug und ein Verfahren zum Steuern eines unbemannten Luftfahrzeugs.
  • HINTERGRUND
  • Unter bestimmten Umständen werden Benutzer von Fahrzeugen mit schwierigen Umgebungen konfrontiert, in denen sie ihr Fahrzeug manövrieren müssen, beispielsweise während Parkmanövern oder wenn sie mit schwierigem Gelände fertig werden müssen. Ein bekanntes Fernsteuersystem, wie es in 1 gezeigt ist, ermöglicht es dem Benutzer 10 des Fahrzeugs, die Lenk-, Brems-, und Gas/Drosselsteuerungssysteme eines Fahrzeugs 20 von einer Steuervorrichtung 30 wie etwa einem Smartphone aus zu steuern. Diese Fernsteuervorrichtung ermöglicht dem Benutzer des Fahrzeugs somit die Überprüfung der genauen Positionierung des Fahrzeugs während solcher Manöver, indem er um das ferngesteuerte Fahrzeug herum geht. Als Folge der Verwendung solch eines Fernsteuersystems kann die Wahrscheinlichkeit dafür, dass das Fahrzeug eine Kollision oder einen Schaden erleidet, verringert werden im Vergleich zu einem Fahrzeug, das von einem Benutzer des Fahrzeugs unter Verwendung der herkömmlichen Steuersysteme gesteuert wird.
  • In manchen Umgebungen kann es jedoch sein, dass der Benutzer des Fahrzeugs die Umgebung des Fahrzeugs gleichzeitig von einer Anzahl von Blickpunkten aus überwachen muss.
  • Ziel der vorliegenden Erfindung ist die Überwindung von Nachteilen, die mit dem Stand der Technik verbunden sind.
  • KURZFASSUNG DER ERFINDUNG
  • Gemäß einem Aspekt der vorliegenden Erfindung wird eine Steuereinrichtung für ein unbemanntes Luftfahrzeug, UAV (unmanned aerial vehicle), angegeben, das eine Bilderfassungseinrichtung umfasst, wobei die Steuereinrichtung umfasst: Eingänge, die dafür ausgelegt sind, Folgendes zu empfangen: Positionsdaten, die auf das UAV, ein Fahrzeug und eine Benutzervorrichtung bezogen sind; Bilddaten, die von der Bilderfassungseinrichtung erfasst werden; einen Prozessor, der dafür ausgelegt ist, die empfangenen Positionsdaten zu verarbeiten, um die relative Position des UAV, des Fahrzeugs und der Benutzervorrichtung zu bestimmen; einen Ausgang, der dafür ausgelegt ist, ein Steuersignal zum Steuern des UAV auszugeben und ein Bildsignal auszugeben, das erfasste Bilddaten umfasst; wobei der Prozessor für Folgendes ausgelegt ist: Erzeugen des Steuersignals für das UAV auf solche Weise, dass die Bilddaten, die von der Bilderfassungseinrichtung erfasst werden, zumindest ein Bild eines nicht sichtbaren Abschnitts des Fahrzeugs, der in einem Blickfeld eines Benutzers der Benutzervorrichtung nicht sichtbar ist, umfassen.
  • Die vorliegende Erfindung stellt eine Steuereinrichtung bereit zum Steuern eines unbemannten Luftfahrzeugs (UAV) oder einer Drohne relativ zu einem Fahrzeug und eine Benutzervorrichtung, wobei die Benutzervorrichtung den Ort darstellt, wo sich ein Benutzer befindet (z.B. ein Benutzer, der die Benutzervorrichtung trägt). Um ein Fahrzeug zu steuern und um sicherzustellen, dass das Fahrzeug während seines Manövers Hindernissen ausweicht, ist die Steuereinrichtung dafür ausgelegt, eine Drohne zu steuern, die mit einer Kamera ausgestattet ist, und Bilder von nicht sichtbaren Abschnitten des Fahrzeugs abzurufen, um sie dem Benutzer anzuzeigen.
  • Optional ist der Prozessor dafür ausgelegt, nicht sichtbare Abschnitte des Fahrzeugs, die im Blickfeld des Benutzers der Benutzervorrichtung nicht sichtbar sind, abhängig von der bestimmten relativen Position des Fahrzeugs und der Benutzervorrichtung zu bestimmen. Optional umfassen Positionsdaten GPS-Daten. Positionsdaten können differentielle GPS-Daten umfassen.
  • Optional umfassen UAV-Positionsdaten Daten von einem Trägheitsnavigationssystem des UAV. Man beachte, dass das UAV vom Fahrzeug (oder einem bekannten Ort am Fahrzeug) aus gestartet werden kann, so dass der Steuereinrichtung der Ausgangspunkt des UAV-Flugwegs bekannt ist. Der Prozessor kann dafür ausgelegt sein, Positionsdaten vom UAV-Trägheitsnavigationssystem zu verwenden, um GPS-Positionsbestimmungsfehler zu korrigieren.
  • Optional umfassen Positionsdaten Messdaten einer Flugzeit zwischen einem oder mehreren von: dem UAV/dem Fahrzeug; dem UAV/der Benutzervorrichtung; dem Fahrzeug/der Benutzervorrichtung. Flugzeit- bzw. Time-of-Flight(ToF)-Messdaten können vom Prozessor verwendet werden, um GPS-Positionsbestimmungsfehler zu korrigieren. Die ToF-Messdaten können von einem auf Bluetooth® basierenden Flugzeitsystem oder einem auf Ultrabreitband (UWB) basierenden Flugzeitsystem erhalten bzw. abgerufen werden.
  • Die Eingänge können dafür ausgelegt sein, Fahrzeugsensordaten zu empfangen, und der Prozessor kann dafür ausgelegt sein, relative Positionen des UAV, des Fahrzeugs und des Benutzers oder der Benutzervorrichtung aus den Fahrzeugsensordaten und den Flugzeitmessdaten zu bestimmen.
  • Optional ist der Prozessor dafür ausgelegt, relative Positionen des UAV, des Fahrzeugs und des Benutzers oder der Benutzervorrichtung unter Verwendung eines Algorithmus für eine gleichzeitige Lokalisierung und Kartenerstellung (Simultaneous Localisation and Mapping, SLAM) zu bestimmen.
  • Optional umfassen die Positionsdaten, die an den Eingängen empfangen werden, Daten aus einem Fahrzeugzugangsberechtigungssystem, wie einem Passive-Entry-Passive-Start(PEPS)- oder einem Enhanced-Passive-Entry-Passive-Start(ePEPS)-System.
  • Der Prozessor kann dafür ausgelegt sein, einen Bilderkennungsalgorithmus zu verwenden, um die relative Position zwischen dem Benutzer des Fahrzeugs und dem Fahrzeug aus Bilddaten zu bestimmen, die von der Bilderfassungseinrichtung erhalten werden. Man beachte, dass der Prozessor dafür ausgelegt sein kann, den Benutzer des Fahrzeugs direkt zu erkennen oder alternativ die Position der Benutzervorrichtung zu bestimmen und die Position der Benutzervorrichtung anstelle der Position des Benutzers des Fahrzeugs zu verwenden.
  • Der Prozessor kann dafür ausgelegt sein, ein Steuersignal zu erzeugen, um die UAV-Position auf solche Weise zu steuern, dass die Bilderfassungseinrichtung zumindest auf manche von den nicht sichtbaren Abschnitten des Fahrzeugs gerichtet ist, die von der Blickachse des Benutzers des Fahrzeugs aus nicht sichtbar sind. Bei einer solchen Auslegung kann die Bilderfassungseinrichtung eine feste Position in Bezug auf das UAV aufrechterhalten, an dem sie montiert ist (oder die Bilderfassungseinrichtung kann nicht in der Lage sein, ihre Position in Bezug auf das UAV, an dem sie montiert ist, zu ändern), und das Steuersignal kann dafür ausgelegt sein, das UAV zu bewegen, um das Blickfeld der Bilderfassungseinrichtung effektiv zu ändern.
  • Der Prozessor kann dafür ausgelegt sein, ein Steuersignal zu erzeugen, das die Ausrichtung der Bilderfassungseinrichtung in Bezug auf das UAV ändert, um die Bilderfassungseinrichtung auf zumindest manche von den nicht sichtbaren Abschnitten des Fahrzeugs auszurichten, die von der Blickachse des Benutzers des Fahrzeugs aus nicht sichtbar sind.
  • Optional ist der Prozessor dafür ausgelegt, ein Steuersignal zu erzeugen, um die Position des UAV zu steuern.
  • Optional ist der Prozessor dafür ausgelegt, ein Steuersignal zu erzeugen, um das UAV in Bezug auf den Benutzer des Fahrzeugs auf einer entgegengesetzten Seite des Fahrzeugs zu halten. Die Steuereinrichtung kann dafür ausgelegt sein, eine Bewegung der Benutzervorrichtung nachzuverfolgen und ein Steuersignal zu erzeugen, um das UAV zu einer Position zu fliegen, die im Wesentlichen auf einer in Bezug auf den Benutzer des Fahrzeugs entgegengesetzten Seite des Fahrzeugs liegt.
  • Optional sind die Eingänge dafür ausgelegt, Fahrzeugsensordaten in Bezug auf die Nähe des Fahrzeugs zu einem Objekt zu empfangen, und ist der Prozessor dafür ausgelegt, ein Steuersignal für das UAV zu erzeugen, so dass die von der Bilderfassungseinrichtung erfassten Bilddaten einen Abschnitt des Fahrzeugs umfassen, der dem Objekt nahe ist. Auf diese Weise können Bilder von Abschnitten des Fahrzeugs erfasst werden, die nicht im Blickfeld des Benutzers sind, einschließlich potenzieller Objekte, mit denen das Fahrzeug kollidieren könnte.
  • Der Prozessor kann dafür ausgelegt sein, ein Steuersignal zu erzeugen, um das UAV so zu steuern, dass dessen Position innerhalb eines vorgegebenen Bereichs des Fahrzeugs beibehalten wird.
  • Der Prozessor kann dafür ausgelegt sein, ein Steuersignal zu erzeugen, um das UAV so zu steuern, dass dessen Höhe ab dem Boden innerhalb eines vorgegebenen Bereichs gehalten wird. Die Steuereinrichtung kann dafür ausgelegt sein, ein Steuersignal zu erzeugen, um das UAV so zu steuern, dass Bilddaten, die von der Bilderfassungseinrichtung erfasst werden, eine „Sicht aus der Vogelperspektive“ in Bezug auf das Fahrzeug liefern. Das UAV kann seine Höhe/seinen Abstand in dem Falle variieren, dass eine potenzielle Kollision bestimmt wird (d.h. Bordprozessoren innerhalb des UAV können die Höhe/den Abstand, der von der Steuereinrichtung befohlen wird, variieren, falls das UAV eine potenzielle Kollision detektiert).
  • Der Prozessor kann dafür ausgelegt sein, einen Ortskalibrierungsprozess durchzuführen, um Fehler in Positionsdaten, die von der Benutzervorrichtung, dem Fahrzeug oder dem UAV empfangen werden, zu korrigieren oder zu minimieren. Der Ortskalibrierungsprozess kann umfassen, dass der Benutzer des Fahrzeugs instruiert wird, die Benutzervorrichtung an einer bestimmten Stelle in Bezug auf das Fahrzeug zu positionieren. Zum Beispiel könnte die Steuereinrichtung den Benutzer informieren, dass er sich vor das Fahrzeug und zwischen die Scheinwerfer stellen soll, und dann die empfangenen Positionsdaten von der Benutzervorrichtung mit der bekannten Stelle vergleichen soll, an der die Benutzervorrichtung positioniert worden ist. Auf diese Weise können GPS-Fehler korrigiert werden. Die UAV-Position kann unter Verwendung von INS-Verfahren korrigiert werden, wie oben beschrieben.
  • Der Ortskalibrierungsprozess kann auch/alternativ dazu umfassen, dass dem UAV befohlen wird, sich selbst an einer bestimmten Stelle in Bezug auf das Fahrzeug zu positionieren. Zum Beispiel kann die Steuereinrichtung dem UAV befehlen, zu einem bestimmten Punkt in einer bestimmten Höhe und einem bestimmten Abstand vom Fahrzeug zu fliegen, der beispielsweise an einem Mittelpunkt eines hinteren Nummernschilds ausgerichtet ist, und dann kann die Steuereinrichtung die Stelle, wo sich das UAV tatsächlich befindet, aus den Fahrzeugsensordaten bestimmen, um Fehler in den Positionsdaten zu bestimmen.
  • Optional werden Bilddaten an die Benutzervorrichtung ausgegeben, um sie auf einem Anzeigebildschirm der Benutzervorrichtung anzuzeigen.
  • Optional ist der Prozessor dafür ausgelegt, ein Fahrsteuersignal zum Manövrieren des Fahrzeugs zu erzeugen, und ist der Ausgang dafür ausgelegt, das Fahrsteuersignal an das Fahrzeug auszugeben.
  • Die vorliegende Erfindung erstreckt sich auf ein unbemanntes Luftfahrzeug, das eine Steuereinrichtung umfasst, wie sie im obigen Aspekt der Erfindung beschrieben ist, und erstreckt sich außerdem auf ein Fahrzeug, das eine Steuereinrichtung umfasst, wie sie im obigen Aspekt der Erfindung beschrieben ist.
  • Die vorliegende Erfindung erstreckt sich auf eine Fernsteuervorrichtung zum Fernsteuern des Fahrzeugs, das eine Steuereinrichtung umfasst wie sie oben beschrieben ist. Die vorliegende Erfindung erstreckt sich auf eine Benutzervorrichtung, die eine solche Fernsteuervorrichtung umfasst.
  • Gemäß einem anderen Aspekt der vorliegenden Erfindung wird ein Verfahren zum Steuern eines unbemannten Luftfahrzeugs, UAV, das eine Bilderfassungseinrichtung umfasst, bereitgestellt, wobei das Verfahren umfasst: Empfangen von Positionsdaten, die auf das UAV, ein Fahrzeug und eine Benutzervorrichtung bezogen sind; Bilddaten, die von der Bilderfassungseinrichtung erfasst werden; Verarbeiten der empfangenen Positionsdaten an einem Prozessor, um die relative Position des UAV, des Fahrzeugs und der Benutzervorrichtung zu bestimmen; Ausgeben eines Steuersignals zum Steuern des UAV und Ausgeben eines Bildsignals, das erfasste Bilddaten umfasst; wobei der Prozessor das Steuersignal für das UAV auf solche Weise erzeugt, dass die Bilddaten, die von der Bilderfassungseinrichtung erfasst werden, zumindest manche von den nicht sichtbaren Abschnitten des Fahrzeugs, die von einer Blickachse des Benutzers des Fahrzeugs nicht sichtbar sind, umfassen.
  • Die Erfindung erstreckt sich auf ein Computerprogrammprodukt, das Befehle umfasst, die bei Ausführung des Programms durch einen Computer bewirken, dass der Computer das oben genannte Verfahren ausführt, und auf ein computerlesbares Speichermedium, das Befehle umfasst, die bei Ausführung durch einen Computer bewirken, dass der Computer das oben genannte Verfahren ausführt.
  • Ein System wie oben beschrieben, bei dem der Eingang zum Empfangen von Positionsdaten und Bilddaten einen elektronischen Prozessor umfasst, der einen elektrischen Eingang aufweist zum Empfangen eines oder mehrerer Signale, welche die Daten transportieren, und bei dem der Prozessor dafür ausgelegt ist, auf die Speichervorrichtung zuzugreifen und die darin gespeicherten Befehle auszuführen, so dass er betätigbar ist, um ein Steuersignal zum Steuern des unbemannten Luftfahrzeugs zu erzeugen.
  • Innerhalb des Umfangs dieser Anmeldung ist ausdrücklich vorgesehen, dass die verschiedenen Aspekte, Ausführungsformen, Beispiele und Alternativen, die in den vorangehenden Abschnitten, in den Ansprüchen und/oder in der folgenden Beschreibung und den Zeichnungen angegeben sind, und insbesondere deren einzelne Merkmale unabhängig oder in Kombination genommen werden können. Das heißt, alle Ausführungsformen und/oder Merkmale irgendwelcher Ausführungsformen können in jeder Weise und/oder Kombination kombiniert werden, solange solche Merkmale nicht inkompatibel sind. Der Anmelder behält sich das Recht vor, jeden ursprünglich eingereichten Anspruch zu ändern oder dementsprechend beliebige neue Ansprüche einzureichen, einschließlich des Rechtes, ursprünglich eingereichte Ansprüche so zu ändern, dass sie von irgendeinem anderen Anspruch abhängen und/oder irgendwelche Merkmale eines solchen einschließen, auch wenn dies ursprünglich nicht auf diese Weise beansprucht worden ist.
  • Figurenliste
  • Nun werden eine oder mehrere Ausführungsformen der Erfindung, lediglich als Beispiele, unter Bezugnahme auf die begleitenden Zeichnungen beschrieben, für die gilt:
    • 1 zeigt ein bekanntes Fernsteuersystem für ein Fahrzeug;
    • 2 zeigt ein Fernsteuersystem gemäß einer Ausführungsform der vorliegenden Erfindung;
    • 3 zeigt eine Steuervorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung;
    • 4 zeigt ein Verfahren zum Betätigen einer Steuereinrichtung gemäß 3;
    • 5 zeigt ein Fahrzeug, einen Benutzer des Fahrzeugs und ein UAV gemäß einer Ausführungsform der vorliegenden Erfindung;
    • 6 zeigt eine weitere Ansicht eines Fahrzeugs, eines Benutzers des Fahrzeugs und eines UAV gemäß einer Ausführungsform der vorliegenden Erfindung;
    • 7 zeigt eine noch andere Ansicht eines Fahrzeugs, eines Benutzers des Fahrzeugs und eines UAV gemäß einer Ausführungsform der vorliegenden Erfindung;
    • 8 zeigt Daten, die zwischen einem Fahrzeug, einer Benutzervorrichtung und einem UAV gemäß einer Ausführungsform der vorliegenden Erfindung ausgetauscht werden;
    • 9 zeigt Positionsbestimmungsfehler für ein Fahrzeug, eine Benutzervorrichtung und ein UAV.
  • AUSFÜHRLICHE BESCHREIBUNG
  • 2 zeigt ein Fernsteuersystem für ein Fahrzeug 40 gemäß einer Ausführungsform der vorliegenden Erfindung, in dem einem Benutzer 50 des Fahrzeugs Bilder von einem unbemannten Luftfahrzeug/einer Drohne 60 geliefert werden. Man beachte, dass die Begriffe unbemanntes Luftfahrzeug (UAV) und Drohne als austauschbar betrachtet werden.
  • Die Drohne 60 umfasst eine eingebettete Bilderzeugungsvorrichtung, wie etwa eine Kamera (in 2 nicht gezeigt), die verwendet werden kann, um Bilder an eine Benutzervorrichtung 70, wie etwa ein Smartphone, zu senden. Die Benutzervorrichtung 70 ist dafür ausgelegt, den Benutzer 50 in die Lage zu versetzen, die Lenk-, Gas-/Drosselsteuerungs- und Bremssysteme des Fahrzeugs 40 zu steuern, so dass das Fahrzeug ferngesteuert werden kann.
  • Wie nachstehend beschrieben, kann die Drohne so gesteuert werden, dass sie um das Fahrzeug 40 herum fliegt und eine Schwebeposition beibehält, die der Position des Benutzers des Fahrzeugs allgemein entgegengesetzt ist, so dass die eingebettete Kamera Bilder von den Abschnitten des Fahrzeugs 40, die der Fahrer nicht sehen kann, weil das Fahrzeug diese verdeckt, liefern kann (an die Vorrichtung 70).
  • Eine Blickachse 72 des Benutzers 50 des Fahrzeugs ist in 2 gezeigt. Eine Benutzerbewegung 74 und eine Drohnenbewegung 76 sind in 2 angegeben, und man sieht, dass die Drohne 60 eine Position beibehält, die allgemein auf der dem Benutzer 50 entgegengesetzten Seite des Fahrzeugs 40 liegt.
  • 3 zeigt eine Steuereinrichtung 80 gemäß einer Ausführungsform der vorliegenden Erfindung für ein unbemanntes Luftfahrzeug 60, wobei die Steuereinrichtung Eingänge 82 umfasst zum Empfangen von Positionsdaten in Bezug auf das Fahrzeug 40, den Benutzer des Fahrzeugs 70 und die Drohne 60 und auch zum Empfangen von Bilddaten, die von der Bilderfassungseinrichtung der Drohne 60 erfasst werden. Die Steuereinrichtung 80 umfasst ferner einen Prozessor 84 zum Bestimmen, aus den empfangenen Positionsdaten, der relativen Positionen des Fahrzeugs, des Benutzers und der Drohne, und zum Erzeugen eines Steuersignals für die Drohne 60. Die Ausgänge 86 geben ein Steuersignal an die Drohne 60 und Bilddaten an die Benutzervorrichtung 70 aus.
  • Der Prozessor ist dafür ausgelegt, das Drohnensteuersignal so zu erzeugen, dass die Bilddaten, die von der Bilderfassungseinrichtung erfasst werden, zumindest manche von den nicht sichtbaren Abschnitten des Fahrzeugs 40 umfassen, die von der Blickachse 72 aus/dem Blickfeld 73 des Benutzers 50 des Fahrzeugs nicht sichtbar sind.
  • Man beachte, dass die Bilderfassungsvorrichtung in Bezug auf die Drohne 60 ortsfest sein kann, in welchem Fall das Steuersignal 60 nur ein flugbezogenes Steuersignal umfassen kann. Alternativ dazu kann die Bilderfassungseinrichtung in Bezug auf die Drohne 60 bewegbar sein, in welchem Fall das Steuersignal für die Drohne 60, zusätzlich zu einem flugbezogenen Steuersignal, ein Richtungssteuersignal für die Bilderfassungseinrichtung umfassen kann.
  • Die Steuereinrichtung 80 ist eine Rechenvorrichtung, die eine Steuereinheit umfassen kann, oder eine Rechenvorrichtung, die einen oder mehrere elektronische Prozessoren (z.B. einen Mikroprozessor, einen Mikrocontroller, eine anwendungsspezifische integrierte Schaltung (ASIC), usw.) aufweist, und kann eine einzige Vorrichtung oder mehrere Vorrichtungen, die gemeinsam als Steuereinrichtung 80 betätigt werden, umfassen. Der Begriff „Steuereinrichtung“, „Steuereinheit“ oder „Rechenvorrichtung“ kann eine einzelne Steuereinrichtung, Steuereinheit oder Rechenvorrichtung und mehrere Steuereinrichtungen, Steuereinheiten oder Rechenvorrichtungen, die gemeinsam betätigt werden, um die geforderten Steuerfunktionen zu liefern, bedeuten. In manchen Ausführungsformen wird ein Satz von Befehlen geliefert, die bei ihrer Ausführung bewirken, dass die Steuereinrichtung die in dieser Beschreibung genannten Steuertechniken implementiert (einschließlich mancher oder aller Funktionen, die für das beschriebene Verfahren erforderlich sind). Der Befehlssatz könnte in einem oder mehreren elektronischen Prozessoren der Recheneinrichtung eingebettet sein; oder alternativ dazu könnte der Befehlssatz als Software geliefert werden, die in der Rechenvorrichtung auszuführen ist. Anhand dieser Beschreibung wird der Fachmann erkennen, welche Art von Hardware, Software, Firmware oder Kombination davon am besten für seine jeweiligen Bedürfnisse geeignet ist. Man beachte, dass in Ausführungsformen der vorliegenden Erfindung die Steuereinrichtung 80 innerhalb des Fahrzeugs, der Drohne oder der Benutzervorrichtung liegen kann. Zum Beispiel kann die Steuereinrichtung in der Benutzervorrichtung liegen und Eingaben von der Drohne und dem Fahrzeug empfangen und dann Steuersignale erzeugen, die an die Drohne zu senden sind. Alternativ dazu könnte die Steuereinrichtung 80 innerhalb des Fahrzeugs (oder der Drohne) liegen und Eingaben von der Benutzervorrichtung empfangen (die Benutzervorrichtung wird in diesem Fall im Wesentlichen als zur Steuereinrichtung periphere Vorrichtung betätigt).
  • 4 zeigt ein Verfahren zum Betätigen der Steuereinrichtung von 3 gemäß einer Ausführungsform der vorliegenden Erfindung;
  • In Schritt 90 werden Positions- und Bilddaten an den Eingängen 82 der Steuereinrichtung empfangen. In Schritt 92 bestimmt der Prozessor 84 die relative Position des Benutzers 50, des Fahrzeugs 40 und der Drohne 60. In Schritt 94 ist der Prozessor dafür ausgelegt, ein Steuersignal für die Drohne 60 zu erzeugen, so dass der Drohne befohlen wird, eine solche Position einzunehmen, dass sich das Fahrzeug 40 zwischen der Drohne 60 und dem Benutzer 50 befindet. In Schritt 96 wird das Steuersignal an die Drohne 60 ausgegeben, und Bilddaten werden über die Ausgänge 86 an die Benutzervorrichtung 70 ausgegeben.
  • 5 zeigt eine weitere Ansicht der in 2 gezeigten Anordnung. Die Bilderfassungseinrichtung 100 der Drohne 60 ist in 5 zusammen mit dem Blickfeld 102 der Bilderfassungseinrichtung 100 zu sehen. Man sieht, dass die Region 104 des Fahrzeugs 40 für den Benutzer 50 nicht sichtbar ist, da das Fahrzeug 40 seine Blickachse 72 blockiert. Die Drohne 60 kann jedoch Bilddaten von zumindest einem Teil des nicht sichtbaren Teils des Fahrzeugs 4 erfassen, und diese können über die Steuereinrichtung 80 an die Benutzervorrichtung 70 weitergegeben werden. Auf diese Weise kann der Benutzer 50 die nicht sichtbare Region 104 des Fahrzeugs 40 überwachen, während er das Fahrzeug steuert.
  • Für die Betrachtung von 6 sei darauf hingewiesen, dass das Fahrzeug 40 eine Anzahl von Sensoreinrichtungen 106, wie etwa Ultraschallsensoren, Umgebungsbilderfassungseinrichtungen usw. umfassen kann. Solche Sensoreinrichtungen 106 können von einer elektronischen Steuereinheit 108 innerhalb des Fahrzeugs 50 verwendet werden, um potenzielle Kollisionen mit Objekten 110 in der Nähe des Fahrzeugs 50 zu detektieren. Solche auf Kollisionen bezogenen Daten können an die Steuereinrichtung 80 weitergegeben werden, so dass die Drohne 60 so gesteuert werden kann, dass sie die Bilderfassungseinrichtung 100 so lenkt, dass das Objekt 110 in das Blickfeld der Kamera 100 kommt. Das von den Ausgängen 86 ausgegebene Steuersignal kann daher die Drohne 60 so steuern, dass diese sich selbst so ausrichtet, dass das Objekt 110 im Blickfeld der Kamera 100 ist. Außerdem oder alternativ dazu kann die Kamera 100 das Objekt 110 heranzoomen, so dass die Daten des herangezoomten Bildes an die Benutzervorrichtung 70 geliefert werden können, um den Benutzer 50 bei der Steuerung des Fahrzeugs 40 zu unterstützen.
  • Man beachte, dass das Fahrzeug 40 außerdem Bilddaten von der Bilderfassungseinrichtung 106 an die Eingänge 82 der Steuereinrichtung 80 liefern kann. Die Steuereinrichtung kann die Bilddaten von der Bilderfassungseinrichtung 106 entweder an die Benutzervorrichtung 70 ausgeben oder dem Benutzer 50 zusätzlich die Wahl ermöglichen, solche Bilddaten zu betrachten. Bilddaten vom Fahrzeug 50 können neben oder über/unter den Bilddaten von der Drohne 60 angezeigt werden oder können in einem „Bild-im-Bild“-Format angezeigt werden. In alternativen Ausführungsformen könnten die Bilddaten von der Drohne 60 an eine am Körper tragbare Vorrichtung wie etwa eine Virtual-Reality-Brille ausgegeben werden, um dem Benutzer 50 des Fahrzeugs eine Egoperspektive zu ermöglichen.
  • Wie in 7 gezeigt ist, kann die Drohne so konfiguriert sein, dass sie einen voreingestellten Wert für die Höhe 112, in der sie über Bodenniveau 114 fliegen soll, und einen voreingestellten Wert für den Abstand 116, in dem sie in Bezug auf das Fahrzeug 40 fliegen soll, aufweist. Die voreingestellten Werte für die Höhe 112 und den Abstand 116 können entweder von der Benutzervorrichtung 70 oder von einer Steuerungsschnittstelle innerhalb des Fahrzeugs 40 in die Steuereinrichtung 80 eingegeben werden. Die Steuereinrichtung kann auch dafür ausgelegt sein, dem Benutzer 50 geeignete voreingestellte Werte 112, 116 vorzuschlagen.
  • In dem Fall, dass die Drohne 60 ein Hindernis 120 wahrnimmt 118, während sie mit den voreingestellten Werten für die Höhe 112 und den Abstand 116 betätigt wird, kann die Drohne dann die voreingestellten Werte modifizieren, um eine Kollision zu vermeiden. Solche modifizierten Werte können an die Steuereinrichtung 80 weitergegeben werden.
  • 8 zeigt ein mögliches Ablaufschema für den Austausch von Daten zwischen dem Fahrzeug 40, der Drohne 60 und der Benutzervorrichtung 70. Man beachte, dass nicht jeder Datenaustausch, der in 8 gezeigt ist, notwendig sein muss, und dass die Daten, die jeweils erforderlich sind, von der jeweiligen Umgebung abhängen, in der die Drohne 60 eingesetzt wird. Daten können zwischen den Vorrichtungen gemäß einer beliebigen geeigneten Kommunikationstechnik 128, wie etwa Wi-Fi®, Bluetooth®, Funkübertragungen, mobiler Kommunikationssignale usw.) übertragen werden.
  • In 8 liegt die Steuereinrichtung 80 innerhalb der Benutzervorrichtung 70. Man beachte jedoch, dass die Steuereinrichtung alternativ dazu in das Fahrzeug 40 oder in die Drohne 60 selbst eingebettet sein kann. Für den Fall, dass die Steuereinrichtung in das Fahrzeug 40 oder die Drohne 60 eingebettet ist, sei darauf hingewiesen, dass die Richtung bestimmter Datenaustauschvorgänge unterschiedlich sein kann, dass aber die Funktionalität des Systems insgesamt die gleiche sein würde.
  • Betrachtet man erneut 8, so ist zu beachten, dass jede Vorrichtung (40, 60, 70) eine Kommunikationseinrichtung 128, 130, 132 umfasst. Man beachte, dass in der Praxis jede Vorrichtung eine Anzahl unterschiedlicher Kommunikationsoptionen, z.B. ein Wi-Fi®-Modul, ein Bluetooth®-Modul, Funk usw. aufweisen kann. Man beachte, dass die jeweilige Kommunikationstechnik, die verwendet wird, um mit der Steuereinrichtung 80 zu kommunizieren, abhängig von den Umständen variieren kann. Man beachte ferner, dass verschiedene Vorrichtungen unterschiedliche Kommunikationstechniken verwenden können; z.B. kann das Fahrzeug 40 über Bluetooth® mit der Steuereinrichtung 80 kommunizieren, während die Drohne 60 über eine Wi-Fi®-Verbindung mit der Steuereinrichtung 80 kommunizieren kann.
  • Das Fahrzeug 40 umfasst eine Ortsbestimmungseinrichtung 134. In der Praxis kann das Fahrzeug eine Anzahl von Verfahren umfassen, um seine Position zu bestimmen, z.B. über ein GPS-System, einen Simultaneous-Localisation-and-Mapping(SLAM)-Algorithmus und/oder ein Trägheitsnavigationssystem. Mindestens eines von diesen Systemen kann dafür ausgelegt sein, Positionsdaten 135 über die Kommunikationseinrichtung 130 des Fahrzeugs an die Steuereinrichtung 80 auszugeben (wobei diese Daten über die Kommunikationseinrichtung 128 der Benutzervorrichtung 70 an den Eingängen 82 der Steuereinrichtung empfangen werden).
  • Das Fahrzeug 40 umfasst eine Reihe von Sensoren 136, wie beispielsweise Radar, Ultraschallsensoren, Lidar, Bilderfassungsvorrichtungen usw. Das Fahrzeug 40 kann ferner auf den Sensor bezogene Daten 137 über die Kommunikationsvorrichtung 130 des Fahrzeugs an der Steuereinrichtung 80 bereitstellen.
  • Die Drohne 60 umfasst eine Ortsbestimmungseinrichtung 138. In der Praxis kann die Drohne eine Anzahl von Verfahren umfassen, um ihre Position zu bestimmen, z.B. über ein GPS-System, einen Simultaneous-Localisation-and-Mapping(SLAM)-Algorithmus und/oder ein Trägheitsnavigationssystem. Mindestens eines von diesen Systemen kann dafür ausgelegt sein, Positionsdaten 139 über die Kommunikationseinrichtung 132 der Drohne an die Steuereinrichtung 80 auszugeben (wobei diese Daten über die Kommunikationseinrichtung 128 der Benutzervorrichtung 70 an den Eingängen 82 der Steuereinrichtung empfangen werden).
  • Die Drohne 60 umfasst eine Reihe von Sensoren 140, wie beispielsweise Radar, Ultraschallsensoren, Lidar, Bilderfassungsvorrichtungen usw. Die Drohne 60 kann ferner auf den Sensor bezogene Daten 141 über die Kommunikationsvorrichtung 132 der Drohne an der Steuereinrichtung 80 bereitstellen. Insbesondere kann die Drohne 60 Bilddaten von einer Bilderfassungseinrichtung 100 an der Steuereinrichtung 80 bereitstellen.
  • Die Benutzervorrichtung 70 umfasst auch eine Ortsbestimmungseinrichtung 142. In der Praxis kann die Benutzervorrichtung eine Anzahl von Verfahren umfassen, um ihre Position zu bestimmen, z.B. über ein GPS-System, einen Simultaneous-Localisation-and-Mapping(SLAM)-Algorithmus und/oder ein Trägheitsnavigationssystem. Eines oder mehrere dieser Systeme sind dafür ausgelegt, Positionsdaten 143 an die Steuereinrichtung 80 auszugeben. Die Benutzervorrichtung kann auch eine Bilderfassungseinrichtung 144 umfassen, die Bilddaten 146 an die Steuereinrichtung 80 senden kann.
  • Die Daten, die an der Steuereinrichtung 80 empfangen werden, können verwendet werden, um ein Steuersignal 148 für die Drohne 60 zu erzeugen, wie oben mit Bezug auf 4 beschrieben wurde. Das Steuersignal kann über die Ausgänge 86 an die Drohne ausgegeben werden.
  • Die Benutzervorrichtung 70 umfasst ferner einen Anzeigebildschirm 150, und die Steuereinrichtung 80 gibt zusätzlich ein Steuersignal 152 an den Anzeigebildschirm aus, wobei das Steuersignal 152 Bilddaten einschließt, die von der Bilderfassungseinrichtung 100 der Drohne 60 empfangen werden.
  • Die Steuereinrichtung kann ferner dafür ausgelegt sein, dem Benutzer des Fahrzeugs (durch Ausgeben geeigneter Fahrsteuersignale) über eine geeignete Steuerungsschnittstelle an der Benutzervorrichtung die Manövrierung des Fahrzeugs zu ermöglichen, während er sich außerhalb des Fahrzeugs befindet. Dadurch, dass Bilddaten von der Drohne 60 an den Anzeigebildschirm der Benutzervorrichtung 70 geliefert werden, ist der Benutzer in der Lage, sowohl das Fahrzeug zu manövrieren als auch Hindernisse, die sich außerhalb seines Blickfelds 73/seiner Blickachse 72 befinden, festzustellen und zu vermeiden.
  • 9 zeigt die Positionsbestimmungsfehler, die mit den verschiedenen Vorrichtungen (40, 60, 70) assoziiert sein können, und die Korrektur dieser Positionsbestimmungsfehler gemäß einer Ausführungsform der vorliegenden Erfindung.
  • In 9 sind sowohl die Benutzervorrichtung 70 als auch das Fahrzeug 40 und die Drohne 60 mit einem GPS-System ausgestattet. Die Benutzervorrichtung 70 ist mit einem GPS-Positionsbestimmungsfehler assoziiert, wie von einem Kreis 160 angegeben wird. Das Fahrzeug 40 ist mit einem GPS-Positionsbestimmungsfehler assoziiert, wie von einem Kreis 162 angegeben wird, und die Drohne 60 ist mit einem GPS-Positionsbestimmungsfehler assoziiert, wie von einem Kreis 164 angegeben wird.
  • Die Steuereinrichtung 80 kann ein Steuersignal 148 an die Drohne 60 senden, damit diese eine Position 166 direkt hinter dem Fahrzeug 40 einnimmt. Aufgrund des GPS-Positionsbestimmungsfehlers kann es jedoch sein, dass die Drohne 60 eine Position an einer Stelle 168 einnimmt, wie in 9 angegeben ist.
  • Die Drohne 60 kann dafür ausgelegt sein, den Positionsbestimmungsfehler zwischen den Orten 166 und 168 auf verschiedene Weise zu detektieren und zu korrigieren. Falls die Drohne von einem Ort im oder am Fahrzeug 40 aus startet, kann ein Trägheitsnavigationssystem innerhalb der Drohne 60 den Positionsbestimmungsfehler zwischen den Orten 166 und 168 detektieren. Außerdem oder alternativ dazu kann eine Flugzeitmessung zwischen dem Fahrzeug 40 und der Drohne 60 vorgenommen werden, anhand derer die Drohne den Positionsbestimmungsfehler bestimmen kann. Außerdem oder alternativ dazu kann ein Musterabgleichverfahren an Bilddaten verwendet werden, die von der Bilderfassungseinrichtung 100 der Drohne 60 erfasst werden, um Merkmale am Fahrzeug 40 zu identifizieren. Der Positionsbestimmungsfehler kann durch Identifizieren bestimmter Merkmale am Fahrzeug, wie etwa des Daches des Fahrzeugs oder der Räder des Fahrzeugs, und durch Justieren der Position der Drohne 60 bestimmt werden.
  • Die Steuereinrichtung 80 kann einen Positionskalibrierungsschritt initiieren, in dem der Benutzer 50 angewiesen werden kann, eine bestimmte Position in Bezug auf das Fahrzeug 40 einzunehmen. Zum Beispiel kann der Benutzer aufgefordert werden, sich mit der Benutzervorrichtung 70 direkt vor das Fahrzeug 40 zu stellen. Auf Basis der GPS-Daten, die von der Drohne 60 empfangen werden, kann dann ein Steuersignal 148 an die Drohne 60 gesendet werden, damit diese eine Position direkt hinter dem Fahrzeug 40 einnimmt. Dann kann ein Kalibrierungsprozess initiiert werden, in dem etwaige GPS-Positionsbestimmungsfehler anhand irgendeines der oben beschriebenen Verfahren kompensiert werden, z.B. unter Verwendung von Trägheitsnavigationssystemdaten von der Drohne 60, unter Verwendung von Flugzeitmessungen zwischen der Drohne 60 und dem Fahrzeug 40, unter Verwendung von Musterabgleichsverfahren, um eine relative Position zwischen der Drohne und dem Fahrzeug zu bestimmen.
  • Sobald der Positionsbestimmungsfehler bekannt ist, kann die Drohne 60 den Fehler dadurch korrigieren, dass sie sich an eine Position 166 bewegt. Die Korrektur, die an ihre Position angelegt wird, kann sowohl der Benutzervorrichtung 70 als auch dem Fahrzeug 40 mitgeteilt werden, so dass diese ähnliche GPS-Positionsbestimmungsfehler korrigieren können. Die Korrektur der Position der Drohne 60 kann direkt zwischen der Benutzervorrichtung 70, der Drohne 60 und dem Fahrzeug 40 mitgeteilt werden. Alternativ dazu kann die Drohne die Steuereinrichtung 80 darüber informieren, die dann die Positionen der Benutzervorrichtung 70 und des Fahrzeugs 40 aktualisiert.
  • An den obigen Beispielen können Modifikationen vorgenommen werden, ohne dabei vom Umfang der vorliegenden Erfindung abzuweichen, wie er in den begleitenden Ansprüchen definiert ist.

Claims (15)

  1. Steuereinrichtung (80) für ein unbemanntes Luftfahrzeug (60), UAV (60), das eine Bilderfassungseinrichtung (100) umfasst, wobei die Steuereinrichtung umfasst: Eingänge (82), die dafür ausgelegt sind, Folgendes zu empfangen: Positionsdaten in Bezug auf das UAV (60), ein Fahrzeug (40) und eine Benutzervorrichtung (70); Bilddaten, die von der Bilderfassungseinrichtung erfasst werden; einen Prozessor (84), der dafür ausgelegt ist, die empfangenen Positionsdaten zu verarbeiten, um die relative Position des UAV, des Fahrzeugs und der Benutzervorrichtung zu bestimmen; einen Ausgang (86), der dafür ausgelegt ist, ein Steuersignal (148) zum Steuern des UAV auszugeben und ein Bildsignal (152) auszugeben, das erfasste Bilddaten umfasst; wobei der Prozessor für Folgendes ausgelegt ist: Erzeugen des Steuersignals (148) für das UAV (60) auf solche Weise, dass die Bilddaten, die von der Bilderfassungseinrichtung erfasst werden, zumindest ein Bild eines nicht sichtbaren Abschnitts (104) des Fahrzeugs (40) umfassen, der in einem Blickfeld (73) des Benutzers der Benutzervorrichtung nicht sichtbar ist.
  2. Steuereinrichtung nach Anspruch 1, wobei der Prozessor (84) dafür ausgelegt ist, nicht sichtbare Abschnitte des Fahrzeugs (40), die im Blickfeld des Benutzers der Benutzervorrichtung nicht sichtbar sind, abhängig von der bestimmten relative Position des Fahrzeugs und der Benutzervorrichtung zu bestimmen.
  3. Steuereinrichtung nach Anspruch 5, wobei der Prozessor (84) dafür ausgelegt ist, Positionsdaten vom UAV-Trägheitsnavigationssystem zu verwenden, um GPS-Positionsbestimmungsfehler zu korrigieren.
  4. Steuereinrichtung nach einem der vorangehenden Ansprüche, wobei Positionsdaten Messdaten über eine Flugzeit zwischen einem oder mehreren der Folgenden umfassen: dem UAV (60) und dem Fahrzeug (40); dem UAV (60) und der Benutzervorrichtung (70); dem Fahrzeug (40) und der Benutzervorrichtung (70).
  5. Steuereinrichtung nach Anspruch 4, wobei die Eingänge (82) dafür ausgelegt sind, Fahrzeugsensordaten zu empfangen, und der Prozessor (84) dafür ausgelegt ist, relative Positionen des UAV, des Fahrzeugs und des Benutzers oder der Benutzervorrichtung aus den Fahrzeugsensordaten und den Flugzeit-Messdaten zu bestimmen.
  6. Steuereinrichtung nach einem der vorangehenden Ansprüche, wobei die Positionsdaten, die an den Eingängen empfangen werden, Daten von einem Fahrzeugzugangsberechtigungssystem umfassen.
  7. Steuereinrichtung nach einem der vorangehenden Ansprüche, wobei der Prozessor (84) dafür ausgelegt ist, einen Bilderkennungsalgorithmus zu verwenden, um die relative Position zwischen dem Benutzer des Fahrzeugs und dem Fahrzeug aus Bilddaten zu bestimmen, die von der Bilderfassungseinrichtung (100) erhalten werden.
  8. Steuereinrichtung nach einem der vorangehenden Ansprüche, wobei der Prozessor dafür ausgelegt ist, ein Steuersignal (86) zu erzeugen, um die UAV-Position auf solche Weise zu steuern, dass die Bilderfassungseinrichtung (100) zumindest auf manche von den nicht sichtbaren Abschnitten (104) des Fahrzeugs (40) gerichtet wird, die von der Blickachse (72) des Benutzers (50) des Fahrzeugs aus nicht sichtbar sind.
  9. Steuereinrichtung nach einem der vorangehenden Ansprüche, wobei der Prozessor dafür ausgelegt ist, ein Steuersignal zu erzeugen, das die Ausrichtung der Bilderfassungseinrichtung in Bezug auf das UAV ändert, um die Bilderfassungseinrichtung auf zumindest manche von den nicht sichtbaren Abschnitten des Fahrzeugs auszurichten, die von der Blickachse des Benutzers des Fahrzeugs aus nicht sichtbar sind.
  10. Steuereinrichtung nach einem der vorangehenden Ansprüche, wobei der Prozessor (84) dafür ausgelegt ist, ein Steuersignal zu erzeugen, um die Position des UAV zu steuern.
  11. Steuereinrichtung nach einem der vorangehenden Ansprüche, wobei die Eingänge (82) dafür ausgelegt sind, Fahrzeugsensordaten in Bezug auf die Nähe des Fahrzeugs (40) zu einem Objekt (110) zu empfangen, und der Prozessor (84) dafür ausgelegt ist, ein Steuersignal für das UAV zu erzeugen, so dass die von der Bilderfassungseinrichtung erfassten Bilddaten einen Abschnitt des Fahrzeugs umfassen, der dem Objekt nahe ist.
  12. Steuereinrichtung nach einem der vorangehenden Ansprüche, wobei der Prozessor dafür ausgelegt ist, ein Fahrsteuersignal zum Manövrieren des Fahrzeugs zu erzeugen, und der Ausgang dafür ausgelegt ist, das Fahrsteuersignal an das Fahrzeug auszugeben.
  13. Unbemanntes Flugfahrzeug, eine Steuereinrichtung nach einem der Ansprüche 1 bis 12 umfassend.
  14. Fahrzeug (40), eine Steuereinrichtung nach einem der Ansprüche 1 bis 12 umfassend.
  15. Verfahren zum Steuern eines unbemannten Luftfahrzeugs, UAV, das eine Bilderfassungseinrichtung umfasst, wobei das Verfahren umfasst: Empfangen (90) von Positionsdaten in Bezug auf das UAV, ein Fahrzeug und eine Benutzervorrichtung; Bilddaten, die von der Bilderfassungseinrichtung erfasst werden; Verarbeiten (92) der empfangenen Positionsdaten an einem Prozessor, um die relative Position des UAV, des Fahrzeugs und der Benutzervorrichtung zu bestimmen; Ausgeben (96) eines Steuersignals zum Steuern des UAV und Ausgeben eines Bildsignals, das erfasste Bilddaten umfasst; wobei der Prozessor das Steuersignal für das UAV so erzeugt (94), dass die Bilddaten, die von der Bilderfassungseinrichtung erfasst werden, zumindest manche von den nicht sichtbaren Abschnitten des Fahrzeugs umfassen, die von der Blickachse des Benutzers des Fahrzeugs aus nicht sichtbar sind.
DE102018211905.8A 2017-08-30 2018-07-17 Steuereinrichtung für ein unbemanntes Luftfahrzeug Pending DE102018211905A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB1713849.6A GB2566023B (en) 2017-08-30 2017-08-30 Controller for an unmanned aerial vehicle
GB1713849.6 2017-08-30

Publications (1)

Publication Number Publication Date
DE102018211905A1 true DE102018211905A1 (de) 2019-02-28

Family

ID=60037256

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018211905.8A Pending DE102018211905A1 (de) 2017-08-30 2018-07-17 Steuereinrichtung für ein unbemanntes Luftfahrzeug

Country Status (3)

Country Link
US (1) US11573565B2 (de)
DE (1) DE102018211905A1 (de)
GB (1) GB2566023B (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2566023B (en) * 2017-08-30 2020-06-17 Jaguar Land Rover Ltd Controller for an unmanned aerial vehicle
CN110274160B (zh) * 2019-06-13 2021-05-11 咏峰(大连)科技有限公司 一种基于红外可见光融合图像的管道巡检***
CN114449440B (zh) * 2021-12-27 2023-11-17 上海集度汽车有限公司 测量方法、装置及***

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7424133B2 (en) * 2002-11-08 2008-09-09 Pictometry International Corporation Method and apparatus for capturing, geolocating and measuring oblique images
US8260485B1 (en) * 2007-04-26 2012-09-04 The Boeing Company Adaptive multi-vehicle area coverage optimization system and method
US20130278631A1 (en) * 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
EP2511781A1 (de) 2011-04-14 2012-10-17 Hexagon Technology Center GmbH System und Verfahren zur Steuerung eines unbemannten Fluggeräts
FR2986647A3 (fr) * 2012-02-07 2013-08-09 Renault Sas Vehicule automobile associe a un drone d'observation
US9080886B1 (en) * 2012-08-03 2015-07-14 Robotic Research, Llc System and method for urban mapping and positioning
US9488736B2 (en) * 2012-12-28 2016-11-08 Trimble Navigation Limited Locally measured movement smoothing of GNSS position fixes
AU2015204838B2 (en) * 2014-01-10 2020-01-02 Pictometry International Corp. Unmanned aircraft structure evaluation system and method
US9978030B2 (en) * 2014-06-11 2018-05-22 Hartford Fire Insurance Company System and method for processing of UAV based data for risk mitigation and loss control
US10104836B2 (en) * 2014-06-11 2018-10-23 John Paul Jamison Systems and methods for forming graphical and/or textual elements on land for remote viewing
US9752878B2 (en) * 2014-12-09 2017-09-05 Sikorsky Aircraft Corporation Unmanned aerial vehicle control handover planning
EP3062066A1 (de) 2015-02-26 2016-08-31 Hexagon Technology Center GmbH Bestimmung von Objektdaten durch vorlagenbasierte UAV-Steuerung
KR101715300B1 (ko) * 2015-05-21 2017-03-10 경희대학교 산학협력단 드론을 이용한 승하차시 시야확보방법 및 그 시스템
US9740200B2 (en) * 2015-12-30 2017-08-22 Unmanned Innovation, Inc. Unmanned aerial vehicle inspection system
WO2017139282A1 (en) * 2016-02-08 2017-08-17 Unmanned Innovation Inc. Unmanned aerial vehicle privacy controls
US10168700B2 (en) * 2016-02-11 2019-01-01 International Business Machines Corporation Control of an aerial drone using recognized gestures
US11029352B2 (en) * 2016-05-18 2021-06-08 Skydio, Inc. Unmanned aerial vehicle electromagnetic avoidance and utilization system
US11505330B2 (en) * 2016-08-20 2022-11-22 Modern Technology Solutions, Inc. Refueling system and systems with end effectors
GB2566023B (en) * 2017-08-30 2020-06-17 Jaguar Land Rover Ltd Controller for an unmanned aerial vehicle
US20200409366A1 (en) * 2018-03-05 2020-12-31 Root3 Labs, Inc. Remote deployed obscuration system
US10917579B2 (en) * 2018-05-31 2021-02-09 American Robotics, Inc. Methods and systems for data collection by drone aircraft
GB201816734D0 (en) * 2018-10-15 2018-11-28 Prismatic Ltd Reduction of the visual and audible signatures of the UAV to minimise detection during long duration surveillance operations

Also Published As

Publication number Publication date
GB201713849D0 (en) 2017-10-11
GB2566023B (en) 2020-06-17
GB2566023A (en) 2019-03-06
US20190064797A1 (en) 2019-02-28
US11573565B2 (en) 2023-02-07

Similar Documents

Publication Publication Date Title
DE102016214597A1 (de) Verfahren zur Unterstützung eines Ankuppelvorgangs eines Fahrzeugs sowie Unterstützungssystem
DE102017111530A1 (de) Systeme und Verfahren für ein Zugfahrzeug und einen Anhänger mit Rundumsichtbildgeräten
DE102018114607A1 (de) Hinteres Objektnäherungssystem eines Fahrzeugs mit mehreren Kameras
DE102019124152A1 (de) Kupplungsunterstützungssystem
DE102015105248A1 (de) Erzeugen eines bildes von der umgebung eines gelenkfahrzeugs
DE102019117270A1 (de) Fahrzeugkupplungsunterstützungssystem
DE112018001437T5 (de) Verfahren und systeme zum ausrichten eines fahrzeugs auf einen anhänger
WO2016127192A1 (de) Verfahren zum fernsteuern eines fahrzeugs
DE102019123125A1 (de) System und verfahren zum rückwärtsbremsen während automatischer kupplungsausrichtung
DE102020122363A1 (de) Erfassung eines eingeengten anhängers und reaktion darauf bei einem systemunterstützten kupplungsvorgang
DE102019119422A1 (de) Kompensation für anhängerkupplerhöhe in einem automatischen kupplungsvorgang
DE102018211905A1 (de) Steuereinrichtung für ein unbemanntes Luftfahrzeug
DE102019119404A1 (de) Kupplungsunterstützungssystem
WO2017097596A2 (de) Verfahren und steuergerät zum erkennen einer möglichen kollision eines unbemannten luftfahrzeugs mit einem objekt
DE102020124985A1 (de) Unterscheiden zwischen nahem anhänger und verbundenem anhänger
DE102018220279A1 (de) Bildgebungsapparat und verfahren
EP2381208B1 (de) Verfahren zur Bestimmung von Positionsdaten eines Zielobjekts in einem Referenzsystem
WO2017220092A1 (de) Verfahren und fahrzeugsteuersystem zum erzeugen von abbildungen eines umfeldmodells und entsprechendes fahrzeug
DE102019129193A1 (de) Anwendung einer hilfsbeleuchtung in einem automatischen kupplungsvorgang
DE102020109279A1 (de) System und verfahren zur anhängerausrichtung
DE102021111303A1 (de) Speichern und abrufen eines gps-orts eines anhängers für einen kupplungsunterstützungsvorgang
DE102019120599A1 (de) System und verfahren zur höhenverstellung von anhängern
DE102017109445A1 (de) Kalibration einer Fahrzeug-Kameraeinrichtung in Fahrzeuglängsrichtung oder Fahrzeugquerrichtung
WO2017080888A1 (de) Steuerung und fernsteuerung für ein unbemanntes flugobjekt sowie verfahren zum steuern des flugobjekts
DE102019124912A1 (de) Anhängerpositions-; kurswinkel- und niveaumessung mit smartvorrichtung

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BARDEHLE PAGENBERG PARTNERSCHAFT MBB PATENTANW, DE

R082 Change of representative

Representative=s name: BARDEHLE PAGENBERG PARTNERSCHAFT MBB PATENTANW, DE

R163 Identified publications notified