DE102015122183B4 - Vorrichtung und Verfahren für ein unbemanntes Flugobjekt - Google Patents

Vorrichtung und Verfahren für ein unbemanntes Flugobjekt Download PDF

Info

Publication number
DE102015122183B4
DE102015122183B4 DE102015122183.7A DE102015122183A DE102015122183B4 DE 102015122183 B4 DE102015122183 B4 DE 102015122183B4 DE 102015122183 A DE102015122183 A DE 102015122183A DE 102015122183 B4 DE102015122183 B4 DE 102015122183B4
Authority
DE
Germany
Prior art keywords
sensor
objects
predefined
reference data
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102015122183.7A
Other languages
English (en)
Other versions
DE102015122183A1 (de
Inventor
Patentinhaber gleich
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE102015122183.7A priority Critical patent/DE102015122183B4/de
Priority to PCT/EP2016/081700 priority patent/WO2017103255A1/de
Priority to EP16828716.7A priority patent/EP3391163A1/de
Publication of DE102015122183A1 publication Critical patent/DE102015122183A1/de
Priority to US16/004,064 priority patent/US10351241B2/en
Application granted granted Critical
Publication of DE102015122183B4 publication Critical patent/DE102015122183B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/12Target-seeking control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • B64U2101/31UAVs specially adapted for particular uses or applications for imaging, photography or videography for surveillance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Astronomy & Astrophysics (AREA)
  • Human Computer Interaction (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Vorrichtung für ein unbemanntes Flugobjekt (10), insbesondere für eine Drohne oder einen Copter, wie einen Multicopter oder einen Quadrocopter, sowie einen Flächenflieger, umfassend:
-eine Sensorschnittstelle (18) zum Empfangen von Sensordaten (21) mindestens eines bildgebenden Sensors (16A - 16D) sowie mindestens eines abstandsgebenden Sensors (12A - 12D),
- eine Signalverarbeitungseinheit (20), die eingerichtet ist, um durch Vergleich von Referenzdaten (25) mit den empfangenen Sensordaten (21) mindestens ein durch die Referenzdaten (25) vordefiniertes Objekt zu erkennen und/oder ein vordefiniertes Objekt von anderen Objekten zu unterscheiden sowie Parameter, wie die Position, Distanz und/oder Bewegung, des erkannten oder von anderen Objekten unterschiedenen, vordefinierten Objekts, insbesondere relativ zum Flugobjekt (10), zu bestimmen und
- eine Ausgabeschnittstelle (29) zum Ausgeben der Parameter des vordefinierten Objekts,
wobei die Signalverarbeitungseinheit (20) eingerichtet ist, Bewegungsmuster des erkannten oder des von anderen Objekten unterschiedenen Objekts zu ermitteln und über die Ausgabeschnittstelle (29) auszugeben.

Description

  • Die Erfindung betrifft den Bereich unbemannter Flugobjekte, insbesondere Drohnen, wie Copter oder Multicopter. Es sind derartige Flugobjekte bekannt, die eine Kamera aufweisen und damit Aufnahmen von Gegenständen oder Personen aus der Luft erlauben, die parallel an einen Bediener übertragen werden, sodass der Bediener die Umgebung inspizieren kann. Hierzu steuert der Bediener das Flugobjekt an Positionen, aus denen geeignete Aufnahmen aufgenommen werden können.
  • Ferner sind auch Flugobjekte bekannt, die automatisch Objekten, wie Personen oder Fahrzeugen, folgen und diese z. B. beim Ausführen einer Sportart filmen, um das Filmmaterial beispielsweise später auswerten zu können. Sportler können durch die Auswertung ihre Bewegungsabläufe optimieren. Hierzu verfolgt das Flugobjekt den Sportler selbsttägig, indem das Flugobjekt einem Funksender folgt, den der Sportler am Körper trägt.
  • Es sind jedoch weitere Anwendungen denkbar, bei denen ein Flugobjekt automatisch einem Objekt, wie z. B. einer Person oder einem Fahrzeug folgen soll, um z. B. die polizeiliche Aufklärung einer Straftat zu unterstützen. Im Gegensatz zum Sportler hat dieses Objekt, das zu verfolgen ist, jedoch keinen Funksender an seinem Körper, sodass die bekannte automatische Verfolgung nicht möglich ist.
  • Aus Dokument US 2009 / 0 157 233 A1 ist ein System für ein unbemanntes Flugobjekt bekannt, das autonom die Bewegung eines Ziels aufspürt oder verfolgt, wobei dies anhand von Videoinformationen erfolgt. Außerdem ist das System eingerichtet, anhand der Informationen über das Ziel mögliche zukünftige Bewegungen zu prognostizieren und anhand dieser Informationen seine Eigenbewegung zu planen. Auch das Dokument zeigt ein Luftfahrzeug, das eingerichtet ist, Objekte zu erkennen und US 2014 / 0 316 614 A1 anhand dieser Objekte einen Flugplan anzupassen. Zuletzt befasst sich auch Dokument US 2014 / 0 222 246 A1 damit, Objekte mit einer Kamera eines unbemannten Flugobjekts zu erkennen.
  • Aufgrund von Reichweitenbeschränkungen üblicher Fernsteuerungen ist es außerdem nicht uneingeschränkt möglich, ein zu verfolgendes Objekt durch manuelle Steuerung zu verfolgen.
  • Insbesondere wird auch die Handlungsfreiheit der das Flugobjekt steuernden Person stark durch die Steuerung eingeschränkt, sodass eine parallele aktive Verfolgung von Personen durch den Bediener nicht möglich ist, während er das Flugobjekt steuert.
  • Es ist somit Aufgabe der vorliegenden Erfindung, eines der vorgenannten Probleme des Standes der Technik zu lösen. Insbesondere soll eine Vorrichtung und ein Verfahren gefunden werden, um die Verfolgung eines Objekts, wie einem Fahrzeug oder einer Person durch ein unbemanntes Flugobjekt zu ermöglichen, ohne dass eine Funkverbindung zu einem Sender am Objekt besteht. Zumindest soll eine alternative Lösung zum Stand der Technik vorgeschlagen werden.
  • Erfindungsgemäß wird eine Vorrichtung für ein unbemanntes Flugobjekt, insbesondere für eine Drohne oder einen Copter, wie einen Multicopter oder einen Quadrocopter sowie einen Flächenflieger, nach Anspruch 1 vorgeschlagen.
  • Die Vorrichtung umfasst eine Sensorschnittstelle zum Empfangen von Sensordaten mindestens eines bildgebenden Sensors sowie mindestens eines abstandsgebenden Sensors. Ferner umfasst die Vorrichtung eine Signalverarbeitungseinheit, die eingerichtet ist, um durch Vergleich von Referenzdaten mit den empfangenen Sensordaten mindestens ein vordefiniertes Objekt zu erkennen und/oder ein vordefiniertes Objekt von anderen Objekten zu unterscheiden. Außerdem ist die Signalverarbeitungseinheit eingerichtet, Parameter, wie die Position, Distanz und/oder Bewegung, des vordefinierten Objekts zu bestimmen. Insbesondere ist eine Bestimmung der Parameter relativ zum Flugobjekt möglich.
  • Zudem umfasst die Vorrichtung eine Ausgabeschnittstelle zum Ausgeben der Position, Distanz und/oder Bewegung des vordefinierten Objekts.
  • Referenzdaten entsprechen z. B. vorgegebenen Abmessungen, wie z. B. vorgegebenen Größen, Breiten und/oder Tiefen sowie vorgegebenen Werten von Temperaturen und/oder Geschwindigkeiten und/oder Beschleunigungen. Referenzdaten können auch Bereichen vorgegebener Abmessungen, wie z. B. vorgegebener Größen, Breiten und/oder Tiefen sowie aber auch Bereichen vorgegebener Werte von Temperaturen, Geschwindigkeiten und/oder Beschleunigungen, entsprechen. Die Referenzdaten dienen damit zum Vordefinieren des zu erkennenden und/oder zu unterscheidenden Objekts.
  • Es wird in vorteilhafter Weise erkannt, dass eine Objekterkennung anhand der Sensordaten eines bildgebenden Sensors und der Sensordaten eines abstandsgebenden Sensors gemeinsam betrachtet werden, um ein vordefiniertes Objekt zu detektieren.
  • Zwar ist eine Objekterkennung mit nur einem bildgebenden Sensor möglich, wobei jedoch nur zweidimensionale Aufnahmen einer Umgebung zur Verfügung gestellt werden können. Daher können einige Parameter eines Objekts, wie z. B. seine Größe, nicht mit bildgebenden Sensoren detektiert werden.
  • Mit einem abstandsgebenden Sensor, wie z. B. einem Radarsensor, sind demgegenüber Parameter eines Objekts, wie die Größe, die Position und die Distanz, detektierbar, wobei zum Erkennen und Unterscheiden verschiedener Objekte eine sehr rechenintensive und aufwendige Auswertung nötig ist.
  • Mit der Erfindung wird es nun in vorteilhafter Weise ermöglicht ein Objekt mit dem bildgebenden Sensor, z. B. aufgrund seiner Konturen, von anderen Objekten zu unterschieden. Durch Abstandsmessung des betrachteten Objektes durch gezieltes Lenken des abstandsgebenden Sensors in den Bereich, in dem sich das Objekt befindet, ist auf einfache Weise die Distanz zu dem zurzeit betrachteten Objekt und daraus dann auch die Größe des Objekts ableitbar.
  • Im Falle, dass die Parameter des Objekts, wie z. B. die Größe, mit hinterlegten Referenzdaten übereinstimmt, kann nun dieses Objekt von anderen Objekten unterschieden werden, bzw. ein den Referenzdaten entsprechendes Objekt erkannt werden.
  • Durch die Referenzdaten vordefinierte Objekte sind somit auf besonders einfache Art und Weise erkennbar. Ferner wird an der Ausgabeschnittstelle die Position, Distanz und/oder eine Bewegung des vordefinierten Objekts ausgegeben werden, die dann beispielsweise für eine Steuerung des unbemannten Flugobjekts verwendet werden kann, um das vordefinierte Objekt beispielsweise mit einem für die Steuerung vorgegebenen Abstand und/oder Höhe zu verfolgen.
  • Demnach ist es auch möglich mehrere Objekte durch mehrere Kategorien in den Referenzdaten, wobei jede Kategorie für ein bestimmtes Objekt steht, zu beschreiben und daher mehrere verschiedene vordefinierte Objekte zu erkennen oder von anderen Objekten zu unterscheiden. Es kann auch eine Kategorisierung der vordefinierten Objekte vorgenommen werden, die von der Signalverarbeitungseinheit erkannt wurden.
  • Erfindungsgemäß ist die Signalverarbeitungseinheit weiter eingerichtet, Bewegungsmuster des zu erkennenden oder des zu unterscheidenden Objekts zu ermitteln. Wird die Vorrichtung also zur Verfolgung des Bedieners selbst eingesetzt, sodass dieser sich beispielsweise beim Ausführen einer Sportart filmen lässt, so kann der Bediener das Flugobjekt durch Ausführen eines Bewegungsmusters, das dann von der Signalverarbeitungseinheit erkannt wird, beispielsweise steuern.
  • Es ist z. B. vorstellbar, dass ein Winken einer Person auf einfache Art und Weise durch eine Bildverarbeitung der mit den Sensordaten des bildgebenden Sensors aufgenommenen Daten erkennbar ist. Dieses Winken entspricht beispielsweise einem vorab hinterlegten Bewegungsmuster, das das Flugobjekt veranlasst, die Verfolgung abzubrechen und zu einem Ausgangsplatz, beispielsweise einer Parkfläche, zurückzufliegen.
  • Außerdem können z. B. unterschiedliche Abstände zwischen dem Flugobjekt und dem vordefinierten Objekt, das hier beispielsweise der soeben genannte Sportler ist, durch verschiedene Gesten, die als Bewegungsmuster erkannt werden, eingestellt werden.
  • Eine Steuerung eines Flugobjektes ohne Fernsteuerung ist somit möglich.
  • Gemäß einer Ausführungsform umfasst die Vorrichtung eine Konfigurationsschnittstelle, die zum Empfangen von Referenzdaten ausgebildet ist, sodass anhand dieser Referenzdaten ein zu erkennendes oder zu unterscheidendes Objekt vordefinierbar ist. Alternativ oder zusätzlich ist ein Speicher zum Hinterlegen der Referenzdaten als Bestandteil der Vorrichtung vorhanden.
  • Demnach sind also Referenzdaten, z. B. mittels einer Programmierung über die Konfigurationsschnittstelle, von einem Benutzer des Flugobjekts vorgebbar. Die Vorrichtung und damit das Flugobjekt ist somit zur Erkennung oder Unterscheidung verschiedener Objekte, die beispielsweise verfolgt werden sollen, anpassbar. Soll das Flugobjekt also in einem ersten Anwendungsfall eine Person, wie einen Sportler auf einem Surfbrett beim Surfen, verfolgen, so sind andere Referenzdaten für die Erkennung der Person als vordefiniertes Objekt nötig, als bei der Verfolgung eines Fahrzeugs, wie z. B. eines PKWs.
  • Gemäß einer weiteren Ausführungsform dient die Sensorschnittstelle zum Empfangen von Sensordaten mindestens eines bildgebenden Sensors, der ein Infrarotsensor zum Aufnehmen von Bildern im Infrarotbereich ist. Alternativ oder zusätzlich dient die Sensorschnittstelle zum Empfangen von Sensordaten mindestens eines bildgebenden Sensors, der eine Foto- und/oder Videokamera zum Aufnehmen von Bildern im sichtbaren Lichtbereich ist.
  • Mittels Sensordaten eines Infrarotsensors ist somit auch eine Objekterkennung bei nächtlicher Dunkelheit oder widrigen Wettereinflüssen möglich. Mit den Sensordaten der Foto- und/oder Videokamera ist das Erkennen von Objekten bei hohen Umgebungstemperaturen, bei denen z. B. eine Umgebungstemperatur herrscht, die der Körpertemperatur einer zu verfolgenden Person ähnelt und daher ein Infrarotsensor nicht einsetzbar ist, weiterhin sicher möglich.
  • Gemäß einer weiteren Ausführungsform umfasst die Vorrichtung mindestens einen bildgebenden Sensor, der ein Infrarotsensor zum Aufnehmen von Bildern im Infrarotbereich ist. Insbesondere ist der Infrarotsensor eine Infrarotkamera und/oder ein Mikrobolometer. Zusätzlich oder alternativ umfasst die Vorrichtung mindestens einen bildgebenden Sensor, der eine Foto- und/oder Videokamera zum Aufnehmen von Bildern im sichtbaren Lichtbereich ist. Die Vorrichtung ist somit als Komplettbauteil mit Sensoren in einfacher Art und Weise in ein unbemanntes Flugobjekt integrierbar.
  • Der Infrarotsensor als bildgebender Sensor ermöglicht ein Aufnehmen von Temperaturen und/oder Wärmesignaturen, also einer flächenhaften Verteilung von Temperaturen, die für ein Objekt charakteristisch sind. Daher sind auch Referenzdaten von Temperaturen oder Wärmesignaturen zum vordefinieren von Objekten im Speicher der Vorrichtung hinterlegbar, um Objekte, die durch die hinterlegten Temperaturen und/oder Wärmesignaturen vordefiniert sind, zu erkennen und/oder von anderen Objekten mit anderen Temperaturen und/oder Wärmesignaturen zu unterscheiden.
  • Gemäß einer weiteren Ausführungsform ist die Sensorschnittstelle eingerichtet, Sensordaten mindestens eines abstandsgebenden Sensors zu empfangen, der eine nach dem Laufzeitprinzip, insbesondere mittels elektromagnetischer Wellen, arbeitende TOF-Kamera, arbeitender Lidar- oder Radarsensor oder eine stereoskopische Kamera ist. Diese Sensoren sind in kleiner Baugröße bekannt und können daher mit der Schnittstelle auf geeignete Art und Weise - zumindest im Falle einer TOF-Kamera, eines Lidar- oder Radarsensors - bei nächtlicher Dunkelheit und/oder schlechter Sicht zuverlässig einen Abstand zum Objekt bestimmen.
  • Mit einem Radarsensor kann gleichzeitig zwischen organischen und nicht-organischen Objekten unterschieden werden. Wird beispielsweise die Amplitude der reflektierten elektromagnetischen Radarwellen betrachtet, so reflektieren z. B. nicht-organische Objekte, die z. B. eine Metalloberfläche aufweisen, die Radarwellen in höherem Maße als eine Person. Durch Vorgabe von Amplituden der Radarwellen als Referenzdaten kann also zusätzlich ein organisches Objekt von nicht-organischen Objekten oder umgekehrt unterschieden werden.
  • Die Objekte werden gemäß einer bevorzugten Ausführungsform daher zunächst anhand der Daten des bildgebenden Sensors bestimmt oder identifiziert und dann mit dem Sensor gleichzeitig oder nacheinander der Abstand jedes der bestimmten oder identifizierten Objekte ermittelt.
  • Gemäß einer weiteren Ausführungsform umfasst die Vorrichtung mindestens einen abstandsgebenden Sensor, der ein Radarsensor, eine TOF-Kamera, ein Lidarsensor und/oder eine stereoskopische Kamera, z. B. eine stereoskopische Infrarotkamera, ist. Demnach ist die Vorrichtung als integrales Bauteil in einfacher Art und Weise in ein unbemanntes Flugobjekt integrierbar.
  • Gemäß einer weiteren Ausführungsform ist die Signalverarbeitungseinheit eingerichtet, für das mindestens eine zu erkennende und/oder zu unterscheidende Objekt mindestens einen Wahrscheinlichkeitswert zu ermitteln und auszugeben, der die Zuverlässigkeit der Erkennung und/oder der Unterscheidung und/oder der Parameter, wie die Position und/oder die Distanz angibt.
  • Es wird also von der Signalverarbeitungseinrichtung ein Wahrscheinlichkeitswert, also z. B. ein Wert zwischen 0 und 1, ausgegeben, der angibt, mit welcher Wahrscheinlichkeit die über die Ausgabeschnittstelle ausgegebenen Daten zutreffend sind.
  • Ein Flugobjekt kann demnach beim Unterschreiten eines vordefinierten Schwellenwertes, der z. B. durch Versuche ermittelt wird, durch den Wahrscheinlichkeitswert davon ausgehen, dass das vordefinierte Objekt nicht mehr sicher erkannt werden kann und daher eine Verfolgung abgebrochen werden muss.
  • Ferner betrifft die Erfindung ein Verfahren für ein unbemanntes Flugobjekt, insbesondere für eine Drohne oder einen Copter, wie einen Multicopter oder einen Quadrocopter, sowie einen Flächenflieger, mit einer Vorrichtung, insbesondere nach einer der vorhergenannten Ausführungsformen.
  • Das Verfahren umfasst das Empfangen von Sensordaten mit mindestens einem bildgebenden Sensor sowie mindestens einen abstandsgebenden Sensor mit einer Sensorschnittstelle. Ferner umfasst das Verfahren das Erkennen mindestens eines vordefinierten Objekts und/oder das Unterscheiden eines vordefinierten Objekts von anderen Objekten durch Vergleich von Referenzdaten mit den empfangenen Sensordaten. Ein vordefinieren der Objekte erfolgt also insbesondere durch die Referenzdaten selbst.
  • Außerdem werden Parameter, wie die Position, Distanz und/oder Bewegung, des vordefinierten Objekts bestimmt, wobei diese insbesondere relativ zum Flugobjekt bestimmt werden. Die Bestimmung erfolgt mittels einer Signalverarbeitungseinheit. Außerdem umfasst das Verfahren das Ausgeben der Parameter mit einer Ausgabeschnittstelle.
  • Zudem werden Bewegungsmuster des zu erkennenden oder zu unterscheidenden Objekts mit der Signalverarbeitungseinheit ermittelt und ausgegeben.
  • Gemäß einer Ausführungsform des Verfahrens werden Referenzdaten, insbesondere Parameter, zum Vordefinieren des mindestens einen zu erkennenden oder zu unterscheidenden Objekts mit einer Konfigurationsschnittstelle empfangen und/oder in einem Speicher hinterlegt.
  • Gemäß einer weiteren Ausführungsform wird mindestens ein Wahrscheinlichkeitswert ausgegeben, wobei dieser mit der Signalverarbeitungseinheit für das mindestens eine zu erkennende oder zu unterscheidende Objekt ermittelt und ausgegeben wird, um die Zuverlässigkeit der Erkennung und/oder der Unterscheidung und/oder der Parameter, wie Position und/oder der Distanz, des vordefinierten Objekts anzugeben.
  • Gemäß einer weiteren Ausführungsform werden mit der Signalverarbeitungseinheit aus den Sensordaten des bildgebenden Sensors Konturen verschiedener aufgenommener Objekte in den zurzeit erfassten Sensordaten bestimmt und mit den Sensordaten des abstandsgebenden Sensors die Abstände aller Objekte erfasst. Ferner werden anhand der Sensordaten des bildgebenden Sensors und des Abstands die Parametern, wie etwa die Abmessungen, der Objekte bestimmt und mit den Referenzdaten verglichen. Im Falle, dass ein oder mehrere Objekte, deren Parameter, wie z. B. Abmessungen, mit den Referenzdaten übereinstimmen, werden diese als vordefinierte Objekte erkannt bzw. von den übrigen Objekten unterschieden.
  • Gemäß einer weiteren Ausführungsform werden anstatt oder zusätzlich zu den Abmessungen der Objekte auch die Temperaturen und/oder Wärmesignaturen der Objekte mit dem Infrarotsensor bestimmt und die Abmessungen sowie die Temperaturen mit den Referenzdaten verglichen. Ein oder mehrere Objekte werden in dem Falle als Objekt erkannt bzw. von den übrigen Objekten unterschieden, in dem die Abmessungen und Temperaturen mit den als Referenzdaten hinterlegten Abmessungen oder Temperaturdaten im Wesentlichen übereinstimmen.
  • Zuletzt betrifft die Erfindung ein unbemanntes Flugobjekt mit einer Vorrichtung nach einer der zuvor genannten Ausführungsformen, das insbesondere zum Ausführen des Verfahrens nach einer der zuvor genannten Ausführungsformen eingerichtet ist.
  • Weitere Ausführungsformen ergeben sich anhand der in den Zeichnungen näher erläuterten Ausführungsbeispiele. In der Zeichnung zeigt die
    • 1 ein unbemanntes Flugobjekt,
    • 2 eine vergrößerte Darstellung der Sensoren einer Vorrichtung gemäß einem Ausführungsbeispiel und
    • 3 ein Ausführungsbeispiel der Erfindung.
  • 1 zeigt ein unbemanntes Flugobjekt 10, das hier eine Drohne, die auch Copter genannt wird, ist. Das unbemannte Flugobjekt 10 weist mehrere abstandsgebende Sensoren 12A bis 12D auf, die hier Radarsensoren entsprechen. Außerdem ist eine schwenkbare Kamera 14 mit dem Flugobjekt verbunden.
  • Die abstandsgebenden Sensoren 12A bis 12C sind unbeweglich, während der Sensor 12D verbunden mit der gegenüber dem Flugobjekt 10 schwenkbaren Kamera 14 fest verbunden ist. Die Kamera 14 ist hierzu über einen Gimbal 15 mit dem Flugobjekt 10 verbunden.
  • Außerdem sind bildgebenden Sensoren 16A bis 16D dargestellt, wobei auch hier die Sensoren 16A bis 16C unbeweglich mit dem Flugobjekt 10 verbunden sind, während der bildgebende Sensor 16D dreh- und schwenkbar mit der Kamera 14 verbunden ist. Die bildgebenden Sensoren 16A bis 16D entsprechen gemäß diesem Ausführungsbeispiel Infrarotkameras. Die bildgebenden Sensoren 16A bis 16C sowie die abstandsgebenden Sensoren 12A bis 12C sind auch auf der durch die Darstellung nicht sichtbaren Seite des Flugobjekts 10 angeordnet, sodass ein Rundumblick mit den Sensoren 12A bis 12C und 16A bis 16C zu jeder Zeit gegeben ist. Die Sensoren 12D und 16D sind zusätzlich schwenkbar, um insbesondere einen Totwinkel genau unterhalb des Flugobjekts abtasten zu können und eine Objektverfolgung zu vereinfachen.
  • 2 zeigt eine alternative Ausgestaltung der Anordnung der abstandsgebenden Sensoren 12 sowie der bildgebenden Sensoren 16, wobei hier keine beweglichen Teile benötigt sind, da hier benachbarte Sensorenpaare, die aus jeweils einem abstandsgebenden Sensor 12 und einem bildgebende Sensor 16 bestehen, jeweils in einem Winkel von 60° zueinander angeordnet sind.
  • 3 zeigt nun ein Ausführungsbeispiel der Vorrichtung 18, die hier einen abstandsgebenden Sensor 12 sowie einen bildgebenden Sensor 16 umfasst. Diese Sensoren sind mittels einer Sensorschnittstelle 18 mit einer Signalverarbeitungseinheit 20 verbunden, um der Signalverarbeitungseinheit 20 Sensordaten 21 zuzuführen. Die Signalverarbeitungseinheit 20 umfasst einen Speicher 22 in dem Referenzdaten hinterlegt sind. Diese Referenzdaten können über eine Konfigurationsschnittstelle 24 programmiert und/oder umprogrammiert werden. Ferner umfasst die Signalverarbeitungseinheit einen Prozessor 26, dem die Sensordaten 21 der Sensoren 12, 16 sowie die Referenzdaten 25 zugeführt werden. Gemäß anderen, hier nicht dargestellten Ausführungsbeispielen, wird anstatt oder zusätzlich zu dem Prozessor 26 ein DSP (Digitaler Signal-Prozessor) oder FPGA (Field Programmable Gate Array) verwendet.
  • Der Prozessor 26 erkennt dann anhand der Sensordaten 21 Abmessungen sowie Temperaturen der Objekte, die sich im Sensorbereich der Sensoren 12, 16 befinden. In einem Vergleichsmittel 28 werden die Abmessungen und Temperaturen der Objekte mit den im Speicher 22 hinterlegten Referenzdaten 25 verglichen und im Falle eine Übereinstimmung Parameter des Objekts, für das die Übereinstimmung vorliegt, wie dessen Abmessungen sowie dessen Position und dessen Abstand, über eine Ausgabeschnittstelle 29 an eine Steuerung 30 des Flugobjekts 10 übertragen.
  • Mittels der Steuerung 30 wird das Flugobjekt 10 nun beispielsweise in einem festen Abstand zum erkannten und/oder unterschiedenen vordefinierten Objekt gehalten. Demnach ist eine Bewegung des Objekts nachverfolgbar. Somit sind Personen automatisch mit einem Flugobjekt 10 mit der Vorrichtung 18 ohne Steuerung der Flugbahn durch einen Benutzer verfolgbar.

Claims (13)

  1. Vorrichtung für ein unbemanntes Flugobjekt (10), insbesondere für eine Drohne oder einen Copter, wie einen Multicopter oder einen Quadrocopter, sowie einen Flächenflieger, umfassend: -eine Sensorschnittstelle (18) zum Empfangen von Sensordaten (21) mindestens eines bildgebenden Sensors (16A - 16D) sowie mindestens eines abstandsgebenden Sensors (12A - 12D), - eine Signalverarbeitungseinheit (20), die eingerichtet ist, um durch Vergleich von Referenzdaten (25) mit den empfangenen Sensordaten (21) mindestens ein durch die Referenzdaten (25) vordefiniertes Objekt zu erkennen und/oder ein vordefiniertes Objekt von anderen Objekten zu unterscheiden sowie Parameter, wie die Position, Distanz und/oder Bewegung, des erkannten oder von anderen Objekten unterschiedenen, vordefinierten Objekts, insbesondere relativ zum Flugobjekt (10), zu bestimmen und - eine Ausgabeschnittstelle (29) zum Ausgeben der Parameter des vordefinierten Objekts, wobei die Signalverarbeitungseinheit (20) eingerichtet ist, Bewegungsmuster des erkannten oder des von anderen Objekten unterschiedenen Objekts zu ermitteln und über die Ausgabeschnittstelle (29) auszugeben.
  2. Vorrichtung nach Anspruch 1, wobei die Vorrichtung (10) eine Konfigurationsschnittstelle (24) zum Empfangen von Referenzdaten (25) und/oder einen Speicher (22) zum Hinterlegen der Referenzdaten (25) aufweist.
  3. Vorrichtung nach Anspruch 1 oder 2, wobei die Sensorschnittstelle (18) zum Empfangen von Sensordaten (21) mindestens eines bildgebenden Sensors (16A - 16D) eingerichtet ist, der ein Infrarotsensor zum Aufnehmen von Bildern im Infrarotbereich ist und/oder der eine Foto- und/oder Videokamera zum Aufnehmen von Bildern im sichtbaren Lichtbereich ist.
  4. Vorrichtung nach Anspruch 3, wobei die Vorrichtung (10) mindestens einen bildgebenden Sensor (16A - 16D) umfasst, der ein Infrarotsensor zum Aufnehmen von Bildern im Infrarotbereich ist, und/oder einen bildgebenden Sensor (16A - 16D) umfasst, der eine Foto- und/oder Videokamera zum Aufnehmen von Bildern im sichtbaren Lichtbereich ist.
  5. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei die Sensorschnittstelle (18) zum Empfangen von Sensordaten (21) mindestens eines abstandsgebenden Sensors (12A - 12D) eingerichtet ist, der eine nach dem Laufzeitprinzip, insbesondere mittels elektromagnetischer Wellen, arbeitende TOF-Kamera, arbeitender Lidar- oder Radarsensor oder eine stereoskopische Kamera, z. B. eine stereoskopische Infrarotkamera, ist.
  6. Vorrichtung nach Anspruch 5, wobei die Vorrichtung (10) mindestens einen abstandsgebenden Sensor (12A - 12D) umfasst, der eine TOF-Kamera, ein Lidarsensor, ein Radarsensor und/oder eine stereoskopische Kamera ist.
  7. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei die Vorrichtung (10) mindestens einen abstandsgebenden Sensor (12A - 12D) umfasst, der ein Radarsensor mit einem elektronisch steuer- und/oder lenkbaren Radarstrahl und/oder ein Solid-State-Lidar ist.
  8. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei die Signalverarbeitungseinrichtung (20) eingerichtet ist, für das mindestens eine erkannte oder zu unterscheidende vordefinierte Objekt mindestens einen Wahrscheinlichkeitswert, der die Zuverlässigkeit der Erkennung und/oder der Unterscheidung und/oder der Parameter des Objekts angibt, zu ermitteln und über die Ausgabeschnittstelle (29) auszugeben.
  9. Verfahren für ein unbemanntes Flugobjekt, insbesondere für eine Drohne oder einen Copter, wie einen Multicopter oder einen Quadrocopter sowie einen Flächenflieger, mit einer Vorrichtung, insbesondere nach einem der Ansprüche 1 bis 8, umfassend die Schritte: - Empfangen von Sensordaten (21) mindestens eines bildgebenden Sensors (16A - 16D) sowie mindestens eines abstandsgebenden Sensors (12A - 12D) mit einer Sensorschnittstelle (18), - Erkennen mindestens eines durch Referenzdaten (25) vordefinierten Objekts und/oder Unterscheiden eines vordefinierten Objekts von anderen Objekten durch Vergleiche der Referenzdaten (25) mit den empfangenen Sensordaten (21) mit einer Signalverarbeitungseinheit (20), - Bestimmen der Parameter, wie der Position, der Distanz und/oder der Bewegungen des erkannten und/oder von anderen Objekten unterschiedenen vordefinierten Objekts, insbesondere relativ zum Flugobjekt (10), mit der Signalverarbeitungseinheit (20) und - Ausgeben der Parameter des vordefinierten Objekts mit einer Ausgabeschnittstelle (29), wobei Bewegungsmuster des erkannten und/oder von anderen Objekten unterschiedenen Objekts mit der Signalverarbeitungseinheit (20) ermittelt und über die Ausgabeschnittstelle (29) ausgegeben werden.
  10. Verfahren nach Anspruch 9, wobei Referenzdaten (25) mit einer Konfigurationsschnittstelle (24) empfangen und in einem Speicher (22) hinterlegt werden.
  11. Verfahren nach Anspruch 9 oder 10, wobei für das erkannte und/oder zu unterscheidende Objekt mindestens ein Wahrscheinlichkeitswert mit der Signalverarbeitungseinheit (20) ermittelt wird, der die Zuverlässigkeit der Erkennung und/oder der Unterscheidung und/oder der Parameter angibt und der über die Ausgabeschnittstelle (29) ausgegeben wird.
  12. Verfahren nach einem der Ansprüche 9 bis 11, wobei mit der Signalverarbeitungseinheit (20) aus den Sensordaten (21) des bildgebenden Sensors (16A - 16D) mittels Objekterkennung ein, mehrere oder alle Objekte in den zurzeit erfasstem Sensordaten (21) des bildgebenden Sensors bestimmt und deren Konturen ermittelt werden und mit den Sensordaten (21) des abstandsgebenden Sensors (12A - 12D) die Abstände der bestimmten Objekte erfasst werden und anhand der Konturen und des Abstands Abmessungen der Objekte bestimmt und die Abmessungen mit Referenzdaten (25) verglichen werden, wobei ein oder mehrere Objekte, deren Abmessungen mit den Referenzdaten (25) im Wesentlichen übereinstimmen, als vordefiniertes oder vordefinierte Objekte erkannt werden.
  13. Unbemanntes Flugobjekt mit einer Vorrichtung nach einem der Ansprüche 1 bis 8, insbesondere zum Ausführen des Verfahrens nach einem der Ansprüche 9 bis 12.
DE102015122183.7A 2015-12-18 2015-12-18 Vorrichtung und Verfahren für ein unbemanntes Flugobjekt Expired - Fee Related DE102015122183B4 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102015122183.7A DE102015122183B4 (de) 2015-12-18 2015-12-18 Vorrichtung und Verfahren für ein unbemanntes Flugobjekt
PCT/EP2016/081700 WO2017103255A1 (de) 2015-12-18 2016-12-19 Vorrichtung und verfahren für ein unbemanntes flugobjekt
EP16828716.7A EP3391163A1 (de) 2015-12-18 2016-12-19 Vorrichtung und verfahren für ein unbemanntes flugobjekt
US16/004,064 US10351241B2 (en) 2015-12-18 2018-06-08 Device and method for an unmanned flying object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015122183.7A DE102015122183B4 (de) 2015-12-18 2015-12-18 Vorrichtung und Verfahren für ein unbemanntes Flugobjekt

Publications (2)

Publication Number Publication Date
DE102015122183A1 DE102015122183A1 (de) 2017-06-22
DE102015122183B4 true DE102015122183B4 (de) 2018-12-06

Family

ID=57838314

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015122183.7A Expired - Fee Related DE102015122183B4 (de) 2015-12-18 2015-12-18 Vorrichtung und Verfahren für ein unbemanntes Flugobjekt

Country Status (4)

Country Link
US (1) US10351241B2 (de)
EP (1) EP3391163A1 (de)
DE (1) DE102015122183B4 (de)
WO (1) WO2017103255A1 (de)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107239728B (zh) * 2017-01-04 2021-02-02 赛灵思电子科技(北京)有限公司 基于深度学习姿态估计的无人机交互装置与方法
US10496107B2 (en) * 2017-01-17 2019-12-03 Valeo North America, Inc. Autonomous security drone system and method
USD928072S1 (en) * 2018-12-03 2021-08-17 SZ DJI Technology Co., Ltd. Aerial vehicle
CN110132049A (zh) * 2019-06-11 2019-08-16 南京森林警察学院 一种基于无人机平台的自动瞄准式狙击步枪
DE102020112362A1 (de) 2020-05-07 2021-11-11 Spleenlab GmbH Zur räumlichen Distanzierung ("Social Distancing") geeignete Personenerfassung und Distanzmessung
US11817000B2 (en) * 2020-12-10 2023-11-14 Rockwell Collins, Inc. System and method to reduce runway occupancy time using pseudo threshold
US11656723B2 (en) * 2021-02-12 2023-05-23 Vizio, Inc. Systems and methods for providing on-screen virtual keyboards

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090157233A1 (en) 2007-12-14 2009-06-18 Kokkeby Kristen L System and methods for autonomous tracking and surveillance
US20140222246A1 (en) 2011-11-18 2014-08-07 Farrokh Mohamadi Software-defined multi-mode ultra-wideband radar for autonomous vertical take-off and landing of small unmanned aerial systems
US20140316614A1 (en) 2012-12-17 2014-10-23 David L. Newman Drone for collecting images and system for categorizing image data

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9965850B2 (en) * 2012-07-05 2018-05-08 Bernard Fryshman Object image recognition and instant active response with enhanced application and utility
US20130289858A1 (en) * 2012-04-25 2013-10-31 Alain Anthony Mangiat Method for controlling and communicating with a swarm of autonomous vehicles using one-touch or one-click gestures from a mobile platform
US20140008496A1 (en) * 2012-07-05 2014-01-09 Zhou Ye Using handheld device to control flying object
WO2014115139A1 (en) * 2013-01-23 2014-07-31 Iatas (Automatic Air Traffic Control) Ltd System and methods for automated airport air traffic control services
US9367067B2 (en) * 2013-03-15 2016-06-14 Ashley A Gilmore Digital tethering for tracking with autonomous aerial robot
CN104854428B (zh) * 2013-12-10 2018-12-14 深圳市大疆创新科技有限公司 传感器融合
WO2015143615A1 (zh) * 2014-03-24 2015-10-01 深圳市大疆创新科技有限公司 飞行器状态实时修正的方法和装置
WO2015200209A1 (en) * 2014-06-23 2015-12-30 Nixie Labs, Inc. Wearable unmanned aerial vehicles, launch- controlled unmanned aerial vehicles, and associated systems and methods
EP3862837B1 (de) * 2014-07-30 2023-05-03 SZ DJI Technology Co., Ltd. Systeme und verfahren zur zielverfolgung
JP6179000B2 (ja) * 2014-10-27 2017-08-16 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 飛行情報を提供する方法、プログラム及び端末
CN112859899A (zh) * 2014-10-31 2021-05-28 深圳市大疆创新科技有限公司 用于利用视觉标记进行监视的***和方法
US9927809B1 (en) * 2014-10-31 2018-03-27 State Farm Mutual Automobile Insurance Company User interface to facilitate control of unmanned aerial vehicles (UAVs)
US20170102699A1 (en) * 2014-12-22 2017-04-13 Intel Corporation Drone control through imagery
CN111762136A (zh) * 2015-05-12 2020-10-13 深圳市大疆创新科技有限公司 识别或检测障碍物的设备和方法
KR20160138806A (ko) * 2015-05-26 2016-12-06 엘지전자 주식회사 글래스타입 단말기 및 그 제어방법
US10310617B2 (en) * 2015-06-11 2019-06-04 Intel Corporation Drone controlling device and method
CN107852491B (zh) * 2015-07-31 2021-09-14 深圳市大疆创新科技有限公司 传感器辅助的码率控制方法
US9663227B1 (en) * 2015-12-22 2017-05-30 Gopro, Inc. Systems and methods for controlling an unmanned aerial vehicle
US20170371410A1 (en) * 2016-06-28 2017-12-28 International Business Machines Corporation Dynamic virtual object interactions by variable strength ties

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090157233A1 (en) 2007-12-14 2009-06-18 Kokkeby Kristen L System and methods for autonomous tracking and surveillance
US20140222246A1 (en) 2011-11-18 2014-08-07 Farrokh Mohamadi Software-defined multi-mode ultra-wideband radar for autonomous vertical take-off and landing of small unmanned aerial systems
US20140316614A1 (en) 2012-12-17 2014-10-23 David L. Newman Drone for collecting images and system for categorizing image data

Also Published As

Publication number Publication date
WO2017103255A1 (de) 2017-06-22
DE102015122183A1 (de) 2017-06-22
US10351241B2 (en) 2019-07-16
EP3391163A1 (de) 2018-10-24
US20180290750A1 (en) 2018-10-11

Similar Documents

Publication Publication Date Title
DE102015122183B4 (de) Vorrichtung und Verfahren für ein unbemanntes Flugobjekt
DE60209760T2 (de) Gesichtsbilderzeugungssystem zur bildaufnahme und automatisierte bestätigung der identität
CN108447091B (zh) 目标定位方法、装置、电子设备及存储介质
DE102016114535B4 (de) Wegbestimmung für automatisierte Fahrzeuge
EP2981786B1 (de) Steuerung einer bildauslösung zur luftbilderfassung in nadir-ausrichtung für ein unbemanntes fluggerät
DE102014005688A1 (de) Spurenschätzvorrichtung und verfahren
CN106503622A (zh) 一种车辆反跟踪方法及装置
EP3671546A1 (de) Verfahren und system zum bestimmen von landmarken in einer umgebung eines fahrzeugs
DE102018121008A1 (de) Kreuzverkehrserfassung unter verwendung von kameras
EP3921819B1 (de) Überwachungsvorrichtung und verfahren zur man-overboard-überwachung eines schiffsabschnitts
DE102005055347A1 (de) Fahrerassistenzsystem
DE102008046362A1 (de) Gegenstandserfassungssystem mit einem Bilderfassungssystem
WO2020038944A1 (de) Verfahren und anordnung zum erkennen von objekten an anlagen
DE102017007737A1 (de) Verfahren und Vorrichtung zum Erfassen einer Abbildung einer Pflanze mit einer Sensoreinrichtung
DE102018008282A1 (de) Vorrichtung und Verfahren zum Erfassen von Flugobjekten
WO2020160874A1 (de) Kalibriereinrichtung für eine überwachungsvorrichtung, überwachungsvorrichtung zur man-overboard-überwachung sowie verfahren zur kalibrierung
DE2939656C2 (de) Verfahren zur Verfolgung von Zielen
CN108573498B (zh) 基于无人机的行驶车辆即时跟踪***
AT526146B1 (de) Elektrooptisches Beobachtungssystem für Jagdzwecke
KR20210034861A (ko) 초경량 비행 장치의 조종자 평가 방법 및 장치
DE102013011927B4 (de) Verfahren zum Steuern einer Überwachungseinrichtung
EP3540507A1 (de) Bildaufnahmevorrichtung und verfahren zum aufnehmen einer bildaufnahme eines dokuments und verwendung
DE102017006877A1 (de) Vorrichtung und Verfahren zum Erfassen von Flugkörpern mit einem Stereokamerasystem und einem Hochfrequenzscanner
DE102022201639B3 (de) Verfahren zur Kollisionsvermeidung von Wasserfahrzeugen und Einrichtung zur Durchführung des Verfahrens
DE4128039A1 (de) Anordnung zum erfassen von niederschlag

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee