DE102018127144A1 - Sichtbasierte kooperative kollisionsvermeidung - Google Patents

Sichtbasierte kooperative kollisionsvermeidung Download PDF

Info

Publication number
DE102018127144A1
DE102018127144A1 DE102018127144.1A DE102018127144A DE102018127144A1 DE 102018127144 A1 DE102018127144 A1 DE 102018127144A1 DE 102018127144 A DE102018127144 A DE 102018127144A DE 102018127144 A1 DE102018127144 A1 DE 102018127144A1
Authority
DE
Germany
Prior art keywords
drone
external source
collision
determining
feature information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102018127144.1A
Other languages
English (en)
Inventor
David Arditti Ilitzky
David Gomez Gutierrez
Jose Parra Vilchis
Julio ZAMORA ESQUIVEL
Rafael De La Guardia Gonzalez
Rodrigo Aldana Lopez
Leobardo Campos Macias
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of DE102018127144A1 publication Critical patent/DE102018127144A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/04Anti-collision systems
    • G08G5/045Navigation or guidance aids, e.g. determination of anti-collision manoeuvers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/104Simultaneous control of position or course in three dimensions specially adapted for aircraft involving a plurality of aircrafts, e.g. formation flying
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0004Transmission of traffic-related information to or from an aircraft
    • G08G5/0008Transmission of traffic-related information to or from an aircraft with other aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0017Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
    • G08G5/0021Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located in the aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0069Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • B64D45/04Landing aids; Safety measures to prevent collision with earth's surface
    • B64D45/08Landing aids; Safety measures to prevent collision with earth's surface optical
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/14Flying platforms with four distinct rotor axes, e.g. quadcopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • B64U2201/102UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS] adapted for flying in formations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U30/00Means for producing lift; Empennages; Arrangements thereof
    • B64U30/20Rotors; Rotor supports

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

Verfahren und eine Vorrichtung für eine Drohnenkollisionsvermeidung sind beschrieben, die Extrahieren von ersten Merkmalsinformationen aus einem Bild beinhalten bzw. beinhaltet. Das Bild wird von einer ersten Kamera aufgenommen, die in eine Richtung orientiert ist. Zweite Merkmalsinformationen werden von einer externen Quelle empfangen. Die zweiten Merkmalsinformationen werden aus einem zweiten Bild der Umgebung extrahiert, das durch eine zweite Kamera aufgenommen wird, die in die Richtung orientiert ist. Die ersten Merkmalsinformationen und die zweiten Merkmalsinformationen werden abgeglichen. Ein zweiter lokaler Referenzrahmen der zweiten Merkmalsinformationen wird zu einem ersten lokalen Referenzrahmen der ersten Merkmalsinformationen transformiert, um einen Standort der externen Quelle zu bestimmen. Es wird bestimmt, ob eine Kollision mit der externen Quelle stattfinden wird, basierend auf dem Standort der externen Quelle und einer gegenwärtigen Flugflugbahn.

Description

  • Technisches Gebiet
  • Hierin beschriebene Ausführungsformen betreffen allgemein eine Kollisionsvermeidung für Luftfahrzeuge, wie etwa Drohnen. Ausführungsformen werden in Hardware, Software oder einer Kombination von sowohl Hardware als auch Software implementiert.
  • Hintergrund
  • Gegenwärtige Kollisionsvermeidungsfähigkeiten für Luftfahrzeuge, wie etwa Drohnen, weisen verschiedene Beschränkungen auf. Zum Beispiel können Kollisionsvermeidungsverfahren auf das Detektieren von großen Objekten, wie etwa Wänden, beschränkt sein, eine langsame Reaktionszeit aufweisen und/oder auf 3D-Kameras zum Lokalisieren von nahegelegenen Objekten angewiesen sein. Diese Fähigkeiten werden möglicherweise nicht bei einer Agent-zu-Agent-Kollisionsvermeidung angewendet. Ein typisches Szenario, bei dem bestehende Verfahren fehlschlagen, ist, wenn zwei Drohnen in einem Kollisionspfad fliegen, der bei 90 Grad liegt. Dies kann in offenem Raum oder in Bereichen, wie etwa Korridoren, auftreten.
  • Ein anderes bekanntes Verfahren zur Kollisionsvermeidung ist entweder auf Algorithmen mit externer Lokalisierung oder mit gleichzeitiger Lokalisierung und Kartenerstellung (SLAM) angewiesen. Dieses Verfahren funktioniert jedoch nur, nachdem die Fahrzeuge eine gemeinsame Karte aufweisen. Zusätzlich dazu erfordern Echtzeit-SLAM-Algorithmen leistungsstarke Computer, die nicht typischerweise auf Drohnen zur Verfügung stehen. SLAM-Algorithmen sind möglicherweise auch in dynamischen Umgebungen unzuverlässig.
  • Figurenliste
    • 1 veranschaulicht das Aufnehmen eines Bildes, das zur Kollisionsvermeidung verwendet wird, gemäß einer veranschaulichenden Ausführungsform.
    • 2 veranschaulicht drei Drohnen in einer Umgebung gemäß manchen Ausführungsformen.
    • 3A-3F veranschaulichen eine kooperative Kollisionsvermeidungstechnik gemäß manchen Ausführungsformen.
    • 4 veranschaulicht eine Drohne, die ihre Kamera ausrichtet, sodass sie zu einer zukünftigen Position zeigt, gemäß manchen Ausführungsformen.
    • 5 veranschaulicht zwei Drohnen, die sich gegenseitig lokalisieren können, gemäß manchen Ausführungsformen.
    • 6 veranschaulicht eine Nachbarlokalisierung gemäß manchen Ausführungsformen.
    • 7 ist ein Flussdiagramm zur Nachbarlokalisierung gemäß manchen Ausführungsformen.
    • 8 veranschaulicht das Bestimmen einer Entfernung zwischen zwei Drohnen gemäß manchen Ausführungsformen.
    • 9 veranschaulicht das Teilen von Nachbarinformationen gemäß manchen Ausführungsformen.
    • 10 veranschaulicht das Verwenden von virtuellen Kräften, um Kollisionen zu vermeiden, gemäß manchen Ausführungsformen.
    • 11 veranschaulicht ein Beispiel für das Verwenden von virtuellen Kräften gemäß manchen Ausführungsformen.
    • 12 ist ein Flussdiagramm zur Lagenanpassung unter Verwendung von virtuellen Kräften gemäß manchen Ausführungsformen.
    • 13 veranschaulicht eine hierarchische Flugbahnplanung gemäß manchen Ausführungsformen.
    • 14 ist ein Flussdiagramm des Verwendens einer hierarchischen Flugbahn gemäß manchen Ausführungsformen.
    • 15 stellt eine Flugbahnplanung basierend auf Stichprobentechniken gemäß manchen Ausführungsformen dar.
    • 16 veranschaulicht ein Blockdiagramm einer Datenverarbeitungseinrichtung, in der ein Satz oder eine Sequenz von Anweisungen ausgeführt werden kann, um zu bewirken, dass die Einrichtung Beispiele für eine beliebige der hierin besprochenen Methoden durchführt.
  • Ausführliche Beschreibung
  • Viele gegenwärtige Anwendungen von Drohnen, wie etwa Präzisionslandwirtschafts-, Inspektions-, Such- und Rettungsdienst-, Lagerhaus- und Lagerbestandssysteme, können von der Interaktion mehrerer Drohnen profitieren. Drohnen können zum Beispiel die Zeit reduzieren, die zum Erledigen einer Tätigkeit benötigt wird, wenn eine einzige Drohne verwendet wird. Zusätzlich dazu gibt es viele Verwendungen für Drohnen, bei denen sie sich in unmittelbarer Nähe zueinander befinden. Zum Beispiel können mehrere Drohnen innerhalb desselben umschlossenen Raums oder innerhalb eines kleinen Außenbereichs arbeiten. Dementsprechend besteht Interesse zum Ermöglichen eines autonomen Flugs. Für einen sicheren autonomen Flug sollten Drohnen vermeiden, miteinander oder mit anderen Objekten zu kollidieren.
  • Bei einem Beispiel ermöglichen die offenbarten Kollisionsvermeidungsprozeduren, dass mehrere Drohnen sicher in überladenen Umgebungen koexistieren, wie etwa Innenräumen oder bei einem Flug mit niedriger Höhe. Somit werden neue Anwendungen und eine Erhöhung der Effizienz durch Mehrdrohnensysteme ermöglicht. Die vorgeschlagenen Prozeduren sind einfacher und schneller als gegenwärtige SLAM-basierte Ansätze, die ein Registrieren von Agenten, z. B. Drohnen, stationären Objekten, einem Wasserfahrzeug usw., in einer globalen Karte erfordern, bevor sie in der Lage sind, irgendeine koordinierte Handlung zu planen. Ein gemeinsamer Referenzrahmen und eine gemeinsame Umgebungskarte wird für verschiedene offenbarte Kollisionsvermeidungstechniken nicht benötigt. Die offenbarten Techniken verbessern einfache reaktive Verfahren basierend auf der Detektion und der Verfolgung von dynamischen Hindernissen, indem Agenten ermöglicht wird, potenzielle Kollisionsvermeidungssituationen zu antizipieren, und können mit monokularen (in Kombination mit Inertialmessungen), Stereo- oder 3D-Kameras angewendet werden. Datenassoziationen zwischen Sensorbeobachtungen, die durch unterschiedliche Agenten erfasst werden, können gelöst werden und zum Bestimmen der relativen Lokalisierung zwischen zwei Agenten und jeweiligen Nachbarn verwendet werden.
  • Bei einem Beispiel ist eine nach unten zeigende Kamera so orientiert, dass gewährleistet wird, dass zwei Drohnen in einer Kollisionsflugbahn die mögliche Kollision X/2 Sekunden im Voraus detektieren würden und sich gegenseitig lokalisieren und verfolgen würden, um dementsprechend zu planen. X ist eine Zeitspanne, die basierend auf der Manövrierbarkeit und/oder Reaktionszeit einer Drohne berechnet werden kann. X kann zum Beispiel die Zeitspanne sein, die eine Drohne benötigt, um sich eine gewisse Entfernung zu bewegen, um eine Kollision zu vermeiden. Bei verschiedenen Ausführungsformen kann sich X basierend auf der Geschwindigkeit der Drohne ändern. Eine Kollisionsdetektion und -vermeidung kann in Situationen stattfinden, bei denen es keine Sichtlinie zwischen den Drohnen gibt, wie etwa in Korridoren. Bei einem anderen Beispiel kann die Kamera nach oben orientiert sein. Bei verschiedenen Ausführungsformen ist die Orientierung der Kameras der Drohnen dieselbe. Zusätzlich dazu werden gemeinsame Merkmale zwischen zwei Bildern zum Lokalisieren von Positionen verwendet. Dementsprechend können eine beliebige Orientierung und beliebige Merkmale innerhalb eines Bildes für die offenbarten Kollisionsvermeidungstechniken verwendet werden.
  • Bei verschiedenen Ausführungsformen berücksichtigt die vorgeschlagene reaktive Kollisionsvermeidung die Position und die Geschwindigkeit eines Nachbaragenten, um eine virtuelle Kraft zu erzeugen. Die virtuelle Kraft und ihre Reaktion kann durch eine Steuerung niedriger Ebene verwendet werden, um die Drohne zu manövrieren, sodass eine Kollision mit dem Nachbaragenten vermieden wird. Bei manchen Ausführungsformen berücksichtigt ein hierarchischer Flugbahnplanungsalgorithmus statische und dynamische Objekte in der Umgebung, um eine kollisionsfreie Flugbahn zu planen, indem die Flugbahn von dynamischen Objekten und anderer Agenten mit hoher Priorität als Hindernisse in 4D (3D-Raum + Zeit) berücksichtigt wird.
  • Verschiedene Ausführungsformen sind auf eine kooperative Kollisionsvermeidung basierend auf einer Drohne-zu-Drohne-Kommunikation spärlicher visueller Merkmale ausgerichtet, die mit einer Kamera aufgenommen werden, wie etwa einer Schwenk-Neige-Kamera. Bei Ausführungsformen ist die Schwenk-Neige-Kamera auf eine derartige Weise orientiert, die zu einem Bereich auf dem Boden zeigt, den die Drohne plant, in den nächsten X Sekunden zu überfliegen. X kann zum Beispiel 1, 3, 5, 15, 30 Sekunden betragen. Der Wert X kann basierend auf der Manövrierbarkeit und der Reaktionszeit der Drohne eingestellt werden. Falls eine Drohne zum Beispiel 12 Sekunden benötigt, um in der Lage zu sein, sich eine Entfernung von gleich einmal, zweimal, dreimal usw. der größten Abmessung der Drohne zu bewegen, dann kann X auf 12 Sekunden eingestellt werden. Dies gewährleistet, dass die Drohne in der Lage ist, sich aus dem Weg einer sich nähernden Drohne oder eines sich nähernden Hindernisses zu bewegen. Bei einem Beispiel wird der Wert von X auf zweimal die Zeit eingestellt, die benötigt wird, um sich eine spezielle Menge an Raum zu bewegen. Das Einstellen des Werts auf zweimal oder größere Male dieser Menge berücksichtigt ein Beispiel, bei dem zwei Drohnen direkt aufeinander zu fliegen.
  • 1 veranschaulicht das Aufnehmen eines Bildes 110, das zur Kollisionsvermeidung verwendet wird, gemäß einer veranschaulichenden Ausführungsform. Eine Drohne 102 kann autonom entlang eines Pfades 104 zu einem Ziel 106 fliegen. Das Ziel 106 wird zu einer berechneten Zeit basierend auf der Geschwindigkeit der Drohne, der erwarteten Geschwindigkeit entlang des Pfades 104 und dem Pfad 104 erreicht. Wenn die Drohne 102 das Ziel 106 erreicht, wird sich die Drohne 102 direkt über einem Punkt 108 befinden. Das Bild 110 beinhaltet mehrere Hindernisse oder Merkmale 120A-120E.
  • Die Hindernisse 120A-120E können verwendet werden, damit eine andere Drohne die Position der Drohne 102 bestimmt. Die Drohne 102 kann das Bild 110 oder die Merkmale bezüglich eines oder mehrerer der Hindernisse 120A-120E mit einer anderen Drohne teilen. Die andere Drohne kann ein Bild von ihrer Kamera verwenden, um die Position der Drohne 102 zu bestimmen. Mit der Position und zusätzlichen Informationen, wie etwa dem Ziel 106, dem Pfad 104 usw., kann die andere Drohne ihren Pfad ändern, um eine Kollision mit der Drohne 102 zu vermeiden.
  • Das Teilen von Bildern und/oder Merkmalsinformationen ermöglicht zwei Drohnen, einen gemeinsamen Bereich in ihren geplanten Flugbahnen, die durch eine Anzahl von Merkmalen entsprechend ihren jeweiligen Ansichten identifiziert werden, „zu sehen“, und sie werden, in der Lage zu sein, sich gegenseitig zu lokalisieren. Dies ermöglicht jeder Drohne, zu bestimmen, ob sie sich in einer Kollisionsflugbahn zueinander befinden. Falls eine zukünftige Kollision basierend auf den gegenwärtig geplanten Flugbahnen bestimmt wird, kann ein Kollisionsvermeidungsmanöver geplant werden, um die Kollision zu vermeiden. Zusätzlich dazu können Drohnen Informationen über die Flugbahnen anderer Drohnen oder Objekte in ihren jeweiligen Sichtfeldern austauschen, sodass ihre Anwesenheit berücksichtigt werden kann, wenn eine Flugbahn neu geplant wird. Optional können andere Kameras an Bord einer Drohne zum Verifizieren der Anwesenheit anderer Drohnen verwendet werden. Zusätzlich dazu kann auch eine Kamera an einem stationären Objekt verwendet werden. Bei diesem Beispiel kann eine Drohne bestimmen, ob ihre Flugbahn mit dem stationären Objekt kollidieren wird, und kann die Flugbahn wie erforderlich neu planen.
  • In einer dynamischen Umgebung, die mehrere Drohnen beinhaltet, ist möglicherweise nicht jede Drohne in der Lage, jede andere Drohne zu sehen oder zu lokalisieren. Jede Drohne kann jedoch den Standort ihrer Nachbarn bezüglich ihres eigenen Referenzrahmens teilen. Auf diese Weise kann eine Drohne in der Lage sein, eine verborgene Drohne zu detektieren und dementsprechend zu planen.
  • 2 veranschaulicht drei Drohnen 202, 204 und 206 in einer Umgebung gemäß manchen Ausführungsformen. In der Umgebung überlappt ein Bild 212 von einer Kamera einer ersten Drohne 202 nicht ein Bild 216 von einer dritten Drohne 206. Ein Bild 214 von einer zweiten Drohne 204 überlappt jedoch sowohl das Bild 212 als auch 216. Dementsprechend wird die erste Drohne 202 nicht in der Lage sein, die Position der dritten Drohne 206 aus dem Bild 212 und dem Bild 216 zu lokalisieren. Die zweite Drohne 204 kann jedoch die Position von sowohl der ersten Drohne 202 als auch der dritten Drohne 206 lokalisieren. Die zweite Drohne 204 kann sowohl ihren eigenen Standort als auch den Standort der dritten Drohne 206 bezüglich ihres eigenen Referenzrahmens mit der ersten Drohne 202 teilen. Die erste Drohne 202 kann dann ihren Standort bezüglich der zweiten Drohne 204 bestimmen und dann unter Verwendung der geteilten Informationen ihren Standort bezüglich der dritten Drohne 206 bestimmen.
  • Eine Kollisionsvermeidungstechnik basiert auf dem Platzieren einer virtuellen Kraft (die eine Funktion der Position und der Geschwindigkeit ist) an einen Standort einer Nachbardrohne und dem Einschließen der Reaktion auf diese Kräfte in die flugbahnverfolgende Steuerung. Bei einer zweiten Technik besitzt jede Drohne über eine Drohne-zu-Drohne-Kommunikation Zugriff auf die geplanten Flugbahnen anderer Drohnen in ihren Nachbarschaften. Mit den Informationen, die zwischen Drohnen geteilt werden, kann der Plan des Agenten B in den Referenzrahmen des Agenten A platziert werden. Eine mögliche zukünftige Kollision kann aus dem Flugplan des Agenten B und aus dem Flugplan des Agenten A bestimmt werden. Falls eine zukünftige Kollision detektiert wird, kann ein hierarchischer Planer durch den Agenten A verwendet werden, um seine beabsichtigte Flugbahn zu aktualisieren.
  • Die 3A-3F veranschaulichen eine kooperative Kollisionsvermeidungstechnik gemäß manchen Ausführungsformen. Die kooperative Kollisionsvermeidungstechnik ermöglicht eine schnelle Nachbarlokalisierung und Online-Planung und Kollisionsvermeidung. In den 3A-3F weist eine erste Drohne 302 eine bidirektionale Kommunikation mit einer zweiten Drohne 304 auf. Eine bidirektionale Kommunikation ist nicht erforderlich. Die zweite Drohne 304 kann zum Beispiel ihre Daten der ersten Drohne 302 bereitstellen, aber keine Daten von der ersten Drohne 302 empfangen. Bei diesem Beispiel würde die erste Drohne 302 ihre eigene Flugbahn ändern, um die zweite Drohne 304 zu vermeiden. Dies ermöglicht, dass die erste Drohne 302 keine Senderfunktionalität und Sendehardware beinhaltet.
  • Wiederum mit Bezug auf die 3A-3F sind sowohl die erste Drohne 302 als auch die zweite Drohne 304 in der Lage, ihre Standortdaten zu übertragen. Dementsprechend nutzt diese Technik den Vorteil einer Drohne-zu-Drohne-Kommunikation, die Bilddaten von einer kardangesteuerten nach unten zeigenden Kamera beinhalten kann. Die Position der Kamera kann eine Funktion der Geschwindigkeit, der Manövrierbarkeit und der beabsichtigten Flugbahn der Drohne sein, auf eine derartige Weise, dass die Kamera einen Bereich auf dem Boden aufnimmt, den die Drohne plant, in X Sekunden zu überfliegen. Ein Bild 312 wird zum Beispiel unter Verwendung der Kamera von der ersten Drohne 302 aufgenommen. Ein Bild 314 wird unter Verwendung der Kamera von der zweiten Drohne 304 aufgenommen. Bei einer Ausführungsform kann das Bild 312 oder 314 selbst übertragen werden. Bei einer anderen Ausführungsform können extrahierte Merkmale anstatt des gesamten Bildes übertragen werden.
  • Die Merkmale in jedem Bild 312, 314 werden dann unter Verwendung bekannter Verfahren extrahiert und zu Nachbardrohnen zum Beispiel unter Verwendung einer Kurzstreckenkommunikation oder einer Drahtlosnetzverbindung übertragen. Durch das Teilen dieser Merkmale kann eine Nachbardrohne einen Merkmalsabgleich analysieren, detektieren, ob ein Teil der Merkmale gemein ist (es eine Bildüberlappung gibt), und Geometrietechniken mehrerer Ansichten (in diesem Fall Ansichten unterschiedlicher Kameras) verwenden, um die Nachbardrohne bezüglich ihres eigenen Referenzrahmens zu lokalisieren. Unter Verwendung einer Berechnung von Ansichten mehrerer Nachbarn kann eine relative Geschwindigkeit einer Drohne berechnet werden. Bei einer anderen Ausführungsform kann eine Drohne ihre Geschwindigkeit kommunizieren.
  • Zusätzlich dazu, da eine Geometrie aus unterschiedlichen Ansichten auch auf eine Sequenz ihrer eigenen Ansichten angewendet werden kann, kann eine Drohne ihre eigene Geschwindigkeit berechnen und die Nachbargeschwindigkeit in ihrem eigenen Referenzrahmen extrahieren. Diese Technik löst das Problem einer Assoziation des Standorts des Nachbarn mit der ID des Nachbarn und/oder einem Kommunikationskanal, was ein geläufiges Problem in V2X-Kommunikationen ist, bei denen die Infrastruktur Informationen empfängt, aber das übertragende Fahrzeug nicht unterscheiden kann.
  • 3A stellt die Positionen der ersten Drohne 302 und der zweiten Drohne 304 zusammen mit den Bildern 312 und 314 dar, die die Drohnen 302 und 304 jeweils aufnehmen. Die Bilder 312 und 114 sind da zentriert, wo sich jede Drohne zu einer gewissen Zeit in der Zukunft befinden wird. 3B stellt die Bilder 312 und 314 dar, die von der ersten Drohne 302 bzw. der zweiten Drohne 304 aufgenommen werden. Die Bilder 312 und 314 beinhalten gemeinsame Objekte. Bei dem Beispiel in den 3A-3F zeigt die Kamera an jeder der Drohnen 302 und 304 nach unten. Bei anderen Beispielen kann die Kamera nach oben, nach Osten, nach Westen, nach Norden, nach Süden usw. zeigen. Jede der Drohnen 302 und 304 extrahiert die Merkmale aus ihrem Bild. 3C stellt die aus jedem der Bilder 312 und 314 extrahierten Merkmale als Kreise dar. Diese Merkmalsinformationen können zu der anderen Drohne oder zu anderen nahegelegenen Drohnen oder Empfängern übertragen werden. Zusätzlich dazu können andere Informationen, wie etwa andere Drohnenstandorte, Geschwindigkeit, gegenwärtiger Flugpfad, die Zeit, wann sich die Drohne über dem Mittelpunkt des Bildes befinden wird, usw., übertragen werden. 3D stellt den Abgleich von Merkmalen dar, die aus den beiden Bildern 312 und 314 erzeugt wurden.
  • Die Merkmale können unter Verwendung bekannter Merkmalsabgleichstechniken abgeglichen werden. Jedes Merkmal kann zum Beispiel einen Deskriptor aufweisen, der durch Merkmalsextraktionstechniken, wie etwa SIFT (SIFT - Scale-Invariant Feature Transform) oder SURF (SURF - Speeded Up Robust Features), erhalten werden kann. Ein Beispiel für eine Brute-Force-Weise, Merkmale abzugleichen, besteht darin, ein Merkmal von einem Bild zu nehmen und dieses Merkmal mit allen Merkmalen im anderen Bild zu vergleichen, wobei das eine minimale Entfernung aufweisende oder innerhalb einer Schwelle liegende ausgewählt wird. Ein anderes Beispiel besteht darin, geometrische Beschränkungen zwischen zwei Bildern zu verwenden, ein Merkmal in einem Bild zu finden und in der Epipolarlinie, die im zweiten Bild definiert ist, nach ihm zu suchen. Noch eine andere Option besteht darin, einen FLANNbasierten Matcher (FLANN - Fast Approximate Nearest Neighbour Search) zu verwenden. Um Ausreißer zu entfernen, kann anschließend ein RANSAC-Algorithmus (RANSAC - Random Sample Consensus) verwendet werden.
  • Unter Verwendung gemeinsamer Merkmale ist jede der Drohnen 302 und 304 in der Lage, einen Standort der anderen Drohne zu berechnen. Zusätzlich dazu ist jede Drohne, durch den Standort gekoppelt mit einer Flugroute und/oder Geschwindigkeit, in der Lage, zu berechnen, ob eine Kollision stattfinden wird, wenn sich die Drohne über den Standort bewegt, zu dem die Kamera zeigt.
  • Falls eine Kollision auf den gegenwärtigen Flugpfaden der Drohnen 302 und 304 vorhergesagt wird, kann bzw. können ein oder beide Flugpfade geändert werden. Bei einem Beispiel besitzt jede Drohne 302 und 304 eine Priorität. Diese Prioritätsinformationen können mit anderen Drohnen geteilt und kommuniziert werden. Die Drohne mit der niedrigeren Priorität ändert ihren Flugpfad ab, um die Kollision zu vermeiden, während die Drohne mit der hohen Priorität ihren Flugpfad nicht abändert. Dies hilft dabei, zu eliminieren, dass beide Drohnen ihre Flugpfade ändern, aber auf eine derartige Weise, dass die Kollision nicht vermieden wird. 3E stellt die Drohnen 302 und 304 auf einem Kollisionskurs dar. Die Drohne 304 weist einen Flugpfad 344 und eine höhere Priorität als die Drohne 302 auf. Die Drohne 302 weist einen Flugpfad, nicht dargestellt, auf, der direkt zu der Drohne 304 hin verläuft. Nach dem Teilen von Flugpfad- und Prioritätsinformationen bestimmt die Drohne 302 basierend auf den gegenwärtigen Flugpfaden, dass eine Kollision mit der Drohne 304 vorhergesagt wird. Da die Drohne 302 eine niedrigere Priorität besitzt, ändert die Drohne 302 ihren Flugpfad zu einem neuen Flugpfad 342 ab, der die Kollision vermeidet.
  • 3F veranschaulicht eine andere Kollisionsvermeidungstechnik. Diese Technik ist eine Reaktionskollisionsvermeidung, die die Geschwindigkeit der Drohnen 302 und 304 verwendet, um virtuelle Kräfte 362 und 364 zu bestimmen. Diese virtuellen Kräfte 362 und 364 geben einen Raum an, den die Drohnen 302 und 304 in der Zukunft belegen können. Bei einem Beispiel erstrecken sich die virtuellen Kräfte 362 und 364 in drei Dimensionen. Die virtuellen Kräfte 362 und 364 können zu anderen Drohnen kommuniziert werden, die dann verwendet werden, um zu bestimmen, ob eine Kollision vorhergesagt wird.
  • Bei einem Beispiel empfängt ein stationärer Empfänger das Bild oder die aus einem Bild extrahierten Merkmale von einer oder mehreren Drohnen. Der stationäre Empfänger kann dann die Flugbahnplanung und Kollisionsbestimmung durchführen. Falls eine mögliche Kollision detektiert wird, kann der stationäre Empfänger eine aktualisierte Flugroute oder aktualisierte Fluganweisungen bereitstellen, um die Kollision zu vermeiden. Eine Drohne kann zum Beispiel angewiesen werden, ihre Geschwindigkeit zu reduzieren oder zu erhöhen, um die Kollision zu vermeiden. Als ein anderes Beispiel kann eine Drohne angewiesen werden, ihre Höhe zu ändern, um die Kollision zu vermeiden. Bei einem Beispiel führt der stationäre Empfänger die Flugplanung für mehrere Drohnen in dem Bereich durch, wodurch ermöglicht wird, dass die Drohnen weniger Hardware aufweisen, und sie im Vergleich dazu, dass sie die gesamte Hardware aufweisen, die zur Durchführung der bordinternen Flugplanung benötigt wird, leichter sind.
  • Nach unten zeigende Kameraorientierung
  • Wie oben angemerkt, werden Kameras verwendet, die alle die gleiche Orientierung aufweisen, z. B. nach unten, nach oben. Das Folgende beschreibt eine nach unten zeigende Kameraorientierung, kann aber auch mit nach oben zeigenden Kameras verwendet werden. Es soll angenommen werden, dass sich die Drohne an einer Position (x0, y0, z0)T befindet und eine geplante Position (xp, yp, zp)T X Sekunden in der Zukunft aufweist. Dann kann die Drohnenkamera gesteuert werden, zu (xp, yp, zg)T zu zeigen, wobei zg der Boden ist, z. B. 0. Die Drohne 102 in 1 zeigt zu ihrer (xp, yp, zg)T-Position 108. Es sei û der unitäre Vektor, der von (x0, y0, z0)T zu (xp, yp, zg)T zeigt: u ^ = ( x p x 0 , y p y 0 , z g z 0 ) T ( x 0 x p ) 2 + ( y 0 y p ) 2 + ( z 0 z g ) 2
    Figure DE102018127144A1_0001
  • Es sei β(ψ,ϕ,θ) = R(t) die Rotationsmatrix, die die Transformation von der anfänglichen Orientierung der Drohne zu der gegenwärtigen Orientierung definiert, wobie ϕ,θ,ψ (Rollen, Nicken, Gieren, die Euler-Winkel) vorgegeben sind. R ( ψ , ϕ , θ ) =   [ cos θ cos ψ cos ϕ sin ψ + sin ϕ sin ϕ cos ψ sin ϕ sin ψ + cos ϕ sin ϕ cos ψ cos θ cos ψ cos ϕ cos ψ + sin ϕ sin ϕ sin ψ sin ϕ cos ψ + cos ϕ sin ϕ sin ψ sin θ sin ϕ cos θ cos ϕ cos θ ]
    Figure DE102018127144A1_0002
  • Des Weiteren bezeichnet f ^ 0
    Figure DE102018127144A1_0003
    einen Einheitsvektor, der in die Richtung der Vorderseite der Drohne zeigt, von wo sie startete, und f̂(t) ist der Einheitsvektor, der in die Richtung der Vorderseite der Drohne zu einer gegebenen Zeit t zeigt. Es ist anzumerken, dass f ^ ( t ) = R ( t ) f ^ 0 .
    Figure DE102018127144A1_0004
  • Dementsprechend gibt es eine Transformationsmatrix RGGGG), die die Kardanaufhängung durchführen kann, um die Kamera von zu f̂(t) hin zeigend zu û zu orientieren. Diese Beziehung kann wie folgt beschrieben werden: u ^ = R G f ^ ( t ) = R G R ( t ) f ^ 0
    Figure DE102018127144A1_0005
  • 4 veranschaulicht eine Drohne, die ihre Kamera derart ausrichtet, dass sie zu einer zukünftigen Position zeigt, gemäß manchen Ausführungsformen. Zu einem ersten Zeitpunkt weist eine Drohne 402A eine Kamera 404 auf, die mit dem f ^ 0
    Figure DE102018127144A1_0006
    Vektor ausgerichtet ist. Zu einer zukünftigen Zeit T berechnet die Drohne 402A, dass sie sich über einem Punkt 406 befinden wird. Um ein Bild aufzunehmen, das den Punkt 406 beinhaltet, richtet die Drohne 402A dementsprechend ihre Kamera 404 zu dem Punkt 406 aus. Unter Verwendung der obigen Transformation kann die Drohne 402A ihre Rotation und andere Flugparameter berechnen. Nach einer derartigen Änderung in ihrer relativen Position zeigt die Kamera 404 der Drohne 402B jetzt zum Punkt 406, das heißt entlang des Vektors û.
  • Ohne Beschränkung der Allgemeinheit kann f ^ 0
    Figure DE102018127144A1_0007
    als der Einheitsvektor definiert werden, der in die x-Richtung zeigt, daher ist f ^ 0 = ( 1,0,0 ) T .
    Figure DE102018127144A1_0008
    Es ist anzumerken, dass, da ϕ, θ, ψ von den Sensoren bekannt sind, dann û = G · R(t)(1,0,0)T für die Komponenten von G unter Verwendung bekannter Verfahren gelöst werden kann. Schließlich können die gewünschten Werte für die Kardanaufhängungskamera ψG, ϕG, θG aus den Komponenten erhalten werden. Falls G beispielsweise Komponenten Gij aufweist, dann ist: ψ G = arctan ( G 21 G 11 )
    Figure DE102018127144A1_0009
    ψ G = arctan ( G 12 G 22 )
    Figure DE102018127144A1_0010
    θ G = arcsin ( G 31 )
    Figure DE102018127144A1_0011
  • Geometrie mehrerer Ansichten
  • 5 veranschaulicht zwei Drohnen 502 und 504, die in der Lage sind, sich gegenseitig zu lokalisieren, gemäß manchen Ausführungsformen. Die Drohnen 502 und 504 sind in der Lage, sich gegenseitig zu lokalisieren, indem sie die Merkmale in ihrem Bild mit denen abgleichen, die durch ihren Nachbarn geteilt werden. Jede Drohne 502 und 504 kann die Merkmale in ihrem eigenen Referenzrahmen teilen. Zusätzlich dazu können die Drohnen 502 und 504 ihre relative Geschwindigkeit unter Verwendung aufeinanderfolgender Bildinformationen berechnen. Da jede Drohne 502 und 504 ihre eigene Geometrie berechnen kann, kann der Geschwindigkeitsvektor der Drohne 504 im Referenzrahmen der Drohne 502 erhalten werden. Ein Bild 512 wird durch eine Kamera an der Drohne 502 aufgenommen. Wie oben beschrieben, kann die Kamera zu einer Position zeigen, über der sich die Drohne 502 an einem Punkt in der Zukunft befinden wird. Ein Objekt 520 in der Umgebung kann Teil des Bildes 512 sein, als repräsentiertes Objekt 522. Dasselbe Objekt 520 kann auch Teil eines Bildes 514 sein, das durch die Drohne 504 aufgenommen wird. Ein Objekt 524 kann im Bild 514 aufgenommen werden. Jede Drohne 502 und 504 kann eine Merkmalsextraktion durchführen, bei der Merkmale des Objekts 520 und anderer Objekte erhalten werden. Diese Merkmalsinformationen können zwischen den Drohnen 502 und 504 geteilt werden. Dementsprechend weist die Drohne 502 ihr Bild 512, Merkmalsinformationen vom Bild 512 und Merkmalsinformationen vom Bild 514 auf. Die Drohne 502 kann die Merkmalsinformationen beider Bilder 512 und 514 vergleichen und ihre Version 522 des Objekts 520 mit einer Version 524 von der Drohne 504 abgleichen. Zusätzlich dazu kann die Drohne 502 andere Objekte zwischen den beiden Bildern 512 und 514 abgleichen. Dies ermöglicht der Drohne 502, einen Standort der Drohne 504 zu bestimmen. Traditionell können Transformationen unterschiedlicher Ansichten derselben Drohne verwendet werden, um eine visuell-inertiale Odometrie zu berechnen. Wie jedoch beschrieben, können Ansichten unterschiedlicher Drohnen verwendet werden, um andere Drohnen zu lokalisieren und dann den Ort und die Flugpläne anderer Drohnen zu verwenden, um ein Ausweichmanöver wie erforderlich zu planen.
  • Nachbarlokalisierung
  • 6 veranschaulicht eine Nachbarlokalisierung gemäß manchen Ausführungsformen. Drohnen 602 und 604, die Kameras zu einem Standort orientieren, über den sie in der Zukunft fliegen werden, wie oben besprochen, gewährleisten, dass zwei Drohnen auf einem Kollisionspfad einen gemeinsamen Bereich in Bildern des Bodens mindestens X/2 Sekunden im Voraus berechnen werden. Die Drohnen 602 und 604 können dann Bilder 612 bzw. 614 der Umgebung 616 aufnehmen. Ein Agent A, die Drohne 602, kann dann die Informationen des Bildes und/oder die aus dem Bild 612 extrahierten Merkmale mit nahegelegenen Nachbarn teilen. Die Bilder 612 und 614 nehmen manche derselben Objekte auf, wie etwa ein Objekt 620. Dieses Objekt wird als Objekt 622 und Objekt 624 in den Bildern 612 bzw. 614 repräsentiert. Die Informationen ermöglichen einem benachbarten Agenten B, der Drohne 604, Informationen, wie etwa Informationen bezüglich des Objekts 620, abzugleichen, um eine Bildüberlappung zu detektieren und eine Transformation (z. B. eine Homographie) zu berechnen, die die Translation und Orientierung des Referenzrahmens des Agenten A bezüglich des Referenzrahmens des Agenten B repräsentiert.
  • 7 ist ein Flussdiagramm zur Nachbarlokalisierung gemäß manchen Ausführungsformen. Dieses Flussdiagramm stellt dar, was eine Drohne durchführt, um einen Nachbarn zu lokalisieren. Ein Bild wird bei Arbeitsvorgang 702 durch die Drohne aufgenommen. Vor dem Aufnehmen des Bildes kann die Drohne berechnen, wo sich die Drohne zu einer zukünftigen Zeit befinden wird, und kann ihre Kamera so orientieren, dass sie zu diesem Standort auf dem Boden oder an der Decke zeigt. Bildinformationen, wie etwa Merkmale, Linien usw., können dann bei Arbeitsvorgang 704 aus dem Bild extrahiert werden. Die Bildinformationen im lokalen Rahmen der Drohne können bei Arbeitsvorgang 706 ausgestrahlt werden, sodass andere nahegelegene Drohnen oder Empfänger die Bildinformationen empfangen können. Die Drohne kann bei Arbeitsvorgang 708 auch Bildinformationen und die Position einer Nachbardrohne im Rahmen des Nachbarn empfangen. Bei einem Beispiel können die Bildinformationen von einem stationären Objekt oder einer anderen Drohne stammen. Die Bildinformationen aus dem Bild der Drohne und die empfangenen Bildinformationen können bei Arbeitsvorgang 710 abgeglichen werden. Die Merkmale können zum Beispiel verglichen und abgeglichen werden. Bei Arbeitsvorgang 712 wird eine Überlappung in den Bildinformationen bestimmt. Falls es keine Überlappung gibt, dann bestimmt die Drohne, dass es keine Kollision gibt, wenn die Drohne zu ihrem zukünftigen Standort fliegt.
  • Falls es eine Bildüberlappung gibt, besteht die Möglichkeit, dass die Drohne eine Kollision haben wird, wenn sie zu ihrem zukünftigen Standort fliegt. Eine Transformation zwischen den beiden Ansichten wird bei Arbeitsvorgang 714 berechnet. Die erste Transformation erhält die Translation und Rotation von einer Kameraansicht zu der Kameraansicht der anderen Drohne. Diese Transformation transformiert zwischen dem Kamerarahmen der Drohne und dem Kamerarahmen von der Drohne, von der die Bildinformationen empfangen wurden. Eine Transformation zwischen den lokalen Rahmen wird dann durchgeführt, was der Drohne bei Arbeitsvorgang 716 ermöglicht, Flugbahninformationen bezüglich der anderen Drohne sowie jegliche Nachbardrohneninformationen zu verwenden. Die erste Transformation kann mit der Rotation und Translation der Kameraansicht bezüglich ihres lokalen Rahmens verknüpft werden, um die zweite Transformation zu erhalten. Diese Transformation kann durch eine Drohne verwendet werden, um die Nachbarn des Nachbarn in ihrem lokalen Referenzrahmen zu lokalisieren. Dementsprechend ermöglichen die Transformationen der Drohne, den Standort der anderen Drohne bezüglich ihres Rahmens zu bestimmen.
  • Bei Arbeitsvorgang 720 kann die Drohne Standorte anderer Drohnen empfangen, die von der benachbarten Drohne lokalisiert worden sind. Dies ermöglicht der Drohne, Flugbahnen von Drohnen zu berücksichtigen, die keine Bildüberlappung aufweisen. Die Informationen betreffen den Standort von nahegelegenen Drohnen, z. B. der benachbarten Drohnen, die eine Bildüberlappung mit der gegenwärtigen Drohne oder eine Bildüberlappung mit den benachbarten Drohnen aufweisen. Bei Arbeitsvorgang 722 werden die Standorte von anderen Drohnen gesammelt. Die Drohne kann dann bei Arbeitsvorgang 724 ihren Verfolgungsalgorithmus mit diesen Informationen aktualisieren, um zu bestimmen, ob eine Kollision vorhergesagt wird. Verschiedene Kollisionsalgorithmen werden im Folgenden offenbart. Die Drohne kann dann ein anderes Bild aufnehmen und den Prozess erneut starten, sodass die Drohne damit fortfahren kann, zu fliegen, ohne mit anderen Drohnen oder Hindernissen zu kollidieren.
  • Fusion von visuell basierter Schätzung mit Entfernungsmessung
  • Falls die Merkmale in den Bildern von monokularen Kameras ohne Tiefeninformationen erhalten werden, kann die relative Position zwischen Drohnen bis zu einem unbekannten Skalierungsfaktor berechnet werden, der wiedergewonnen werden kann. Durch das Nutzen der Vorteile der Kommunikationseinrichtung, die zum Teilen von Informationen zwischen Agenten verwendet wird, kann die Entfernung vom Empfänger zum Sender gemessen werden. Eine Präambel kann zum Beispiel in den Kommunikationspaketen eingeschlossen werden, um ein RTT-Protokoll (RTT - Round-Trip Time - Umlaufzeit) zu erzielen, das zum Schätzen der Entfernung verwendet werden kann. Andere Verfahren, wie etwa RSS (RSS - Received Signal Strength - Empfangssignalstärke) können auch verwendet werden, um die Entfernung zu bestimmen. Das Verwenden von Ultrabreitband-Funkgeräten für genaue Entfernungsmessungen ist auch möglich.
  • 8 veranschaulicht das Bestimmen einer Entfernung zwischen zwei Drohnen 802 und 804 gemäß manchen Ausführungsformen. Um diese Informationen zusammenzuführen, definiert ein Vektor t12 820 zwischen den beiden Drohnen 802 und 804 eine lineare Kurve im Raum, in der sich der andere Agent befinden könnte. Der Vektor t12 kann aus der oben bezüglich der Transformation 714 beschriebenen Transformation erhalten werden. Andererseits definiert die Entfernung zu der Drohne 804 d, die aus der Funkkommunikation erhalten werden kann, eine Sphäre 810 im Raum, in der sich die Drohne 804 befinden könnte. Die Überschneidung des Vektors 820 und der Sphäre 810 ist eindeutig und entspricht einer Schätzung der Position der Drohne 804.
  • Erhalten von Nachbar- und Flugbahninformationen von der Drohne 2 im Referenzrahmen der Drohne 1
  • 9 veranschaulicht das Teilen von Nachbarinformationen gemäß manchen Ausführungsformen. Eine Drohne 902 kann ein Bild 912 aufnehmen und Merkmale aus diesem Bild 912 extrahieren. Zum Beispiel kann ein Objekt 930 im Bild 912 aufgenommen werden und Merkmale bezüglich des Objekts 930 und anderer Objekte können aus dem Bild 912 extrahiert werden. Diese Merkmale können mit einer Drohne 904 geteilt werden. Die Drohne 904 hat ihr eigenes Bild 914 aufgenommen, das auch das Objekt 930 aufnahm. Merkmale können aus dem Bild 914 extrahiert werden und können mit der Drohne 902 geteilt werden. Eine dritte Drohne 906 kann auch ein Bild aufnehmen, nicht dargestellt, das keine oder unzureichende Merkmale beinhaltet, um ihr Bild mit dem Bild 912 von der Drohne 902 abzugleichen. Die dritte Drohne 906 kann sich jedoch mit der Drohne 904 abgleichen, sodass die Drohne 904 in der Lage sein kann, den Standort der Drohne 906 zu bestimmen. Der Standort der Drohne 906 kann dann über die Drohne 904 mit der Drohne 902 geteilt werden.
  • Die Drohne 906 kann ihren Flugplan 926 mit der Drohne 904 teilen. Die Drohne 904 kann dann ihren Flugplan 924 und den Standort und den Flugplan 926 der Drohne 906 mit der Drohne 902 teilen. Die Drohne 904 empfängt den Flugplan der Drohne 906 bezüglich des Referenzrahmens der Drohne 906. Nach dem Berechnen des Standorts der Drohne 906 kann die Drohne 904 den Flugplan 926 der Drohne 906 in den Referenzrahmen der Drohne 904 transformieren. Dieser transformierte Flugplan kann mit der Drohne 902 geteilt werden. Alternativ dazu kann der Standort der Drohne 906 bezüglich der Drohne 904 mit der Drohne 902 geteilt werden und die Drohne 902 kann dann Transformationen unter Verwendung des Standorts der Drohnen 904 und 906 durchführen, um den Flugplan 926 in ihren Referenzrahmen zu transformieren.
  • Die Drohne 902 kann daher in der Lage sein, einen Flugplan 926 der Drohne 906 zu berücksichtigen. Ein Flugplan für eine Drohne kann ein oder mehrere dreidimensionale Punkte bezüglich des Rahmens der Drohne sein. Die Drohne 902 kann dann die Flugpläne sowohl der Drohne 904 als auch 906 beim Bestimmen ihres Flugplans und beim Bestimmen, ob es irgendwelche mögliche Kollisionen gibt, berücksichtigen. Die Drohne 904 kann den Standort der Drohne 906 bezüglich der Drohne 904 mit der Drohne 902 teilen. Die Drohne 902 kann dann die Transformation [R12|t12] erhalten, die zwischen dem Kamerarahmen der Drohne 902 und der Drohne 904 transformiert. R12 ist die Rotation zwischen Referenzrahmen der beiden Kameraansichten. Der Vektor t12 ist der Entfernungsvektor zwischen den beiden Drohnen 902 und 904. Dann können die Flugbahninformationen der Drohne 904 und der Drohne 906 unter Verwendung von [R21|t21] transformiert werden, was der Drohne 902 ermöglicht, zu wissen, wo die Drohne 906 plant, zu fliegen.
  • Reaktive Kollisionsvermeidung basierend auf virtuellen Kräften
  • 10 veranschaulicht das Verwenden von virtuellen Kräften zum Vermeiden von Kollisionen gemäß manchen Ausführungsformen. Drei Agenten oder Drohnen 1002, 1004 und 1006 fliegen innerhalb einer Umgebung. Jede dieser Drohnen 1002, 1004 und 1006 kann eine virtuelle Kraft 1012, 1014 bzw. 1016 aufweisen. Eine virtuelle Kraft kann auf der Geschwindigkeit einer Drohne basieren. Bei einer Ausführungsform kann die virtuelle Kraft als eine Sphäre visualisiert werden. Die virtuellen Kräfte können auch zum Anpassen von Positionen von Drohnen verwendet werden, um Kollisionen zu vermeiden. Die Drohnen 1002 und 1004 weisen Geschwindigkeiten bezüglich des Referenzrahmens der Drohne 1002 v A  und  v B
    Figure DE102018127144A1_0012
    auf. Wie oben beschrieben, kann die relative Geschwindigkeit v A B = v B v A
    Figure DE102018127144A1_0013
    sowie die relative Position R A B
    Figure DE102018127144A1_0014
    erhalten werden. Die virtuelle Kraft kann auf der folgenden Formel basieren: F A B = exp ( λ v A B R A B ) R A B R A B 2 ,
    Figure DE102018127144A1_0015
    wobei λ ein Gestaltungsparameter ist, der die Größe des Potenzialfeldes definiert, mit einem nominellen/zentralen Wert von 1. Die Richtung der Kraft zeigt weg von der Drohne 1004 und ihre Größe nimmt invers/quadratisch mit der Entfernung sowie mit der Richtung der relativen Geschwindigkeit aufgrund des exp ( λ v A B R A B ) Faktors ab .
    Figure DE102018127144A1_0016
    Dieser Term nimmt ab, wenn sich die Drohne 1004 von der Drohne 1002 weg bewegt. Dieser Wert beträgt 1, wenn sich die Drohne 1004 parallel zu der Drohne 1004 bewegt. Dieser Term nimmt zu, wenn sich die Drohne 1004 zu der Drohne 1002 hin bewegt.
  • Virtuelle Kräfte können auf eine beliebige Anzahl von Drohnen oder andere Objekte angewendet werden, sodass die Drohne 1002 eine virtuelle Kraft 1014 und 1016 für jede der Drohnen und/oder andere Objekte erzeugt. Diese virtuelle Kraft kann dann zu der standardmäßigen Positionssteuerung hinzugefügt werden, die die Drohne implementiert. Bei einer Ausführungsform gibt es eine Positionssteuerung zusätzlich zu einer Lagesteuerung, wobei die erstgenannte Befehle für die letztgenannte erzeugt. Diese virtuellen Kräfte können zu der Positionssteuerung hinzugefügt werden, um die neuen Lagebefehle zu erzeugen. Der Mischer nimmt die Lagebefehle und erzeugt die jeweilige Leistung, die an die Motoren angelegt werden soll. Die virtuellen Kräfte können daher die Beschleunigung der Drohne beeinflussen. Diese Änderung erzeugt eine Änderung in der Referenz der Lagesteuerung, die die Bewegung der Drohne ändert.
  • 11 veranschaulicht ein Beispiel für das Verwenden von virtuellen Kräften gemäß manchen Ausführungsformen. Eine Drohne 1102 und eine Drohne 1104 fliegen derart, dass ohne ein Anpassen der Flugpfade die Drohnen 1102 und 1104 an einem zukünftigen Punkt kollidieren werden. Um eine Kollision zu vermeiden, kann eine oder können beide Drohnen 1102 und 1104 virtuelle Kräfte verwenden, um ihren Flugpfad anzupassen. Wie oben beschrieben, ist die Geschwindigkeit beider Drohnen 1102 und 1104 bezüglich des Referenzrahmens der Drohne 1102 bekannt oder kann berechnet werden. Die relative Geschwindigkeit v A B
    Figure DE102018127144A1_0017
    und Position R A B
    Figure DE102018127144A1_0018
    können dann berechnet werden. Eine virtuelle Kraft 1112 für die Drohne 1102 bezüglich der Drohne 1104 kann wie oben beschrieben berechnet werden. Diese virtuelle Kraft kann dann verwendet werden, um den Flugpfad der Drohne 1102 zu aktualisieren, indem die Eingabe in die Lagesteuerung angepasst wird. Dieselben Berechnungen von der Referenz der Drohne 1104 können durchgeführt werden, um eine virtuelle Kraft 1114 zu berechnen. Wenn die Drohnen 1102 und 1104 aufeinander zu fliegen, werden die Drohnen 1102 und 1104 basierend auf ihren berechneten virtuellen Kräften 1112 und 1114 einander zurückstoßen. Von einer externen Perspektive aus würde es so aussehen, als ob die Drohnen 1102 und 1104 einander zurückstoßen, wenn sie zu nahe zueinander fliegen. Jede Drohne 1102 und 1104 wird ihren Flugpfad anpassen, um eine Kollision zu vermeiden. Wenn die Drohnen 1102 und 1104 aneinander vorbeifliegen, werden die Werte der virtuellen Kraft abnehmen und jede der Drohnen 1102 und 1104 wird den Flugpfad der anderen Drohne weniger beeinflussen.
  • 12 ist ein Flussdiagramm für eine Lageanpassung unter Verwendung von virtuellen Kräften gemäß manchen Ausführungsformen. Eine Drohne weist einen Flugpfad 1202 auf, der in eine Positionssteuerung 1206 eingegeben wird. Ohne zusätzliche Eingabe würde die Positionssteuerung 1206 einen Befehl an eine Lagesteuerung 1212 bereitstellen. Die Lagesteuerung 1212 stellt einem Mischer 1214 Befehle bereit, der die geeignete Leistung an den Motoren 1216 bestimmt und anwendet. Somit kann eine Drohne entlang ihrer geplanten Route 1202 fliegen. Ohne zusätzliche Eingabe kann die Drohne jedoch mit anderen Drohnen oder Objekten kollidieren. Um andere Drohnen zu vermeiden, werden relative Positionen und relative Geschwindigkeiten einer Drohne 1204 an einen Generator 1208 für eine virtuelle Kraft bereitgestellt. Eine virtuelle Kraft kann für die Drohnen erzeugt werden, die sich nahe der Drohne befinden. Die virtuellen Kräfte können dann zu den Befehlen von der Positionssteuerung 1206 hinzugefügt werden 1210. Somit kann ein Flug einer Drohne vom Plan 1202 basierend auf dem Standort und den Geschwindigkeiten von Drohnen, die nahe liegen, z. B. Drohnen, die mit der gegenwärtigen Drohne kollidieren können, abweichen.
  • Hierarchische Flugbahnplanung mit Kollisionsvermeidung
  • 13 veranschaulicht eine hierarchische Flugbahnplanung gemäß manchen Ausführungsformen. Eine hierarchische Flugbahnplanung kann anstatt der reaktiven Kollisionsvermeidung oder zusammen mit der reaktiven Kollisionsvermeidung verwendet werden. Bei einem Beispiel kann eine hierarchische Flugbahnplanung verwendet werden, wenn ein lokales Minimum detektiert wird. Ein lokales Minimum kann auftreten, wenn andere Drohnen oder Hindernisse eine Drohne von ihrem Ziel blockieren. In diesen Fällen kann eine Drohne an Ort und Stelle bleiben, bis sich ein Hindernis bewegt oder eine andere Flugbahnplanung, wie etwa eine hierarchische Flugbahnplanung, verwendet wird. Ein Teil oder die gesamte Flugbahnplanung einer Drohne kann zu den Nachbardrohnen in ihrem eigenen Referenzrahmen übertragen werden.
  • Bei einer Ausführungsform weist jede Drohne drei assoziierte Sphären auf. Eine Kollisionssphäre ist eine Minimalsphäre mit einem Radius rc , die die Drohne umschließt und am Masseschwerpunkt der Drohne zentriert ist. Eine Neuplanungssphäre umschließt die Kollisionssphäre und weist einen Radius von Folgendem auf: r r = r c + p 12 + v 12 ( 2 h + t r ) + a 12 ( 2 h + t r ) 2 2
    Figure DE102018127144A1_0019
    wobei rc der Radius der Kollisionssphäre ist, p12 , v12 , a12 die relative Position, Geschwindigkeit bzw. Beschleunigung des Masseschwerpunkts bezüglich anderer Drohnen sind, h der Diskretisierungszeitschritt ist und tr die Zeit ist, die die Drohne braucht, um eine neue Flugbahn zu berechnen. Eine Beobachtungssphäre, die die Beobachtungssphäre und ihren Radius umschließt, ist durch Folgendes geben: r 0 = r r + v l i m i t t 0
    Figure DE102018127144A1_0020
    wobei t0 die Zeit ist, die die Drohne braucht, um die Flugbahn zu empfangen und mit ihrem Referenzrahmen auszurichten, und vlimit die Maximalgeschwindigkeit ist, die für alle Drohnen in der Umgebung erlaubt ist.
  • Jede Drohne 1302, 1304 und 1306 kann ihre Sphären berechnen. Die Drohne 1302 berechnet zum Beispiel einen Radius ihrer Neuplanungssphäre 1312, ihrer Beobachtungssphäre 1332 und ihrer Kollisionssphäre 1342. Jede der Drohnen 1302, 1304 und 1306 berechnet ihre relativen Positionen. Wenn die Kollisionssphäre 1342 der Drohne 1302 eine Beobachtungssphäre 1314 der Drohne 1304 schneidet, sendet die Drohne 1302 ihre Flugbahn 1324 und ihre Priorität zu der Drohne 1304. Falls die Priorität der Drohne 1302 höher ist als die der Drohne 1304, dann wird der Referenzrahmen der Drohne 1304 mit dem Referenzrahmen der Drohne 1302 ausgerichtet. Die Flugbahn 1322 der Drohne 1302 wird mit der Flugbahn 1324 der Drohne 1304 in den ausgerichteten Referenzrahmen verglichen, um zu bestimmen, ob die Kollisionssphäre 1342 der Drohne 1302 die Kollisionssphäre 1344 der Drohne 1304 schneidet. Falls dies auftritt, wird eine Kollision vorhergesagt, und dann kann die Drohne 1304 ihre Flugbahn unter Berücksichtigung der Flugbahn der Drohne 1302 als ein Hindernis neu planen, um die Drohne 1302 zu vermeiden.
  • 14 ist ein Flussdiagramm des Verwendens einer hierarchischen Flugbahn gemäß manchen Ausführungsformen. Bei Arbeitsvorgang 1402 berechnet eine Drohne die relative Position ihrer Nachbarn. Die Drohne hat die Position von ihren Nachbarn empfangen. Die Drohne bestimmt bei Arbeitsschritt 1404, ob sich irgendein Nachbar innerhalb ihrer Beobachtungssphäre befindet. Falls es keine Drohne oder kein Hindernis in ihrer Beobachtungssphäre gibt, setzt die Drohne ihren Flugpfad ohne Änderung fort und wartet darauf, den Arbeitsvorgang 1402. Eine Drohne kann zum Beispiel auf einer Zeitplanung bestimmen, ob sich ein Nachbar innerhalb ihrer Beobachtungssphäre befindet, basierend auf der zurückgelegten Entfernung, basierend auf der Anzahl von Nachbarn oder eine Kombination von diesen.
  • Falls es einen Nachbarn innerhalb ihrer Beobachtungssphäre gibt, berechnet die Drohne beim Arbeitsablauf 1408 ihre Priorität, falls erforderlich. Bei einem Beispiel berechnet die Drohne ihre Priorität als eine Zufallszahl zwischen 0 und 1 mit gleichmäßiger Dichte. Die Drohne kann dann ihre Priorität und ihre gegenwärtige geplante Flugbahn übertragen, sodass ihre Nachbardrohne die Priorität und die Flugbahn empfangen kann. Falls eine Drohne bestimmt, dass die Nachbardrohne die gleiche Priorität besitzt, kann die Drohne eine neue Priorität berechnen und die neue Priorität zu der Nachbardrohne übertragen. Die Nachbardrohne kann auch bestimmen, dass sich die Drohne innerhalb ihrer Beobachtungskugel befindet, und ihre Priorität und Flugbahn senden. Die Drohne kann daher ihre Nachbarpriorität und gegenwärtige geplante Flugbahn beim Arbeitsvorgang 1406 empfangen. Die Drohne vergleicht bei Arbeitsvorgang 1410 ihre Priorität mit der Priorität ihres Nachbarn. Falls die Drohne eine höhere Priorität als die der Nachbardrohne besitzt, kann die Drohne mit ihrer Flugbahn fortfahren, da die Nachbardrohne bestimmen wird, ob eine Kollision stattfinden kann, und ihre Flugbahn dementsprechend anpassen wird.
  • Falls die Drohne eine niedrigere Priorität als ihr Nachbar besitzt, wird die Drohne ihre Flugbahn anpassen, falls eine zukünftige Kollision detektiert wird. Bei Arbeitsvorgang 1412 richtet die Drohne ihre Flugbahn mit der Flugbahn ihrer Nachbardrohne aus. Sobald die Flugbahnen ausgerichtet sind, kann die Drohne bei Arbeitsvorgang 1414 bestimmen, ob eine zukünftige Kollision mit der Nachbardrohne stattfinden wird. Falls es keine Kollision gibt, dann kann die Drohne mit ihrem Flugplan unverändert fortfahren. Falls es eine detektierte Kollision gibt, dann kann die Drohne ihre Flugbahn bei Arbeitsvorgang 1416 neu planen, um die Kollision zu vermeiden. Es gibt bekannte Planungsalgorithmen, die in der Lage sind, eine neue Flugbahn innerhalb eines Bruchteils einer Sekunde zu erzeugen.
  • 15 stellt eine Flugbahnplanung basierend auf Stichprobentechniken gemäß manchen Ausführungsformen dar. Die Flugbahnplanung berücksichtigt die Flugbahnen anderer Drohnen. Zwei Drohnen 1502 und 1504 fliegen in derselben Umgebung und teilen sich Flugbahninformationen. Die Drohne 1504 kann die Flugbahn der Drohne 1502 empfangen. Bei diesem Beispiel wird die Drohne 1504 ihre Flugbahn aktualisieren, um eine mögliche Kollision mit der Drohne 1502 zu vermeiden. Die Flugbahn, die durch die Drohne empfangen wird, die ihren Flugpfad neu planen wird, ist bezüglich ihres Diskretisierungszeitschritts parametrisiert. Die Drohne 1504 empfängt zum Beispiel die Flugbahn der Drohne 1502 und parametrisiert mit dem Zeitschritt der Drohne 1504. Dies ist als der Flugpfad 1512 dargestellt, der im Wesentlichen der gegenwärtige Flugpfad der Drohne 1502 ist. Dann kann ein stichprobenbasiertes Verfahren zum Erzeugen der Pfadplanung verwendet werden, das einen Zeitschritt für jedes Segment zuordnet. Falls der Zeitschritt eines beliebigen erzeugten Segments gleich dem Segment der anderen Drohne ist, wird dieses Segment verworfen, da eine Kollision stattfinden wird. Bei diesem Beispiel wird eine mögliche Kollision bei Segment 1556 stattfinden, da die Zeitsegmente gleich sind und sich schneiden, z. B. 4h, und sich kreuzen. Auf diese Weise integriert der vorgeschlagene Flugbahnplanungsalgorithmus dynamische Hindernisse und berücksichtigt die Flugbahn der Drohne 1502 als „temporäre Hindernisse“, wodurch eine oder mehrere kollisionsfreie Flugbahnen selbst beim Vorhandensein von kollidierenden Pfaden erhalten werden. Beispielsweise ist eine Flugbahn 1514 ein Beispiel, das die detektierte Kollision entlang des Segments 1556 vermeidet.
  • Beispielhafte Maschinenbeschreibung
  • 16 veranschaulicht ein Blockdiagramm einer Datenverarbeitungseinrichtung 1600 innerhalb der ein Satz oder eine Sequenz von Anweisungen ausgeführt werden kann, um zu bewirken, dass die Einrichtung Beispiele einer beliebigen der hierin besprochenen Methoden durchführt. Bei alternativen Ausführungsformen kann die Maschine 1600 als eine unabhängige Einrichtung arbeiten oder kann mit anderen Maschinen verbunden (z. B. vernetzt) sein. Bei einem vernetzten Einsatz kann die Maschine 1600 in der Kapazität einer Servermaschine, einer Client-Maschine oder auch in Server-Client-Netzumgebungen arbeiten. Bei einem Beispiel kann die Maschine 1600 als eine Peer-Maschine in einer Peer-zu-Peer(P2P)-Netzumgebung (oder anderer verteilter Netzwerkumgebung) agieren. Die Maschine 1600 kann ein Benutzergerät (UE), ein evolvierter Node B (eNB), ein WiFi-Zugangspunkt (AP), eine WiFi-Station (STA), ein Personal Computer (PC), ein Tablet-PC, eine Set-Top-Box (STB), ein Personal Digital Assistant (PDA), ein Mobiltelefon, ein Smartphone, ein Web-Appliance, ein Netzwerkrouter, ein Switch oder eine Bridge oder eine beliebige Maschine sein, die in der Lage ist, Anweisungen (sequenziell oder anderweitig) auszuführen, die Handlungen spezifizieren, die durch diese Maschine vorgenommen werden sollen. Des Weiteren, obwohl nur eine einzige Maschine veranschaulicht ist, soll der Ausdruck „Maschine“ auch so aufgefasst werden, dass er eine beliebige Sammlung von Maschinen beinhaltet, die individuell oder gemeinsam einen Satz (oder mehrere Sätze) von Anweisungen ausführt, um eine oder mehrere beliebige der hierin besprochenen Methoden durchzuführen, wie etwa Cloud-Computing, SaaS (Software as a Service), andere Computerclusterkonfigurationen.
  • Beispiele, wie hierin beschrieben, können Logik oder eine Anzahl von Komponenten, Modulen oder Mechanismen beinhalten oder an diesen arbeiten. Module sind greifbare Entitäten (z. B. Hardware), die in der Lage sind, spezifizierte Operationen durchzuführen, und können auf eine gewisse Art und Weise konfiguriert oder angeordnet sein. Bei einem Beispiel können Schaltungen (z. B. intern oder bezüglich externen Entitäten, wie etwa anderen Schaltungen) auf eine spezifizierte Art und Weise als ein Modul angeordnet sein. Bei einem Beispiel können die gesamten oder ein Teil von einem oder mehreren Computersystemen (z. B. ein unabhängiges, Client- oder Server-Computersystem) oder einem oder mehreren Hardwareprozessoren durch Firmware oder Software (z. B. Anweisungen, einen Anwendungsabschnitt oder eine Anwendung) als ein Modul konfiguriert werden, das arbeitet, um spezifizierte Arbeitsvorgänge durchzuführen. Bei einem Beispiel kann sich die Software auf einem maschinenlesbaren Medium befinden. Bei einem Beispiel bewirkt die Software, wenn sie durch die zugrundeliegende Hardware des Moduls ausgeführt wird, dass die Hardware die spezifizierten Arbeitsvorgänge durchführt.
  • Dementsprechend wird der Ausdruck „Modul“ so verstanden, dass er eine greifbare Entität umschließt, wobei diese eine Entität sein kann, die physisch konstruiert ist, spezifisch konfiguriert (z. B. festverdrahtet) ist oder temporär (z. B. flüchtig) konfiguriert (z. B. programmiert) ist, um auf eine spezifizierte Art und Weise zu arbeiten oder einen Teil des oder den gesamten hierin beschriebenen Arbeitsvorgang durchzuführen. In Anbetracht von Beispielen, bei denen Module temporär konfiguriert sind, muss nicht jedes der Module zu einem jeglichen Zeitpunkt instanziiert sein. Zum Beispiel da, wo die Module einen Allgemeinzweck-Hardwareprozessor umfassen, der unter Verwendung von Software konfiguriert wird, kann der Allgemeinzweck-Hardwareprozessor als jeweilige unterschiedliche Module zu unterschiedlichen Zeiten konfiguriert sein. Software kann dementsprechend einen Hardwareprozessor konfigurieren, um zum Beispiel ein spezielles Modul zu einem Zeitpunkt zu bilden und ein anderes Modul zu einem anderen Zeitpunkt zu bilden.
  • Die Maschine (z. B. das Computersystem) 1600 kann einen Hardwareprozessor 1602 (z. B. eine Zentralverarbeitungseinheit (CPU), eine Grafikverarbeitungseinheit (GPU), einen Hardwareprozessorkern oder eine Kombination davon), einen Hauptspeicher 1604 und einen statischen Speicher 1606 beinhalten, von denen ein Teil oder alle miteinander über eine Verknüpfung (z. B. einen Bus) 1608 kommunizieren können. Die Maschine 1600 kann ferner eine Anzeigeeinheit 1610, eine alphanumerische Eingabeeinrichtung 1612 (z. B. eine Tastatur) und eine Benutzeroberflächen(UI)-Navigationseinrichtung 1614 (z. B. eine Maus) beinhalten. Bei einem Beispiel können die Anzeigeeinheit 1610, die Eingabeeinrichtungen 1612 und die UI-Navigationseinrichtung 1614 eine Touchscreen-Anzeige sein. Die Maschine 1600 kann zusätzlich dazu eine Speicherungseinrichtung (z. B. eine Laufwerkeinheit) 1616, eine Signalerzeugungseinrichtung 1618 (z. B. einen Lautsprecher), eine Netzwerkschnittstelleneinrichtung 1620 und einen oder mehrere Sensoren, wie etwa einen GPS-Sensor (GPS - Global Positioning System), einen Kompass, einen Beschleunigungsmesser oder einen anderen Sensor, beinhalten. Die Maschine 1600 kann eine Ausgangssteuerung 1628, wie etwa eine serielle (z. B. USB (Universal Serial Bus)), parallele oder andere verdrahtete oder drahtlose (z. B. Infrarot (IR), Nahfeldkommunikation (NFC) usw.) Verbindung beinhalten, um mit einer oder mehreren Peripherieeinrichtungen (z. B. einem Drucker, einem Kartenleser usw.) zu kommunizieren oder diese zu steuern.
  • Die Speicherungseinrichtung 1616 kann ein maschinenlesbares Medium 1622 beinhalten, auf dem ein oder mehrere Sätze von Datenstrukturen oder Anweisungen 1624 (z. B. Software) gespeichert sind, die eine oder mehrere beliebige der hierin beschriebenen Techniken oder Funktionen umsetzen oder von diesen genutzt werden. Die Anweisungen 1624 können sich auch, vollständig oder zumindest teilweise, innerhalb des Hauptspeichers 1604, innerhalb des statischen Speichers 1606 oder innerhalb des Hardwareprozessors 1602 während der Ausführung von diesen durch die Maschine 1600 befinden. Bei einem Beispiel kann ein oder eine beliebige Kombination des Hardwareprozessors 1602, des Hauptspeichers 1604, des statischen Speichers 1606 oder der Speicherungseinrichtung 1616 maschinenlesbare Medien bilden.
  • Während das maschinenlesbare Medium 1622 als ein einziges Medium veranschaulicht ist, kann der Ausdruck „maschinenlesbares Medium“ ein einzelnes Medium oder mehrere Medien (z. B. eine zentralisierte oder verteilte Datenbank und/oder assoziierte Caches und Server) beinhalten, die dazu konfiguriert sind, die eine oder die mehreren Anweisungen 1624 zu speichern.
  • Der Ausdruck „maschinenlesbares Medium“ kann ein beliebiges Medium beinhalten, das in der Lage ist, Anweisungen zur Ausführung durch die Maschine 1600 zu speichern, zu codieren oder zu führen und die die Maschine 1600 veranlassen, eine oder mehrere beliebige der Techniken der vorliegenden Offenbarung durchzuführen, oder das in der Lage ist, Datenstrukturen, die durch derartige Anweisungen verwendet werden oder mit diesen assoziiert sind, zu speichern, zu codieren oder zu führen. Nicht beschränkende Beispiele für ein maschinenlesbares Medium können Festkörperspeicher und optische und magnetische Medien beinhalten. Spezifische Beispiele für maschinenlesbare Medien können Folgendes beinhalten: unbeständigen Speicher, wie etwa Halbleiterspeichereinrichtungen (z. B. elektrisch programmierbarer Nurlesespeicher (EPROM), elektrisch löschbarer programmierbarer Nurlesespeicher (EEPROM)) und Flash-Speichereinrichtungen; magnetische Platten, wie etwa interne Festplatten und entfernbare Platten; magnetooptische Platten; Direktzugriffsspeicher (RAM) und CD-ROM- und DVD-ROM-Discs. Bei manchen Beispielen können maschinenlesbare Medien nicht flüchtige maschinenlesbare Medien beinhalten. Bei manchen Beispielen können maschinenlesbare Medien maschinenlesbare Medien beinhalten, die kein flüchtiges sich ausbreitendes Signal sind.
  • Die Anweisungen 1624 können ferner über ein Kommunikationsnetz 1626 unter Verwendung eines Übertragungsmediums über die Netzwerkschnittstelleneinrichtung 1620 übertragen oder empfangen werden, die ein beliebiges einer Anzahl von Transferprotokollen nutzt (z. B. Frame Relay, IP (Internet Protocol), TCP (Transmission Control Protocol), UDP (User Datagram Protocol), HTTP (Hypertext Transfer Protocol) usw.). Beispielhafte Kommunikationsnetze können unter anderem ein Lokalnetzwerk (LAN), ein großflächiges Netzwerk (WAN), ein Paketdatennetzwerk (z. B. das Internet), Mobiltelefonnetze (z. B. zellulare Netze), POTS-Netze (POTS - Plain Old Telephone) und drahtlose Datennetze (z. B. die IEEE (Institute of Electrical and Electronics Enigineers) 802.11-Familie von Standards, bekannt als WiFi®, die IEEE 802.16-Familie von Standards bekannt als WiMax®), die IEEE 802.15.4-Familie von Standards, eine LTE-Familie (LTE - Long Term Evolution) von Standards, eine UMTS-Familie (UMTS - Universal Mobile Telecommunications System) von Standards, Peer-zu-Peer(P2P)-Netze beinhalten. Bei einem Beispiel kann die Netzwerkschnittstelleneinrichtung 520 eine oder mehrere physische Buchsen (z. B. Ethernet-, Koaxial- oder Telefonbuchsen) oder eine oder mehrere Antennen zum Verbinden mit dem Kommunikationsnetz 526 beinhalten. Bei einem Beispiel kann die Netzwerkschnittstelleneinrichtung 520 mehrere Antennen zur drahtlosen Kommunikation unter Verwendung von SIMO- (Single-Input-Multiple-Output) und/oder MIMO- (Multiple-Input-Multiple-Output) und/oder MISO-Techniken (Multiple-Input-Single-Output) beinhalten. Bei einigen Beispielen kann die Netzwerkschnittstelleneinrichtung 520 unter Verwendung von Mehrbenutzer-MIMO-Techniken drahtlos kommunizieren. Der Ausdruck „Übertragungsmedium“ soll so aufgefasst werden, dass er ein beliebiges nicht greifbares Medium beinhaltet, das in der Lage ist, Anweisungen zur Ausführung durch die Maschine 500 zu speichern, zu codieren oder zu führen, und digitale oder analoge Kommunikationssignale oder ein anderes nicht greifbares Medium beinhaltet, um eine Kommunikation derartiger Software zu ermöglichen.
  • Zusätzliche Anmerkungen und Beispiele:
  • Beispiel 1 ist eine Vorrichtung für eine Drohnenkollisionsvermeidung, wobei die Vorrichtung Folgendes umfasst: einen Verarbeitungsschaltkreis zum Extrahieren von ersten Merkmalsinformationen aus einem Bild, wobei das Bild von einer ersten Kamera aufgenommen wird, die in eine Richtung orientiert ist; zum Empfangen von zweiten Merkmalsinformationen von einer externen Quelle, wobei die zweiten Merkmalsinformationen aus einem zweiten Bild der Umgebung extrahiert werden, das durch eine zweite Kamera aufgenommen wird, die in die Richtung orientiert ist; zum Abgleichen der ersten Merkmalsinformationen und der zweiten Merkmalsinformationen; zum Transformieren eines zweiten lokalen Referenzrahmens der zweiten Merkmalsinformationen zu einem ersten lokalen Referenzrahmen der ersten Merkmalsinformationen, um einen Standort der externen Quelle zu bestimmen; und zum Bestimmen, ob eine Kollision mit der externen Quelle stattfinden wird, basierend auf dem Standort der externen Quelle und einer gegenwärtigen Flugflugbahn.
  • Bei Beispiel 2 beinhaltet der Gegenstand des Beispiels 1, wobei eine Kollision mit der externen Quelle bestimmt wird, und wobei der Verarbeitungsschaltkreis ferner konfiguriert ist zum Abändern der gegenwärtigen Flugflugbahn basierend auf der Kollision.
  • Bei Beispiel 3 beinhaltet der Gegenstand der Beispiele 1-2, wobei die externe Quelle eine zweite Drohne ist.
  • Bei Beispiel 4 beinhaltet der Gegenstand der Beispiele 1-3, wobei die externe Quelle ein stationäres Objekt ist.
  • Bei Beispiel 5 beinhaltet der Gegenstand der Beispiele 1-4 einen Sender zum Ausstrahlen der ersten Merkmalsinformationen.
  • Bei Beispiel 6 beinhaltet der Gegenstand der Beispiele 1-5, wobei der Verarbeitungsschaltkreis ferner konfiguriert ist zum Empfangen eines Standorts einer dritten Quelle, wobei die dritte Quelle keine überlappenden Merkmale mit den ersten Merkmalsinformationen aufweist, und wobei der Verarbeitungsschaltkreis ferner konfiguriert ist zum Bestimmen, dass eine Kollision mit der dritten Quelle stattfinden wird, basierend auf dem Standort der dritten Quelle und der gegenwärtigen Flugflugbahn; und zum Abändern der gegenwärtigen Flugflugbahn basierend auf der Bestimmung, dass die Kollision mit der dritten Quelle stattfinden wird.
  • Bei Beispiel 7 beinhaltet der Gegenstand der Beispiele 1-6, wobei der Verarbeitungsschaltkreis ferner konfiguriert ist zum Empfangen von Flugbahninformationen der externen Quelle von der externen Quelle.
  • Bei Beispiel 8 beinhaltet der Gegenstand des Beispiels 7, wobei der Verarbeitungsschaltkreis ferner konfiguriert ist zum Bestimmen einer relativen Geschwindigkeit der externen Quelle basierend auf den Flugbahninformationen der externen Quelle; zum Bestimmen einer virtuellen Kraft basierend auf der relativen Geschwindigkeit der externen Quelle; zum Hinzufügen der virtuellen Kraft zu einer Position basierend auf der gegenwärtigen Flugflugbahn, um eine Lagesteuerungseingabe zu erzeugen; und zum Bereitstellen der Lagesteuerungseingabe an eine Lagesteuerung, wobei die virtuelle Kraft eine Beschleunigung der Drohne von einer Beschleunigung der gegenwärtigen Flugflugbahn ändert.
  • Bei Beispiel 9 beinhaltet der Gegenstand der Beispiele 7-8, wobei der Verarbeitungsschaltkreis ferner konfiguriert ist zum Empfangen von Prioritätsinformationen der externen Quelle von der externen Quelle, und wobei, um zu bestimmen, ob eine Kollision mit der externen Quelle stattfinden wird, der Verarbeitungsschaltkreis konfiguriert ist zum Bestimmen einer Beobachtungssphäre der externen Quelle basierend auf dem Standort der externen Quelle; zum Bestimmen einer Kollisionssphäre der Drohne basierend auf einem gegenwärtigen Standort der Drohne; zum Bestimmen, dass die Beobachtungssphäre der externen Quelle die Kollisionssphäre der Drohne schneidet; zum Ausrichten einer gegenwärtigen Flugflugbahn und der Flugflugbahn der externen Quelle basierend auf der Überschneidung der Beobachtungssphäre der externen Quelle und der Kollisionssphäre der Drohne; und zum Bestimmen, dass eine Kollision zwischen der Drohne und der externen Quelle stattfinden wird, basierend auf einer Überschneidung der ausgerichteten Flugbahnen.
  • Bei Beispiel 10 beinhaltet der Gegenstand der Beispiele 7-9, wobei, um zu bestimmen, ob eine Kollision mit der externen Quelle stattfinden wird, der Verarbeitungsschaltkreis konfiguriert ist zum Bestimmen von ersten Standorten der Drohne basierend auf dem gegenwärtigen Flug basierend auf der gegenwärtigen Flugflugbahn für mehrere Zeitpunkte; zum Bestimmen von zweiten Standorten der externen Quelle basierend auf den Flugbahninformationen der externen Quelle für die mehreren Zeitpunkte; und zum Bestimmen, dass eine Kollision stattfinden wird, falls sich Pfade zwischen aufeinanderfolgenden Punkten von den ersten Standorten und den zweiten Standorten zu demselben Zeitpunkt kreuzen.
  • Bei Beispiel 11 beinhaltet der Gegenstand der Beispiele 1-10, wobei die Richtung nach oben ist.
  • Bei Beispiel 12 beinhaltet der Gegenstand der Beispiele 1-11, wobei die Richtung nach unten ist.
  • Beispiel 13 ist ein maschinenimplementiertes Verfahren für eine Drohnenkollisionsvermeidung, wobei das Verfahren Folgendes umfasst: Aufnehmen, unter Verwendung einer Kamera, eines Bildes einer Umgebung, wobei die Kamera in eine Richtung orientiert ist; Empfangen, unter Verwendung eines Empfängers, von zweiten Merkmalsinformationen von einer externen Quelle, wobei die zweiten Merkmalsinformationen aus einem zweiten Bild der Umgebung extrahiert werden, das durch eine zweite Kamera aufgenommen wird, die in die Richtung orientiert ist; Extrahieren, unter Verwendung eines Verarbeitungsschaltkreises, von ersten Merkmalsinformationen aus dem aufgenommenen Bild; Abgleichen der ersten Merkmalsinformationen und der zweiten Merkmalsinformationen; Transformieren eines zweiten lokalen Referenzrahmens der zweiten Merkmalsinformationen zu einem ersten lokalen Referenzrahmen der ersten Merkmalsinformationen, um einen Standort der externen Quelle zu bestimmen; und Bestimmen, ob eine Kollision mit der externen Quelle stattfinden wird, basierend auf dem Standort der externen Quelle und einer gegenwärtigen Flugflugbahn.
  • Bei Beispiel 14 beinhaltet der Gegenstand des Beispiels 13, wobei das Verfahren ferner ein Abändern der gegenwärtigen Flugflugbahn der Drohne basierend auf dem Bestimmen, dass eine Kollision mit der externen Quelle stattfinden wird, umfasst.
  • Bei Beispiel 15 beinhaltet der Gegenstand der Beispiele 13-14, wobei die externe Quelle eine zweite Drohne ist.
  • Bei Beispiel 16 beinhaltet der Gegenstand der Beispiele 13-15, wobei die externe Quelle ein stationäres Objekt ist.
  • Bei Beispiel 17 beinhaltet der Gegenstand der Beispiele 13-16 Ausstrahlen, unter Verwendung eines Senders, der ersten Merkmalsinformationen.
  • Bei Beispiel 18 beinhaltet der Gegenstand der Beispiele 13-17 Empfangen eines Standorts einer dritten Quelle, wobei die dritte Quelle keine überlappenden Merkmale mit den ersten Merkmalsinformationen aufweist; Bestimmen, dass eine Kollision mit der dritten Quelle stattfinden wird, basierend auf dem Standort der dritten Quelle und der gegenwärtigen Flugflugbahn; und Abändern der gegenwärtigen Flugflugbahn basierend auf dem Bestimmen, dass die Kollision mit der dritten Quelle stattfinden wird.
  • Bei Beispiel 19 beinhaltet der Gegenstand der Beispiele 13-18 Empfangen von Flugbahninformationen der externen Quelle von der externen Quelle.
  • Bei Beispiel 20 beinhaltet der Gegenstand des Beispiels 19 Bestimmen einer relativen Geschwindigkeit der externen Quelle basierend auf den Flugbahninformationen der externen Quelle; Bestimmen einer virtuellen Kraft basierend auf der relativen Geschwindigkeit der externen Quelle; Hinzufügen der virtuellen Kraft zu einer Position basierend auf der gegenwärtigen Flugflugbahn, um eine Lagesteuerungseingabe zu erzeugen; und Bereitstellen der Lagesteuerungseingabe an eine Lagesteuerung, wobei die virtuelle Kraft eine Beschleunigung der Drohne von einer Beschleunigung der gegenwärtigen Flugflugbahn ändert.
  • Bei Beispiel 21 beinhaltet der Gegenstand der Beispiele 19-20 Empfangen von Prioritätsinformationen der externen Quelle von der externen Quelle, und wobei das Bestimmen, ob eine Kollision mit der externen Quelle stattfinden wird, Folgendes umfasst: Bestimmen einer Beobachtungssphäre der externen Quelle basierend auf dem Standort der externen Quelle; Bestimmen einer Kollisionssphäre der Drohne basierend auf einem gegenwärtigen Standort der Drohne; Bestimmen, dass die Beobachtungssphäre der externen Quelle die Kollisionssphäre der Drohne schneidet; Ausrichten der gegenwärtigen Flugflugbahn und der Flugflugbahn der externen Quelle basierend auf der Überschneidung der Beobachtungssphäre der externen Quelle und der Kollisionssphäre der Drohne; und Bestimmen, dass eine Kollision zwischen der Drohne und der externen Quelle stattfinden wird, basierend auf einer Überschneidung der ausgerichteten Flugbahnen.
  • Bei Beispiel 22 beinhaltet der Gegenstand der Beispiele 19-21, wobei das Bestimmen, ob eine Kollision mit der externen Quelle stattfinden wird, Folgendes umfasst: Bestimmen von ersten Standorten der Drohne basierend auf dem gegenwärtigen Flug basierend auf der gegenwärtigen Flugflugbahn für mehrere Zeitpunkte; Bestimmen von zweiten Standorten der externen Quelle basierend auf den Flugbahninformationen der externen Quelle für die mehreren Zeitpunkte; Bestimmen, dass eine Kollision stattfinden wird, falls sich Pfade zwischen aufeinanderfolgenden Punkten von den ersten Standorten und den zweiten Standorten zu demselben Zeitpunkt kreuzen.
  • Bei Beispiel 23 beinhaltet der Gegenstand der Beispiele 13-22, wobei die Richtung nach oben ist.
  • Bei Beispiel 24 beinhaltet der Gegenstand der Beispiele 13-23, wobei die Richtung nach unten ist.
  • Beispiel 25 ist mindestens ein computerlesbares Medium für eine Drohnenkollisionsvermeidung, das Anweisungen umfasst, die bei Ausführung durch eine Maschine bewirken, dass die Maschine folgende Arbeitsvorgänge durchführt: Aufnehmen eines Bildes einer Umgebung, wobei die Kamera in eine Richtung orientiert ist; Empfangen von zweiten Merkmalsinformationen von einer externen Quelle, wobei die zweiten Merkmalsinformationen aus einem zweiten Bild der Umgebung extrahiert werden, das durch eine zweite Kamera aufgenommen wird, die in die Richtung orientiert ist; Extrahieren von ersten Merkmalsinformationen aus dem aufgenommenen Bild; Abgleichen der ersten Merkmalsinformationen und der zweiten Merkmalsinformationen; Transformieren eines zweiten lokalen Referenzrahmens der zweiten Merkmalsinformationen zu einem ersten lokalen Referenzrahmen der ersten Merkmalsinformationen, um einen Standort der externen Quelle zu bestimmen; und Bestimmen, ob eine Kollision mit der externen Quelle stattfinden wird, basierend auf dem Standort der externen Quelle und einer gegenwärtigen Flugflugbahn.
  • Bei Beispiel 26 beinhaltet der Gegenstand des Beispiels 25, wobei die Anweisungen ferner Abändern der gegenwärtigen Flugflugbahn der Drohne basierend auf dem Bestimmen, dass eine Kollision mit der externen Quelle stattfinden wird, umfasst.
  • Bei Beispiel 27 beinhaltet der Gegenstand der Beispiele 25-26, wobei die externe Quelle eine zweite Drohne ist.
  • Bei Beispiel 28 beinhaltet der Gegenstand der Beispiele 25-27, wobei die externe Quelle ein stationäres Objekt ist.
  • Bei Beispiel 29 beinhaltet der Gegenstand der Beispiele 25-28, wobei die Anweisungen ferner Ausstrahlen, unter Verwendung eines Senders, der ersten Merkmalsinformationen umfassen.
  • Bei Beispiel 30 beinhaltet der Gegenstand der Beispiele 25-29, wobei die Anweisungen ferner Folgendes umfassen: Empfangen eines Standorts einer dritten Quelle, wobei die dritte Quelle keine überlappenden Merkmale mit den ersten Merkmalsinformationen aufweist; Bestimmen, dass eine Kollision mit der dritten Quelle stattfinden wird, basierend auf dem Standort der dritten Quelle und der gegenwärtigen Flugflugbahn; und Abändern der gegenwärtigen Flugflugbahn basierend auf dem Bestimmen, dass die Kollision mit der dritten Quelle stattfinden wird.
  • Bei Beispiel 31 beinhaltet der Gegenstand der Beispiele 25-30, wobei die Anweisungen ferner Empfangen von Flugbahninformationen der externen Quelle von der externen Quelle umfassen.
  • Bei Beispiel 32 beinhaltet der Gegenstand der Beispiele 30-31, wobei die Anweisungen ferner Folgendes umfassen: Bestimmen einer relativen Geschwindigkeit der externen Quelle basierend auf den Flugbahninformationen der externen Quelle; Bestimmen einer virtuellen Kraft basierend auf der relativen Geschwindigkeit der externen Quelle; Hinzufügen der virtuellen Kraft zu einer Position basierend auf der gegenwärtigen Flugflugbahn, um eine Lagesteuerungseingabe zu erzeugen; und Bereitstellen der Lagesteuerungseingabe an eine Lagesteuerung, wobei die virtuelle Kraft eine Beschleunigung der Drohne von einer Beschleunigung der gegenwärtigen Flugflugbahn ändert.
  • Bei Beispiel 33 beinhaltet der Gegenstand der Beispiele 30-32, wobei die Anweisungen ferner Empfangen von Prioritätsinformationen der externen Quelle von der externen Quelle umfassen, und wobei die Anweisungen zum Bestimmen, ob eine Kollision mit der externen Quelle stattfinden wird, Folgendes umfassen: Bestimmen einer Beobachtungssphäre der externen Quelle basierend auf dem Standort der externen Quelle; Bestimmen einer Kollisionssphäre der Drohne basierend auf einem gegenwärtigen Standort der Drohne; Bestimmen, dass die Beobachtungssphäre der externen Quelle die Kollisionssphäre der Drohne schneidet; Ausrichten einer gegenwärtigen Flugflugbahn und der Flugflugbahn der externen Quelle basierend auf der Überschneidung der Beobachtungssphäre der externen Quelle und der Kollisionssphäre der Drohne; und Bestimmen, dass eine Kollision zwischen der Drohne und der externen Quelle stattfinden wird, basierend auf einer Überschneidung der ausgerichteten Flugbahnen.
  • Bei Beispiel 34 beinhaltet der Gegenstand der Beispiele 30-33, wobei die Anweisungen zum Bestimmen, ob eine Kollision mit der externen Quelle stattfinden wird, Folgendes umfassen: Bestimmen von ersten Standorten der Drohne basierend auf dem gegenwärtigen Flug basierend auf der gegenwärtigen Flugflugbahn für mehrere Zeitpunkte; Bestimmen von zweiten Standorten der externen Quelle basierend auf den Flugbahninformationen der externen Quelle für die mehreren Zeitpunkte; Bestimmen, dass eine Kollision stattfinden wird, falls sich Pfade zwischen aufeinanderfolgenden Punkten von den ersten Standorten und den zweiten Standorten zu demselben Zeitpunkt kreuzen.
  • Bei Beispiel 35 beinhaltet der Gegenstand der Beispiele 25-34, wobei die Richtung nach oben ist.
  • Bei Beispiel 36 beinhaltet der Gegenstand der Beispiele 25-35, wobei die Richtung nach unten ist.
  • Beispiel 37 ist eine Vorrichtung für eine Drohnenkollisionsvermeidung, wobei die Vorrichtung Folgendes umfasst: Mittel zum Aufnehmen eines Bildes einer Umgebung, wobei die Kamera in eine Richtung orientiert ist; Mittel zum Empfangen von zweiten Merkmalsinformationen von einer externen Quelle, wobei die zweiten Merkmalsinformationen aus einem zweiten Bild der Umgebung extrahiert werden, das durch eine zweite Kamera aufgenommen wird, die in die Richtung orientiert ist; Mittel zum Extrahieren von ersten Merkmalsinformationen aus dem aufgenommenen Bild; Mittel zum Abgleichen der ersten Merkmalsinformationen und der zweiten Merkmalsinformationen; Mittel zum Transformieren eines zweiten lokalen Referenzrahmens der zweiten Merkmalsinformationen zu einem ersten lokalen Referenzrahmen der ersten Merkmalsinformationen, um einen Standort der externen Quelle zu bestimmen; und Mittel zum Bestimmen, ob eine Kollision mit der externen Quelle stattfinden wird, basierend auf dem Standort der externen Quelle und einer gegenwärtigen Flugflugbahn.
  • Bei Beispiel 38 beinhaltet der Gegenstand des Beispiels 37 Mittel zum Abändern der gegenwärtigen Flugflugbahn der Drohne basierend auf dem Bestimmen, dass eine Kollision mit der externen Quelle stattfinden wird.
  • Bei Beispiel 39 beinhaltet der Gegenstand der Beispiele 37-38, wobei die externe Quelle eine zweite Drohne ist.
  • Bei Beispiel 40 beinhaltet der Gegenstand der Beispiele 37-39, wobei die externe Quelle ein stationäres Objekt ist.
  • Bei Beispiel 41 beinhaltet der Gegenstand der Beispiele 37-40 Mittel zum Ausstrahlen, unter Verwendung eines Senders, der ersten Merkmalsinformationen.
  • Bei Beispiel 42 beinhaltet der Gegenstand der Beispiele 37-41 Mittel zum Empfangen eines Standorts einer dritten Quelle, wobei die dritte Quelle keine überlappenden Merkmale mit den ersten Merkmalsinformationen aufweist; Mittel zum Bestimmen, dass eine Kollision mit der dritten Quelle stattfinden wird, basierend auf dem Standort der dritten Quelle und der gegenwärtigen Flugflugbahn; und Mittel zum Abändern der gegenwärtigen Flugflugbahn basierend auf dem Bestimmen, dass die Kollision mit der dritten Quelle stattfinden wird.
  • Bei Beispiel 43 beinhaltet der Gegenstand der Beispiele 37-42 Mittel zum Empfangen von Flugbahninformationen der externen Quelle von der externen Quelle.
  • Bei Beispiel 44 beinhaltet der Gegenstand des Beispiels 43 Mittel zum Bestimmen einer relativen Geschwindigkeit der externen Quelle basierend auf den Flugbahninformationen der externen Quelle; Mittel zum Bestimmen einer virtuellen Kraft basierend auf der relativen Geschwindigkeit der externen Quelle; Mittel zum Hinzufügen der virtuellen Kraft zu einer Position basierend auf der gegenwärtigen Flugflugbahn, um eine Lagesteuerungseingabe zu erzeugen; und Mittel zum Bereitstellen der Lagesteuerungseingabe an eine Lagesteuerung, wobei die virtuelle Kraft eine Beschleunigung der Drohne von einer Beschleunigung der gegenwärtigen Flugflugbahn ändert.
  • Bei Beispiel 45 beinhaltet der Gegenstand der Beispiele 43-44 Mittel zum Empfangen von Prioritätsinformationen der externen Quelle von der externen Quelle, und wobei die Mittel zum Bestimmen, ob eine Kollision mit der externen Quelle stattfinden wird, Folgendes umfassen: Mittel zum Bestimmen einer Beobachtungssphäre der externen Quelle basierend auf dem Standort der externen Quelle; Mittel zum Bestimmen einer Kollisionssphäre der Drohne basierend auf einem gegenwärtigen Standort der Drohne; Mittel zum Bestimmen, dass eine Beobachtungssphäre der externen Quelle die Kollisionssphäre der Drohne schneidet; Mittel zum Ausrichten einer gegenwärtigen Flugflugbahn und der Flugflugbahn der externen Quelle basierend auf der Überschneidung der Beobachtungssphäre der externen Quelle und der Kollisionssphäre der Drohne; und Mittel zum Bestimmen, dass eine Kollision zwischen der Drohne und der externen Quelle stattfinden wird, basierend auf einer Überschneidung der ausgerichteten Flugbahnen.
  • Bei Beispiel 46 beinhaltet der Gegenstand der Beispiele 43-45, wobei die Mittel zum Bestimmen, ob eine Kollision mit der externen Quelle stattfinden wird, Folgendes umfassen: Mittel zum Bestimmen von ersten Standorten der Drohne basierend auf dem gegenwärtigen Flug basierend auf der gegenwärtigen Flugflugbahn für mehrere Zeitpunkte; Mittel zum Bestimmen von zweiten Standorten der externen Quelle basierend auf den Flugbahninformationen der externen Quelle für die mehreren Zeitpunkte; Mittel zum Bestimmen, dass eine Kollision stattfinden wird, falls sich Pfade zwischen aufeinanderfolgenden Punkten von den ersten Standorten und den zweiten Standorten zu demselben Zeitpunkt kreuzen.
  • Bei Beispiel 47 beinhaltet der Gegenstand der Beispiele 37-46, wobei die Richtung nach oben ist.
  • Bei Beispiel 48 beinhaltet der Gegenstand der Beispiele 37-47, wobei die Richtung nach unten ist.
  • Beispiel 49 ist mindestens ein maschinenlesbares Medium, das Anweisungen beinhaltet, die bei Ausführung durch eine Maschine bewirken, dass die Maschine Arbeitsvorgänge von beliebigen der Arbeitsvorgänge der Beispiele 13-24 durchführt.
  • Beispiel 50 ist eine Vorrichtung, die Mittel zum Durchführen von beliebigen der Arbeitsvorgänge der Beispiele 13-24 umfasst.
  • Beispiel 51 ist mindestens ein maschinenlesbares Medium, das Anweisungen umfasst, die bei Ausführung durch einen Verarbeitungsschaltkreis bewirken, dass der Verarbeitungsschaltkreis Arbeitsvorgänge zum Implementieren von beliebigen der Beispiele 1-50 durchführt.
  • Beispiel 52 ist eine Vorrichtung, die Mittel zum Implementieren von beliebigen der Beispiele 1-50 umfasst.
  • Beispiel 53 ist ein System zum Implementieren von beliebigen der Beispiele 1-50.
  • Beispiel 54 ist ein Verfahren zum Implementieren von beliebigen der Beispiele 1-50.
  • Die obige ausführliche Beschreibung beinhaltet Bezüge auf die begleitenden Zeichnungen, die einen Teil der ausführlichen Beschreibung bilden. Die Zeichnungen stellen veranschaulichend spezifische Ausführungsformen dar, die umgesetzt werden können. Diese Ausführungsformen werden hierin auch als „Beispiele“ bezeichnet. Derartige Beispiele können Elemente zusätzlich zu den dargestellten oder beschriebenen beinhalten. Es werden jedoch auch Beispiele in Betracht gezogen, die die dargestellten oder beschriebenen Elemente beinhalten. Darüber hinaus werden auch Beispiele in Betracht gezogen, die eine beliebige Kombination oder Permutation dieser dargestellten oder beschriebenen Elemente (oder einen oder mehrere Aspekte davon) entweder bezüglich eines speziellen Beispiels (oder eines oder mehrerer Aspekte davon) oder bezüglich anderer Beispiele (oder eines oder mehrerer Aspekte davon), die hierin dargestellt oder beschrieben sind, verwenden.
  • Veröffentlichungen, Patente und Patentdokumente, auf die in diesem Dokument Bezug genommen wird, werden hiermit in ihrer Gesamtheit durch Bezugnahme aufgenommen, als ob sie einzeln unter Bezugnahme aufgenommen wären. Im Fall von widersprüchlichen Verwendungen zwischen diesem Dokument und den durch Bezugnahme aufgenommenen Dokumenten ist die Verwendung in der einen oder den mehreren aufgenommenen Bezugnahmen zu dem dieses Dokuments ergänzend; bei unvereinbaren Widersprüchen ist die Verwendung in diesem Dokument vorherrschend.
  • In diesem Dokument werden die Ausdrücke „eines“ oder „ein“ verwendet, wie in Patentdokumenten üblich ist, um ein oder mehr als eines einzuschließen, unabhängig von anderen Instanzen oder Verwendungen von „mindestens ein“ oder „ein oder mehr“. In diesem Dokument wird der Ausdruck „oder“ verwendet, um sich auf ein nicht ausschließendes Oder zu beziehen, sodass „A oder B“ „A aber nicht B“, „B aber nicht A“ und „A und B“ einschließt, sofern nichts anderes angegeben ist. In den angehängten Ansprüchen werden die Ausdrücke „einschließlich“ und „in dem“ als die einfachen deutschen Äquivalente der jeweiligen Ausdrücke „umfassend“ und „wobei“ verwendet. Auberdem sind in den folgenden Ansprüchen die Ausdrücke „einschließlich“ und „umfassend“ offen, das heißt, ein System, eine Einrichtung, ein Artikel oder ein Prozess, das bzw. die bzw. der Elemente zusätzlich zu denen beinhaltet, die nach einem derartigen Ausdruck in einem Anspruch aufgelistet sind, werden weiterhin so erachtet, dass sie in den Schutzumfang dieses Anspruches fallen. Darüber hinaus werden in den folgenden Ansprüchen die Ausdrücke „erster“, „zweiter“ und „dritter“ usw. lediglich als Bezeichnungen verwendet und es wird nicht beabsichtigt, dass sie eine numerische Reihenfolge für ihre Objekte vorschlagen.
  • Die Ausführungsformen, wie oben beschrieben, können in verschiedenen Hardwarekonfigurationen implementiert werden, die einen Prozessor zum Ausführen von Anweisungen beinhalten können, die die beschriebenen Techniken durchführen. Derartige Anweisungen können in einem maschinenlesbaren Medium enthalten sein, wie etwa einem geeigneten Speicherungsmedium oder einem Speicher oder einem anderen prozessorausführbaren Medium.
  • Es wird beabsichtigt, dass die obige Beschreibung veranschaulichend und nicht beschränkend ist. Die oben beschriebenen Beispiele (oder ein oder mehrere Aspekte davon) können zum Beispiel in Kombination mit anderen verwendet werden. Andere Ausführungsformen können verwendet werden, wie etwa durch einen Durchschnittsfachmann nach dem Durchsehen der obigen Beschreibung. Die Zusammenfassung soll dem Leser ermöglichen, das Wesen der technischen Offenbarung schnell zu ermitteln. Sie wird mit dem Verständnis eingereicht, dass sie nicht zum Interpretieren oder Beschränken des Schutzumfangs oder der Bedeutung der Ansprüche verwendet wird. Außerdem können in der obigen ausführlichen Beschreibung verschiedene Merkmale zusammengruppiert sein, um die Offenbarung zu vereinfachen. Die Ansprüche legen möglicherweise jedoch nicht jedes hierin offenbarte Merkmal dar, da Ausführungsformen eine Teilmenge der Merkmale darbieten können. Des Weiteren können Ausführungsformen weniger Merkmale als die in einem speziellen Beispiel offenbarten beinhalten. Somit werden die folgenden Ansprüche hiermit in die ausführliche Beschreibung einbezogen, wobei ein Anspruch eigenständig als eine separate Ausführungsform steht. Der Schutzumfang der hierin offenbarten Ausführungsformen soll unter Bezugnahme auf die angehängten Ansprüche zusammen mit dem vollen Schutzumfang von Äquivalenten, zu denen derartige Ansprüche berechtigt sind, bestimmt werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • IEEE 802.16-Familie [0059]
    • IEEE 802.15.4-Familie [0059]

Claims (25)

  1. Vorrichtung für eine Drohnenkollisionsvermeidung, wobei die Vorrichtung Folgendes umfasst: einen Verarbeitungsschaltkreis zum: Extrahieren von ersten Merkmalsinformationen aus einem Bild, wobei das Bild von einer ersten Kamera aufgenommen wird, die in eine Richtung orientiert ist; Empfangen von zweiten Merkmalsinformationen von einer externen Quelle, wobei die zweiten Merkmalsinformationen aus einem zweiten Bild der Umgebung extrahiert werden, das durch eine zweite Kamera aufgenommen wird, die in die Richtung orientiert ist; Abgleichen der ersten Merkmalsinformationen und der zweiten Merkmalsinformationen; Transformieren eines zweiten lokalen Referenzrahmens der zweiten Merkmalsinformationen zu einem ersten lokalen Referenzrahmen der ersten Merkmalsinformationen, um einen Standort der externen Quelle zu bestimmen; und Bestimmen, ob eine Kollision mit der externen Quelle stattfinden wird, basierend auf dem Standort der externen Quelle und einer gegenwärtigen Flugflugbahn.
  2. Vorrichtung nach Anspruch 1, wobei eine Kollision mit der externen Quelle bestimmt wird und wobei der Verarbeitungsschaltkreis ferner konfiguriert ist zum Abändern der gegenwärtigen Flugflugbahn basierend auf der Kollision.
  3. Vorrichtung nach Anspruch 1, wobei die externe Quelle eine zweite Drohne ist.
  4. Vorrichtung nach Anspruch 1, wobei die externe Quelle ein stationäres Objekt ist.
  5. Vorrichtung nach Anspruch 1, ferner umfassend einen Sender zum Ausstrahlen der ersten Merkmalsinformationen.
  6. Vorrichtung nach Anspruch 1, wobei der Verarbeitungsschaltkreis ferner konfiguriert ist zum Empfangen eines Standorts einer dritten Quelle, wobei die dritte Quelle keine überlappenden Merkmale mit den ersten Merkmalsinformationen aufweist, und wobei der Verarbeitungsschaltkreis ferner konfiguriert ist zum: Bestimmen, dass eine Kollision mit der dritten Quelle stattfinden wird, basierend auf dem Standort der dritten Quelle und der gegenwärtigen Flugflugbahn; und Abändern der gegenwärtigen Flugflugbahn basierend auf der Bestimmung, dass die Kollision mit der dritten Quelle stattfinden wird.
  7. Vorrichtung nach einem der Ansprüche 1-6, wobei der Verarbeitungsschaltkreis ferner konfiguriert ist zum Empfangen von Flugbahninformationen der externen Quelle von der externen Quelle.
  8. Vorrichtung nach Anspruch 7, wobei der Verarbeitungsschaltkreis ferner konfiguriert ist zum: Bestimmen einer relativen Geschwindigkeit der externen Quelle basierend auf den Flugbahninformationen der externen Quelle; Bestimmen einer virtuellen Kraft basierend auf der relativen Geschwindigkeit der externen Quelle; Hinzufügen der virtuellen Kraft zu einer Position basierend auf der gegenwärtigen Flugflugbahn, um eine Lagesteuerungseingabe zu erzeugen; und Bereitstellen der Lagesteuerungseingabe an eine Lagesteuerung, wobei die virtuelle Kraft eine Beschleunigung der Drohne von einer Beschleunigung der gegenwärtigen Flugflugbahn ändert.
  9. Vorrichtung nach Anspruch 7, wobei der Verarbeitungsschaltkreis ferner konfiguriert ist zum Empfangen von Prioritätsinformationen der externen Quelle von der externen Quelle, und wobei, um zu bestimmen, ob eine Kollision mit der externen Quelle stattfinden wird, der Verarbeitungsschaltkreis konfiguriert ist zum: Bestimmen einer Beobachtungssphäre der externen Quelle basierend auf dem Standort der externen Quelle; Bestimmen einer Kollisionssphäre der Drohne basierend auf einem gegenwärtigen Standort der Drohne; Bestimmen, dass die Beobachtungssphäre der externen Quelle die Kollisionssphäre der Drohne schneidet; Ausrichten einer gegenwärtigen Flugflugbahn und der Flugflugbahn der externen Quelle basierend auf der Überschneidung der Beobachtungssphäre der externen Quelle und der Kollisionssphäre der Drohne; und Bestimmen, dass eine Kollision zwischen der Drohne und der externen Quelle stattfinden wird, basierend auf einer Überschneidung der ausgerichteten Flugbahnen.
  10. Vorrichtung nach Anspruch 7, wobei, um zu bestimmen, ob eine Kollision mit der externen Quelle stattfinden wird, der Verarbeitungsschaltkreis konfiguriert ist zum: Bestimmen von ersten Standorten der Drohne basierend auf dem gegenwärtigen Flug basierend auf der gegenwärtigen Flugflugbahn für mehrere Zeitpunkte; Bestimmen von zweiten Standorten der externen Quelle basierend auf den Flugbahninformationen der externen Quelle für die mehreren Zeitpunkte; und Bestimmen, dass eine Kollision stattfinden wird, falls sich Pfade zwischen aufeinanderfolgenden Punkten von den ersten Standorten und den zweiten Standorten zu demselben Zeitpunkt kreuzen.
  11. Vorrichtung nach einem der Ansprüche 1-6, wobei die Richtung nach oben ist.
  12. Vorrichtung nach einem der Ansprüche 1-6, wobei die Richtung nach unten ist.
  13. Maschinenimplementiertes Verfahren für eine Drohnenkollisionsvermeidung, wobei das Verfahren Folgendes umfasst: Aufnehmen, unter Verwendung einer Kamera, eines Bildes einer Umgebung, wobei die Kamera in eine Richtung orientiert ist; Empfangen, unter Verwendung eines Empfängers, von zweiten Merkmalsinformationen von einer externen Quelle, wobei die zweiten Merkmalsinformationen aus einem zweiten Bild der Umgebung extrahiert werden, das durch eine zweite Kamera aufgenommen wird, die in die Richtung orientiert ist; Extrahieren, unter Verwendung eines Verarbeitungsschaltkreises, von ersten Merkmalsinformationen aus dem aufgenommenen Bild; Abgleichen der ersten Merkmalsinformationen und der zweiten Merkmalsinformationen; Transformieren eines zweiten lokalen Referenzrahmens der zweiten Merkmalsinformationen zu einem ersten lokalen Referenzrahmen der ersten Merkmalsinformationen, um einen Standort der externen Quelle zu bestimmen; und Bestimmen, ob eine Kollision mit der externen Quelle stattfinden wird, basierend auf dem Standort der externen Quelle und einer gegenwärtigen Flugflugbahn.
  14. Verfahren nach Anspruch 13, wobei das Verfahren ferner Abändern der gegenwärtigen Flugflugbahn der Drohne basierend auf dem Bestimmen, dass eine Kollision mit der externen Quelle stattfinden wird, umfasst.
  15. Verfahren nach Anspruch 13, wobei die externe Quelle eine zweite Drohne ist.
  16. Verfahren nach Anspruch 13, wobei die externe Quelle ein stationäres Objekt ist.
  17. Verfahren nach Anspruch 13, ferner umfassend Ausstrahlen, unter Verwendung eines Senders, der ersten Merkmalsinformationen.
  18. Verfahren nach Anspruch 13, ferner umfassend: Empfangen eines Standorts einer dritten Quelle, wobei die dritte Quelle keine überlappenden Merkmale mit den ersten Merkmalsinformationen aufweist; Bestimmen, dass eine Kollision mit der dritten Quelle stattfinden wird, basierend auf dem Standort der dritten Quelle und der gegenwärtigen Flugflugbahn; und Abändern der gegenwärtigen Flugflugbahn basierend auf dem Bestimmen, dass die Kollision mit der dritten Quelle stattfinden wird.
  19. Verfahren nach Anspruch 13, ferner umfassend Empfangen von Flugbahninformationen der zweiten Quelle von der zweiten Quelle.
  20. Verfahren nach Anspruch 19, ferner umfassend: Bestimmen einer relativen Geschwindigkeit der externen Quelle basierend auf den Flugbahninformationen der externen Quelle; Bestimmen einer virtuellen Kraft basierend auf der relativen Geschwindigkeit der externen Quelle; Hinzufügen der virtuellen Kraft zu einer Position basierend auf der gegenwärtigen Flugflugbahn, um eine Lagesteuerungseingabe zu erzeugen; und Bereitstellen der Lagesteuerungseingabe an eine Lagesteuerung, wobei die virtuelle Kraft eine Beschleunigung der Drohne von einer Beschleunigung der gegenwärtigen Flugflugbahn ändert.
  21. Verfahren nach Anspruch 19, ferner umfassend Empfangen von Prioritätsinformationen der externen Quelle von der externen Quelle, und wobei das Bestimmen, ob eine Kollision mit der externen Quelle stattfinden wird, Folgendes umfasst: Bestimmen einer Beobachtungssphäre der externen Quelle basierend auf dem Standort der externen Quelle; Bestimmen einer Kollisionssphäre der Drohne basierend auf einem gegenwärtigen Standort der Drohne; Bestimmen, dass die Beobachtungssphäre der externen Quelle die Kollisionssphäre der Drohne schneidet; Ausrichten einer gegenwärtigen Flugflugbahn und der Flugflugbahn der externen Quelle basierend auf der Überschneidung der Beobachtungssphäre der externen Quelle und der Kollisionssphäre der Drohne; und Bestimmen, dass eine Kollision zwischen der Drohne und der externen Quelle stattfinden wird, basierend auf einer Überschneidung der ausgerichteten Flugbahnen.
  22. Verfahren nach Anspruch 19, wobei das Bestimmen, ob eine Kollision mit der externen Quelle stattfinden wird, Folgendes umfasst: Bestimmen von ersten Standorten der Drohne basierend auf dem gegenwärtigen Flug basierend auf der gegenwärtigen Flugflugbahn für mehrere Zeitpunkte; Bestimmen von zweiten Standorten der externen Quelle basierend auf den Flugbahninformationen der externen Quelle für die mehreren Zeitpunkte; Bestimmen, dass eine Kollision stattfinden wird, falls sich Pfade zwischen aufeinanderfolgenden Punkten von den ersten Standorten und den zweiten Standorten zu demselben Zeitpunkt kreuzen.
  23. Verfahren nach Anspruch 13, wobei die Richtung nach unten ist.
  24. Mindestens ein maschinenlesbares Medium, das Anweisungen beinhaltet, die bei Ausführung durch eine Maschine bewirken, dass die Maschine Arbeitsvorgänge von beliebigen der Arbeitsvorgänge der Ansprüche 13-23 durchführt.
  25. Vorrichtung, die Mittel zum Durchführen von beliebigen der Arbeitsvorgänge der Ansprüche 13-23 umfasst.
DE102018127144.1A 2017-11-30 2018-10-30 Sichtbasierte kooperative kollisionsvermeidung Withdrawn DE102018127144A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/828,134 US10657833B2 (en) 2017-11-30 2017-11-30 Vision-based cooperative collision avoidance
US15/828,134 2017-11-30

Publications (1)

Publication Number Publication Date
DE102018127144A1 true DE102018127144A1 (de) 2019-06-06

Family

ID=65274282

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018127144.1A Withdrawn DE102018127144A1 (de) 2017-11-30 2018-10-30 Sichtbasierte kooperative kollisionsvermeidung

Country Status (3)

Country Link
US (1) US10657833B2 (de)
CN (1) CN109859533A (de)
DE (1) DE102018127144A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10657833B2 (en) 2017-11-30 2020-05-19 Intel Corporation Vision-based cooperative collision avoidance
US10733896B2 (en) 2018-03-30 2020-08-04 Intel Corporation Projection-based cooperative collision avoidance

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180186472A1 (en) * 2016-12-30 2018-07-05 Airmada Technology Inc. Method and apparatus for an unmanned aerial vehicle with a 360-degree camera system
US11423791B2 (en) * 2018-01-05 2022-08-23 Gopro, Inc. Adaptive object detection
JP6974247B2 (ja) * 2018-04-27 2021-12-01 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co., Ltd 情報処理装置、情報提示指示方法、プログラム、及び記録媒体
EP3627447B1 (de) * 2018-09-24 2022-06-29 Tata Consultancy Services Limited System und verfahren zur mehrrotordynamikbasierten online-massstabschätzung für monokulares sehen
CN109358633B (zh) * 2018-10-18 2020-07-03 北京航空航天大学 基于最后通牒博弈论的飞行控制方法及装置
CN109691090A (zh) * 2018-12-05 2019-04-26 珊口(深圳)智能科技有限公司 移动目标的监控方法、装置、监控***及移动机器人
US20220129017A1 (en) * 2019-02-18 2022-04-28 Sony Group Corporation Flight body, information processing method, and program
CN110288511B (zh) * 2019-05-10 2023-04-07 台州宏达电力建设有限公司台州经济开发区运检分公司 基于双相机图像的最小化误差拼接方法、装置、电子设备
EP3742248A1 (de) * 2019-05-20 2020-11-25 Sony Corporation Steuerung einer gruppe von drohnen zur bilderfassung
CN110162093B (zh) * 2019-06-13 2022-02-11 中国人民解放军军事科学院国防科技创新研究院 一种基于几何相似性设计的高适应性编队控制方法
CN110347186B (zh) * 2019-07-17 2022-04-05 中国人民解放军国防科技大学 基于仿生双目联动的地面运动目标自主跟踪***
EP4071577A4 (de) * 2019-12-31 2023-04-12 Huawei Technologies Co., Ltd. Steuerungsverfahren für unbemanntes luftfahrzeug, vorrichtung und system
US11631241B2 (en) * 2020-04-08 2023-04-18 Micron Technology, Inc. Paired or grouped drones
US20220281598A1 (en) * 2021-03-04 2022-09-08 Everseen Limited System and method for avoiding collision with non-stationary obstacles in an aerial movement volume
US20240212508A1 (en) * 2021-06-07 2024-06-27 Telefonaktiebolaget Lm Ericsson (Publ) Acquisition of Flight Information for UAV Communications
CN117434967B (zh) * 2023-12-18 2024-03-15 成都正扬博创电子技术有限公司 一种无人机防撞检测方法、***、介质及设备
CN117912309A (zh) * 2024-03-15 2024-04-19 阿斯默特(成都)科技有限公司 一种飞行器风险预警方法和装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201248347A (en) 2011-05-18 2012-12-01 Hon Hai Prec Ind Co Ltd System and method for controlling unmanned aerial vehicle
JP6584017B2 (ja) 2014-07-18 2019-10-02 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 航空機に基づく画像投影方法、装置及び航空機
CN112859899A (zh) 2014-10-31 2021-05-28 深圳市大疆创新科技有限公司 用于利用视觉标记进行监视的***和方法
WO2016154946A1 (en) 2015-03-31 2016-10-06 SZ DJI Technology Co., Ltd. Systems and methods for uav mutual authentication
WO2017057157A1 (ja) 2015-09-30 2017-04-06 株式会社ニコン 飛行装置、移動装置、サーバおよびプログラム
KR20170074453A (ko) 2015-12-22 2017-06-30 자이로캠주식회사 근거리 무선통신망 기반의 드론과 드로간 자동 충돌방지 및 회피 시스템
KR20170139326A (ko) 2016-06-09 2017-12-19 홍익대학교 산학협력단 무인 비행체의 자율비행시스템 및 자율비행방법
US10721461B2 (en) * 2017-07-28 2020-07-21 California Institute Of Technology Collaborative stereo system for three-dimensional terrain and object reconstruction
US10657833B2 (en) 2017-11-30 2020-05-19 Intel Corporation Vision-based cooperative collision avoidance
US10733896B2 (en) 2018-03-30 2020-08-04 Intel Corporation Projection-based cooperative collision avoidance

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
IEEE 802.15.4-Familie
IEEE 802.16-Familie

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10657833B2 (en) 2017-11-30 2020-05-19 Intel Corporation Vision-based cooperative collision avoidance
US10733896B2 (en) 2018-03-30 2020-08-04 Intel Corporation Projection-based cooperative collision avoidance

Also Published As

Publication number Publication date
US10657833B2 (en) 2020-05-19
CN109859533A (zh) 2019-06-07
US20190051193A1 (en) 2019-02-14

Similar Documents

Publication Publication Date Title
DE102018127144A1 (de) Sichtbasierte kooperative kollisionsvermeidung
DE102016118744B4 (de) Millimeterwellenkommunikationssystem
EP3611692B1 (de) Gateway iot für schwach verbundene einstellungen
EP3432108B1 (de) Verfahren und steuervorrichtung für ein autonomes und/oder teilautonomes transportfahrzeug
DE112017006672T5 (de) Erfassung von Verkehrsdynamik und Strassenveränderungen beim autonomen Fahren
DE102020131323A1 (de) Kamera-zu-lidar-kalibration und -validierung
DE112019001716T5 (de) Projektionsbasierte kooperative kollisionvermeidung
EP3380391B1 (de) System zum einparken eines fahrzeugs
DE102019110430A1 (de) Nebenbedingungen der simultanen positionsbestimmung und kartenerstellung in generative adversarial networks zur monokularen tiefenschätzung
DE102015203343A1 (de) Steuerung des halbautonomen modus
DE212017000258U1 (de) Visionsbasiertes Navigationssystem
DE102019126463A1 (de) Drohnengestützte bedienerrunden
EP3876065A1 (de) Verfahren zum bestimmen eines pfades entlang eines objekts, system und verfahren zum automatischen inspizieren eines objekts
DE112018005907T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und beweglicher körper
Surmann et al. Integration of uavs in urban search and rescue missions
DE102018100487A1 (de) Objektverfolgung durch unüberwachtes lernen
CN109978947A (zh) 一种监控无人机的方法、装置、设备和存储介质
DE102018112233B4 (de) Bereitstellung eines verkehrsspiegelinhalts für einen fahrer
DE102018132369A1 (de) Fahrzeugübergreifende zusammenarbeit zur selbstabbildung von fahrzeugen
DE202008007520U1 (de) Vorrichtung zur Verfolgung eines beweglichen Objekts
DE112020002287T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE102018120013A1 (de) Verfahren, vorrichtung und system zur übertragung von weginformationen, unbemanntes luftfahrzeug, bodenstation und computerlesbares speichermedium
DE102017213601A1 (de) Verfahren zum Erstellen einer Objektkarte für eine Fabrikumgebung
DE112017007989T5 (de) Anwendungsprioritätsbasierte energieverwaltung für eine computervorrichtung
DE102019127062A1 (de) Transportinfrastrukturkommunikation und -steuerung

Legal Events

Date Code Title Description
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee