DE102016104463B4 - Mehrdimensionale Verschmelzung von Bildern in Echtzeit - Google Patents

Mehrdimensionale Verschmelzung von Bildern in Echtzeit Download PDF

Info

Publication number
DE102016104463B4
DE102016104463B4 DE102016104463.6A DE102016104463A DE102016104463B4 DE 102016104463 B4 DE102016104463 B4 DE 102016104463B4 DE 102016104463 A DE102016104463 A DE 102016104463A DE 102016104463 B4 DE102016104463 B4 DE 102016104463B4
Authority
DE
Germany
Prior art keywords
data
point cloud
vehicle
image
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102016104463.6A
Other languages
English (en)
Other versions
DE102016104463A1 (de
Inventor
Robert C. Allen
Brendan Blanton
Lauren Gresko
Rajib Mitra
Frank Vincent
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Boeing Co
Original Assignee
Boeing Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Boeing Co filed Critical Boeing Co
Publication of DE102016104463A1 publication Critical patent/DE102016104463A1/de
Application granted granted Critical
Publication of DE102016104463B4 publication Critical patent/DE102016104463B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C23/00Combined instruments indicating more than one navigational value, e.g. for aircraft; Combined measuring devices for measuring two or more variables of movement, e.g. distance, speed or acceleration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0073Surveillance aids
    • G08G5/0086Surveillance aids for monitoring terrain
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Computer Graphics (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)

Abstract

Verfahren (400) zum Erzeugen eines synthetischen Bilds, das eine Umgebung eines Fahrzeugs darstellt, wobei das Verfahren aufweist:Erzeugen (402) eines ersten Bildes der Umgebung, indem Infrarotinformation von einer Infrarot(IR)-Kamera auf dem Fahrzeug verwendet wird;Erzeugen (404) eines zweiten Bildes der Umgebung, indem Laser-Punktwolken-Daten von einem LIDAR auf dem Fahrzeug verwendet werden;Erzeugen (406) einer eingebetteten Punktwolke, die die Umgebung darstellt, basierend auf einer Kombination des ersten Bildes und des zweiten Bildes derart, dass zusätzliche Daten in die Laser-Punktwolken-Daten eingebettet werden;Empfangen (408) von Navigationsinformation von der Umgebung, die von dem Fahrzeug durchquert wird, aus Daten, die in einer Navigationsdatenbank gespeichert sind;Umwandeln (410) der eingebetteten Punktwolke in einen geo-referenzierten Koordinatenraum basierend auf der Navigationsinformation; undKombinieren (412) der umgewandelten eingebetteten Punktwolke mit Bildern des Terrains der Umgebung, um das synthetische Bild zu erzeugen, das die Umgebung des Fahrzeugs darstellt,wobei das Erzeugen der eingebetteten Punktwolke aufweist:für jeden Laser-Datenpunkt der Laser-Punktwolken-Daten von dem LIDAR, Projizieren des Laser-Datenpunkts auf einen entsprechenden Pixel-Ort des ersten Bildes, um die Laser-Punktwolken-Daten auf das erste Bild zu mappen.

Description

  • GEBIET
  • Die vorliegende Offenbarung betrifft allgemein die Erzeugung einer synthetischen 3D-Darstellung einer Umgebung eines Fahrzeugs basierend auf einer Echtzeitverschmelzung von Daten von mehreren Sensoren, wobei das Bild auf einem multifunktionalen Display (MFD) des Fahrzeugs und/oder einem Helm- oder Kopf-verbundenen Display (HMD) angezeigt wird.
  • HINTERGRUND
  • Während einiger Flugoperationen können Störungen bzw. Verdunkelungen in der Atmosphäre, wie beispielsweise durch Regen, Schnee, Staub und/oder Sand, die Sicht eines Piloten einschränken. Die Fähigkeit des Piloten, das Flugzeug unter allen Wetterbedingungen zu führen, kann deshalb in einigen Betriebssituationen beschränkt sein. Während einige Flugzeugsysteme, wie beispielsweise Radar, dem Piloten zusätzliche Information betreffend der Umgebung des Flugzeugs geben, kann diese zusätzliche Information nicht ausreichend sein, um dem Piloten ein Rollen auf der Start/Landebahn, ein Starten und/oder Landen unter allen Bedingungen zu ermöglichen, wenn signifikante Störungen bzw. Verdunkelungen in der Atmosphäre vorhanden sind.
  • US 2010/0231705 A1 betrifft gemäß Zusammenfassung ein Sichtsystem zur Unterstützung der Flugzeugsteuerung, wobei das System einen Sichtliniendetektor zum Bestimmen der Sichtlinie des Piloten des Flugzeugs, ein vom Piloten getragenes Head Mounted Display (HMD) und einen Prozessor umfasst, der die ermittelte Sichtlinie vom Sichtliniendetektor empfängt, ein räumliches Bild der externen Szene zum Flugzeug erzeugt, symbolische Informationen bezüglich der Flugzeugführung ermittelt und die symbolischen Informationen dem räumlichen Bild überlagert, um ein kombiniertes räumliches und symbolisches Bild zu erzeugen, wobei das HMD dem Piloten das kombinierte räumliche und symbolische Bild in Echtzeit in Übereinstimmung mit der bestimmten Sichtlinie anzeigt. Das räumliche Bild kann ein aus einem Sensorbild und einem synthetischen Bild kombiniertes Bild sein. An das HMD kann eine Kommunikationsschnittstelle gekoppelt sein, die es dem Piloten ermöglicht, Fluganweisungen zu empfangen und zu bestätigen
  • JP 2003 302470 A offenbart eine Fußgänger-Erfassungseinrichtung, die ein Laser-Radar umfasst, um die Entfernung und die Richtung zu einem Objekt zu bestimmen.
  • US 2008/0158256 A1 offenbart ein Verfahren und ein System zur Bereitstellung einer perspektivischen Ansicht, indem eine Vielzahl von Sensordaten fusioniert werden.
  • ZUSAMMENFASSUNG
  • In einem Beispiel wird ein Verfahren zum Erzeugen eines synthetischen Bildes beschrieben, das eine Umgebung eines Fahrzeugs darstellt. Das Verfahren, welches in Anspruch 1 definiert ist, umfasst das Erzeugen eines ersten Bildes der Umgebung, indem Infrarotinformation von einer Infrarot(IR)-Kamera auf dem Fahrzeug benutzt wird, Erzeugen eines zweiten Bildes der Umgebung, indem Laser-Punktwolken-Daten von einem LIDAR auf dem Fahrzeug verwendet werden, Erzeugen einer eingebetteten Punktwolke, die die Umgebung darstellt, basierend auf einer Kombination des ersten Bildes und des zweiten Bildes derart, dass zusätzliche Daten in die Laser-Punktwolken-Daten eingebettet sind, Empfangen von Navigationsinformation von der Umgebung, die das Fahrzeug durchquert, von Daten, die in einer Navigationsdatenbank gespeichert sind, Umformen der eingebetteten Punktwolke in einen geo-referenzierten Koordinatenraum basierend auf der Navigationsinformation, und Kombinieren der umgewandelten eingebetteten Punktwolke mit Bildern des Terrains der Umgebung, um das synthetische Bild zu erzeugen, das die Umgebung des Fahrzeugs darstellt, wobei das Erzeugen der eingebetteten Punktwolke das folgende Merkmal aufweist: für jeden Laser-Datenpunkt der Laser-Punktwolken-Daten von dem LIDAR, Projizieren des Laser-Datenpunkts auf einen entsprechenden Pixel-Ort des ersten Bildes, um die Laser-Punktwolken-Daten auf das erste Bild zu mappen.
  • In einem anderen Beispiel wird ein nicht flüchtiges computerlesbares Medium beschrieben, das Befehle abgespeichert enthält, die, wenn sie von einer Computervorrichtung ausgeführt werden, die Computervorrichtung veranlasst, Funktionen auszuführen. Die Funktionen umfassen das Erzeugen eines ersten Bildes der Umgebung, indem Infrarotinformation benutzt wird, die von einer Infrarot(IR)-Kamera auf einem Fahrzeug gesammelt wird, Erzeugen eines zweiten Bildes der Umgebung, indem Laser-Punktwolken-Daten benutzt werden, die von einem LI DAR auf dem Fahrzeug gesammelt werden, Erzeugen einer eingebetteten Punktwolke, die die Umgebung darstellt, basierend auf einer Kombination des ersten Bildes und des zweiten Bildes, derart, dass zusätzliche Daten in die Laser-Punktwolken-Daten eingebettet werden, Empfangen von Navigationsinformation von der Umgebung, die von dem Fahrzeug durchquert wird, von Daten, die in einer Navigationsdatenbank gespeichert sind, Umwandeln der eingebetteten Punktwolke in einen geo-referenzierten Koordinatenraum basierend auf der Navigationsinformation, und Kombinieren der umgewandelten eingebetteten Punktwolke mit Bildern des Terrains der Umgebung, um das synthetische Bild zu erzeugen, das die Umgebung des Fahrzeugs darstellt.
  • In einem anderen Beispiel wird ein System beschrieben. Das System, welches in Anspruch 13 definiert ist, weist eine Infrarot(IR)-Kamera auf, um Infrarotinformation von einer Umgebung eines Fahrzeugs zu sammeln. Ferner weist es ein LIDAR auf, um Laser-Punktwolken-Daten der Umgebung des Fahrzeugs zu sammeln, ein Navigationssystem, das ausgelegt ist, um Navigationsinformation des Fahrzeugs zu bestimmen, und einen Prozessor aufweist, um eine synthetische Darstellung der Umgebung des Fahrzeugs zu erzeugen in Echtzeit, während das Fahrzeug die Umgebung durchquert, basierend auf Ausgangssignalen der IR-Kamera, des LIDAR und des Navigationssystems. Erzeugen der synthetischen Darstellung umfasst das Erzeugen einer eingebetteten Punktwolke, die die Umgebung darstellt, basierend auf einer Kombination der Infrarotinformation und der Laser-Punktwolken-Daten, derart, dass zusätzliche Daten in die Laser-Punktwolken-Daten eingebettet werden, für jeden Laser-Datenpunkt der Laser-Punktwolken-Daten von dem LIDAR, Projizieren des Laser-Datenpunkts auf einen entsprechenden Pixel-Ort der Infrarotinformation, um die Laser-Punktwolken-Daten auf das erste Bild zu mappen, und Kombinieren der eingebetteten Punktwolke mit Bildern des Terrains der Umgebung. Das System umfasst auch ein Display bzw. eine Anzeige, um das synthetische Bild des Terrains der Umgebung auf einem Display des Fahrzeugs darzustellen.
  • Die Merkmale, Funktionen und Vorteile, die hier beschrieben werden, können unabhängig in verschiedenen Ausführungsformen erreicht werden oder können auch in anderen Ausführungsformen kombiniert werden, wobei weitere Details sich mit Bezug auf die nachfolgende Beschreibung und Zeichnungen ergeben.
  • Figurenliste
  • Die neuen Merkmale und Eigenschaften der beispielhaften Ausführungsformen sind in den angehängten Ansprüchen ausgeführt. Die beispielhaften Ausführungsformen sowie ein bevorzugter Benutzungsmodus sowie weitere Aufgaben und Erläuterungen werden am besten durch Bezugnahme auf die nachfolgende detaillierte Beschreibung einer beispielhaften Ausführungsform der vorliegenden Offenbarung verstanden, wenn sie in Verbindung mit den begleitenden Zeichnungen gelesen wird, wobei:
    • 1 ein Blockdiagramm eines beispielhaften Systems zur Erzeugung synthetischer Bilder ist, die eine Umgebung eines Fahrzeugs, wie beispielsweise eines Flugzeugs, darstellen, gemäß einer beispielhaften Ausführungsform;
    • 2 ein Diagramm ist, das ein System mit funktionalen Komponenten zur Erzeugung eines synthetischen Bilds darstellt, das eine Umgebung eines Fahrzeugs repräsentiert, entsprechend einer beispielhaften Ausführungsform;
    • 3 ein Diagramm ist, das ein detailliertes System mit funktionalen Komponenten zur Erzeugung eines synthetischen Bilds darstellt, das eine Umgebung eines Fahrzeugs repräsentiert, entsprechend einer beispielhaften Ausführungsform;
    • 4 ein Flussdiagramm eines beispielhaften Verfahrens zum Erzeugen eines synthetischen Bilds zeigt, das eine Umgebung eines Fahrzeugs entsprechend einer beispielhaften Ausführungsform repräsentiert;
    • 5 ein Beispiel eines synthetischen Bilds ist, das eine Umgebung eines Fahrzeugs darstellt, entsprechend einer beispielhaften Ausführungsform; und
    • 6 eine schematische Zeichnung einer beispielhaften Computervorrichtung zeigt, entsprechend einer beispielhaften Ausführungsform.
  • DETAILLIERTE BESCHREIBUNG
  • Offenbarte Ausführungsformen werden nun in größerem Detail nachfolgend mit Bezug auf die begleitenden Zeichnungen erläutert, in denen einige, aber nicht alle der offenbarten Ausführungsformen gezeigt sind. Verschiedene unterschiedliche Ausführungsformen werden tatsächlich beschrieben und sollen nicht als die Ausführungsformen beschränkend verstanden werden, die hier ausgeführt sind. Vielmehr sind diese Ausführungsformen so beschrieben, dass diese Offenbarung umfassend und vollständig sein wird und der volle Umfang der Offenbarung sich einem Fachmann erschließen wird.
  • Manchmal während Flugoperationen bei Bedingungen mit einer Sicht nahe Null (nahe „Null-Sicht“) oder ohne Sicht (einer „Null-Sicht“) aufgrund von vorhandenen Störungen bzw. Verdunkelungen in der Atmosphäre (beispielsweise Regen, Schnee, Staub, Sand) ist die Sicht von Flugzeugbesatzungen eingeschränkt. Beispielhafte Systeme und Verfahren, die hier beschrieben sind, können eingesetzt werden, um den Flugzeugbesatzungen ein synthetisch erzeugtes Bild zu präsentieren, basierend auf einem zunehmenden und/oder abnehmenden Grad der Verdunkelung, zur Anzeige auf einem Multifunktionsdisplay und/oder einem Helm-integrierten Display eines Flugzeugs. Wenn sich die Dichte der Verdunkelung erhöht, kann die Intensität des synthetischen Bilds ebenfalls erhöht werden, und wenn die Verdunkelung verschwindet und sich in ihrer Intensität reduziert, kann die Intensität des synthetischen Bilds ebenfalls reduziert werden.
  • Beispielhafte Systeme und Verfahren umfassen somit das Erzeugen eines synthetischen Bilds, das von einem Piloten gesehen werden kann, wenn er bei nahe Null-Sicht-Bedingungen arbeitet. Ein beispielhaftes System umfasst eine langwellige Infrarot(IR)-Kamera, ein LIDAR (Licht-Erfassungs- und Entfernungsbestimmungs-)System, das Punktwolken-Daten erzeugt, ein System oder Datenbank, das/die ausgebildet ist, um dreidimensionale (3D) Navigationsinformationen zu speichern, und einen Prozessor, um das synthetische Bild basierend auf Ausgangssignalen der IR-Kamera, dem LI DAR und der 3D-Navigationsdatenbank zu erzeugen.
  • Ein beispielhaftes Verfahren zeigt verschmolzene bzw. vereinigte Bilder der Terraindatenbank des Flugzeugs mit Bildern, die aus mehreren Sensorausgangssignalen erzeugt wurden, um das synthetische Bild zu erzeugen. Das synthetische Bild kann aus mehreren (beispielsweise drei) überlagerten Bildern aufgebaut sein. Mehrere Bilder können Bilder sein, die ein Bild umfassen, das von einer Infrarot(IR)-Kamera (beispielsweise langwellige, mittelwellige oder kurzwellige oder andere IR-Kameras) erzeugt wurde, aufeinanderfolgende Bilder, die von einem RADAR-System oder Sensoren erzeugt wurden, die Punktwolken-Daten erzeugen (beispielsweise von einem LIDAR erfasst), und andere Bilder, wie beispielsweise ein Terrainbild, das aus Daten gewonnen wird, die in einer 3D-Navigationsdatenbank gespeichert sind. Die Bilder werden dann übereinandergelegt, um das synthetische Bild oder die synthetische Darstellung zu bilden. Jedes dieser drei Bilder, das zur Ausbildung des einzelnen synthetischen Bilds ausgewählt ist, kann mit einem Zeitstempel versehen sein, so dass alle Bilder etwa den gleichen Zeitpunkt darstellen. Der Ausgang ist ein in Echtzeit synthetisch erzeugtes Bild, das sowohl auf multifunktionalen Displays (MFD) als auch auf Kopf-verbundenen Displays (HMD) angezeigt wird, um es der Flugzeugbesatzung oder den Operatoren zu ermöglichen, sicher bei nahe Null- oder Null-Sicht-Bedingungen zu arbeiten.
  • Der Einsatz der beispielhaften Systeme und Verfahren kann die Sicherheit und die Situations-Wahrnehmung der Flugzeugbesatzung erhöhen, die bei Sichtflugregel(VFR)-Bedingungen oder weniger oder in verschlechterten Sichtumgebungen (DVE) arbeiten. Beispielsweise kann die Verwendung der Systeme und Verfahren, die hier beschrieben sind, Situationen verbessern, um es der Flugzeugbesatzung zu ermöglichen, sicherer zu arbeiten (beispielsweise zu rollen, zu starten, zu landen etc.) bei Sichtbedingungen, die gering sind, nahe null sind oder null sind.
  • Obgleich einige Beispiele sich hier auf ein Flugzeug und Flugzeugoperationen beziehen, können die Systeme und Verfahren bei jeglichem Fahrzeug angewendet werden, das in einer verdunkelten Atmosphäre betrieben wird, oder auf jede Atmosphäre, bei der eingebettete 3D-Punktwolken-Daten gesammelt werden und für die Echtzeit-Punktwolken-Visualisierung verwendet werden, was beispielsweise Automobilanwendungen, Bergbauanwendungen und/oder Flugzeuganwendungen umfasst, um einige Beispiele zu nennen. Solche Verfahren können ferner bei jeder Anwendung eingesetzt werden, die Verdunkelungen in der Atmosphäre oder der Umgebung erfährt oder auch nicht. Weitere Anwendungen umfassen die Benutzung der Verfahren, die hier beschrieben sind, für die Erfassung eines Hindernisses oder für die Kollisionsvermeidung für Boden- und Luftfahrzeuge.
  • Es wird nun auf die Figuren Bezug genommen. 1 ist ein Blockdiagramm eines beispielhaften Systems 100 zur Erzeugung von synthetischen Bildern, die eine Umgebung eines Fahrzeugs, beispielsweise eines Flugzeugs, darstellen. Das System 100 umfasst Sensoren 102, beispielsweise eine Infrarot(IR)-Kamera 104, ein LIDAR (Licht-Erfassungs- und Entfernungsmesssystem) 106, ein RADAR (Radioerfassungs- und -entfernungsmesssystem) 108 und möglicherweise andere Sensoren 110, die in Kommunikation mit einem Prozessor 112 sind. Das System 100 umfasst ferner eine dreidimensionale (3D) Terraindatenbank 114, die ebenfalls mit dem Prozessor 112 in Verbindung steht. Der Prozessor 112 kann Ausgangssignale der Sensoren 102 und der 3D-Terraindatenbank 114 empfangen, und die Ausgangssignale verarbeiten, um Ausgangsbilder 116 zu erzeugen, die in dem Datenspeicher 118 gespeichert werden. Das System 100 kann ferner ein Display bzw. eine Anzeige 120 aufweisen, die in Verbindung mit dem Datenspeicher 118 und/oder dem Prozessor 112 steht, um die Ausgangsbilder 116 zu empfangen und anzuzeigen.
  • Das System 100 kann vollständig innerhalb eines Fahrzeugs oder eines Flugzeugs sein, oder Teile des Systems 100 können in einem Flugzeug vorhanden sein (beispielsweise die Sensoren) und Teile des Systems können woanders sein oder innerhalb anderer Computervorrichtungen untergebracht sein (beispielsweise die 3D-Terraindatenbank).
  • Die IR-Kamera 104 kann eine langwellige IR-Kamera sein, die ausgelegt ist, um Infrarotinformation einer Umgebung eines Fahrzeugs oder eines Flugzeugs zu sammeln, und um ein Bild zu erzeugen, indem die Infrarotinformation benutzt wird.
  • Das LIDAR 106 kann die Entfernung zu Umgebungsmerkmalen abschätzen, während es eine Szene abtastet, um eine „Punktwolke“ aufzubauen, die reflektive Flächen in der Umgebung anzeigt. Individuelle Punkte in der Punktwolke können bestimmt werden durch Übertragung eines Laserimpulses und Erfassung eines Rückimpulses, falls vorhanden, der von einem Objekt in der Umgebung reflektiert wurde, und es kann dann eine Distanz zu dem Objekt bestimmt werden entsprechend einer Zeitverzögerung zwischen dem ausgesendeten Impuls und dem Empfang des reflektierten Impulses. Ein Laser oder ein Satz von Lasern können schnell und wiederholt Bereiche der Umgebung abtasten, um kontinuierlich Echtzeitinformation über Entfernungen zu reflektierenden Objekten in der Umgebung zu erzeugen. Das Kombinieren gemessener Entfernungen und Ausrichtungen der Laser, während jede Entfernung gemessen wird, ermöglicht es, eine dreidimensionale Position jedem zurückkommenden Impuls zuzuordnen. Auf diese Weise kann eine dreidimensionale Karte von Punkten (beispielsweise eine Punktwolke) für die gesamte abgetastete Zone erzeugt werden, wobei die Punkte Orte der reflektierten Merkmale in der Umgebung angeben. Das LIDAR 106 kann Punktwolken-Daten ausgeben oder kann Bilder ausgeben, die beispielsweise unter Verwendung der Punktwolken-Daten erzeugt wurden. Somit kann das LIDAR konfiguriert sein, um Laserpunktwolken-Daten der Umgebung des Fahrzeugs zu sammeln.
  • Das RADAR 108 ist ein Objekterfassungssensor, der Radio- bzw. Funkwellen einsetzt, um die Entfernung, Höhe, Richtung und Geschwindigkeit von Objekten in einer Umgebung zu bestimmen. Beispielsweise kann das RADAR eine Antenne aufweisen, die Impulse von Funkwellen oder Mikrowellen sendet, die von einem Objekt in deren Pfad zurückgeworfen werden. Das Objekt reflektiert einen Teil der Energie der Welle zu einem Empfänger des RADAR-Systems, um die Position des Objekts abzuschätzen oder zu bestimmen.
  • Der andere Sensor bzw. die anderen Sensoren 110 können eine Vielzahl von Sensoren aufweisen, die auf dem Fahrzeug für Navigationszwecke vorhanden sind, wie beispielsweise andere Abbildungskameras, Trägheitsmesseinheiten (IMUs), Temperatursensoren, SONAR oder andere Gruppen von Sensoren und optischen Komponenten. Bei einigen Beispielen können die Sensoren 110 ein Trägheitsnavigationssystem (INS) aufweisen, das ausgelegt ist, um Navigationsinformation des Fahrzeugs zu bestimmen, ein globales Positionserfassungssystem (GPS) zum Bestimmen von Navigationsinformation, oder ein anderes Navigationssystem.
  • Die 3D-Terraindatenbank 114 kann Terrainbilder speichern, die von einer Kamera auf dem Fahrzeug aufgenommen wurden, um eine visuelle Darstellung der Umgebung des Fahrzeugs zu erzeugen.
  • Der Prozessor 112 kann Ausgangssignale von den Sensoren 102 empfangen, um ein synthetisches Bild einer Umgebung oder eines Umfelds des Fahrzeugs zu erzeugen, in dem sich das System 100 befindet. Der Prozessor kann somit das synthetische Bild erzeugen, das die Umgebung des Fahrzeugs darstellt, in Echtzeit, während das Fahrzeug die Umgebung durchquert, basierend auf Ausgangssignalen der IR-Kamera 104, des LIDAR 106, des RADARs 108 und der Sensoren 110. Um dies zu tun, kann bei einem Beispiel der Prozessor 112 eine eingebettete Punktwolke erzeugen, die die Umgebung darstellt, basierend auf einer Kombination der Infrarotinformation von der IR-Kamera 104 und der Laser-Punktwolken-Daten von dem LIDAR 106, und kann die eingebettete Punktwolke mit Bildern des Terrains der Umgebung kombinieren, die von der 3D-Terraindatenbank 114 erhalten wurde. Die LIDAR-Daten umfassen Voxels mit x, y, z und Höhen-Koordinaten, und solche Werte werden auf die 2D-Sensordaten von der Kamera 104 gemappt bzw. abgebildet, wobei die Mappings in die Punktwolken-Daten als zusätzliche Metadaten eingebettet sind.
  • Terrainbilder aus der 3D-Terraindatenbank 114 können auf die eingebettete Punktwolke überlagert werden, um die Ausgangsbilder 116 zur Speicherung in dem Datenspeicher 118 und zur Anzeige zu erzeugen.
  • Die Ausgangsbilder 116 umfassen synthetisch und in Echtzeit erzeugte Bilder, die zu der Anzeige 120 gesendet werden, die sowohl multifunktionale Anzeigen (MFD) und Kopf-verbundene Displays (HMD) umfassen kann, um es der Flugzeugbesatzung zu ermöglichen, das synthetische Bild zu sehen. Die Anzeige 120 kann andere Anzeigen eines Fahrzeugs ebenfalls aufweisen.
  • Das System 100 kann ständig in Betrieb sein oder nach Anforderung durch die Operatoren im Fahrzeug, um die synthetischen Bilder der Umgebung des Fahrzeugs zu erzeugen und dem Piloten Zweit- bzw. Sekundärbilder anzuzeigen (zusätzlich zu den primären Ansichten innerhalb eines Sichtfelds des Piloten), oder um dem Piloten alternative virtuelle Bilder anzuzeigen während Nahe-Null- oder Null-Sicht-Bedingungen, für einen Betrieb mit verbesserter Sicherheit.
  • 2 ist ein Diagramm, das ein System 200 mit funktionalen Komponenten zur Erzeugung eines synthetischen Bilds, das eine Umgebung eines Fahrzeugs darstellt, zeigt. Das System 200 umfasst Kamera(s) 202, wie beispielsweise eine visuelle Kamera, eine IR-Kamera oder eine passive Millimeterwellen(PMMW)-Abbildungsvorrichtung, um ein Video auszugeben, 3D-Sensor(en) 204, wie beispielsweise LIDAR und RADAR, um Punktwolken-Daten auszugeben, und Navigationssensoren 206, wie beispielsweise GPS und ein Navigationssystem, um Fahrzeug-Zustandsdaten (beispielsweise Position, Ausrichtung, Geschwindigkeit und Beschleunigung), zu einem Verschmelzungs-Algorithmus 208 auszugeben. Die 3D-Sensoren 204 erzeugen Punkte im Raum (beispielsweise 3D-Darstellung der echten Welt) zur Erzeugung von 3D-Modellen der Umgebung, und die Kamera 202 kann mit hohen Bildwiederholraten abbilden (d.h. 60 Hz oder mehr), um übereinstimmende Ansichten zur Kombination durch den Verschmelzungs-Algorithmus zu erzeugen, basierend auf den Fahrzeug-Zustandsdaten, um beispielsweise ein virtuelles Bild der 3D-Welt aus einer Perspektive eines Piloten zu erzeugen. Der Verschmelzungs-Algorithmus 208 empfängt die Punktwolken-Daten und bestimmt für jeden erzeugten Punkt einen entsprechenden Punkt in dem Bild von dem Video, um das Bild in die 3D-Darstellung der Welt einzubetten.
  • Der Verschmelzungs-Algorithmus 208 gibt einen Punktwolken-eingebetteten Videodatenstrom 210 aus, der Sensorwerte (beispielsweise Breitengrad, Längengrad und Höhe), LIDAR-Daten (beispielsweise Intensität und Entfernung), RADAR-Daten (beispielsweise Polarisation, Entfernung und Intensität), Kamera-RGB-Farbe, IR-Intensität und andere eingebettete Metadaten umfasst. Beispielsweise erzeugt LIDAR zusätzliche Information von Punkten, wie beispielsweise Reflexionsgrad, und all diese Metadaten können für einen vorgegebenen Punkt abgespeichert werden. Andere Metadaten, die zu speichern sind, umfassen Intensität dieses Punkts, die Farbe dieses Punkts (von einer Farbkamera), Entfernung, etc. Ein angereicherter Datensatz 212 kann somit zur Visualisierung für die Piloten erzeugt werden, indem die multi-spektralen Daten, die in dem 3D-Modell eingebettet sind, verwendet werden, oder für Anwendungen weiterverarbeitet werden, wie beispielsweise eine Hindernis- oder Zielerfassungs-Anwendung. Der angereicherte Datensatz 212 umfasst Daten, die eingebettet sind, um ein weiteres Detail der von den Sensoren gesehenen Objekte bereitzustellen.
  • Innerhalb eines Beispiels kann der Verschmelzungs-Algorithmus 208 eingesetzt werden, um ein synthetisches Bild zu erzeugen, das von einem Piloten gesehen werden kann, wenn er bei Nahe-Null-Sicht-Bedingungen arbeitet. Abbildungen bzw. Bilder einer Terraindatenbank des Fahrzeugs können mit Bildern verschmolzen werden, die von den mehreren Sensorausgängen erzeugt werden, um das synthetische Bild zu erzeugen. Das synthetische Bild kann aus drei verschmolzenen Datensätzen aufgebaut sein. Die drei Datensätze umfassen ein visuelles Bild, das von der Kamera 202 erzeugt wird, ein zweites Bild, das unter Verwendung der Punktwolken-Daten erzeugt wird, die von dem LIDAR 204 erfasst wurden, und ein drittes Bild ist ein Terrainbild, das aus den in einer 3D-Navigationsdatenbank gespeicherten Daten erhalten wird. Der Ausgang ist ein synthetisch in Echtzeit erzeugtes Bild, das sowohl auf Multifunktionsdisplays (MFD) als auch auf Kopf-verbundenen Displays (HMD; head-mounted displays) dargestellt werden kann, um es den Operatoren zu ermöglichen, sicher bei Nahe-Null- oder Null-Sicht-Bedingungen zu arbeiten. Die drei Bilder werden dann übereinandergelegt, um das synthetische Bild zu formen. Es ist anzumerken, dass jedes der drei Bilder, die zur Ausbildung des einzelnen synthetischen Bildes ausgewählt sind, mit einem Zeitstempel versehen sind, so dass alle drei Bilder etwa den gleichen Zeitpunkt darstellen.
  • 3 ist ein Diagramm, das ein detailliertes System 300 mit funktionalen Komponenten zur Erzeugung eines synthetischen Bildes zeigt, das eine Umgebung eines Fahrzeugs darstellt. Ähnlich zu 2 umfasst das System 300 in 3 Kamera(s) 302, um ein Video auszugeben, 3D-Sensoren 304, um Punktwolken-Daten auszugeben, und Navigationssensoren 306, um Fahrzeug-Zustandsdaten auszugeben. Das Video wird an ein Videovorverarbeitungsmodul 308 gesendet, das optische Verzerrung entfernt und die Kameraausgangssignale kalibriert, um beispielsweise Paralaxe in den Rohbildern zu korrigieren.
  • Die Punktwolken-Daten werden an ein Registrierungsmodul 310 gesendet, um die Rücksignale von LIDAR/RADAR an einer Plattform zu registrieren. Die Registrierung korrigiert Sensorparalaxe, Fehlausrichtung der Sensoren oder Verzerrung (beispielsweise aus Azimutwinkel relativ zu der Fahrzeugbewegung). Nach Korrekturen werden die Punktwolken-Daten zu einem Projektionsmodul 312 gesendet, wobei jeder Punkt genommen wird und in eine entsprechende Pixelposition des Videos projiziert wird. Die Projektion der Punktwolken-Daten in das Video umfasst ein geometrisches Mappen der Daten in den gleichen Referenzkoordinaten. Mehrere Sensoren sind beispielsweise auf einer Plattform an unterschiedlichen Winkeln, und die Projektion erfordert zum Mappen der Daten in Echtzeit den gleichen Raum (für jeden Winkel bei LIDAR werden Azimut und Höhe auf ein Pixel gemappt, und für RADAR kann zwischen Pixeln zum Mappen interpoliert werden).
  • Die Projektion kann das Einbetten der 2D(Winkel-Winkel)-Information in den 3D(Winkel-Winkel-Entfernungs-)Punkt-Raum umfassen, so dass die Kameradaten (beispielsweise Farbe oder Intensität) verwertet werden können. Sensorlage, Sichtfeld und Winkelauflösung der 3D-Sensoren 304 wird berücksichtigt und für Bereiche, wo die 3D- und 2D-Sensoren überlappen, wird die Winkelauflösung adressiert. Beispielsweise kann das RADAR eine geringere Winkelauflösung im Vergleich zu LIDAR haben, wobei beide unterschiedlich sind von dem Abbildungssystem oder der Kamera. Dies impliziert, dass für ein gegebenes Kamerapixelsichtfeld, dessen Farbe oder Intensitätsdaten abwärts abgetastet werden können oder sogar vielleicht aufwärts abgetastet werden können, Informationen in die Punktwolken-Daten eingebettet werden.
  • Nach der Projektion der Daten in das Video wird eine eingebettete Punktwolke erzeugt, wie mit Block 314 gezeigt. Als Nächstes wird die eingebettete Punktwolke georegistriert in einen Breitengrad/Längengrad-Höhen-Raum basierend auf den Fahrzeugnavigationsdaten, um zu berechnen, wo das Fahrzeug war, als die Daten gesammelt wurden, wie mit Block 316 gezeigt. Die eingebetteten Punktwolken-Daten umfassen plattformbezogene Winkel-Winkel-Entfernungs- oder XYZ-Punkte, wobei jeder in Echtzeit verbessert wurde, um Daten von einem oder mehreren bordeigenen Sensoren zu enthalten. Bevor die LIDAR-Punktwolken-Daten nun weiterverarbeitet werden können, wird die Geo-Registrierung ausgeführt, um die 3D-plattformbezogenen Punktwolken-Daten in 3D-geo-referenzierte (beispielsweise Breitengrad, Längengrad, Höhe) Information zu transformieren. Dies verwendet genaue GPS-Plattformdaten mit sechs Freiheitsgraden (sechs DOF) (beispielsweise Breitengrad, Längengrad, Höhe, Kurs, Neigung, Rollen) von den Navigationssensoren 306 und dem Wissen der 3D-Punktwolkensensor-Fluglage und dem linearen Offset relativ zu dem Navigationsreferenzpunkt. Bordeigene Sensoren und a priori Terrainhöhendaten können verwendet werden, um Navigationsfehler zu korrigieren und die Geo-Registrierungsgenauigkeit der eingebetteten Punktwolken-Daten zu verbessern, um Hindernis/Zielklassifizierungs- und Kollisionsvermeidungs-Anwendungen zu unterstützen.
  • Danach optimiert ein Korrelationsmodul 318 die geo-registrierten Daten zur Speicherung in einer Punkt-Datenbank 320. Punktwolken-Datensätze werden in effizienten 3D-Darstellungen gespeichert (beispielsweise als Octtrees, Voxels, etc.). Da Daten gesammelt werden, werden die „besten“ Sensormetadaten (nachfolgend beschrieben) gespeichert und mit einem 3D-Punkt korreliert. Da Punkte in Echtzeit in das System fließen, werden die Datenpunkte von den Sensoren analysiert, um zu bestimmen, ob die Datenpunkte zusätzliche räumliche Auflösungen anzeigen. Falls ja, wird ein neuer Punkt höherer Auflösung in dem Datensatz erzeugt. Falls nicht, werden die Sensordaten für eine Aktualisierung evaluiert.
  • Verschiedene Kriterien werden für die Evaluierung im Korrelationsmodul 318 verwendet, um die besten Sensordaten zu identifizieren, wie beispielsweise Entfernung, Ansicht, Navigationsgenauigkeit und Sensormessgenauigkeit. Die Entfernung wird verwendet, da typischerweise je näher ein Sensor zu einem Messpunkt ist, die Daten desto genauer sind, und somit können verschiedene Schwellenwerte in Bezug auf Distanz/Entfernung für die Evaluierung gesetzt werden und für die Kriterien für die weitere Korrelation genutzt werden. Die Ansicht wird verwendet, da die Anwendung von 2D-Daten auf die 3D-Welt ausgeführt wird, und es gewünscht ist, mehrere Ansichten des gleichen Objekts zu erhalten. Plattformnavigationsgenauigkeit kann ebenfalls verwendet werden für genaue Daten im Hinblick auf Geo-Registrierung. Schließlich werden Attribute des Sensors importiert, um zu bestimmen, welche Daten beibehalten werden. Dies sind Faktoren wie beispielsweise Messgenauigkeit (beispielsweise RADAR und LIDAR arbeiten nicht gut bei geringen Streifwinkeln zum Ziel).
  • Ebenfalls können unterschiedliche Grade der Verdunkelung (beispielsweise Rauch, Regen etc.) basierend auf Ausgangssignalen der anderen bordeigenen Sensoren bestimmt werden, um zu bestimmen, was die 3D-Sensoren 304 erfahren und um Daten zu erhalten, vorzugsweise bei klaren Luftbedingungen.
  • Die Korrelation aller Punkte, die die gewünschten Kriterien erfüllen, können folglich verwendet werden, um Daten zu erhalten, die als nützlich betrachtet werden, was zu einem angereicherten Datensatz zur Hinderniserkennung, 3D-Visualisierung etc. führt.
  • Das System 300 umfasst ferner eine Rückkopplungsschleife, die eine ein Sensoranalysemodul 324, ein Echtzeit-Sensor-Optimierungsmodul 326 und ein adaptives Sensorsteuerungsmodul 328 aufweist. Das System 300 arbeitet in Echtzeit, da Datenpunkte gesammelt werden, um die angereicherten Datensätze 322 aufzubauen. Es gibt in Echtzeit Gelegenheiten, um eine adaptive Sensorsteuerung auszuführen, um so die Sensorparameter einzustellen, um die Daten besser zu optimieren. Basierend auf Ausgangssignalen der bordeigenen Sensoren oder der Evaluierung von Sensordaten (beispielsweise durch das Sensoranalysemodul 324) können beispielsweise Grade der Verdunkelung der Sensoren oder der Umgebung erfasst werden (beispielsweise verschneite Umgebung). Verschiedene Verdunkelungen können zur Einstellung der Sensorparameter bestimmt werden, beispielsweise zur Einstellung der Filter, Kontrasteinstellungen, Verstärkung, Leistung des Lasers zur Verhinderung von Sättigung, etc. In einem spezifischen Beispiel kann es bei verschneiten Bedingungen wünschenswert sein, die Energie des Lasers im LIDAR zu reduzieren, um zusätzliche unerwünschte Rücksignale von Partikeln/Schnee in der Atmosphäre zu verhindern und die Abhängigkeit vom RADAR zu erhöhen.
  • Das adaptive Sensorsteuerungsmodul 328 kann Einstellungen zu den Kameras 302, den 3D-Sensoren 304 als auch den Navigationssensoren 306 ausgeben, um den Betrieb aller Sensoren basierend auf Betriebsbedingungen des Systems 300 zu optimieren.
  • 4 zeigt ein Flussdiagramm eines beispielhaften Verfahrens 400 zum Erzeugen eines synthetischen Bilds, das eine Umgebung eines Fahrzeugs darstellt. Das Verfahren 400, das in 4 gezeigt ist, stellt eine Ausführungsform eines Verfahrens dar, das beispielsweise verwendet werden könnte mit den Systemen, die in den 1-3 gezeigt sind, und das von einer Computervorrichtung (oder Komponenten einer Computervorrichtung) ausgeführt werden könnte, wie beispielsweise einer Client-Vorrichtung oder einem Server, oder von Komponenten einer Client-Vorrichtung sowie eines Servers ausgeführt werden könnte. Beispielhafte Vorrichtungen oder Systeme können verwendet werden oder konfiguriert werden, um logische Funktionen auszuführen, die in 4 dargestellt sind. Manchmal können Komponenten der Vorrichtungen und/oder Systeme konfiguriert sein, um die Funktionen auszuführen, derart, dass die Komponenten tatsächlich konfiguriert und strukturiert sind (mit Hardware und/oder Software), um eine solche Ausführung zu ermöglichen. In anderen Beispielen können Komponenten der Vorrichtungen und/oder Systeme angeordnet sein, um ausgelegt zu sein, in der Lage zu sein oder geeignet zu sein, um diese Funktionen auszuführen. Das Verfahren 400 kann ein oder mehrere Operationen, Funktionen oder Aktionen umfassen, die durch einen oder mehrere Blöcke 402-412 dargestellt sind. Obgleich die Blöcke in einer sequenziellen Reihenfolge dargestellt sind, können diese Blöcke auch parallel ausgeführt werden und/oder in unterschiedlicher Reihenfolge als jene, die hier beschrieben ist. Ebenfalls können die verschiedenen Blöcke in weniger Blöcke kombiniert werden, aufgeteilt werden in zusätzliche Blöcke und/oder entfernt werden basierend auf der gewünschten Implementierung.
  • Es versteht sich, dass für diese und andere Prozesse und Verfahren, die hier offenbart sind, die Flussdiagramme Funktionalität und Arbeitsweise von einer möglichen Implementierung vorhandener Ausführungsformen zeigen. In dieser Hinsicht kann jeder Block ein Modul, ein Segment oder ein Teil von Programmcode darstellen, der einen oder mehrere Befehle umfasst, die von einem Prozessor ausgeführt werden, um spezifische logische Funktionen oder Schritte in dem Prozess zu implementieren. Der Programmcode kann auf jedem Typ von computerlesbarem Medium oder Datenspeicher gespeichert sein, wie beispielsweise einer Speichervorrichtung, die eine Disk oder eine Festplatte aufweist. Das computerlesbare Medium kann ein nicht flüchtiges computerlesbares Medium oder Speicher sein, wie beispielsweise ein computerlesbares Medium, das Daten für kurze Zeitperioden speichert, wie Registerspeicher, Prozessor-Cache und Random Access Memory (RAM). Das computerlesbare Medium kann auch nicht flüchtige Medien aufweisen, wie beispielsweise Sekundär- oder bleibender Langzeitspeicher, wie Nur-Lese-Speicher (ROM), optische oder magnetische Platten, Compact-Disc-Nur-Lese-Speicher (CD-ROM). Das computerlesbare Medium kann auch jedes andere volatile oder nicht volatile Speichersystem sein. Das computerlesbare Medium kann beispielsweise als materielles computerlesbares Speichermedium betrachtet werden.
  • Zusätzlich kann jeder Block in 4 Schaltungen darstellen, die verdrahtet sind, um die spezifischen logischen Funktionen in dem Prozess auszuführen. Alternative Implementierungen sind innerhalb des Rahmens der beispielhaften Ausführungsformen der vorliegenden Offenbarung enthalten, in denen Funktionen außerhalb der Ordnung ausgeführt werden können, die gezeigt oder diskutiert wird, einschließlich einer nahezu gleichzeitigen Ausführung oder in umgekehrter Reihenfolge abhängig von der jeweiligen Funktionalität, was sich für einen Fachmann ergibt.
  • In Block 402 umfasst das Verfahren 400 das Erzeugen eines ersten Bildes der Umgebung, indem Information von einer Infrarot(IR-)Kamera auf dem Fahrzeug verwendet wird. Die Kamera kann mit hoher Rate abbilden, wie beispielsweise mit 60 Hz, und kann einen Datenvideostrom der Umgebung ausgeben. Bilder des Videos können für Bilder der Umgebung ausgewählt werden. Die Kamera kann eine langwellige, kurzwellige oder mittelwellige IR-Kamera sein, oder jeder andere Typ von 2D-Sensor, der Daten einer Umgebung ausgibt.
  • Bei Block 404 umfasst das Verfahren 400 das Erzeugen eines zweiten Bilds der Umgebung, indem Laser-Punktwolken-Daten von einem LIDAR auf dem Fahrzeug verwendet werden. Bei einigen Ausführungsformen können die Beiträge, die die Punktwolken-Daten, die vom LI DAR erzeugt werden, beitragen, skaliert werden basierend auf einer Menge von Aerosolen oder anderen Verdunkelungen in der Atmosphäre. Beispielsweise gibt es, in einem Fall, wenn es nur geringe oder keine Verdunkelungen in der Luft gibt, geringe oder keine Punktwolken-Daten aufgrund der geringen Menge von Laser-Rücksignalen. Deshalb wird ein synthetisches Bild, das basierend auf den LIDAR-Daten generiert wird, hauptsächlich von Information aufgebaut sein, die von der IR-Kamera und anderen Navigationsinformationen erhalten wurde. Wenn es eine große Menge von Verdunkelungen in der Luft gibt, kann optional ein kompletter Punktwolken-Datensatz zusammen mit der Information verwendet werden, die von der IR-Kamera erhalten wurde, und der Navigationsinformation, um das synthetische Bild zu erzeugen. Somit kann eine Menge von LIDAR-Information, die zum Erzeugen des Punktwolken-Datensatzes verwendet wird, gewichtet werden basierend auf einer Menge von Verdunkelungen in der Luft.
  • Bei Block 406 umfasst das Verfahren 400 das Erzeugen einer eingebetteten Punktwolke, die die Umgebung darstellt, basierend auf einer Kombination des ersten Bildes und des zweiten Bildes derart, dass zusätzliche Daten in die Laser-Punktwolken-Daten eingebettet werden. Für jeden Laser-Datenpunkt der Laser-Punktwolken-Daten von dem LIDAR kann der Laser-Datenpunkt an einen entsprechenden Pixel-Ort des ersten Bildes projiziert werden, um so die Laser-Punktwolken-Daten auf das erste Bild zu mappen. Das Mappen kann auf Koordinatenwerten der Laser-Daten basieren, einschließlich x, y, z und Höhe, und diese Mappings, die auf die 2D-Sensor-Bilddaten der Kamera zeigen, können in die Laser-Daten eingebettet werden.
  • Bei Block 408 umfasst das Verfahren 400 das Empfangen von Navigationsinformation von der Umgebung, die das Fahrzeug durchquert, von Daten, die in einer Navigationsdatenbank gespeichert sind. Das erste Bild, das zweite Bild und die Navigationsinformation können jeweils zur gleichen Zeit erzeugt und empfangen werden.
  • Bei Block 410 umfasst das Verfahren 400 das Umwandeln der eingebetteten Punktwolke in einen geo-referenzierten Koordinatenraum basierend auf der Navigationsinformation. Bei einem Beispiel können die eingebetteten Punktwolken-Daten umgewandelt werden, indem die eingebetteten Punktwolken-Daten entsprechend der IR-Kamera und der LIDAR-Lage und linearer Offsets relativ zu einem Navigationssystem des Fahrzeugs eingestellt werden, und die Einstellungen können ausgeführt werden, indem Plattformdaten mit sechs Freiheitsgraden (DOF) verwendet werden, einschließlich Breitengrad, Längengrad, Höhe, Richtung, Neigung und Rollen von dem Navigationssystem des Fahrzeugs.
  • Bei Block 412 umfasst das Verfahren 400 ein Kombinieren der umgewandelten eingebetteten Punktwolke mit Bildern des Terrains der Umgebung, um das synthetische Bild zu erzeugen, das die Umgebung des Fahrzeugs darstellt. Das synthetische Bild kann eine synthetische Darstellung oder eine virtuelle Darstellung der Umgebung sein. Eine Kombination der Punktwolke mit Bildern kann ein Überlagern eines Bilds des Terrains auf die umgewandelte eingebettete Punktwolke aufweisen, indem die Navigationsinformation benutzt wird, um die Bilder auf entsprechende Punkte in den Punktwolken-Daten zu mappen oder umgekehrt. Nach dem Kombinieren der Daten kann das synthetische Bild des Terrains der Umgebung auf einem multifunktionalen Display (MFD) des Fahrzeugs dargestellt werden, oder auf einem Kopf-verbundenen Display (head mounted display; HMD).
  • Innerhalb der Beispiele wird das Verfahren 400 in Echtzeit ausgeführt, wenn die Infrarotinformation von der IR-Kamera empfangen wird und die Laser-Punktwolken-Daten von dem LIDAR empfangen werden, während das Fahrzeug die Umgebung durchquert. Während das Fahrzeug die Umgebung durchquert, wird folglich die Infrarotinformation von der IR-Kamera empfangen, die Laser-Punktwolken-Daten von dem LIDAR empfangen, die Navigationsinformation von einem Navigationssystem auf dem Fahrzeug empfangen, und das synthetische Bild, das die Umgebung des Fahrzeugs darstellt, wird für die Anzeige erzeugt und wird für die Anzeige im Wesentlichen simultan mit dem Empfang der Daten bereitgestellt (nach der Datenverarbeitung). Das Entwickeln des angereicherten Datensatzes von mehreren Sensoren in Echtzeit erlaubt verbesserte Fähigkeiten, wie das adaptive Sensor-Feedback und Korrelation von Merkmalen über mehrere Messungen, um den optimalen 3D-Datensatz zu erhalten. Die kombinierte Punktwolke ermöglicht auch Algorithmen, wie beispielsweise verbesserte Visualisierungen, Hinderniserkennung und Zielerfassung, um einen einzelnen Mehrsensor-Datensatz zu bearbeiten, um eine effizientere Verarbeitung und größere Leistung zu ermöglichen.
  • Bei einigen Beispielen kann das Verfahren 400 ausgelöst oder benutzt werden, wenn das Fahrzeug in einer Umgebung mit verschlechterter Sicht (DVE) arbeitet, einschließlich von Bedingungen mit einer Nahe-Null- bis Null-Sicht. Als ein Beispiel beschränkt das Wetter häufig bestimmte Operationen oder versuchte Landungen eines Flugzeugs, und verbesserte Sichtsysteme, die von der FAA für Verkehrsflugzeuge zertifiziert sind, zeigen einige Kamerabilder kombiniert mit Flugzeugsymbolen auf einem Bildschirm für etwa 100 Fuß oberhalb eines Näherungspunkts; allerdings ermöglichen solche Displays nicht die Landung in einer DVE Null-Sicht-Umgebung. Indem das Verfahren 400 verwendet wird, können Kamerabilder mit LIDAR-integrierten Daten übereinstimmend mit der Navigationslösung des Flugzeugs überlagert werden mit einem digitalen Terrainbild, um ein synthetisches Bild in Echtzeit darzustellen, das ein Landen bei Null-Sicht-Bedingungen ermöglicht.
  • Zusätzliche Funktionen können in dem Verfahren 400 ausgeführt werden. Beispielsweise kann das Verfahren 400 auch ein Bestimmen eines Grads der Verdunkelung der eingebetteten Punktwolke umfassen, und ein Einstellen der Parameter von der IR-Kamera und/oder dem LIDAR auf dem Fahrzeug basierend auf dem Grad der Verdunkelung für eine adaptive Feedback-Steuerung der Sensorparameter. Der Grad der Verdunkelung kann bestimmt werden basierend auf Ausgangssignalen von anderen der bordeigenen Sensoren, die einen Grad von Niederschlag in der Umgebung anzeigen, oder basierend auf einer Analyse der Punktwolken-Daten. Als ein spezifisches Beispiel kann die Leistung des LIDAR basierend auf einem hohen Grad von Niederschlag auf eine geringere Menge von falschen Rücksignalen aufgrund von Reflexionen an Regen/Schnee in der Atmosphäre reduziert werden.
  • Die Infrarotinformation von den Systemsensoren und die Laser-Punktwolken-Daten von dem LIDAR können ferner in einem Datensatz gespeichert werden, und da Daten von der Infrarotinformation von der IR-Kamera und Laser-Punktwolken-Daten von dem LIDAR empfangen werden, können Funktionen ausgeführt werden, um zu bestimmen, ob die Daten eine zusätzliche räumliche Auflösung von der Darstellung der Umgebung anzeigen. Beispielsweise können in klaren Umgebungen zusätzliche Daten empfangen werden, um ein stärker angereichertes höher auflösendes Bild aufzubauen, und in Umgebungen mit mehr Wolken können Daten nicht nützlich sein, um höhere Auflösung anzuzeigen, können aber für Aktualisierungen alternativer Ansichten bzw. Blickrichtungen beispielsweise ausgewertet werden. Ob die Daten eine zusätzliche räumliche Auflösung der Darstellung der Umgebung anzeigen, kann basieren darauf, ob die Daten von abwechselnder Entfernung oder Blickrichtungen zu einem Zielobjekt oder Gebiet sind, oder können ebenfalls basieren auf Sensormessgenauigkeit.
  • 5 ist ein Beispiel eines synthetischen Bilds, das eine Umgebung eines Fahrzeugs darstellt. Das Bild in 5 zeigt ein Beispiel eines Bilds mehrerer Sensorverschmelzungen. Drei unterschiedliche Sensoren (beispielsweise LIDAR, RADAR und IR-Kamera) haben Ausgangssignale, die miteinander verschmolzen sind, um ein verbessertes Bild zu erzeugen. Diese Fähigkeit kann auf eine Anzahl von „n“ von 3D- und 2D-Sensoren ausgeweitet werden.
  • In 5 wird ein Basisbild bestimmt, indem Infrarotinformation benutzt wird. Die Basisinformation zeigt eine Anzahl von Details der Objekte an, einschließlich Straßen, Bäumen, Fahrzeugen und deren Anordnung jeweils zueinander. LIDAR-Daten können Punktwolken-Darstellungen der Objekte anzeigen, wie beispielsweise eine Person oder über Kopf hängende Leitungen. Radardaten können Polarisationsdaten einiger Fahrzeuge anzeigen. Alle Daten können gemappt werden oder überlagert werden auf Terrainbilder, um weitere Darstellungen der Daten anzuzeigen. Durch Auswertung dieses angereicherten Datensatzes kann die Objekterkennung verbessert werden sowie eine Erzeugung einer 3D-Visualisierung der Umgebung in Echtzeit.
  • Wie erwähnt, können Teile der hier beschriebenen Verfahren (beispielsweise das Verfahren 400) von einer Computervorrichtung (oder Komponenten einer Computervorrichtung) ausgeführt werden, sowie durch Komponenten von Elementen, die in 1 gezeigt sind. 6 zeigt eine schematische Zeichnung einer beispielhaften Computervorrichtung 600. Die Computervorrichtung 600 in 6 kann Vorrichtungen darstellen, die in 1-3 gezeigt sind, einschließlich der Prozessoren, der Verschmelzungs-Algorithmen oder jeder der Blöcke, die konzeptionell Berechnungskomponenten in 3 darstellen, oder die Computervorrichtung 600 kann die Systeme in 1-3 im Allgemeinen darstellen. Bei einigen Beispielen können einige Komponenten, die in 6 dargestellt sind, über mehrere Computervorrichtungen verteilt sein. Allerdings sind die Komponenten zum Zwecke des Beispiels als Teil einer beispielhaften Vorrichtung 600 gezeigt und beschrieben. Die Computervorrichtung 600 kann eine mobile Vorrichtung, ein Desktopcomputer, eine E-Mail/Nachrichtenvorrichtung, ein Tablet-Computer oder eine ähnliche Vorrichtung sein oder umfassen, die ausgelegt sein kann, um die Funktionen, die hier beschrieben sind, auszuführen.
  • Die Computervorrichtung 600 kann eine Schnittstelle 602, eine drahtlose Kommunikationskomponente 604, Sensor(en) 606, Datenspeicher 608 und einen Prozessor 610 umfassen. Komponenten, die in 6 dargestellt sind, können über eine Kommunikationsverbindung 612 miteinander verbunden sein. Die Computervorrichtung 600 kann ebenfalls Hardware aufweisen, um eine Kommunikation innerhalb der Computervorrichtung 600 und zwischen der Computervorrichtung 600 und einer anderen Computervorrichtung (nicht gezeigt), wie beispielsweise einer Servereinheit zu ermöglichen. Die Hardware kann Sender, Empfänger und Antennen beispielsweise aufweisen.
  • Die Schnittstelle 602 kann ausgelegt sein, um es der Computervorrichtung 600 zu ermöglichen, mit einer anderen Computervorrichtung (nicht gezeigt), beispielsweise einem Server, zu kommunizieren. Die Schnittstelle 602 kann folglich ausgelegt sein, um Eingangsdaten von einer oder mehrerer Computervorrichtungen zu empfangen, und kann auch ausgelegt sein, um Ausgangsdaten zu einer oder mehreren Computervorrichtungen zu senden. In einigen Beispielen kann die Schnittstelle 602 ebenfalls Datengruppen, die von der Computervorrichtung 600 empfangen und gesendet werden, aufrechterhalten und verwalten. Die Schnittstelle 602 kann auch einen Empfänger und einen Sender aufweisen, um Daten zu empfangen und zu senden. Bei anderen Beispielen kann die Schnittstelle 602 auch eine Benutzer-Schnittstelle, wie beispielsweise eine Tastatur, ein Mikrofon, ein Touchscreen etc., aufweisen, um Eingangssignale ebenfalls zu empfangen.
  • Die drahtlose Kommunikationskomponente 604 kann eine Kommunikationsschnittstelle sein, die ausgelegt ist, um eine drahtlose Datenkommunikation für die Computervorrichtung 600 entsprechend einem oder mehreren Standards für drahtlose Kommunikation zu unterstützen. Beispielsweise kann die drahtlose Kommunikationskomponente 604 eine Wi-Fi-Kommunikationskomponente aufweisen, die ausgelegt ist, eine drahtlose Datenkommunikation entsprechend einem oder mehrerer IEEE 802.11-Standards zu unterstützen. Als ein anderes Beispiel kann die drahtlose Kommunikationskomponente 604 eine Bluetooth-Kommunikationskomponente aufweisen, die ausgelegt ist, um eine drahtlose Datenkommunikation entsprechend einem oder mehreren Bluetooth-Standards zu unterstützen. Andere Beispiele sind ebenfalls möglich.
  • Der Sensor 606 kann einen oder mehrere Sensoren aufweisen oder kann einen oder mehrere Sensoren darstellen, die innerhalb der Computervorrichtung 600 vorhanden sind. Beispielhafte Sensoren umfassen einen Beschleunigungsmesser, ein Gyroskop, einen Schrittzähler, Lichtsensoren, Mikrofon, Kamera oder andere orts- und/oder kontextbezogene Sensoren.
  • Der Datenspeicher 608 kann Programmlogik 614 speichern, auf die der Prozessor 610 zugreifen kann und die er ausführen kann. Der Datenspeicher 608 kann ebenfalls gesammelte Sensordaten oder Bilddaten 616 speichern.
  • Die Beschreibung der unterschiedlichen vorteilhaften Anordnungen wurde zum Zwecke der Darstellung und Beschreibung gemacht, und es ist nicht beabsichtigt, dass sie die Ausführungsformen auf die hier offenbarten beschränkt. Viele Modifikationen und Variationen ergeben sich für einen Fachmann. Ferner können unterschiedliche vorteilhafte Ausführungsformen unterschiedliche Vorteile beschreiben im Vergleich zu anderen vorteilhaften Ausführungsformen. Die Ausführungsform oder Ausführungsformen, die ausgewählt wurden, sind getroffen und beschrieben, um am besten die Prinzipien der Ausführungsformen der praktischen Anwendung zu erläutern, um es dem Fachmann zu ermöglichen, die Offenbarung verschiedener Ausführungsformen mit verschiedenen Modifikationen zu verstehen, die für bestimmte gedachte Anwendungen geeignet sind.

Claims (15)

  1. Verfahren (400) zum Erzeugen eines synthetischen Bilds, das eine Umgebung eines Fahrzeugs darstellt, wobei das Verfahren aufweist: Erzeugen (402) eines ersten Bildes der Umgebung, indem Infrarotinformation von einer Infrarot(IR)-Kamera auf dem Fahrzeug verwendet wird; Erzeugen (404) eines zweiten Bildes der Umgebung, indem Laser-Punktwolken-Daten von einem LIDAR auf dem Fahrzeug verwendet werden; Erzeugen (406) einer eingebetteten Punktwolke, die die Umgebung darstellt, basierend auf einer Kombination des ersten Bildes und des zweiten Bildes derart, dass zusätzliche Daten in die Laser-Punktwolken-Daten eingebettet werden; Empfangen (408) von Navigationsinformation von der Umgebung, die von dem Fahrzeug durchquert wird, aus Daten, die in einer Navigationsdatenbank gespeichert sind; Umwandeln (410) der eingebetteten Punktwolke in einen geo-referenzierten Koordinatenraum basierend auf der Navigationsinformation; und Kombinieren (412) der umgewandelten eingebetteten Punktwolke mit Bildern des Terrains der Umgebung, um das synthetische Bild zu erzeugen, das die Umgebung des Fahrzeugs darstellt, wobei das Erzeugen der eingebetteten Punktwolke aufweist: für jeden Laser-Datenpunkt der Laser-Punktwolken-Daten von dem LIDAR, Projizieren des Laser-Datenpunkts auf einen entsprechenden Pixel-Ort des ersten Bildes, um die Laser-Punktwolken-Daten auf das erste Bild zu mappen.
  2. Verfahren (400) nach Anspruch 1, wobei das erste Bild, das zweite Bild und die Navigationsinformation jeweils erzeugt und empfangen werden zu etwa dem gleichen Zeitpunkt.
  3. Verfahren (400) nach einem der Ansprüche 1 bis 2, wobei das Umwandeln der eingebetteten Punktwolken-Daten in den geo-referenzierten Koordinatenraum basierend auf der Navigationsinformation aufweist: Einstellen der eingebetteten Punktwolken-Daten gemäß der IR-Kamera und der LIDAR-Lage und der linearen Offsets relativ zu einem Navigationssystem des Fahrzeugs, wobei die Einstellungen ausgeführt werden, indem Plattformdaten mit sechs Freiheitsgraden (DOF) verwendet werden, einschließlich Breitengrad, Längengrad, Höhe, Richtung, Neigung und Rollen von dem Navigationssystem des Fahrzeugs.
  4. Verfahren (400) nach einem der Ansprüche 1 bis 3, wobei das Kombinieren der umgewandelten eingebetteten Punktwolke mit Bildern des Terrains der Umgebung aufweist: Überlagern eines Bildes des Terrains auf die umgewandelte eingebettete Punktwolke.
  5. Verfahren (400) nach einem der Ansprüche 1 bis 4, ferner mit: Anzeigen des synthetischen Bildes des Terrains der Umgebung auf einem Multifunktions-Display (MFD) des Fahrzeugs oder einem Kopf-verbundenen Display (HMD).
  6. Verfahren (400) nach einem der Ansprüche 1 bis 5, ferner mit: Ausführen des Verfahrens in Echtzeit, wenn die Infrarotinformationen von der IR-Kamera empfangen werden und die Laser-Punktwolken-Daten von dem LIDAR empfangen werden, während das Fahrzeug die Umgebung durchquert.
  7. Verfahren (400) nach einem der Ansprüche 1 bis 6, ferner mit, während das Fahrzeug die Umgebung durchquert: Empfangen der Infrarotinformation von der IR-Kamera; Empfangen der Laser-Punktwolken-Daten von dem LIDAR; Empfangen der Navigationsinformation von einem Navigationssystem auf dem Fahrzeug; Ausführen des Verfahrens in Echtzeit, um das synthetische Bild zu erzeugen, das die Umgebung des Fahrzeugs darstellt, während das Fahrzeug die Umgebung quert; und Anzeigen des synthetischen Bilds des Terrains der Umgebung auf einem Display des Fahrzeugs.
  8. Verfahren (400) nach einem der Ansprüche 1 bis 7, ferner mit: Erzeugen des synthetischen Bildes basierend auf dem Fahrzeug, das in einer Umgebung mit verschlechterter Sicht (DVE) betrieben wird, einschließlich Bedingungen mit Nahe-Null- bis Null-Sicht.
  9. Verfahren (400) nach einem der Ansprüche 1 bis 8, ferner mit: Bestimmen eines Grads der Verdunkelung der eingebetteten Punktwolke; und Einstellen der Parameter der IR-Kamera und/oder des LIDAR auf dem Fahrzeug basierend auf dem Grad der Verdunkelung, für eine adaptive Feedback-Steuerung der Sensorparameter.
  10. Verfahren (400) nach einem der Ansprüche 1 bis 9, ferner mit: Speichern der Infrarotinformation von der IR-Kamera und der Laser-Punktwolken-Daten von dem LIDAR in einem Datensatz; Bestimmen, wenn Daten von der Infrarotinformation von der IR-Kamera und die Laser-Punktwolken-Daten von dem LIDAR empfangen werden, ob die Daten zusätzliche räumliche Auflösung einer Darstellung der Umgebung anzeigen; basierend auf den Daten, die die zusätzliche räumliche Auflösung anzeigen, Erzeugen eines neuen Datenpunkts mit höherer Auflösung in dem Datensatz; und basierend auf den Daten, die nicht zusätzliche räumliche Auflösung anzeigen, Auswerten der Daten für eine Aktualisierung.
  11. Verfahren (400) nach Anspruch 10, wobei das Bestimmen, ob die Daten zusätzliche räumliche Auflösung der Darstellung der Umgebung anzeigen, aufweist: Bestimmen, ob die Daten eine wechselnde Entfernung oder Blickrichtung zu einem Zielobjekt oder Gebiet haben oder Bestimmen der Sensormessgenauigkeit, wobei die Sensormessgenauigkeit auf einem Grad der Verdunkelung der Umgebung basiert.
  12. Verfahren nach Anspruch 10, wobei das Bestimmen, ob die Daten zusätzliche räumliche Auflösung der Darstellung der Umgebung anzeigen, aufweist: Bestimmen der Sensormessgenauigkeit, wobei die Sensormessgenauigkeit auf einem Grad der Verdunkelung der Umgebung basiert.
  13. System (100) mit: einer Infrarot(IR)-Kamera (104), um Infrarotinformation von einer Umgebung eines Fahrzeugs zu sammeln; einem LIDAR (106), um Laser-Punktwolken-Daten der Umgebung des Fahrzeugs zu sammeln; einem Navigationssystem (110), das ausgelegt ist, um Navigationsinformation des Fahrzeugs zu bestimmen; einem Prozessor (112), der eine synthetische Darstellung (116) der Umgebung des Fahrzeugs in Echtzeit erzeugt, während das Fahrzeug die Umgebung quert, basierend auf Ausgangssignalen der IR-Kamera (104), des LIDAR (106) und des Navigationssystems (110), wobei die Erzeugung der synthetischen Darstellung aufweist: Erzeugen einer eingebetteten Punktwolke, die die Umgebung darstellt, basierend auf einer Kombination der Infrarotinformation und der Laser-Punktwolken-Daten derart, dass zusätzliche Daten in die Laser-Punktwolken-Daten eingebettet werden, für jeden Laser-Datenpunkt der Laser-Punktwolken-Daten von dem LIDAR, Projizieren des Laser-Datenpunkts auf einen entsprechenden Pixel-Ort der Infrarotinformation, um die Laser-Punktwolken-Daten auf die Infrarotinformation zu mappen; und Kombinieren der eingebetteten Punktwolke mit Bildern des Terrains der Umgebung; und einem Display (120), um das synthetische Bild des Terrains der Umgebung auf einem Display des Fahrzeugs darzustellen.
  14. System (100) nach Anspruch 13, wobei der Prozessor (112) ferner ausgelegt ist, um die synthetische Darstellung (116) basierend auf dem Fahrzeug zu erzeugen, das in einer Umgebung mit verschlechterter Sicht (DVE) betrieben wird, einschließlich Bedingungen mit einer Nahe-Null- bis Null-Sicht.
  15. System nach einem der Ansprüche 13 bis 14, wobei der Prozessor (112) ferner ausgebildet ist, zum: Bestimmen eines Grads der Verdunkelung der eingebetteten Punktwolke; und Einstellen der Parameter von IR-Kamera und/oder LIDAR auf dem Fahrzeug basierend auf dem Grad der Verdunkelung für eine adaptive Feedback-Steuerung der Sensorparameter.
DE102016104463.6A 2015-03-11 2016-03-11 Mehrdimensionale Verschmelzung von Bildern in Echtzeit Active DE102016104463B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/644,315 2015-03-11
US14/644,315 US9715016B2 (en) 2015-03-11 2015-03-11 Real time multi dimensional image fusing

Publications (2)

Publication Number Publication Date
DE102016104463A1 DE102016104463A1 (de) 2016-09-15
DE102016104463B4 true DE102016104463B4 (de) 2023-07-27

Family

ID=56801171

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016104463.6A Active DE102016104463B4 (de) 2015-03-11 2016-03-11 Mehrdimensionale Verschmelzung von Bildern in Echtzeit

Country Status (3)

Country Link
US (2) US9715016B2 (de)
JP (1) JP6883948B2 (de)
DE (1) DE102016104463B4 (de)

Families Citing this family (82)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9715016B2 (en) 2015-03-11 2017-07-25 The Boeing Company Real time multi dimensional image fusing
US9948914B1 (en) * 2015-05-06 2018-04-17 The United States Of America As Represented By The Secretary Of The Air Force Orthoscopic fusion platform
US9691153B1 (en) 2015-10-21 2017-06-27 Google Inc. System and method for using image data to determine a direction of an actor
CN108700655A (zh) * 2016-02-10 2018-10-23 开利公司 存在检测***
US10025308B1 (en) * 2016-02-19 2018-07-17 Google Llc System and method to obtain and use attribute data
US10547849B1 (en) * 2016-03-03 2020-01-28 Rockwell Collins, Inc. Low-power and low-latency distortion correction for image processors
EP3427008B1 (de) 2016-03-11 2022-09-07 Kaarta, Inc. Laserscanner mit online-eigenbewegungsschätzung in echtzeit
US20190346271A1 (en) * 2016-03-11 2019-11-14 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
US11573325B2 (en) 2016-03-11 2023-02-07 Kaarta, Inc. Systems and methods for improvements in scanning and mapping
FR3049744B1 (fr) * 2016-04-01 2018-03-30 Thales Procede de representation synthetique d'elements d'interet dans un systeme de visualisation pour aeronef
JP7090597B2 (ja) * 2016-09-28 2022-06-24 トムトム グローバル コンテント ベスローテン フエンノートシャップ 位置特定基準データを生成及び使用する方法及びシステム
CN113008263B (zh) 2016-11-01 2024-04-30 松下电器(美国)知识产权公司 数据生成方法及数据生成装置
EP3351899B1 (de) * 2017-01-24 2020-06-17 Leica Geosystems AG Verfahren und vorrichtung zum "colorising" von dreidimensionalen punktwolken
US10096256B2 (en) 2017-03-07 2018-10-09 Rosemount Aerospace Inc. Method and system for aircraft taxi strike alerting
US11151447B1 (en) * 2017-03-13 2021-10-19 Zoox, Inc. Network training process for hardware definition
CN107063275B (zh) * 2017-03-24 2020-05-12 重庆邮电大学 基于路侧设备的智能车辆地图融合***及方法
WO2018178278A1 (en) * 2017-03-30 2018-10-04 Agc Glass Europe Glass for autonomous car
EP3601178B1 (de) * 2017-03-30 2022-06-08 AGC Glass Europe Glas für autonomes auto
CA3057988A1 (en) 2017-03-31 2018-10-04 Velodyne Lidar, Inc. Integrated lidar illumination power control
US10403158B2 (en) 2017-04-06 2019-09-03 The Boeing Company Vertical landing vehicle, situational awareness system, and method thereof
US10762635B2 (en) 2017-06-14 2020-09-01 Tusimple, Inc. System and method for actively selecting and labeling images for semantic segmentation
JP2019021034A (ja) * 2017-07-18 2019-02-07 パイオニア株式会社 表示装置
US10670725B2 (en) 2017-07-25 2020-06-02 Waymo Llc Determining yaw error from map data, lasers, and cameras
US10447973B2 (en) * 2017-08-08 2019-10-15 Waymo Llc Rotating LIDAR with co-aligned imager
CN109410735B (zh) * 2017-08-15 2021-06-29 百度在线网络技术(北京)有限公司 反射值地图构建方法和装置
US10671083B2 (en) 2017-09-13 2020-06-02 Tusimple, Inc. Neural network architecture system for deep odometry assisted by static scene optical flow
US10552979B2 (en) * 2017-09-13 2020-02-04 TuSimple Output of a neural network method for deep odometry assisted by static scene optical flow
DE102017217065A1 (de) * 2017-09-26 2019-03-28 Robert Bosch Gmbh Verfahren und System zum Kartieren und Lokalisieren eines Fahrzeugs basierend auf Radarmessungen
US10648832B2 (en) 2017-09-27 2020-05-12 Toyota Research Institute, Inc. System and method for in-vehicle display with integrated object detection
US20190129430A1 (en) 2017-10-31 2019-05-02 Agjunction Llc Vehicle control optimization
US10438413B2 (en) * 2017-11-07 2019-10-08 United States Of America As Represented By The Secretary Of The Navy Hybrid 2D/3D data in a virtual environment
WO2019099605A1 (en) 2017-11-17 2019-05-23 Kaarta, Inc. Methods and systems for geo-referencing mapping systems
US10771690B2 (en) * 2018-02-10 2020-09-08 Goodrich Corporation Distributed aperture systems for obstacle avoidance
WO2019195270A1 (en) 2018-04-03 2019-10-10 Kaarta, Inc. Methods and systems for real or near real-time point cloud map data confidence evaluation
CN108415034A (zh) * 2018-04-27 2018-08-17 绵阳天眼激光科技有限公司 一种激光雷达实时成像装置
KR20210005621A (ko) 2018-05-01 2021-01-14 커먼웰쓰 사이언티픽 앤드 인더스트리얼 리서치 오가니제이션 포인트 클라우드의 채색에 사용하기 위한 방법 및 시스템
US10726567B2 (en) * 2018-05-03 2020-07-28 Zoox, Inc. Associating LIDAR data and image data
TWI684755B (zh) * 2018-05-22 2020-02-11 國立中央大學 大氣層頂反射率之時間空間影像融合方法於氣膠光學厚度反演
US11422764B1 (en) 2018-06-03 2022-08-23 Epic Optix, Inc. Multi-platform integrated display
WO2020009826A1 (en) 2018-07-05 2020-01-09 Kaarta, Inc. Methods and systems for auto-leveling of point clouds and 3d models
CN108921947B (zh) * 2018-07-23 2022-06-21 百度在线网络技术(北京)有限公司 生成电子地图的方法、装置、设备、存储介质以及采集实体
US10762394B2 (en) 2018-07-31 2020-09-01 Intel Corporation System and method for 3D blob classification and transmission
US11212506B2 (en) 2018-07-31 2021-12-28 Intel Corporation Reduced rendering of six-degree of freedom video
US10685476B2 (en) * 2018-07-31 2020-06-16 Intel Corporation Voxels sparse representation
US11178373B2 (en) 2018-07-31 2021-11-16 Intel Corporation Adaptive resolution of point cloud and viewpoint prediction for video streaming in computing environments
US10893299B2 (en) 2018-07-31 2021-01-12 Intel Corporation Surface normal vector processing mechanism
US10887574B2 (en) 2018-07-31 2021-01-05 Intel Corporation Selective packing of patches for immersive video
GB2583687B (en) * 2018-09-12 2022-07-20 Sony Interactive Entertainment Inc Method and system for generating a 3D reconstruction of a human
CN109061606A (zh) * 2018-09-19 2018-12-21 深圳市速腾聚创科技有限公司 智能感知激光雷达***及智能感知激光雷达控制方法
US11057631B2 (en) 2018-10-10 2021-07-06 Intel Corporation Point cloud coding standard conformance definition in computing environments
US11037453B2 (en) * 2018-10-12 2021-06-15 Aurora Flight Sciences Corporation Adaptive sense and avoid system
US11585933B2 (en) * 2018-10-29 2023-02-21 Lawrence Livermore National Security, Llc System and method for adaptive object-oriented sensor fusion for environmental mapping
US11346950B2 (en) * 2018-11-19 2022-05-31 Huawei Technologies Co., Ltd. System, device and method of generating a high resolution and high accuracy point cloud
CN111238494B (zh) * 2018-11-29 2022-07-19 财团法人工业技术研究院 载具、载具定位***及载具定位方法
US10991156B2 (en) * 2018-12-05 2021-04-27 Sri International Multi-modal data fusion for enhanced 3D perception for platforms
CN111383324B (zh) * 2018-12-29 2023-03-28 广州文远知行科技有限公司 点云地图的构建方法、装置、计算机设备和存储介质
EP3906502A4 (de) * 2018-12-31 2022-10-05 Oy Arbonaut Ltd. Verfahren zur messung der sichtbarkeit von punktwolkendaten
US20200217954A1 (en) * 2019-01-07 2020-07-09 Velodyne Lidar, Inc. Systems and methods for a configurable sensor system
CN109887057B (zh) * 2019-01-30 2023-03-24 杭州飞步科技有限公司 生成高精度地图的方法和装置
EP3714285B1 (de) * 2019-01-30 2022-07-27 Baidu.com Times Technology (Beijing) Co., Ltd. Lidar-ortung mit rnn und lstm zur zeitlichen glättung in autonom fahrenden fahrzeugen
CN113544467A (zh) * 2019-03-07 2021-10-22 御眼视觉技术有限公司 对齐用于导航的道路信息
CN109785632B (zh) * 2019-03-14 2021-05-04 浪潮集团有限公司 一种交通流量统计方法及装置
US11480686B2 (en) * 2019-03-27 2022-10-25 Zoox, Inc. Identifying and/or removing false positive detections from lidar sensor output
US11740335B2 (en) 2019-03-27 2023-08-29 Zoox, Inc. Identifying and/or removing false positive detections from LIDAR sensor output
JPWO2020230710A1 (de) * 2019-05-10 2020-11-19
US11393127B2 (en) * 2019-09-13 2022-07-19 Toyota Research Institute, Inc. 2D to 3D line-based registration with unknown associations
US10819905B1 (en) * 2019-09-13 2020-10-27 Guangdong Media Kitchen Appliance Manufacturing Co., Ltd. System and method for temperature sensing in cooking appliance with data fusion
CN111105465B (zh) * 2019-11-06 2022-04-12 京东科技控股股份有限公司 一种摄像装置校准方法、装置、***电子设备及存储介质
DE102019129986A1 (de) * 2019-11-07 2021-05-12 Sick Ag Optoelektronischer Sensor und Verfahren zur Erfassung von Objekten
US11113844B2 (en) 2019-11-26 2021-09-07 The Boeing Company Systems and methods for automatic quality assessment of multiple-camera calibration
KR102371749B1 (ko) * 2020-01-31 2022-03-10 경북대학교 산학협력단 차량 위치 정보 획득 장치 및 제어 방법
US11957974B2 (en) 2020-02-10 2024-04-16 Intel Corporation System architecture for cloud gaming
CN113495278B (zh) * 2020-04-02 2024-04-16 北京京东乾石科技有限公司 用于增强点云数据的方法和装置
US11823458B2 (en) 2020-06-18 2023-11-21 Embedtek, LLC Object detection and tracking system
CN111537980B (zh) * 2020-07-08 2020-11-27 深圳市速腾聚创科技有限公司 激光雷达参数调整方法、装置及激光雷达
CN111929699B (zh) * 2020-07-21 2023-05-09 北京建筑大学 一种顾及动态障碍物的激光雷达惯导里程计与建图方法及***
CN112132954B (zh) * 2020-08-31 2024-02-27 青岛秀山移动测量有限公司 一种面向三维激光点云实体对象的分布式管理方法及***
EP4053593A1 (de) 2021-03-03 2022-09-07 Elektrobit Automotive GmbH Verarbeitung von sensordaten in einem fortbewegungsmittel
DE112022001481T5 (de) 2021-05-11 2024-01-11 Fujifilm Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
CN114627073B (zh) * 2022-03-14 2024-06-04 一汽解放汽车有限公司 地形识别方法、装置、计算机设备和存储介质
DE102022112332A1 (de) 2022-05-17 2023-11-23 Spleenlab GmbH Verfahren und Detektionsvorrichtung zum Detektieren einer Person in einem Beobachtungsbereich sowie Fahrzeug
CN115830424B (zh) * 2023-02-09 2023-04-28 深圳酷源数联科技有限公司 基于融合图像的矿废识别方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003302470A (ja) 2002-04-05 2003-10-24 Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai 歩行者検出装置および歩行者検出方法
US20080158256A1 (en) 2006-06-26 2008-07-03 Lockheed Martin Corporation Method and system for providing a perspective view image by intelligent fusion of a plurality of sensor data
US20100231705A1 (en) 2007-07-18 2010-09-16 Elbit Systems Ltd. Aircraft landing assistance

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07318650A (ja) * 1994-05-24 1995-12-08 Mitsubishi Electric Corp 障害物検知装置
JP3052286B2 (ja) * 1997-08-28 2000-06-12 防衛庁技術研究本部長 飛行システムおよび航空機用擬似視界形成装置
US7747364B2 (en) * 2006-12-06 2010-06-29 Honeywell International Inc. Methods, apparatus and systems for enhanced synthetic vision and multi-sensor data fusion to improve operational capabilities of unmanned aerial vehicles
DE102007044535B4 (de) * 2007-09-18 2022-07-14 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Fahrerinformation in einem Kraftfahrzeug
DE102007044536A1 (de) * 2007-09-18 2009-03-19 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung zum Überwachen der Umgebung eines Kraftfahrzeugs
US9036861B2 (en) * 2010-04-22 2015-05-19 The University Of North Carolina At Charlotte Method and system for remotely inspecting bridges and other structures
WO2012073722A1 (ja) * 2010-12-01 2012-06-07 コニカミノルタホールディングス株式会社 画像合成装置
AU2011205223C1 (en) * 2011-08-09 2013-03-28 Microsoft Technology Licensing, Llc Physical interaction with virtual objects for DRM
JP5888117B2 (ja) * 2012-05-25 2016-03-16 コニカミノルタ株式会社 物体検出装置
US9347794B1 (en) * 2012-09-21 2016-05-24 Rockwell Collins, Inc. Image data combining systems and methods of multiple vision systems
JP6020149B2 (ja) * 2012-12-27 2016-11-02 日産自動車株式会社 車両用情報提供装置
JP6121787B2 (ja) * 2013-04-26 2017-04-26 株式会社ソニー・インタラクティブエンタテインメント 撮像装置、情報処理システム、および画像データ処理方法
WO2015032824A1 (en) * 2013-09-04 2015-03-12 Essilor International (Compagnie Generale D'optique) Methods and systems for augmented reality
US10334158B2 (en) * 2014-11-03 2019-06-25 Robert John Gove Autonomous media capturing
US9489575B1 (en) * 2015-01-30 2016-11-08 Rockwell Collins, Inc. Sensor-based navigation correction
US9715016B2 (en) 2015-03-11 2017-07-25 The Boeing Company Real time multi dimensional image fusing

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003302470A (ja) 2002-04-05 2003-10-24 Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai 歩行者検出装置および歩行者検出方法
US20080158256A1 (en) 2006-06-26 2008-07-03 Lockheed Martin Corporation Method and system for providing a perspective view image by intelligent fusion of a plurality of sensor data
US20100231705A1 (en) 2007-07-18 2010-09-16 Elbit Systems Ltd. Aircraft landing assistance

Also Published As

Publication number Publication date
DE102016104463A1 (de) 2016-09-15
US20160266256A1 (en) 2016-09-15
US10210401B2 (en) 2019-02-19
JP6883948B2 (ja) 2021-06-09
US20170293810A1 (en) 2017-10-12
US9715016B2 (en) 2017-07-25
JP2016189184A (ja) 2016-11-04

Similar Documents

Publication Publication Date Title
DE102016104463B4 (de) Mehrdimensionale Verschmelzung von Bildern in Echtzeit
US20220277557A1 (en) Target detection method based on fusion of vision, lidar, and millimeter wave radar
DE102020129854A1 (de) Sequenzielle fusion zur 3d-objektdetektion
DE102018121018A1 (de) Erweitern von realen sensoraufnahmen mit simuliertem sensordatenhintergrund
DE102020133982A1 (de) Automatisierte objektannotation unter verwendung fusionierter kamera-/lidar-datenpunkte
DE102018112233B4 (de) Bereitstellung eines verkehrsspiegelinhalts für einen fahrer
DE112016006213T5 (de) System und Verfahren zum Fusionieren von Ausgängen von Sensoren, die unterschiedliche Auflösungen aufweisen
CN111257882B (zh) 数据融合方法、装置、无人驾驶设备和可读存储介质
DE112020000590T5 (de) Karte und verfahren zum erstellen einer karte
EP3017319A1 (de) Verfahren zur bestimmung von trajektorien beweglicher physischer objekte in einem raum, auf der basis von sensordaten mehrerer sensoren
DE102020126973A1 (de) Verfahren und system zur lokalisierten fahrspurwahrnehmung
DE102021204765A1 (de) Rendern von Augmented-Reality mit Verdeckung
DE102021124913A1 (de) Metrik-backpropagation für die beurteilung der leistung von untersystemen
DE102021114078A1 (de) Detektieren dreidimensionaler Strukturmodelle zur Laufzeit in Fahrzeugen
DE102021127118A1 (de) Identifizieren von Objekten mit LiDAR
DE112021006402T5 (de) Schätzung von Automatikbelichtungswerten einer Kamera durch Priorisieren eines Objekts von Interesse auf Basis von kontextuellen Eingaben aus 3D-Karten
DE102021114032A1 (de) Identifizieren von hintergrundmerkmalen mittels lidar
DE102020100230A1 (de) Rekonstruktion von landmarkenpositionen in autonomen maschinenanwendungen
DE102005055879A1 (de) Flugverkehr-Leiteinrichtung
DE102021128727A1 (de) Geisterpunktfilterung
WO2011157723A1 (de) System und verfahren zur kollisionsvermeidung
WO2023083620A1 (de) Prüfung der umfeldsensorik und/oder umfeldperzeption eines fahrzeugs
DE112022003094T5 (de) Verfahren, system und computerprogrammprodukt zum auflösen von niveauambiguität für radarsysteme autonomer fahrzeuge
DE102014116904A1 (de) Verfahren zum optischen Abtasten und Vermessen einer Szene und zur automatischen Erzeugung einesVideos
CN110838246B (zh) 一种机载svs障碍物告警显示方法

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final