DE112011100458B4 - Systeme und Verfahren zur Verarbeitung von Kartierungs- und Modellierungsdaten - Google Patents

Systeme und Verfahren zur Verarbeitung von Kartierungs- und Modellierungsdaten Download PDF

Info

Publication number
DE112011100458B4
DE112011100458B4 DE112011100458.3T DE112011100458T DE112011100458B4 DE 112011100458 B4 DE112011100458 B4 DE 112011100458B4 DE 112011100458 T DE112011100458 T DE 112011100458T DE 112011100458 B4 DE112011100458 B4 DE 112011100458B4
Authority
DE
Germany
Prior art keywords
data
sbet
defined space
range
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE112011100458.3T
Other languages
English (en)
Other versions
DE112011100458T5 (de
Inventor
Peter Canter
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Trimble Inc
Original Assignee
Trimble Navigation Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Trimble Navigation Ltd filed Critical Trimble Navigation Ltd
Publication of DE112011100458T5 publication Critical patent/DE112011100458T5/de
Application granted granted Critical
Publication of DE112011100458B4 publication Critical patent/DE112011100458B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/36Indoor scenes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Navigation (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

Verfahren zur Nachverarbeitung georeferenzierter Kartierungsdaten, umfassend: - Bereitstellen von Positionsdaten, die eine Position eines Datenakquisitionssystems in einem definierten Raum zu spezifischen Zeitpunkten angeben;- Bereitstellen von Reichweitedaten, die relative Positionen von Objekten in dem definierten Raum mit Bezug zu dem Datenakquisitionssystem zu spezifischen Zeitpunkten angeben;- Durchführen eines Glättungsprozesses an den Positionsdaten, um eine geglättete, beste Schätzung der Trajektorie- (SBET) -Daten für eine Trajektorie des Datenakquisitionssystems zu bestimmen;- Durchführen eines Scan-Anpassungsprozesses an den SBET-Daten und den Reichweitedaten, um Objekte und/oder Objekteigenschaften in dem definierten Raum zu identifizieren;- Durchführen eines Prozesses zur Überarbeitung der SBET-Daten, sodass sich die SBET-Daten den identifizierten Objekten und/oder Objekteigenschaften angleichen; und- Speichern der überarbeiteten SBET-Daten mit den Reichweitedaten.

Description

  • Bezugnahme auf verwandte Anmeldungen
  • Diese Anmeldung gründet sich auf die provisorische US-Anmeldung mit der Seriennummer 61/337,549, eingereicht am 5. Februar 2010, mit dem Titel Systeme und Verfahren zur Verarbeitung von Kartierungs- und Modellierungsdaten und nimmt deren Prioritätsvorteile in Anspruch, deren gesamter Inhalt durch Bezugnahme Teil dieser Anmeldungist.
  • HINTERGRUND
  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft die Kartierung und Modellierung von Daten und insbesondere Systeme und Verfahren zur Verarbeitung von Kartierungs- und Modellierungsdaten.
  • BESCHREIBUNG DES STANDS DER TECHNIK
  • Landkarten werten den Wert der Positionierung auf, indem sie die Positionsinformationen natürlicher und von Menschenhand gemachter Objekte, Personen, Fahrzeuge und Strukturen wirksam in Standortinformationen umwandeln. Die Außenbereichskartierung, wie zum Beispiel die Fähigkeit zur Straßenkartierung, wurde durch die Firmen Navteq und Tele-Atlas bekannt gegeben. Diese Außenbereichs-Standortdienste sind GPS-basiert, indem sie GPS-Signale aufnehmen und benutzen, um genaue Positions- und Standortinformationen zur Positionierung und zur Kartierung zu beschaffen. Das US-Patent US 6 711 475 B2 diskutiert ein Beispiel. Dieses Patent sowie weitere vorliegend identifizierte oder beschriebene Patente sind durch Bezugnahme Teil dieser Anmeldung.
  • In den Fällen wo GPS-Signale nicht verfügbar oder verlässlich sind (wie zum Beispiel in Innenbereichen), sind Versuche unternommen worden, um die Position oder den Standort zu bestimmen. Das US-Patent US 5 959 575 A beschreibt die Benutzung einer Pluralität von Boden-Transceivern, die pseudo-zufällige Signale übertragen, die durch einen mobilen GPS-Empfänger im Innenbereich verwendet werden.
  • Für den Bergbaubetrieb, wo GPS-Signale nicht verfügbar sind, beschreibt das US-Patent US 6 009 359 A die Benutzung eines Trägheitsnavigationssystems (INS - Inertial Navigation System) zur Positionsbestimmung und zur Beschaffung von Bildframes, die zusammengefügt werden, um ein Bild vom Innenbereich der Mine zu erhalten. Das US-Patent US 6 349 249 B1 beschreibt ein System zur Beschaffung von Ansichten eines Minentunnelumrisses (TOPES = mine Tunnel Outline Plan views) unter Benutzung einer Trägheitsmessungseinheit (IMU - inertial measurement unit). Das US-Patent US 6 608 913 B1 beschreibt ein System zur Beschaffung von Punktwolkendaten des Innenbereichs einer Mine unter Benutzung eines Trägheitsnavigationssystems, um danach einen Positionsstandort eines Minenfahrzeugs in der Mine zu bestimmen.
  • Für Innenbereichseinrichtungen, wie zum Beispiel Gebäude, beschreibt das US-Patent US 7 302 359 B2 die Benutzung einer IMU und eines Entfernungsmessers zur Beschaffung einer zweidimensionalen Karte des Gebäudeinnenbereichs, wie zum Beispiel der Standorte der Wände und Türen. Das US-Patent US 6 917 893 B2 beschreibt ein weiteres Kartierungssystem für den Innenbereich zur Beschaffung zwei- oder dreidimensionaler Daten unter Benutzung einer IMU, eines Laser-Entfernungsmessers und einer Kamera.
  • Die US-Patentanmeldung US 2009 / 0 262 974 A1 auf Erik Lithopoulos (die Lithopoulos-Anmeldung) betrifft ein System und Verfahren zur Aufnahme von georäumlichen Dateninformationen, einschließlich einem Positionsgerät zur Bestimmung der Position von Oberflächendatenpunkten einer Struktur in drei Dimensionen in einem Gebiet, in dem ausreichende GPS-Signale nicht empfangen werden können. Die Lithopoulos-Anmeldung ist durch Bezugnahme Teil dieser Anmeldung und wird so angesehen, als bilde sie einen Teil der vorliegenden Offenbarung. Das System ist in der Lage, Entfernungs-, Bild- und Positionsdaten eines Geländes zu beschaffen, das der Abtastung unterzogen wird. Das System korreliert die Positions- und Bilddaten für die Datenpunkte. Unter Verwendung der gespeicherten Daten können dann dreidimensionale geografische Koordinaten der Oberflächendatenpunkte berechnet und gespeichert werden. Bilddaten der Punkte vom Bilderfassungsgerät können über die Oberflächendatenpunkte drapiert werden, um die Beschaffenheit und Farbe für diese Punkte bereitzustellen und zu speichern. Dieser Prozess fährt von Punkt zu Punkt fort und bildet dadurch eine Wolke (Punktwolke) georeferenzierter Positionsdaten. Unter Verwendung der gespeicherten Daten kann ein Prozessor ein Bild eines kartierten Innenoberflächenbereichs des Geländes rekonstruieren. Die Lithopoulos-Anmeldung stellt daher ein nützliches Werkzeug für die Kartierung des Innenumfeldes einer Struktur, wie zum Beispiel eines Gebäudes, dar.
  • PARRISH, Christopher E.; SCARPACE, Frank L.: Investigating Full-Waveform Lidar Data for Detection and Recognition of Vertical Objects. In: American Society for Photogrammetry and Remote Sensing (ASPRS), 2007, 421, beschreibt einen Ansatz zur Extraktion und Zuordnung von vertikalen Objekten, wie z.B. Hindernissen, aus Lidar-Daten. Punktwolken werden generiert, um die Detektion und Erkennung von Hindernissen zu erleichtern. Dazu werden Wellenformen mit Hilfe eines EM-Algorithmus dekonvolviert und die Ergebnisse anschließend georeferenziert.
  • Der Gegenstand der vorliegenden Anmeldung ergänzt die Lithopoulos-Anmeldung und ist ein nützliches Werkzeug zur Erleichterung der Erzeugung klarer, nicht verzerrter Kartierungsbilder. Kartierte digitale Bilder können manchmal verzerrt sein, weil die Genauigkeit der den Standort bestimmenden Systeme, die in GPS-Signalen nicht zugänglichen Bereichen einsatzfähig sind, begrenzt sein kann. Trägheits- und Odometrie-Systeme weisen zum Beispiel inhärente Fehler in ihren Standortbestimmungsfähigkeiten auf. Diese Fehler haben wiederum Auswirkungen auf die Positionsbestimmung der dreidimensionalen geografischen Koordinaten der Oberflächendatenpunkte, was zu einer „Verzerrung“ führt, wenn die Punktwolke erzeugt wird.
  • Sensortechnologien, die nicht nur in Innenbereichen sondern darüber hinaus auch ohne auf eine Gebäudeinfrastruktur angewiesen zu sein dort betrieben werden können, stellen höchst erstrebenswerte Vorteile für öffentliche Sicherheitscrews, wie zum Beispiel Feuerwehr, Polizeivollzugsdienst, einschließlich SWAT-Teams und das Militär dar. Das Bedürfnis nach derartiger Innenbereichskartierung hat sich aufgrund des ständig zunehmenden Anliegens des Schutzes der Öffentlichkeit vor Terroristenaktivitäten erhöht, insbesondere seit den Terroristenangriffen auf öffentliche, nicht-militärische Ziele, wo Bürger leben und arbeiten. Neben der Terroristenaktivität haben Geiselnahmen und Schießereien, die StudentencampusUniversitätscampus, Schulen, Banken, Regierungsgebäude einbeziehen, sowie kriminelle Aktivitäten, wie zum Beispiel Einbrüche und sonstige Straftaten gegen Menschen und Eigentum, das Bedürfnis nach einer derartigen Kartierungsfähigkeit des Innenbereichs und die daraus folgende Erzeugung darstellbarer Informationen erhöht, die eine virtuelle Reise durch die Innenbereiche einer Gebäudestruktur bereitstellen.
  • Es wird ein System und Verfahren für dreidimensionale Kartierung von Bereichen benötigt, insbesondere derjenigen Bereiche, in denen GPS-Signalinformationen nicht verfügbar oder unzuverlässig sind, wie zum Beispiel in einer Gebäudestruktur, und zum Anzeigen des Standorts sowie der Grenzen von Innenobjekten und Strukturen sowie charakteristischer Bilddaten, wie zum Beispiel Farbe, Reflektivität, Helligkeit, Strukturgefüge, Beleuchtung, Schattierung und sonstiger Eigenschaften derartiger Strukturen, wobei derartige Daten verarbeitet und dargestellt werden können, um eine virtuelle Tour des kartierten Bereichs zu ermöglichen. Das vorliegend beschriebene mobile System und Verfahren ist insbesondere in der Lage, Innenbereichskarten zu erzeugen, die hochgenau und klar sind und schnell erzeugt werden können, indem einfach durch die Innenbereiche einer Gebäudestruktur gegangen wird, um die zur Erzeugung der Karten erforderlichen Daten zu beschaffen, ohne der Unterstützung durch externe Infrastruktur zu bedürfen oder den Innenraum zwecks zusätzlicher Datenerfassung verlassen zu müssen. Der Gegenstand der vorliegenden Erfindung beinhaltet außerdem ein System und Verfahren zum Bereitstellen derartiger Innenbereichsstandortinformationen basierend auf der Etage, dem Zimmer und der zuletzt durchschrittenen Tür des Betreibers, wobei diese Informationen bereitgestellt werden können, indem Positionsinformationen mit einer Innenbereichsgebäudekarte kombiniert werden. Darüber hinaus wird ein mobiles Kartierungssystem und Verfahren beschrieben, mittels deren hochgradige und hochgenaue Sensor-, Positions- und Orientierungsdaten zur Georeferenzierung von Daten von mobilen Plattformen benutzt werden. Ein Vorteil der Georeferenzierungsdaten von einer mobilen Plattform ist die erhöhte Produktivität, weil über einen kurzen Zeitraum große Mengen von Kartendaten erfasst werden können.
  • ZUSAMMENFASSUNG
  • Diese Anmeldung beschreibt Werkzeuge (in der Form von Methodologie, Vorrichtungen und Systemen) zur Nachverarbeitung von Reichweitedaten im Innenbereich. Die Werkzeuge können in einem oder mehreren Computerprogrammen ausgeführt sein, das/die auf einem computerlesbaren Medium (z.B. einem Computer-Aufzeichnungsmedium) oder Programmspeichergerät gespeichert ist/sind und/oder in der Form eines Computerdatensignals in ein oder mehrere Segmente via einem Computernetzwerk oder sonstigem Übertragungsmedium übertragen wird/werden.
  • Ein System und Verfahren zur Nachverarbeitung georeferenzierter Kartierungsdaten beinhaltet das Bereitstellen von Positionsdaten, die eine Position eines Datenakquisitionssystems in einem definierten Raum zu spezifischen Zeitpunkten angeben, das Bereitstellen von Reichweitedaten, die die relative Position der Objekte im definierten Raum mit Bezug zu dem Datenakquisitionssystem zu spezifischen Zeitpunkten angeben, das Durchführen eines Glättungsprozesses an den Positionsdaten zur Bestimmung der endgültigen, besten Schätzung der Trajektorie- (SBET - smoothed best estimated trajectory) -Daten für die Trajektorie des Datenakquisitionssystems, das Durchführen eines Scan-Anpassungsprozesses an den SBET-Daten und den Reichweitedaten zur Identifikation von Objekten und/oder Objekteigenschaften in dem definierten Raum, das Durchführen eines Prozesses zur Überarbeitung der SBET-Daten, sodass sich die SBET-Daten den identifizierten Objekten und/oder Objekteigenschaften angleichen, und das Speichern der überarbeiteten SBET-Daten mit den Reichweitedaten.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Eine vollständigere Würdigung der vorliegenden Offenbarung und vielen dazugehörigen Vorteilen derselben sind dem Fachmann leicht ersichtlich, da selbige durch Bezugnahme auf die nachstehend detaillierte Beschreibung besser verständlich werden, wenn sie angesichts der beiliegenden Zeichnungen betrachtet werden, wobei:
    • ein Blockdiagramm eines Datenakquisitionssystems zur Akquisition von zu verarbeitenden Informationen zeigt;
    • ein detailliertes Bockdiagramm eines Systems zur Akquisition von zu verarbeitenden Informationen zeigt;
    • ein Flussdiagramm von Schritten ist, die bei der Akquisition von Daten gemäß einer Ausführungsform der vorliegenden Offenbarung einbezogen werden;
    • ein Vektordiagramm ist, das ein Georeferenzkonzept illustriert;
    • eine einmalige Vorgehensweise zur Kalibrierung der Entfernungen und Winkel, die sogenannten Hebelarme, zeigt;
    • Schritte zur Erzeugung einer Karte aus den erfassten Daten illustriert;
    • ein Bild zeigt, das ohne Benutzung der Nachverarbeitungsvorgehensweisen der vorliegenden Offenbarung erzeugt wurde;
    • ein Bild zeigt, das durch Benutzung der Nachverarbeitungsvorgehensweisen gemäß Ausführungsformen der vorliegenden Offenbarung erzeugt wurde;
    • ein Flussdiagramm zur Beschreibung eines Nachverarbeitungsverfahrens gemäß einer Ausführungsform der vorliegenden Offenbarung zeigt;
    • ein Blockdiagramm zur Beschreibung von Elementen eines Nachverarbeitungsprozessors gemäß einer Ausführungsform der vorliegenden Offenbarung ist;
    • ein Flussdiagramm zur Beschreibung der Nachverarbeitungsvorgehensweise ist; und
    • ein Beispiel eines SLAM-Prozesses zeigt.
  • DETAILLIERTE BESCHREIBUNG
  • Die nachstehenden beispielhaften Ausführungsformen werden zur Unterstützung des Verständnisses des Gegenstandes dieser Offenbarung dargelegt, bezwecken jedoch nicht, die darauf folgenden Ansprüche auf welche Art auch immer zu begrenzen und sind nicht dahingehend auszulegen. Daher wird - obwohl der Klarheit halber bei der Beschreibung einiger beispielhafter Ausführungsformen spezifische Terminologie angewendet wird - nicht bezweckt, die vorliegende Offenbarung auf die derart ausgewählte Terminologie zu begrenzen, und es versteht sich von selbst, dass jedes spezifische Element alle technischen Äquivalente umfasst, die auf eine ähnliche Art und Weise funktionieren.
  • SLAM (Simultaneous Localization and Mapping - Simultan-Lokalisierung und -Kartierung) ist ein allgemeiner Begriff, der zur Beschreibung einer Reihe von Schritten benutzt wird, die in Echtzeit durchgeführt werden, um die Position eines Roboters in einem Umfeld zu bestimmen, während gleichzeitig eine Karte des Umfeldes erzeugt wird. Ein SLAM-Prozess besteht im Allgemeinen aus mehreren Teilen, wobei das letztendliche Ziel des Prozesses die Benutzung des Umfeldes zur Aktualisierung der Position des Roboters ist.
  • Ein Beispiel eines SLAM-Prozesses wird in gezeigt und beinhaltet Datenakquisition (Schritt S300), Objektextraktion (Schritt S302), Datenassoziation (Schritt S304), Positionsschätzung (Schritt S306), Positionsaktualisierung (Schritt S308) und Objektaktualisierung (Schritt S310).
  • Es gibt zahlreiche Verfahren, die zur Ausführung der im vorliegend beschriebenen SLAM-Prozess einbezogenen Schritte benutzt werden können. Die vorliegende Offenbarung nennt nur einige mit dem Verständnis, dass sonstige Verfahren verfügbar sind und sich auf dem Gebiet der Robotertechnik beständig neue Verfahren herausbilden.
  • Die Datenakquisition, Schritt S300, wird zur Beschaffung von Echtzeitdaten über das Umfeld und über die Position des Roboters selbst innerhalb dieses Umfelds benutzt. Verschiedene Datentypen können durch den Roboter je nach dessen Fähigkeiten aufgenommen werden. Der Roboter ist zum Beispiel mit Sonar-, Laser- und/oder bildbasierten Reichweitesystemen zur Beschaffung von Daten über die Umgebung des Roboters ausgestattet. Wenn der Roboter darüber hinaus in einem Umfeld betrieben wird, das nicht mittels GPS-Signalen (z.B. im Innenbereich) zugänglich ist, kann der Roboter mit einem Trägheitslenksystem ausgestattet sein, einschließlich beispielsweise Akzelerometer, Kursanzeigern, etc. und/oder Odometrie-Systemen, einschließlich Sensoren, Drehgebern, etc., um die zurückgelegte Entfernung und Richtung zu schätzen. Bildbasierte Systeme können sogar benutzt werden, um eine Schätzung der zurückgelegten Entfernung und Richtung bereitzustellen.
  • Objekte sind Eigenschaften im Umfeld, die leicht wieder beobachtet werden können und sich von anderen Eigenschaften im Umfeld unterscheiden. Die Objektextraktion, Schritt S302, wird zur Extraktion von Informationen von den beschafften Daten benutzt und zum Versuch der Identifikation der Objekte im Umfeld.
  • Ein Objektextraktionsverfahren ist die Extraktion von hervorstehenden Orientierungs-(Objekt)-punkten, die zum Auffinden von Objekten Extrema benutzt. Bei dem Verfahren der Extraktion von hervorstehenden Orientierungspunkten werden Objekte durch Auffinden von Werten in der Reichweite eines Laserscans identifiziert, wo sich zwei Werte um mehr als einen bestimmten Betrag unterscheiden. Ein weiteres Verfahren wird als RANSAC (Random Sampling Consensus -Konsens zufälliger Stichproben) bezeichnet, das benutzt wird, um Linien von einem Laserscan zu extrahieren. Ein noch weiteres Verfahren wird als Scan-Anpassung bezeichnet, wobei sukzessive Scans angepasst werden. Die Scan-Anpassung kann durch Benutzen von Laserreichweitedaten von einem Laserscan oder visuellen Daten von einem Bilderfassungsgerät, wie zum Beispiel einer Kamera, durchgeführt werden. Das CSIRO ICT Centre of Brisbane in Australien ist eine Quelle für Scan-Anpassungssoftware, die dem neusten Stand der Technik entspricht.
  • Die Datenassoziation, Schritt S304, passt beobachtete Objekte von verschiedenen Scans aneinander an. Ein Ansatz wird als der nächstgelegene Nachbar-Ansatz bezeichnet, wobei ein Objekt mit dem nächstgelegenen Objekt in der Datenbank assoziiert wird.
  • Die Positionsschätzung, Schritt S306, bezieht sich auf einen Prozess der Schätzung der Position des Roboters aus Positionsdaten (z.B. Odometrie- und/oder Trägheitsdaten) und/oder extrahierten Objektbeobachtungen. Ein erweiterter Kalman-Filter (EKF - extended Kalman Filter) wird oft zur Durchführung dieser Schätzung benutzt.
  • Die Aktualisierung der derzeitigen Positionsschätzung, Schritt S308, kann leicht durch Berechnung der derzeitigen Position aus der vorherigen Position unter Benutzung der Odometrie- und/oder Trägheitsdaten durchgeführt werden.
  • Die Aktualisierung der geschätzten Position, Schritt S310, wird durch Wiederbeobachtung der Objekte durchgeführt. Durch Benutzung der Schätzung der derzeitigen Position ist es zum Beispiel möglich, zu schätzen, wo das Objekt und der Roboter sein sollten.
  • Dementsprechend wird SLAM als eine Echtzeitlösung zur Lokalisierung eines Roboters in einem Umfeld und zur Erzeugung einer Karte benutzt, die durch den Roboter zur Durchquerung des Umfeldes benutzbar ist.
  • Gemäß Ausführungsbeispielen der vorliegenden Offenbarung können durch Nachverarbeitung der Reichweite-, Bild- und Positionsdaten klare und genaue Bilder eines Innenbereichsumfeldes erzeugt werden, wobei diese Daten zum Beispiel durch ein Verfahren, wie dasjenige, das in der Lithopoulus-Anmeldung offenbart wird, unter Verwendung bestimmter Aspekte der SLAM beschafft werden. Obwohl die vorliegende Offenbarung durch Bezugnahme auf Laserreichweitesysteme und Trägheitsstandortsysteme mit Lichtnachweis und Reichweitebestimmung (LIDAR - Light Detection and Ranging) beschrieben wird, ist dem Fachmann ersichtlich, dass andere Typen von Reichweite- und Standortsystemen, einschließlich der oben genannten, zusätzlich oder an deren Stelle verwendet werden können.
  • zeigt verschiedene Datentypen, die durch ein Datenakquisitionssystem gemäß Ausführungsformen der vorliegenden Offenbarung erfasst werden können. Die erfassten Daten können Reichweitedaten 12 (z.B. LIDAR), Bilddaten 10 (z.B. Kamera) und Standortdaten 14 (z.B. Odometrie- und/oder Trägheitsdaten) umfassen. Die Daten können in Echtzeit unter Benutzung eines Datenakquisitionssystems 16 für den Innenbereich aufgenommen werden. Die aufgenommen Daten werden durch das Datenakquisitionssystem 16 im Speicher 18 korreliert und gespeichert. Der Speicher 18 kann ein oder mehrere Speichergeräte umfassen und kann einen Teil des Datenakquisitionssystems 16 bilden oder dies nicht tun. Das Datenakquisitionssystem 16 kann zum Beispiel ein System zur Übertragung der aufgenommenen Daten an einen Remote-Standort umfassen, wo diese dann zur späteren Verarbeitung gespeichert werden können.
  • Ein Beispiel eines Datenakquisitionssystems 16 für den Innenbereich wird in der Lithopoulos-Anmeldung offenbart und wird nachstehend detaillierter beschrieben. Das Datenakquisitionssystem 16 kann auf jedem geeigneten Plattformtyp zur Durchquerung eines Innenbereichs und Beschaffung der fraglichen Daten bereitgestellt werden. Das Datenakquisitionssystem 16 kann zum Beispiel auf einem Rucksack oder Fahrzeug mit Rädern bereitgestellt werden oder es kann auf einem Roboterfahrzeug bereitgestellt werden, das zur Durchquerung des Innenbereichs durch menschliche und/oder automatische Fernsteuerung in der Lage ist.
  • Ein Blockdiagramm eines Datenakquisitionssystems 16 wird in gezeigt. Das System ist in mehrere Abschnitte einschließlich einem Trägheitspositionierungsabschnitt 102, Echtzeitbildgebungsabschnitt 104 und Nach-Missionsbearbeitungsabschnitt 106 unterteilt.
  • Der Trägheitspositionierungsabschnitt 102 beinhaltet eine Trägheitsmessungseinheit (IMU) 121, die funktional mit einem Trägheitsnavigator an Block 122 verbunden ist. Die IMU 121 ist eine Nullgeschwindigkeitsaktualisierung (ZUP - zero velocity update)-gestützte Trägheits-IMU, wie nachstehend detaillierter beschrieben, und misst Sensorpositionen und - orientierung. Blocks, die die nachstehend beschriebenen Fehlerbehebungskomponenten enthalten, legen dem Trägheitsnavigator 122 Positionskorrekturinformationen vor. Die Fehlerkorrekturkomponenten werden zur Erhöhung der Genauigkeit benutzt, da die Genauigkeit der IMU-Positionsmessungen im Zuge der zurückgelegten Entfernung degradiert.
  • Die IMU 121 stellt eine hochpräzise navigationsfähige IMU dar, die verschiedene Komponenten haben kann, einschließlich einem oder mehrerer Gyroskope und einem oder mehrerer Akzelerometer-Sensoren, die an den Trägheitsnavigator 122 inkrementelle lineare und winklige Bewegungsmessungen bereitstellen.Die IMU 121 kann eine navigationsfähige Hochleistungseinheit sein, die Gyroskope mit einer Leistung von 0.01 deg/hr oder besser benutzt, wie zum Beispiel das Honeywell HG9900, HG21 oder micro IRS. Unter Benutzung von durch einen Kalman-Filter 123 bereitgestellten Sensorfehlerschätzungen korrigiert der Trägheitsnavigator 122 diese anfänglichen Messungen und transformiert sie bei einem ausgewählten Navigationsframe auf Schätzungen der x, y, z Position sowie Orientierungsdaten, einschließlich Nicken-, Rollen- und Kursdaten. Wenn GPS-Signale verfügbar sind, stellt ein durch gepunktete Linien gezeigter GPS-Empfänger 124 GPS-Daten an den Kalman-Filter 123 zur anfänglichen Angleichung der IMU bereit. Der auf GPS-Positionsinformationen basierende Angleichungsprozess kann statisch oder dynamisch sein. Wenn er statisch ist, findet der Angleichungsprozess an einer fest vorgegebenen und bekannten Position mit bekannten Koordinaten statt. Der Angleichungsprozess kann auch dynamisch auf einem fahrenden Fahrzeug unter Benutzung von GPS ausgeführt werden, um zu der Beschaffung von korrekten Positionsinformationen von der IMU 121 beizutragen.
  • Für einen fortlaufenden Betrieb in einem Innenbereich eines Gebäudes wird die nachfolgende Navigation im Allgemeinen in vollständiger Abwesenheit von GPS durchgeführt. In einem solchen Fall, wenn das GPS-Signal verloren wurde, übernimmt die IMU 121 und nimmt die Positionsdaten auf. Der Kalman-Filter 123 stellt verarbeitete Messungsinformationen, die Fehlern unterliegen, an ein Fehlersteuergerät 126 bereit, das die akkumulierten Fehler in geschätzten Messungen im Verlauf der Zeit verfolgt. Wenn die geschätzten Messungsfehler des Kalman-Filters über einen Schwellenwert wachsen, gewöhnlich über einen Zeitraum von 1 bis 2 Minuten, fragt das System von dem Betreiber durch eine akustische Benachrichtigung eine Nullgeschwindigkeitsaktualisierung (ZUP), an Block 127 angegeben, ab. Die Sensorplattform, entweder ein Rucksack, Gerätewagen oder Roboter, wird dann für 10-15 Sekunden bewegungslos gemacht, um es dem Kalman-Filter 123 zu ermöglichen, Fehlerkorrekturen für die dann bestehenden Positionen der Sensorplattform durchzuführen. Der Kartierungsbetrieb wird nach jedem ungefähr 15 Sekunden langen Verzögerungszeitraum wieder aufgenommen. In dieser Situation kann die IMU stundenlang ohne jegliche GPS-Hilfe betrieben werden, wobei sie lediglich die ZUP als eine Hilfe zur Korrektur der Fehler des IMU-Sensors benutzt. Auf diese Art und Weise beschafft der Trägheitsnavigator 122 die aktualisierten korrekten Positionsinformationen alle paar Minuten, eine Technik, die die ansonsten regelmäßig auftretende Degradierung bei der Genauigkeit für IMU-Positionsmessungen im Verlauf der Zeit vermeidet.
  • Der Echtzeitbildgebungsabschnitt 104 kann mehrere Typen von Sensoren umfassen. Gemäß einem Ausführungsbeispiel umfasst der Bildgebungsabschnitt 104 zum Beispiel einen oder mehrere georäumliche Datensensoren, wie zum Beispiel LIDAR 129, und/oder eine oder mehrere Kameras 128, mittels derer georäumliche Daten erfasst werden. Die Kameras 128 können eine oder mehrere digitale Kameras zur Erfassung von Bilddaten, wie zum Beispiel Farbe, Helligkeit und sonstige visuelle Attribute von Oberflächenstrukturen oder Objekten umfassen, die innerhalb des Zielgebäudes oder der Zielstruktur kartiert werden. Die LIDAR 129 misst, wie weit und in welche Richtung (Nicken, Rolle und Kurs) die abzubildende Zielstruktur oder das abzubildende Zielobjekt von der Sensorplattform lokalisiert ist, um relative Verschiebungsinformationen bereitzustellen. Der LIDAR-Sensor, ein Scanning-Laser, kann ein SICK-, Riegl- oder Velodyne-Sensor sein. In einer Ausführungsform kann eine einzelne Kamera ohne eine LIDAR benutzt werden, in welchem Falle die Tiefe aus sequentiellen Ansichten derselben Eigenschaft bestimmt werden kann. Die Kamera kann eine Point Grey-Kamera sein. In einer Ausführungsform umfassend ein stereooptisches System, kann die Tiefe aus einer Einzelansicht einer Eigenschaft (oder Eigenschaften) bestimmt werden. Wenn zur Bestimmung der Tiefe oder Entfernung eine Kamera anstatt einer LIDAR benutzt wird, dann kann die Nach-Missionssoftware die Funktion der Reichweitebestimmung durchführen.
  • Alle Daten, einschließlich der LIDAR- und Bilddaten, sowie der IMU inkrementellen x, y, z Positions- und Nicken-, Rollen- und Kursinformationen werden auf einem Massenspeichergerät 131 gespeichert. Der Dateninput in das Massenspeichergerät 131 kann mit einer durch eine interne Uhr im Systemprozessor oder Computer bereitgestellten Zeit markiert werden und wird in einem Massenspeichergerät an Block 131 gespeichert, wie zum Beispiel einer Computerfestplatte. Das Computersystem kann ein Applanix POS Computersystem sein.
  • Gemäß einer Ausführungsform der vorliegenden Offenbarung, können die Daten im Wege der Nach-Mission durch eine Nachverarbeitungs-Suite 132 abgerufen werden, diedie Positionsinformationen des ZUP-gestützten Trägheitspositionssystems und die Orientierungsmessungen mit den LIDAR-Reichweitemessungen kombiniert. Die Nach-Missionssoftware ist in der Lage, mehrere Funktionen durchzuführen. Eine Funktion ist die Kombination von Nicken/Rolle/Kurs mit den Reichweitemessungen, um eine dreidimensionale georeferenzierte Punktwolke des durchquerten Raums zu bilden. Der Nach-Missionsverarbeitungsabschnitt 106 ist in der Lage, zur Benutzung Dritter zur Ansicht der vervollständigten Innenbereichskarte dreidimensionale Modellierung und Visualisierung auszugeben. Unter Verwendung von Aspekten der vorliegenden Offenbarung können eine klare, dreidimensionale Modellierung und Visualisierung bereitgestellt werden.
  • stellt ein Flussdiagramm einer Ausführungsform dar, in der die bei der Aufnahme der Kartierungsdaten einbezogenen Schritte illustriert werden. Der Schritt Angleichung S250 beinhaltet die Bestimmung der Richtungen Norden und nach unten, entweder statisch oder dynamisch. Statisch bedeutet zu einer fest vorgegebenen Position mit bekannten Koordinaten, typischerweise auf dem Boden unter Benutzung eines GPS, was ungefähr 10-20 Minuten dauern kann. Dynamisch bedeutet auf einem Fahrzeug oder einer sich bewegenden Person unter Benutzung von GPS-Hilfe.
  • Der nächste Schritt, Walk S252, bezieht jede Gehgeschwindigkeit oder Bewegung des Datenakquisitions-/Erfassungsgeräts durch das Gelände, das kartiert wird, ein. Das Gerät weist eine LIDAR- und digitale Kamera auf, um Tiefen- und Bilddaten aufzunehmen, wie oben beschrieben.
  • Der nächste Schritt, ZUP S254, bezieht das Beschaffen einer Nullgeschwindigkeitsaktualisierung der Position ein, indem zum Beispiel die Bewegung des Datenakquisitions-/Erfassungsgeräts alle 1-2 Minuten gestoppt wird und für 10-15 Sekunden bewegungslos verbleibt, um die Korrektur der gemessenen Positionsinformationen zu erlauben. Der Schritt Walk S256 wird dann bis zur nächsten ZUP S254-Periode fortgeführt. Die Schritte Walk und ZUP werden wiederholt, bis die Kartierung des Zielbereichs abgeschlossen ist S258.
  • Unter Bezugnahme auf , und wird ein Georeferenzprozess oder Verfahren zur Aufnahme von räumlichen Kartierungsinformationen dargestellt, z.B. Zuweisung von Kartierungsframe-Koordinaten an einen Zielpunkt P auf einer zu kartierenden Struktur unter Benutzung von Messungen, die durch einen Remotesensor genommen wurden. Ein allgemeines Verfahren besteht aus der Bestimmung der Positionen einer Pluralität von Oberflächendatenpunkten P einer Zielstruktur, Beschaffung charakteristischer Bilddaten der Oberflächendatenpunkte, Speicherung von Informationen, die die Positionen der Oberflächendatenpunkte der Zielstruktur zusammen mit deren charakteristischen Bilddaten repräsentieren, und Korrelieren der Positionsdaten und Bilddaten für die Oberflächendatenpunkte. Das Verfahren kann - zum Zwecke der Anzeige - weiterhin den Schritt der Wiedererzeugung eines Bildes der Zielstruktur unter Benutzung der Positionsdaten und Bilddaten einbeziehen.
  • ist ein Vektordiagramm, das ein Verfahren des Ableitens von Kartierungsframe-Koordinaten für einen Zielpunkt P auf einer zu kartierenden Oberfläche basierend auf durch eine Remote-Sensorplattform S vorgenommene Messungen illustriert. Die Sensorplattform S besteht aus den oben beschriebenen Instrumenten. Der Vektor rs M repräsentiert die kartesischen Koordinaten einer Sensorplattform S im Verhältnis zu einem fest vorgegebenen Bezugspunkt M. Der Vektor rp s ist der Sensorzeigevektor, der Einstellungsdaten für die Sensorplattform im Verhältnis zu dem Zielpunkt P sowie der Entfernung von der Sensorplattform S zu dem Zielpunkt P repräsentiert. Der Vektor rp M ist ein Vektor, der die Position eines kartierten Punktes P im Verhältnis zu dem Bezugspunkt M repräsentiert.
  • Der erste Schritt in dem Prozess ist die Bestimmung des Vektors rs M. Im Außenbereichsumfeld kann dies durch Benutzen von GPS oder eines GPS-gestützten Trägheitssystems bewerkstelligt werden. In einem Innenbereichsumfeld kann dies durch Benutzen einer ZUP-gestützten IMU bewerkstelligt werden. Der nächste Schritt ist das Bestimmen des Vektors rp s durch Bestimmen der polaren Koordinaten der Sensorplattform S (Einstellungswinkel: Rolle, Nicken, Kurs) und die Entfernung der Sensorplattform S vom Punkt P. Die Winkel können unter Benutzung eines Gyroskops und einer ZUP-gestützten IMU bestimmt werden. In einer Ausführungsform ist die ZUPgestützte IMU eine navigationsfähige IMU. Die Entfernung vom Positionssensor zum Punkt P kann unter Benutzung eines Laserscangeräts, wie zum Beispiel der oben beschriebenen LIDAR, bestimmt werden oder durch Benutzen eines Stereokamerapaars und Triangulierung. Eine einzelne Kamera kann auch zur Beschaffung sequentiell beabstandeter Bilder des Zielpunktes benutzt werden, von dem die Entfernung des Positionssensors zum Zielpunkt P abgeleitet werden kann. Wie oben angegeben, stellt die Kamera auch charakteristische Bilder für jeden Zielpunkt P auf der zu kartierenden Oberfläche bereit. Die aus den obigen Vektoren erhältlichen Informationen ermöglichen die Berechnung der Koordinaten des Zielpunktes P.
  • und illustrieren eine Ausführungsform einer Umsetzung des Georeferenzprozesses. In wird eine einmalige Vorgehensweise der Kalibrierung des Hebelarms illustriert. Die IMU, LIDAR und Kamera sind fest auf einem starren Rahmen (z.B. der Sensorplattform) angebracht. Die Entfernung zwischen und die relativen Orientierungen der IMU, LIDAR und Kamera werden dadurch fest vorgegeben und werden im Daten-Store 131 ( ) gemessen (Schritte S50-S53) und gespeichert. Dies erlaubt, dass die zu jedem Zeitpunkt an der IMU stattfinden Positions- und Orientierungsmessungen zu diesem Zeitpunkt zu der relativen Position und Orientierung der Kamera und der LIDAR korreliert werden können, um die Koordinatentransformationen (Schritt S54) zu unterstützen.
  • umreißt die Schritte zur Ausführung des Georeferenzprozesses, wie im Zusammenhang mit illustriert und beschrieben. Die LIDAR-Reichweitemessung jedes Zieloberflächenpunktes P und die Zeit T, zu der er beschafft wurde, werden zusammen mit der IMU-Position und -Orientierung zum Zeitpunkt T (Schritte S60-S62) abgerufen. Die Zieloberflächenpunktdaten werden mit der IMU-Bestimmung der Position und Orientierung zum Zeitpunkt T korreliert. Dreidimensionale geografische Koordinaten jedes Punktes P können dann berechnet und gespeichert werden (Schritt S66). Bilddaten des Punktes P von einer Kamera können über die LIDAR-Daten drapiert werden, damit Punkt P für diesen Punkt das Strukturgefüge und die Farbe bereitstellen und speichern kann (Schritt S68). Dieser Prozess wird von Punkt zu Punkt fortgeführt, wodurch eine Wolke gespeicherter georeferenzierter Positionen in drei Dimensionen für jeden kartierten Punkt P auf der zu kartierenden Oberfläche gebildet wird (Schritte S70-S74).
  • Wenn die Bilddaten mit den gespeicherten Positionsdaten korreliert werden, besteht eine Datenbank, mittels derer der Prozessor ein Bild eines kartierten Innenoberflächenbereichs des Geländes rekonstruieren kann, indem ein Ausgangspunkt und ein Azimut und die Richtung von diesem Ausgangspunkt ausgewählt werden, von dem ein durch die gespeicherten dreidimensionalen Positionen für jeden kartierten Punkt definiertes Bild auf dem Oberflächenbereich, der kartiert wird, angezeigt wird. Diese können unter Benutzung einer Suite, wie z.B. der von Object Raku, visualisiert werden. Der Prozessor erzeugt ein Bild neu oder rekonstruiert es, wobei der tatsächliche Innenbereich des Geländes dargestellt wird, als ob der Betrachter tatsächlich im Inneren des Geländes wäre und durch ein Bilderfassungsgerät schaut. Das gesehene Bild kann fortlaufend verändert werden, indem verschiedene Ausgangspunkte ausgewählt werden, als ob der Betrachter sich durch das Gelände fortbewegt, und der Azimut und die Richtung können ebenfalls verändert werden, entweder wenn der Ausgangspunkt konstant ist oder sich verändert. Der Prozessor kann auch Stereobilder erzeugen, wobei ein Bild getrennt an jedes Auge des Betrachters bereitgestellt wird, um ein dreidimensionales Bild bereit zu stellen. Die Bilder können auf als Brillen getragenen, linken und rechten Anzeigen angezeigt werden. Eine derartige Anordnung stellt eine virtuelle Realitätstour des Innenbereichs des Geländes bereit, ohne tatsächlich im Innenbereich des Geländes präsent zu sein. Das angesehene Bild oder die angesehenen Bilder können horizontal oder vertikal geschwenkt oder herein- oder heraus gezoomt werden. Ein Beispiel eines unter Benutzung derartiger Nachverarbeitungsvorgehensweisen erzeugten Bildes wird in gezeigt.
  • Um ein noch klareres, schärferes Bild bereit zu stellen kann an den gespeicherten Daten eine Verarbeitungsvorgehensweise gemäß einer Ausführungsform der vorliegenden Offenbarung durchgeführt werden.
  • Eine Übersicht eines Prozesses gemäß einer Ausführungsform der vorliegenden Offenbarung wird in gezeigt. Gemäß dieser Ausführungsform kann die Nachverarbeitung der Standortdaten 14 (Schritt S200) das Glätten der Standortdaten beinhalten, welche in diesem Fall aus Trägheitsdaten bestehen. Die Nachverarbeitung dieser Daten nutzt die Fähigkeit aus, auf den Daten rückwärts und vorwärts zu sehen sowie Positionierungsprozesse in Vorwärts- und Rückwärtsrichtung auszuführen, was das genaue Glätten der Daten erlaubt und eine endgültige, beste Schätzung der Trajektorie- (SBET) -Daten erzeugt, die mit den sonstigen (Bild- und Reichweite-) Daten korreliert und gespeichert wird (Schritt S202). Die Nachverarbeitung (Schritt S200) kann Glätten, Neuberechnungen, statistisches Verarbeiten, etc. umfassen. Eine Scan-Anpassungstechnik (Schritt S204) wird dann an den Reichweitedaten (LIDAR-Sonardaten) durchgeführt, und die Verwendung der SBET wird zur Lokalisierung von Objekten im Umfeld verwendet sowie dazu, die SBET-Daten zu zwingen, sich den Objekten anzugleichen, wodurch die Trajektorie korrigiert oder überarbeitet wird. Die überarbeiteten SBET werden dann gespeichert (Schritt S206). Unter Verwendung der abgeänderten SBET, der Bilddaten 10 und der Reichweitedaten 12 wird die Punktwolkenerzeugung durchgeführt (Schritt S208), um ein Bild des Innenbereichs des Umfeldes zu erzeugen, das gescannt wurde.
  • Ein Beispiel eines Bildes eines Gebäudeteils, das unter Verwendung der Nachverarbeitungsvorgehensweisen gemäß einer Ausführungsform der vorliegenden Offenbarung erzeugt wurde, wird in gezeigt. kann mit verglichen werden, die ein ohne die Nachverarbeitungsvorgehensweisen der vorliegenden Ausführungsformen erzeugtes Bild zeigt. Wie im Bild der gezeigt, sind die Objekte (Wände, Möbel, etc.) in dem Gebäude im Vergleich zu dem Bild in wesentlich besser definiert.
  • Die spezifische Nachverarbeitung, die zur Umsetzung der Ausführungsformen der vorliegenden Offenbarung durchgeführt werden können, wird nunmehr durch Bezugnahme auf die und detaillierter beschrieben.
  • Wie oben angemerkt, sind die Trägheitsrohdaten geografische Positionsdaten, die im Verhältnis zu mindestens einem fest vorgegebenen Bezugspunkt bestimmt wurden. Diese Trägheitsrohdaten werden in einen Trägheitsnavigator 400 (Schritt S82) eingegeben, der zur Berechnung einer geschätzten Breite, Länge und Höhe zu jeder Dateninstanz (Schritt S84) benutzt wird. Diese Schätzungen können auf einen fest vorgegebenen Bezugspunkt basiert werden, der durch einen GPS-Empfänger bestimmt wird, wenn das System mit einem GPS ausgerüstet ist, und es kann eine anfängliche Bezugspunktposition lokalisiert werden, die Zugriff auf GPS-Signale hat. Hilfsweise können, wenn ein GPS-Signal und/oder GPS-Empfänger nicht verfügbar sind, die Schätzungen auf einen sonstigen fest vorgegebenen Bezugspunkt innerhalb der zu scannenden Struktur basiert werden. Die geschätzten Daten werden dann in den Nachprozessor 402 (Schritt S86) eingegeben, und unter Benutzung der Fähigkeit, auf den Daten nach vorne und hinten zu sehen, wird eine endgültige, beste Schätzung der Trajektorie (SBET) erzeugt.
  • Es stehen verschiedene Typen von Nachprozessglättern zur Verfügung, einschließlich zum Beispiel fest vorgegebene Punktglätter, fest vorgegebene Latenzglätter, fest vorgegebene Intervallglätter. Spezifische Beispiele von geeigneten Typen beinhalten den Modified Bryson-Frazier Smoother (POSPac4), den Mayne-Fraser (oder Zwei-Filter) Smoother (POSPacMMS, Markenartikel VWCN in TNG3-Code) und den RTS (Rauch-Tung-Striebel) Smoother (POSPacMMS 5.4 (TNG4)). Der Zweck der Glätter ist das Entfernen von beliebigen Fluktuationen in den Trajektorie-Rohdaten, wo dies angemessen ist, und das Bereitstellen einer genaueren Schätzung der tatsächlich genommenen Trajektorie.
  • Die SBET- und die Reichweitedaten (z.B. LIDAR-Laserdaten) werden dann in einen Scan-Anpassungsprozessor 404 (Schritt S88) gegeben, wo ein oder mehrere Scan-Anpassungsalgorithmen verwendet werden, um statistische Prozesse an den Reichweitedaten durchzuführen. Unter Verwendung der SBET- und der Reichweitedaten können Positionsinformationen von jeder von einer Pluralität der Oberflächendatenpunkte genauer bestimmt werden. Dies ermöglicht, dass Objekte und Objekteigenschaften genauer und leicht identifiziert werden können.
  • Je nach dem benutzten Scan-Anpassungsprozess können die identifizierten Objekte zum Beispiel Wände, Türen, Türkanten, Möbel, Möbelkanten oder sonstige Eigenschaften des Umfeldes beinhalten, das kartiert wurde. Gemäß einer Ausführungsform der vorliegenden Offenbarung kann ein Scan-Anpassungsprozess durchgeführt werden, um lineare Eigenschaften des Umfeldes zu identifizieren.
  • Ein Beispiel eines geeigneten Typs eines Scan-Anpassungsprozess wird durch das CSIRO ICT Centre, in Brisbane, Australien bereitgestellt. Es werden verschiedene Typen geeigneter Scan-Anpassungsprozesse beschrieben, zum Beispiel in „Continuous 3D Scan-Matching with a Spinning 2D Laser“ (Fortlaufende 3D-Scan-Anpassung mit einem drehenden 2D-Laser) von M. Bosse und R. Slot und „Place Recognition using Keypoint Similarities in 2D Lidar Maps“ (Platzerkennung unter Benutzung von Schlüsselpunktähnlichkeiten in 2D-Lidar-Karten) von R. Zlot und M. Bosse, deren Inhalt durch Bezugnahme in diese Anmeldung einbezogen wird und die als ein Teil der vorliegenden Offenbarung betrachtet werden.
  • Gemäß einer Ausführungsform der vorliegenden Offenbarung, benutzt der Scan-Anpassungsprozess auch statistische Prozesse, um die SBET zu überarbeiten, sodass sich die Trajektorie der/den linearen Eigenschaft/en anpasst. Ein statistischer Prozess kann zum Beispiel an den Reichweitedaten durchgeführt werden, um lineare Eigenschaften zu identifizieren, die sich dort gebildet haben, wo eine Wand auf eine Decke trifft. Die SBET können dann, falls erforderlich, überarbeitet werden, sodass diese bekannten Eigenschaften linear bleiben. Die überarbeiteten SBET werden dann mit den Reichweite- und Bilddaten korreliert und gespeichert.
  • Die überarbeiteten SBET werden dann durch den Punktwolkengenerator 406 benutzt, um die Punktwolke zu erzeugen (Schritt S90) und um die Bilddaten zu überlagern (Schritt S92). Die Bildkarte des Umfeldes wird dann über einen beliebig geeigneten Ausgabetyp oder Ausgabetypen 408, einschließlich beispielsweise Anzeigen, Drucker, etc., ausgegeben (Schritt S94).
  • Die vorliegende Offenbarung benutzt daher eine überarbeitete Trajektorie, die rohen LIDAR-Daten und erzeugt - auf der Basis gemeinsamer Zeit - eine Punktwolke, die die Projektion der Trajektorie ist, und eine LIDAR-Reichweite auf einer innerhalb der überarbeiteten SBET bereitgestellten Reichweitepeilung. Demgemäß ist die Kohärenz der Punktwolke besser als dies unter Benutzung sonstiger Verfahren erreichbar ist. Die Kohärenz ist in diesem Fall die Fähigkeit, Objekte klar zu sehen und dass die Objekte nicht durch eine ungenaue Trajektorie des LIDAR-Sensors verzerrt werden.
  • Der vorliegend beschriebene Scan-Anpassungsprozess wendet statistische Prozesse auf die LIDAR-Laserreichweitedaten an, um Objekte in dem Umfeld zu lokalisieren und identifizieren und ein überarbeitetes SBET zu bestimmen. Sonstige Typen der Scan-Anpassungstechniken könnten natürlich auch benutzt werden. Wie oben erwähnt, können die Bilddaten zum Beispiel benutzt werden, um Reichweitedaten zu bestimmen. In diesem Fall könnte ein Scan-Anpassungsprozess, der die statistischen Prozesse auf die Bilddaten anwendet, benutzt werden, um Objekte im Umfeld zu lokalisieren und die überarbeiteten SBET zu bestimmen.
  • Eine herausstehende Eigenschaft der Ausführungsformen der vorliegenden Offenbarung ist die Benutzung der SBET als a priori Input in den Scan-Anpassungsalgorithmus. Eine weitere herausstehende Eigenschaft der vorliegenden Offenbarung sind die daraus folgenden „überarbeiteten SBET“, die von einer Qualität und Genauigkeit sind, die bislang in derartigen Kartierungssystem-Konfigurationen nicht erzielbar waren.
  • Eine noch weiter herausstehende Eigenschaft der vorliegenden Offenbarung ist die Anwendung der abschließenden (überarbeiteten SBET-) Trajektorie auf die Kamera- (Bild-) Daten, die gleichzeitig mit den Trägheitsrohdaten erfasst wurden. In einem GPSverweigerten Umfeld wäre es unmöglich, eine derartig genaue Trajektorie ohne die vorliegend beschriebenen trägheitsgestützten nachverarbeiteten Scan-Anpassungstechniken auf die Kameradaten anzuwenden.
  • Dem Fachmann ist ersichtlich, dass die erzeugten Bilder in Abhängigkeit der verwendeten Datenerfassungsgeräte zwei- oder dreidimensional sein können.
  • Die vorliegend beschriebenen Systeme können in digitalen elektronischen Schaltungsanordnungen oder in Computerhardware, Firmware, Software oder in Kombinationen davon ausgeführt werden. Die Systeme können als ein Computerprogrammprodukt ausgeführt werden, z.B. einem in einem Informationsträger greifbar ausgeführten Computerprogramm, z.B. in einem maschinenlesbaren Speichergerät oder in einem verbreiteten Signal, zur Ausführung durch oder zur Steuerung des Betriebs von Datenverarbeitungsvorrichtungen, z.B. einem programmierbaren Prozessor, einem Computer oder mehreren Computern. Ein Computerprogramm kann in jeder Form von Programmiersprache geschrieben werden, einschließlich kompilierter oder interpretierter Sprachen, und es kann in jeder Form angewendet werden, einschließlich als ein eigenständiges Programm oder als ein Modul, eine Komponente, ein Unterprogramm oder eine sonstige zur Benutzung in einem Computerumfeld geeignete Einheit. Ein Computerprogramm kann zur Ausführung auf einem Computer oder auf mehreren Computern an einem Standort oder über mehrere Standorte verteilt und mittels eines Kommunikationsnetzwerks vernetzt angewendet werden.
  • Mit der vorliegenden Offenbarung assoziierte Verfahren können durch einen oder mehrere programmierbare Prozessoren durchgeführt werden, die ein Computerprogramm ausführen, um durch den Betrieb von Inputdaten und der Erzeugung von Output Funktionen durchzuführen. Die Verfahren können auch durch eine Logik-Schaltung mit besonderem Zweck durchgeführt werden, und die Vorrichtungen der vorliegenden Offenbarung können als Logik- Schaltungen mit besonderem Zweck ausgeführt werden, z.B. ein FPGA (field programmable gate array - am Einsatzort programmierbares Gate-Array) oder eine ASIC (application-specific integrated circuit - anwendungsspezifische integrierte Schaltung).
  • Für die Ausführung eines Computerprogramms geeignete Prozessoren beinhalten beispielhalber Mikroprozessoren mit sowohl allgemeinem als auch besonderem Zweck sowie einen oder mehrere Prozessoren jeder Art digitalen Computers. Ein Prozessor empfängt im Allgemeinen Anweisungen und Daten von einem Festwertspeicher oder einem RAM-Speicher oder beiden. Die Elemente eines Computers sind ein Prozessor zur Ausführung von Anweisungen und ein oder mehrere Speichergeräte zum Speichern von Anweisungen und Daten. Im Allgemeinen beinhaltet ein Computer außerdem ein oder mehrere Massenspeichergeräte zum Speichern von Daten, z.B. magnetische, magneto-optische Laufwerke oder optische Laufwerke, oder ist betrieblich zum Empfang oder zur Übertragung von Daten oder beidem von den erwähnten Geräten mit diesen verbunden. Informationsträger, die zur Verkörperung von Computerprogrammanweisungen und Daten geeignet sind, beinhalten alle Formen von nicht flüchtigen Speichern, einschließlich beispielshalber Halbleiterspeichergeräte, z.B. EPROM (Erasable Programmable Read-Only Memory - löschbarer programmierbarer Nur-Lese-Speicher), EEPROM (Electrically Erasable Programmable Read-Only Memory - elektrisch löschbarer programmierbarer Nur-Lese-Speicher) und Flashspeichergeräte; magnetische Laufwerke, z.B. interne Festplattenlaufwerke oder Wechselplatten; magneto-optische Laufwerke; CD-ROMs (Compact Disc Read-only Memory) und DVD-ROMs (Digital Versatile Disc Read-only Memory). Der Prozessor und der Speicher können durch Logik-Schaltungen mit besonderem Zweck ergänzt oder in diese einbezogen werden.
  • Zur Bereitstellung der Interaktion mit einem Benutzer kann die vorliegende Offenbarung auf einem Computer ausgeführt werden, der ein Anzeigegerät aufweist, z.B. einen CRT-(cathode ray tube - Kathodenstrahlröhre) oder LCD- (liquid crystal display - Flüssigkristallanzeige) Monitor, zur Anzeige von Informationen an den Benutzer und ein Keyboard und ein Zeigegerät, z.B. eine Maus oder eine Rollkugel, mittels derer der Benutzer Input an den Computer bereitstellen kann. Es können auch sonstige Gerätearten zur Bereitstellung von Interaktionen mit einem Benutzer benutzt werden; zum Beispiel kann Feedback, das an den Benutzer bereitgestellt wird, jede Form sensorischen Feedbacks sein, z. B. visuelles Feedback, akustisches Feedback oder taktiles Feedback; und der Input vom Benutzer kann in jeder Form empfangen werden, einschließlich akustischem, Sprach- oder taktilem Input.
  • Das vorliegende System kann auf einem Computersystem ausgeführt werden, das eine Backend-Komponente beinhaltet, z.B. als ein Datenserver, oder das eine Middleware-Komponente, z.B. ein Applikationsserver, oder eine Frontend-Komponente beinhaltet, z.B. ein Kundencomputer, wobei das System eine grafische Schnittstelle aufweist oder einen Webbrowser, durch den ein Benutzer mit einer Ausführung der Erfindung interagieren kann oder jede Kombination derartiger Backend-, Middleware- oder Frontend-Komponenten. Die Komponenten des Computersystems können durch jede Form oder jedes Medium digitaler Datenkommunikation verbunden sein, z.B. ein Kommunikationsnetzwerk. Beispiele für Kommunikationsnetzwerke beinhalten ein lokales Netzwerk („LAN“) und ein Weitverkehrsnetz („WAN“), z.B. das Internet.
  • Das Computersystem kann Klienten und Server beinhalten. Ein Klient und Server sind im Allgemeinen voneinander entfernt und interagieren typischerweise über ein Kommunikationsnetzwerk. Die Beziehung des Klienten und Servers entsteht aufgrund von Computerprogrammen, die auf jeweiligen Computern ausgeführt werden und die ein gegenseitiges Klienten-Server-Verhältnis aufweisen.
  • Zahlreiche zusätzliche Modifikationen und Variationen der vorliegenden Offenbarung sind angesichts der obigen Lehren möglich. Daher versteht sich von selbst, dass die vorliegende Offenbarung anders als vorliegend spezifisch beschrieben ausgeübt und angewendet werden kann. Zum Beispiel können Elemente und/oder Eigenschaften verschiedener beispielhafter Ausführungsformen im Rahmen dieser Offenbarung miteinander kombiniert und/oder gegeneinander ausgetauscht werden.

Claims (33)

  1. Verfahren zur Nachverarbeitung georeferenzierter Kartierungsdaten, umfassend: - Bereitstellen von Positionsdaten, die eine Position eines Datenakquisitionssystems in einem definierten Raum zu spezifischen Zeitpunkten angeben; - Bereitstellen von Reichweitedaten, die relative Positionen von Objekten in dem definierten Raum mit Bezug zu dem Datenakquisitionssystem zu spezifischen Zeitpunkten angeben; - Durchführen eines Glättungsprozesses an den Positionsdaten, um eine geglättete, beste Schätzung der Trajektorie- (SBET) -Daten für eine Trajektorie des Datenakquisitionssystems zu bestimmen; - Durchführen eines Scan-Anpassungsprozesses an den SBET-Daten und den Reichweitedaten, um Objekte und/oder Objekteigenschaften in dem definierten Raum zu identifizieren; - Durchführen eines Prozesses zur Überarbeitung der SBET-Daten, sodass sich die SBET-Daten den identifizierten Objekten und/oder Objekteigenschaften angleichen; und - Speichern der überarbeiteten SBET-Daten mit den Reichweitedaten.
  2. Das Verfahren nach Anspruch 1, weiterhin umfassend das Erzeugen einer Punktwolke unter Benutzung der überarbeiteten SBET-Daten und den Reichweitedaten.
  3. Das Verfahren nach Anspruch 2, weiterhin umfassend das Bereitstellen von Bilddaten des definierten Raums zu spezifischen Zeitpunkten.
  4. Das Verfahren nach Anspruch 3, weiterhin umfassend das Überlagern der Bilddaten über die erzeuge Punktwolke, um eine Bildkarte des definierten Raums zu erzeugen.
  5. Das Verfahren nach Anspruch 4, weiterhin umfassend das Ausgeben der Bildkarte.
  6. Das Verfahren nach Anspruch 1, wobei der Scan-Anpassungsprozess lineare Eigenschaften in dem definierten Raum identifiziert.
  7. Das Verfahren nach Anspruch 6, weiterhin umfassend das Überarbeiten der SBET-Daten, sodass die identifizierten linearen Eigenschaften linear bleiben.
  8. Das Verfahren nach Anspruch 1, wobei die unter Benutzung des Scan-Anpassungsprozess identifizierten Objekte und/oder Objekteigenschaften mindestens eines von Wänden, Wandecken, Türen, Türkanten, Möbel oder Möbelkanten umfassen.
  9. Das Verfahren nach Anspruch 1, wobei die Reichweitedaten Daten umfassen, die durch ein Laserreichweitesystem mit Lichtnachweis und Reichweitebestimmung (LIDAR) erfasst wurden.
  10. Das Verfahren nach Anspruch 1, wobei die Reichweitedaten von mindestens einem durch eine Kamera aufgenommenem Bild erfasste Daten umfassen.
  11. Das Verfahren nach Anspruch 1, wobei die Positionsdaten Daten umfassen, die durch mindestens eines von einem Odometrie- und Trägheitsmessungssystem erfasst wurden.
  12. System zur Nachverarbeitung georeferenzierter Kartierungsdaten, umfassend: - Speicher (18), eingerichtet zum Speichern von Positionsdaten, die eine Position eines Datenakquisitionssystems in einem definierten Raum zu spezifischen Zeitpunkten angeben; - Speicher (18), eingerichtet zum Speichern von Reichweitedaten, die die relative Position von Objekten in dem definierten Raum mit Bezug zu dem Datenakquisitionssystem zu den spezifischen Zeitpunkten angeben; - einen Glättungsprozessor (402), eingerichtet zum Durchführen eines Glättungsprozesses an den Positionsdaten zur Bestimmung der geglätteten, besten Schätzung der Trajektorie- (SBET) - Daten für eine Trajektorie des Datenakquisitionssystems; - einen Scan-Anpassungsprozessor (404), eingerichtet zum Durchführen eines Scan-Anpassungsprozesses an den SBET-Daten und den Reichweitedaten zur Identifikation von Objekten und/oder Objekteigenschaften in dem definierten Raum; - einen Überarbeitungsprozessor, eingerichtet zum Überarbeiten der SBET-Daten, sodass sich die SBET-Daten den identifizierten Objekten und/oder Objekteigenschaften angleichen; und Speicher zum Speichern der überarbeiteten SBET-Daten mit den Reichweitedaten.
  13. Das System nach Anspruch 12, weiterhin umfassend einen Punktwolkengenerator (406), eingerichtet zum Erzeugen einer Punktwolke unter Benutzung der überarbeiteten SBET-Daten und der Reichweitedaten.
  14. Das System nach Anspruch 13, weiterhin umfassend einen Bilddatenprovider (128, 129), eingerichtet zum Bereitstellen von Bilddaten des definierten Raums zu den spezifischen Zeitpunkten.
  15. Das System nach Anspruch 14, weiterhin umfassend einen Bildkartenerzeuger, eingerichtet zum Überlagern der Bilddaten über die erzeugte Punktwolke, um eine Bildkarte des definierten Raums zu erzeugen.
  16. Das System nach Anspruch 15, weiterhin umfassend eine Ausgabe, eingerichtet zum Ausgeben der Bildkarte.
  17. Das System nach Anspruch 12, wobei der Scan-Anpassungsprozessor (404) angepasst ist, lineare Eigenschaften in dem definierten Raum zu identifizieren.
  18. Das System nach Anspruch 17, wobei der Überarbeitungsprozessor angepasst ist, die SBET-Daten weiterhin zu überarbeiten, sodass die identifizierten linearen Eigenschaften linear bleiben.
  19. Das System nach Anspruch 12, wobei die durch Verwenden des Scan-Anpassungsprozessors (404) identifizierten Objekte und/oder Objekteigenschaften mindestens eines von Wänden, Wandecken, Türen, Türkanten, Möbel und Möbelkanten umfassen.
  20. Das System nach Anspruch 12, wobei die Reichweitedaten durch ein Laserreichweitesystem mit Lichtnachweis und Reichweitebestimmung (LIDAR) erfasste Daten umfassen.
  21. Das System nach Anspruch 12, wobei die Reichweitedaten von mindestens einem durch eine Kamera aufgenommenem Bild erfasste Daten umfassen.
  22. Das System nach Anspruch 12, wobei die Positionsdaten durch mindestens eines von einem Odometrie- und Trägheitsmessungssystem erfasste Daten umfassen.
  23. Computer-Aufzeichnungsmedium einschließlich computerausführbarem Code zum Nachbearbeiten georeferenzierter Kartierungsdaten, der computerausführbare Code umfassend: - Code zum Abrufen von Positionsdaten, die eine Position eines Datenakquisitionssystems in einem definierten Raum zu spezifischen Zeitpunkten angeben; - Code zum Abrufen von Reichweitedaten, die eine relative Position von Objekten in dem definierten Raum mit Bezug zu dem Datenakquisitionssystem zu den spezifischen Zeitpunkten angeben; - Code zum Durchführen eines Glättungsprozesses an den Positionsdaten, um die geglättete, beste Schätzung der Trajektorie- (SBET) -Daten für eine Trajektorie des Datenakquisitionssystems zu bestimmen; - Code zum Durchführen eines Scan-Anpassungsprozesses an den SBET-Daten und den Reichweitedaten, um Objekte und/oder Objekteigenschaften in dem definierten Raum zu identifizieren; - Code zum Durchführen eines Prozesses zur Überarbeitung der SBET-Daten, sodass sich die SBET-Daten den identifizierten Objekten und/oder Objekteigenschaften angleichen; und - Code zum Speichern der überarbeiteten SBET-Daten mit den Reichweitedaten.
  24. Das Computer-Aufzeichnungsmedium nach Anspruch 23, weiterhin umfassend einen Code zum Erzeugen einer Punktwolke unter Benutzung der überarbeiteten SBET-Daten und der Reichweitedaten.
  25. Das Computer-Aufzeichnungsmedium nach Anspruch 24, weiterhin umfassend einen Code zum Bereitstellen von Bilddaten des definierten Raums zu den spezifischen Zeitpunkten.
  26. Das Computer-Aufzeichnungsmedium nach Anspruch 25, weiterhin umfassend einen Code zum Überlagern der Bilddaten über die erzeugte Punktwolke, um eine Bildkarte des definierten Raums zu erzeugen.
  27. Das Computer-Aufzeichnungsmedium nach Anspruch 26, weiterhin umfassend einen Code zum Ausgeben der Bildkarte.
  28. Das Computer-Aufzeichnungsmedium nach Anspruch 23, wobei der Code für den Scan-Anpassungsprozess lineare Eigenschaften in dem definierten Raum identifiziert.
  29. Das Computer-Aufzeichnungsmedium nach Anspruch 28, weiterhin umfassend einen Code zur Überarbeitung der SBET-Daten, sodass die identifizierten Eigenschaften linear bleiben.
  30. Das Computer-Aufzeichnungsmedium nach Anspruch 23, wobei die durch Verwendung des Scan-Anpassungsprozesses identifizierten Objekte und/oder Objekteigenschaften mindestens eines von Wänden, Wandecken, Türen, Türkanten, Möbel oder Möbelkanten umfassen.
  31. Das Computer-Aufzeichnungsmedium nach Anspruch 23, wobei die Reichweitedaten Daten umfassen, die durch ein Laserreichweitesystem mit Lichtnachweis und Reichweitebestimmung (LIDAR) erfasst wurden.
  32. Das Computer-Aufzeichnungsmedium nach Anspruch 23, wobei die Reichweitedaten von mindestens einem durch eine Kamera aufgenommenem Bild erfasste Daten umfassen.
  33. Das Computer-Aufzeichnungsmedium nach Anspruch 23, wobei die Positionsdaten Daten umfassen, die durch mindestens eines von einem Odometrie-System und Trägheitsmessungssystem erfasst wurden.
DE112011100458.3T 2010-02-05 2011-02-03 Systeme und Verfahren zur Verarbeitung von Kartierungs- und Modellierungsdaten Active DE112011100458B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US33754910P 2010-02-05 2010-02-05
US61/337,549 2010-02-05
PCT/US2011/000194 WO2011097018A1 (en) 2010-02-05 2011-02-03 Systems and methods for processing mapping and modeling data

Publications (2)

Publication Number Publication Date
DE112011100458T5 DE112011100458T5 (de) 2012-11-22
DE112011100458B4 true DE112011100458B4 (de) 2024-02-01

Family

ID=44355713

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112011100458.3T Active DE112011100458B4 (de) 2010-02-05 2011-02-03 Systeme und Verfahren zur Verarbeitung von Kartierungs- und Modellierungsdaten

Country Status (5)

Country Link
US (2) US9008998B2 (de)
CA (1) CA2787646C (de)
DE (1) DE112011100458B4 (de)
GB (1) GB2489179B (de)
WO (1) WO2011097018A1 (de)

Families Citing this family (110)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8751151B2 (en) 2012-06-12 2014-06-10 Trx Systems, Inc. System and method for localizing a trackee at a location and mapping the location using inertial sensor information
US9395190B1 (en) 2007-05-31 2016-07-19 Trx Systems, Inc. Crowd sourced mapping with robust structural features
US9551575B2 (en) 2009-03-25 2017-01-24 Faro Technologies, Inc. Laser scanner having a multi-color light source and real-time color receiver
DE102009015920B4 (de) 2009-03-25 2014-11-20 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US9113023B2 (en) 2009-11-20 2015-08-18 Faro Technologies, Inc. Three-dimensional scanner with spectroscopic energy detector
DE102009057101A1 (de) 2009-11-20 2011-05-26 Faro Technologies, Inc., Lake Mary Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US9529083B2 (en) 2009-11-20 2016-12-27 Faro Technologies, Inc. Three-dimensional scanner with enhanced spectroscopic energy detector
US9210288B2 (en) 2009-11-20 2015-12-08 Faro Technologies, Inc. Three-dimensional scanner with dichroic beam splitters to capture a variety of signals
US9628775B2 (en) 2010-01-20 2017-04-18 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
CN102771079A (zh) 2010-01-20 2012-11-07 法罗技术股份有限公司 具有多通信通道的便携式关节臂坐标测量机
US9163922B2 (en) 2010-01-20 2015-10-20 Faro Technologies, Inc. Coordinate measurement machine with distance meter and camera to determine dimensions within camera images
US9607239B2 (en) 2010-01-20 2017-03-28 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
US9879976B2 (en) 2010-01-20 2018-01-30 Faro Technologies, Inc. Articulated arm coordinate measurement machine that uses a 2D camera to determine 3D coordinates of smoothly continuous edge features
KR20110097140A (ko) * 2010-02-24 2011-08-31 삼성전자주식회사 이동 로봇의 위치 추정 장치 및 방법
US9772394B2 (en) 2010-04-21 2017-09-26 Faro Technologies, Inc. Method and apparatus for following an operator and locking onto a retroreflector with a laser tracker
DE102010020925B4 (de) 2010-05-10 2014-02-27 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung
US9168654B2 (en) 2010-11-16 2015-10-27 Faro Technologies, Inc. Coordinate measuring machines with dual layer arm
US9482529B2 (en) 2011-04-15 2016-11-01 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
GB2504890A (en) 2011-04-15 2014-02-12 Faro Tech Inc Enhanced position detector in laser tracker
US9686532B2 (en) 2011-04-15 2017-06-20 Faro Technologies, Inc. System and method of acquiring three-dimensional coordinates using multiple coordinate measurement devices
US10481265B2 (en) * 2011-12-21 2019-11-19 Robotic paradigm Systems LLC Apparatus, systems and methods for point cloud generation and constantly tracking position
DE102012100609A1 (de) 2012-01-25 2013-07-25 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US8818031B1 (en) * 2012-03-02 2014-08-26 Google Inc. Utility pole geotagger
US10181106B2 (en) * 2012-05-29 2019-01-15 Ophio Software, Inc. Methods for processing information associated with sales force management, customer relationship management and professional services management systems
US10151839B2 (en) * 2012-06-01 2018-12-11 Agerpoint, Inc. Systems and methods for determining crop yields with high resolution geo-referenced sensors
WO2013188579A1 (en) 2012-06-12 2013-12-19 Trx Systems, Inc. Wi-fi enhanced tracking algorithms
US8997362B2 (en) 2012-07-17 2015-04-07 Faro Technologies, Inc. Portable articulated arm coordinate measuring machine with optical communications bus
US9513107B2 (en) 2012-10-05 2016-12-06 Faro Technologies, Inc. Registration calculation between three-dimensional (3D) scans based on two-dimensional (2D) scan data from a 3D scanner
US10067231B2 (en) 2012-10-05 2018-09-04 Faro Technologies, Inc. Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner
DE102012109481A1 (de) 2012-10-05 2014-04-10 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102012112321B4 (de) 2012-12-14 2015-03-05 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE202012104890U1 (de) 2012-12-14 2013-03-05 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102012112322B4 (de) 2012-12-14 2015-11-05 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung
CN103175524B (zh) * 2013-02-20 2015-11-25 清华大学 一种无标识环境下基于视觉的飞行器位置与姿态确定方法
US11156464B2 (en) 2013-03-14 2021-10-26 Trx Systems, Inc. Crowd sourced mapping with robust structural features
US11268818B2 (en) 2013-03-14 2022-03-08 Trx Systems, Inc. Crowd sourced mapping with robust structural features
US9041914B2 (en) 2013-03-15 2015-05-26 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
US9377310B2 (en) 2013-05-02 2016-06-28 The Johns Hopkins University Mapping and positioning system
AU2013394368A1 (en) * 2013-07-15 2016-01-21 Halliburton Energy Services, Inc. Nuclear magnetic resonance (NMR) logging tool calibration
US9201424B1 (en) * 2013-08-27 2015-12-01 Google Inc. Camera calibration using structure from motion techniques
US9528834B2 (en) 2013-11-01 2016-12-27 Intelligent Technologies International, Inc. Mapping techniques using probe vehicles
US10240930B2 (en) 2013-12-10 2019-03-26 SZ DJI Technology Co., Ltd. Sensor fusion
DE102013225497A1 (de) 2013-12-10 2015-06-11 Bayerische Motoren Werke Aktiengesellschaft Datenkommunikation zwischen einer Recheneinrichtung eines Fahrzeugs und einem Dienstserver
US10488867B2 (en) 2013-12-27 2019-11-26 Komatsu Ltd. Mining machine management system, mining machine, and management method
AU2013408993B2 (en) * 2013-12-27 2018-04-26 Komatsu Ltd. Mining machine management system and management method
US9098753B1 (en) * 2014-04-25 2015-08-04 Google Inc. Methods and systems for object detection using multiple sensors
US9528837B2 (en) * 2014-06-04 2016-12-27 Qualcomm Incorporated Mobile device position uncertainty based on a measure of potential hindrance of an estimated trajectory
US10386464B2 (en) 2014-08-15 2019-08-20 Aeye, Inc. Ladar point cloud compression
US10019821B2 (en) * 2014-09-02 2018-07-10 Naver Business Platform Corp. Apparatus and method for constructing indoor map using cloud point
KR101803598B1 (ko) * 2014-09-02 2017-12-01 네이버비즈니스플랫폼 주식회사 클라우드 포인트를 이용한 실내 지도 구축 장치 및 방법
JP6181300B2 (ja) 2014-09-05 2017-08-16 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 無人航空機の速度を制御するシステム
CN109388150B (zh) * 2014-09-05 2022-04-29 深圳市大疆创新科技有限公司 多传感器环境地图构建
WO2016033796A1 (en) 2014-09-05 2016-03-10 SZ DJI Technology Co., Ltd. Context-based flight mode selection
CN104501801B (zh) * 2014-12-31 2017-09-15 中国电子科技集团公司第二十九研究所 一种室内定位方法
US9759561B2 (en) 2015-01-06 2017-09-12 Trx Systems, Inc. Heading constraints in a particle filter
US9964402B2 (en) 2015-04-24 2018-05-08 Faro Technologies, Inc. Two-camera triangulation scanner with detachable coupling mechanism
AU2016294498A1 (en) * 2015-07-13 2018-02-08 Agerpoint, Inc. Modular systems and methods for determining crop yields with high resolution geo-referenced sensors
US10077984B2 (en) * 2015-09-25 2018-09-18 International Business Machines Corporation Indoor positioning system training
DE102015122844A1 (de) 2015-12-27 2017-06-29 Faro Technologies, Inc. 3D-Messvorrichtung mit Batteriepack
WO2017117667A1 (en) * 2016-01-07 2017-07-13 Peck Tech Consulting Ltd. A method and system for georeferencing underground data
CA3012530A1 (en) * 2016-01-25 2017-08-03 B-Temia Inc. 3d geolocation system
US10042159B2 (en) 2016-02-18 2018-08-07 Aeye, Inc. Ladar transmitter with optical field splitter/inverter
US10754015B2 (en) 2016-02-18 2020-08-25 Aeye, Inc. Adaptive ladar receiver
US9933513B2 (en) 2016-02-18 2018-04-03 Aeye, Inc. Method and apparatus for an adaptive ladar receiver
US20170242104A1 (en) 2016-02-18 2017-08-24 Aeye, Inc. Ladar Transmitter with Induced Phase Drift for Improved Gaze on Scan Area Portions
US11573325B2 (en) 2016-03-11 2023-02-07 Kaarta, Inc. Systems and methods for improvements in scanning and mapping
US10989542B2 (en) 2016-03-11 2021-04-27 Kaarta, Inc. Aligning measured signal data with slam localization data and uses thereof
US11567201B2 (en) * 2016-03-11 2023-01-31 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
JP6987797B2 (ja) 2016-03-11 2022-01-05 カールタ インコーポレイテッド リアルタイムオンラインエゴモーション推定を有するレーザスキャナ
JP6271023B2 (ja) 2016-03-31 2018-01-31 株式会社小松製作所 作業機械の制御システム、作業機械及び作業機械の制御方法
US10592805B2 (en) 2016-08-26 2020-03-17 Ford Global Technologies, Llc Physics modeling for radar and ultrasonic sensors
JP2019532433A (ja) * 2016-10-11 2019-11-07 カールタ インコーポレイテッド リアルタイムオンラインエゴモーション推定を有するレーザスキャナ
USD823920S1 (en) 2016-11-23 2018-07-24 Kaarta, Inc. Simultaneous localization and mapping (SLAM) device
KR102463702B1 (ko) 2016-12-15 2022-11-07 현대자동차주식회사 차량 정밀 위치 추정 장치, 그 방법, 그를 위한 맵 구축 장치, 및 그를 위한 맵 구축 방법
TW201823687A (zh) * 2016-12-30 2018-07-01 鴻海精密工業股份有限公司 導航系統及其使用方法
EP3351899B1 (de) * 2017-01-24 2020-06-17 Leica Geosystems AG Verfahren und vorrichtung zum "colorising" von dreidimensionalen punktwolken
JP6809913B2 (ja) * 2017-01-26 2021-01-06 パナソニック株式会社 ロボット、ロボットの制御方法、および地図の生成方法
JP7141403B2 (ja) * 2017-01-27 2022-09-22 カールタ インコーポレイテッド 実時間オンライン自己運動推定を備えたレーザスキャナ
CA3053775A1 (en) 2017-02-17 2018-08-23 Aeye, Inc. Method and system for ladar pulse deconfliction
US10539676B2 (en) * 2017-03-22 2020-01-21 Here Global B.V. Method, apparatus and computer program product for mapping and modeling a three dimensional structure
US10762635B2 (en) 2017-06-14 2020-09-01 Tusimple, Inc. System and method for actively selecting and labeling images for semantic segmentation
DE102017213601A1 (de) * 2017-08-04 2019-02-07 Robert Bosch Gmbh Verfahren zum Erstellen einer Objektkarte für eine Fabrikumgebung
US10552979B2 (en) * 2017-09-13 2020-02-04 TuSimple Output of a neural network method for deep odometry assisted by static scene optical flow
CN111344647A (zh) * 2017-09-15 2020-06-26 艾耶股份有限公司 具有低延时运动规划更新的智能激光雷达***
WO2019099605A1 (en) 2017-11-17 2019-05-23 Kaarta, Inc. Methods and systems for geo-referencing mapping systems
CN108279670B (zh) 2017-12-29 2021-12-10 百度在线网络技术(北京)有限公司 用于调整点云数据采集轨迹的方法、设备以及计算机可读介质
US10914612B2 (en) 2018-01-29 2021-02-09 Faro Technologies, Inc. Indexed optical encoder
WO2019165194A1 (en) 2018-02-23 2019-08-29 Kaarta, Inc. Methods and systems for processing and colorizing point clouds and meshes
WO2019195270A1 (en) 2018-04-03 2019-10-10 Kaarta, Inc. Methods and systems for real or near real-time point cloud map data confidence evaluation
US11035933B2 (en) 2018-05-04 2021-06-15 Honda Motor Co., Ltd. Transition map between lidar and high-definition map
WO2019222255A1 (en) * 2018-05-14 2019-11-21 Sri International Computer aided inspection system and methods
WO2020009826A1 (en) 2018-07-05 2020-01-09 Kaarta, Inc. Methods and systems for auto-leveling of point clouds and 3d models
US10670718B1 (en) 2018-10-25 2020-06-02 Aeye, Inc. System and method for synthetically filling ladar frames based on prior ladar return data
US11173921B2 (en) * 2018-11-19 2021-11-16 Micron Technology, Inc. Sensor fusion to determine reliability of autonomous vehicle operation
CN109739225B (zh) * 2018-12-18 2021-04-20 北京百度网讯科技有限公司 定位数据处理方法、装置、设备、存储介质及车辆
CN111694903B (zh) * 2019-03-11 2023-09-12 北京地平线机器人技术研发有限公司 地图构建方法、装置、设备以及可读存储介质
CN109959937B (zh) * 2019-03-12 2021-07-27 广州高新兴机器人有限公司 长廊环境基于激光雷达的定位方法、存储介质及电子设备
US11513223B2 (en) 2019-04-24 2022-11-29 Aeye, Inc. Ladar system and method with cross-receiver
CN112017239B (zh) * 2019-05-31 2022-12-20 北京市商汤科技开发有限公司 确定目标对象朝向方法、智能驾驶控制方法和装置及设备
CN110779479B (zh) * 2019-09-02 2022-01-14 腾讯科技(深圳)有限公司 一种应用于室内地图的对象处理方法
DE102019216548A1 (de) * 2019-10-28 2021-04-29 DeepUp GmbH Verfahren und mobile Erfassungsvorrichtung zur Erfassung von Infrastrukturelementen eines unterirdischen Leitungsnetzwerks
US11859979B2 (en) 2020-02-20 2024-01-02 Honeywell International Inc. Delta position and delta attitude aiding of inertial navigation system
US11808578B2 (en) * 2020-05-29 2023-11-07 Aurora Flight Sciences Corporation Global positioning denied navigation
US11500093B2 (en) 2021-03-26 2022-11-15 Aeye, Inc. Hyper temporal lidar using multiple matched filters to determine target obliquity
US11493610B2 (en) 2021-03-26 2022-11-08 Aeye, Inc. Hyper temporal lidar with detection-based adaptive shot scheduling
US20220317249A1 (en) 2021-03-26 2022-10-06 Aeye, Inc. Hyper Temporal Lidar with Switching Between a Baseline Scan Mode and a Pulse Burst Mode
US11630188B1 (en) 2021-03-26 2023-04-18 Aeye, Inc. Hyper temporal lidar with dynamic laser control using safety models
US11635495B1 (en) 2021-03-26 2023-04-25 Aeye, Inc. Hyper temporal lidar with controllable tilt amplitude for a variable amplitude scan mirror
US20220308218A1 (en) 2021-03-26 2022-09-29 Aeye, Inc. Hyper Temporal Lidar with Shot-Specific Detection Control
US20230044929A1 (en) 2021-03-26 2023-02-09 Aeye, Inc. Multi-Lens Lidar Receiver with Multiple Readout Channels

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5959575A (en) 1997-11-04 1999-09-28 Nortrhop Grumman Corporation Interior GPS navigation
US6009359A (en) 1996-09-18 1999-12-28 National Research Council Of Canada Mobile system for indoor 3-D mapping and creating virtual environments
US6349249B1 (en) 1998-04-24 2002-02-19 Inco Limited Automated guided apparatus suitable for toping applications
US6608913B1 (en) 2000-07-17 2003-08-19 Inco Limited Self-contained mapping and positioning system utilizing point cloud data
US6711475B2 (en) 2000-03-16 2004-03-23 The Johns Hopkins University Light detection and ranging (LIDAR) mapping system
US6917893B2 (en) 2002-03-14 2005-07-12 Activmedia Robotics, Llc Spatial data collection apparatus and method
US7302359B2 (en) 2006-02-08 2007-11-27 Honeywell International Inc. Mapping systems and methods
US20090262974A1 (en) 2008-04-18 2009-10-22 Erik Lithopoulos System and method for obtaining georeferenced mapping data

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5828336A (en) * 1996-03-29 1998-10-27 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Robust real-time wide-area differential GPS navigation
US7774158B2 (en) 2002-12-17 2010-08-10 Evolution Robotics, Inc. Systems and methods for landmark generation for visual simultaneous localization and mapping
US7432853B2 (en) * 2003-10-28 2008-10-07 Trimble Navigation Limited Ambiguity estimation of GNSS signals for three or more carriers
US8022867B2 (en) * 2006-01-19 2011-09-20 Broadcom Corporation Satellite-positioning-system tracking device and method for determining a position of the same
US20090093959A1 (en) * 2007-10-04 2009-04-09 Trimble Navigation Limited Real-time high accuracy position and orientation system
US7576690B2 (en) * 2007-10-29 2009-08-18 Trimble Navigation Limited Position determination with reference data outage

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6009359A (en) 1996-09-18 1999-12-28 National Research Council Of Canada Mobile system for indoor 3-D mapping and creating virtual environments
US5959575A (en) 1997-11-04 1999-09-28 Nortrhop Grumman Corporation Interior GPS navigation
US6349249B1 (en) 1998-04-24 2002-02-19 Inco Limited Automated guided apparatus suitable for toping applications
US6711475B2 (en) 2000-03-16 2004-03-23 The Johns Hopkins University Light detection and ranging (LIDAR) mapping system
US6608913B1 (en) 2000-07-17 2003-08-19 Inco Limited Self-contained mapping and positioning system utilizing point cloud data
US6917893B2 (en) 2002-03-14 2005-07-12 Activmedia Robotics, Llc Spatial data collection apparatus and method
US7302359B2 (en) 2006-02-08 2007-11-27 Honeywell International Inc. Mapping systems and methods
US20090262974A1 (en) 2008-04-18 2009-10-22 Erik Lithopoulos System and method for obtaining georeferenced mapping data

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BOSSE, Michael; ZLOT, Robert: Continuous 3D Scan-Matching with a Spinning 2D Laser. In: IEEE International Conference on Robotics and Automation, 2009, S. 4312-4319. DOI: 10.1109/ROBOT.2009.5152851.
PARRISH, Christopher E.; SCARPACE, Frank L.: Investigating Full-Waveform Lidar Data for Detection and Recognition of Vertical Objects. In: American Society for Photogrammetry and Remote Sensing (ASPRS), 2007, 421.
ZLOT, Robert; BOSSE, Michael: Place Recognition Using Keypoint Similarities in 2D Lidar Maps. In: International Symposium on Experimental Robotics, 2008, S. 363-372.

Also Published As

Publication number Publication date
US20110282622A1 (en) 2011-11-17
GB2489179A (en) 2012-09-19
WO2011097018A1 (en) 2011-08-11
CA2787646A1 (en) 2011-08-11
US9892491B2 (en) 2018-02-13
CA2787646C (en) 2016-12-13
DE112011100458T5 (de) 2012-11-22
GB2489179B (en) 2017-08-02
US9008998B2 (en) 2015-04-14
GB201212847D0 (en) 2012-09-05
US20160189348A1 (en) 2016-06-30

Similar Documents

Publication Publication Date Title
DE112011100458B4 (de) Systeme und Verfahren zur Verarbeitung von Kartierungs- und Modellierungsdaten
EP2918972B1 (de) Verfahren und handhaltbares Entfernungsmessgerät zum Erzeugen eines Raummodells
EP3550513B1 (de) Verfahren zur erzeugung von panoramaansichten auf einem mobilen abbildungssystem
DE112011102132T5 (de) Verfahren und Vorrichtung für eine imagebasierte Positionierung
DE102017214377A1 (de) Verwendung eines zweidimensionalen scanners zum beschleunigen der registrierung von dreidimensionalen scan-daten
US20120038902A1 (en) Enhancement of range measurement resolution using imagery
DE112014007227T5 (de) Verwendung von zweidimensionalen Kamerabildern zur Beschleunigung der Registrierung von Dreidimensionalen Scans
DE112019002080T5 (de) Systeme und verfahren zur stellungsbestimmung
DE112020000590T5 (de) Karte und verfahren zum erstellen einer karte
DE102017218281A1 (de) Zweidimensionales kartierungssystem und betriebsverfahren
DE102014205640B4 (de) Vermessung mittels mobilem Gerät
DE102017218212A1 (de) Zweidimensionales kartierungssystem und betriebsverfahren
EP2598839A1 (de) Parallele online-offline rekonstruktion für drei-dimensionale raumvermessung
DE112016006213T5 (de) System und Verfahren zum Fusionieren von Ausgängen von Sensoren, die unterschiedliche Auflösungen aufweisen
DE102019120561A1 (de) System und verfahren zur automatischen relokalisierung und automatischen angleichung vorhandener nichtdigitaler grundrisspläne
DE102019216548A1 (de) Verfahren und mobile Erfassungsvorrichtung zur Erfassung von Infrastrukturelementen eines unterirdischen Leitungsnetzwerks
DE102021114078A1 (de) Detektieren dreidimensionaler Strukturmodelle zur Laufzeit in Fahrzeugen
Khoshelham et al. Vehicle positioning in the absence of GNSS signals: Potential of visual-inertial odometry
EP3539085B1 (de) 3d-referenzierung
EP3584536A1 (de) Terrestrisches beobachtungsgerät mit lagebestimmungsfunktionalität
Rovira-Más et al. Design parameters for adjusting the visual field of binocular stereo cameras
EP4148386A1 (de) Ermittlung einer absoluten initialposition eines fahrzeugs
DE102021121363A1 (de) Navigationsvorrichtung und Verfahren zur Positionsbestimmung
Trusheim et al. Cooperative localisation using image sensors in a dynamic traffic scenario
Hassan et al. Common adjustment of land-based and airborne mobile mapping system data

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009000000

Ipc: G01C0011040000

R016 Response to examination communication
R018 Grant decision by examination section/examining division