DE102016124856A1 - Verfahren zur Erstellung einer Umgebungskarte für ein Bearbeitungsgerät - Google Patents

Verfahren zur Erstellung einer Umgebungskarte für ein Bearbeitungsgerät Download PDF

Info

Publication number
DE102016124856A1
DE102016124856A1 DE102016124856.8A DE102016124856A DE102016124856A1 DE 102016124856 A1 DE102016124856 A1 DE 102016124856A1 DE 102016124856 A DE102016124856 A DE 102016124856A DE 102016124856 A1 DE102016124856 A1 DE 102016124856A1
Authority
DE
Germany
Prior art keywords
environment
map
processing device
environment map
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102016124856.8A
Other languages
English (en)
Inventor
Lorenz Hillen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vorwerk and Co Interholding GmbH
Original Assignee
Vorwerk and Co Interholding GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vorwerk and Co Interholding GmbH filed Critical Vorwerk and Co Interholding GmbH
Priority to DE102016124856.8A priority Critical patent/DE102016124856A1/de
Priority to TW106136519A priority patent/TW201823768A/zh
Priority to PCT/EP2017/082142 priority patent/WO2018114412A1/de
Priority to CN201780078310.7A priority patent/CN110088702A/zh
Priority to US16/470,630 priority patent/US11269350B2/en
Priority to EP17825414.0A priority patent/EP3555721A1/de
Priority to JP2019530669A priority patent/JP2020502653A/ja
Publication of DE102016124856A1 publication Critical patent/DE102016124856A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0219Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Processing Or Creating Images (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Electric Vacuum Cleaner (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Erstellung einer Umgebungskarte (2) für ein sich selbsttätig innerhalb einer Umgebung (3) fortbewegendes Bearbeitungsgerät (1), wobei eine Detektionseinrichtung (4) Umgebungsmerkmale (5) und/oder Objekte (6) innerhalb der Umgebung (3) detektiert, und wobei Positionsdaten der Umgebungsmerkmale (5) und/oder Objekte (6) von einer Auswerteeinrichtung zu einer Umgebungskarte (2) verarbeitet werden. Um eine intuitive Nutzer-Bearbeitungsgerät-Interaktion zu erreichen, wird vorgeschlagen, dass die detektierten Umgebungsmerkmale (5) und/oder Objekte (6) durch eine 3D-Rekonstruktion zu einer fotorealistischen dreidimensionalen Umgebungskarte (2) verarbeitet werden.

Description

  • Gebiet der Technik
  • Die Erfindung betrifft ein Verfahren zur Erstellung einer Umgebungskarte für ein sich selbsttätig innerhalb einer Umgebung fortbewegendes Bearbeitungsgerät, wobei eine Detektionseinrichtung Umgebungsmerkmale und/oder Objekte innerhalb der Umgebung detektiert, und wobei Positionsdaten der Umgebungsmerkmale und/oder Objekte von einer Auswerteeinrichtung zu einer Umgebungskarte verarbeitet werden.
  • Stand der Technik
  • Verfahren der vorgenannten Art sind im Stand der Technik bekannt. Ein beispielsweise zur Reinigung einer Bodenfläche verwendetes Bearbeitungsgerät fährt selbsttätig nach einer vorprogrammierten Fahr- und gegebenenfalls Bearbeitungsstrategie innerhalb der Umgebung, beispielsweise innerhalb einer Wohnung oder dergleichen. In diesem Zusammenhang ist es ebenfalls bekannt, dass das Bearbeitungsgerät über eine Umgebungskarte der Wohnung, gegebenenfalls über mehrere Umgebungskarten für mehrere Räume der Wohnung, verfügt. Die Umgebungskarte ist bevorzugt in einem Datenspeicher des Bearbeitungsgerätes oder eines externen Gerätes abgelegt. In der Umgebungskarte sind Positionsdaten von Objekten, beispielsweise Hindernissen und/oder Möbeln, Begrenzungswänden und dergleichen vermerkt.
  • Zur Erstellung der Umgebungskarte ist es bekannt, das Bearbeitungsgerät im Rahmen einer Lernfahrt durch die Umgebung fahren zu lassen. Ebenso kann die Umgebungskarte jedoch auch im Zuge einer Bearbeitungsfahrt des Bearbeitungsgerätes erstellt oder zumindest ergänzt werden.
  • Im Stand der Technik sind unterschiedliche Detektionseinrichtungen zur Erfassung der Umgebung bekannt. Die DE 10 2008 014 912 A1 offenbart beispielsweise ein Bearbeitungsgerät mit einem Rundum-Scanner. Die Detektion basiert auf einem optischen Triangulationsverfahren, welches Abstände zu Objekten misst.
  • Des Weiteren ist es im Stand der Technik auch bekannt, Umgebungskarten aus mosaikartig zusammengesetzten Bildern zu erstellen, die mittels einer an dem Bearbeitungsgerät angeordneten Kamera aufgenommen werden.
  • Der Aufbau der Umgebungskarte aus den mittels der Detektionseinrichtung aufgenommenen Daten kann beispielsweise nach bekannten Verfahren des visuellen SLAM (Simultaneous Localisation And Mapping) erfolgen. Dabei werden neu aufgenommene Daten der Detektionseinrichtung genutzt, um das Bearbeitungsgerät zum einen in der Umgebungskarte zu lokalisieren und zum anderen die bestehende Umgebungskarte zu erweitern oder zu verbessern.
  • Obwohl mit dem bekannten Verfahren eine Umgebungskarte erstellt werden kann, ist diese für einen Nutzer teilweise schwer zu lesen. Dies liegt daran, dass die Umgebung des Bearbeitungsgerätes häufig als 2D-Gitterkarte dargestellt wird. Diese Gitterkarte ist eine sehr vereinfachte, schematische Darstellung der Umgebung und ähnelt einem Grundriss von Räumen. Typischerweise enthält diese ausschließlich Informationen, welche innerhalb einer horizontalen Detektionsebene, die der Arbeitshöhe des Bearbeitungsgerätes entspricht, aufgenommen wurden, und unterscheidet auch nicht zwischen Umgebungsmerkmalen wie beispielsweise Wand-Boden-Übergängen und Objekten wie beispielsweise Möbeln. Unterfahrbare Objekte wie beispielsweise Betten, Tische oder Stühle werden typischerweise nicht in ihrer Gesamtheit in die Umgebungskarte eingetragen, sondern nur solche Bereiche, zum Beispiel Tischbeine, welche in der Detektionsebene liegen. Insgesamt sind die bekannten Gitterkarten somit für einen Nutzer weniger intuitiv erfassbar, da diese nicht der Wahrnehmung des Menschen entsprechen.
  • Zusammenfassung der Erfindung
  • Es ist daher Aufgabe der Erfindung, ein Verfahren zur Erstellung einer Umgebungskarte zu schaffen, bei welchem die erstellte Umgebungskarte für einen Nutzer einfacher zu lesen ist als die im Stand der Technik bekannten Umgebungskarten.
  • Zur Lösung der vorgenannten Aufgabe wird mit der Erfindung vorgeschlagen, dass die detektierten Umgebungsmerkmale und/oder Objekte der Umgebung durch eine 3D-Rekonstruktion zu einer fotorealistischen dreidimensionalen Umgebungskarte verarbeitet werden.
  • Durch die erfindungsgemäße fotorealistische 3D-Rekonstruktion der Umgebung wird dem Nutzer des Bearbeitungsgerätes nun eine intuitive Ansicht der Umgebung angeboten, welche mehr Informationen enthält als die bisher im Stand der Technik erstellten zweidimensionalen und oft schematisch gehaltenen Umgebungskarten. Dadurch kann sich der Nutzer leicht in der Umgebungskarte zurechtfinden, das Bearbeitungsgerät verfolgen und diesem Anweisungen für Bearbeitungsaufgaben erteilen. Mittels der 3D-Rekonstruktion erfolgt eine Rückgewinnung einer Tiefeninformation der Umgebung, welche bei der Aufnahme der Umgebungsmerkmale bzw. Objekte verloren gegangen ist. Damit wird ein Nachteil behoben, welcher bei der Detektion eines Umgebungsmerkmals bzw. eines Objektes in einer Szene der Umgebung besteht. Die erzeugte fotorealistische dreidimensionale Umgebungskarte stellt einem Nutzer des Bearbeitungsgerätes die Umgebung so dar, wie auch der Nutzer die Umgebung unmittelbar mit seinen Augen wahrnehmen würde. Die Perspektive der dargestellten Umgebung richtet sich dabei nach der Perspektive, mit welcher die Umgebung aufgenommen wurde, d. h. gegebenenfalls nach einer Ebene, welche tiefer liegt als die üblicherweise vogelperspektivische Draufsicht des Nutzers auf Objekte innerhalb der Umgebung. Allerdings können beispielsweise auch aus der Froschperspektive eines Bearbeitungsgerätes Übergänge zwischen Wänden und Zimmerdecken dargestellt werden. Die Detektionseinrichtung kann grundsätzlich auch ein relativ zu dem Bearbeitungsgerät verlagerbares separates Gerät sein, beispielsweise eine Kamera eines Mobiltelefons, Tablet-Computers und dergleichen.
  • Im Sinne von Umgebungsmerkmalen sind beispielsweise Übergänge zwischen Wänden, Bodenflächen und Deckenflächen eines Raumes gemeint. Unter dem Begriff Objekt wird in erster Linie ein Hindernis verstanden, wie beispielsweise ein Möbelstück, welches eine Fortbewegungsroute für das Bearbeitungsgerät versperrt.
  • Es wird vorgeschlagen, dass Umgebungsmerkmale und/oder Objekte, insbesondere Objektpunkte und/oder Objektflächen, zeitlich aufeinanderfolgend aus voneinander abweichenden Perspektiven der Detektionseinrichtung aufgenommen werden, wobei die Umgebungskarte aus den aufeinanderfolgenden Aufnahmen rekonstruiert wird. Während einer Fortbewegung der Detektionseinrichtung werden in zeitlichen Abständen Daten aufgenommen, nämlich beispielsweise Kamerabilder oder Abstandsdaten einer Distanzmesseinrichtung. Die zeitlichen und/oder räumlichen Abstände zwischen aufeinanderfolgenden Aufnahmen sind bekannt, besonders vorzugsweise können die Aufnahmen in regelmäßigen Abständen erfolgen, wobei die Regelmäßigkeit entweder auf eine zeitliche Komponente oder eine Distanzkomponente einer Fortbewegung der Detektionseinrichtung bezogen sein kann. Aus zwei aufeinanderfolgenden Aufnahmen lässt sich dann eine dreidimensionale Position des Umgebungsmerkmals und/oder des Objektes in der Umgebung berechnen, wenn eine zurückgelegte Strecke der Detektionseinrichtung, insbesondere eine gefahrene Distanz des Bearbeitungsgerätes, zwischen zwei Aufnahmen, beispielsweise Kamerabildern, bekannt ist. Die räumlichen Abstände können dabei beispielsweise durch eine Odometrie-Einrichtung des Bearbeitungsgerätes berechnet werden. Eine Positionsschätzung kann nicht nur für Umgebungsmerkmale, wie beispielsweise Ecken oder sonstige Wand-Boden- oder Wand-Decken-Übergänge, durchgeführt werden, sondern auch für Flächen. Die Flächen können als Punktewolke oder Flächenprimitive, wie beispielsweise Rechtecke oder Dreiecke, repräsentiert werden. Denkbar ist ein Kartenaufbau mit Punktewolken, welche in einem Nachbearbeitungsschritt in Flächenprimitive umgewandelt werden. Dadurch kann die Datenmenge, die verarbeitet werden muss, reduziert werden.
  • Die Erstellung der Umgebungskarte kann nach bekannten Verfahren des visuellen SLAM (Simultaneous Localisation And Mapping) erfolgen, wobei Algorithmen für die Verarbeitung von Punktewolken und/oder Flächenprimitiven benutzt werden. Unabhängig von der Art der verwendeten Kartenrepräsentation ist den SLAM-Algorithmen gemeinsam, dass die mittels der Detektionseinrichtung aufgenommenen Daten dabei einerseits genutzt werden, um eine Umgebungskarte zu erstellen, zu erweitern oder zu verbessern, und andererseits um gleichzeitig das Bearbeitungsgerät innerhalb der Umgebungskarte zu lokalisieren. Neu aufgenommene Daten werden in der Regel mit Hilfe von probabilistischen Schätzverfahren oder Optimierungsverfahren mit den bereits vorhandenen Daten einer Umgebungskarte fusioniert. Insgesamt kann somit aus zeitlich und/oder räumlich abweichenden Aufnahmen der Detektionseinrichtung für jedes Umgebungsmerkmal und/oder Objekt der Umgebung eine Position in Bezug auf ein Weltkoordinatensystem berechnet werden.
  • Insbesondere erhalten Objektpunkte und/oder Objektflächen einen bestimmten Punkt des Weltkoordinatensystems zugewiesen.
  • Insbesondere wird vorgeschlagen, dass die Umgebungsmerkmale und/oder Objekte während einer Fortbewegung des Bearbeitungsgerätes, insbesondere im Rahmen einer Bodenbearbeitung, aufgenommen werden. Beispielsweise kann die Umgebungskarte während einer Reinigungsfahrt des Bearbeitungsgerätes erstellt werden. Somit ist keine separate Detektionsfahrt des Bearbeitungsgerätes zur Aufnahme von Daten zur Erstellung der Umgebungskarte notwendig. Alternativ kann der Aufbau der Umgebungskarte auch zeitlich nach einer speziellen Detektionsfahrt erfolgen, während welcher das Bearbeitungsgerät keine Bearbeitungsaufgabe, wie beispielsweise das Saugen und/oder Wischen einer Bodenfläche, ausführt. Eine solche Detektionsfahrt kann entweder autonom von dem Bearbeitungsgerät oder durch einen Nutzer des Bearbeitungsgerätes gesteuert werden. Des Weiteren ist es auch möglich, dass der Kartenaufbau zeitlich nach einer Bearbeitungstätigkeit des Bearbeitungsgerätes erfolgt, beispielsweise wenn sich das Bearbeitungsgerät zum Laden an einer Basisstation befindet Nach Ende der jeweiligen Fahrt, egal ob Detektionsfahrt, Bearbeitungsfahrt oder eine Kombination dieser, hat das Bearbeitungsgerät vorzugsweise die gesamte erreichbare Umgebung kartiert und ein entsprechendes 3D-Modell berechnet, mit welchem der Nutzer interagieren kann, oder welches Ausgangspunkt für weitere Anwendungen ist.
  • Es wird vorgeschlagen, dass die Detektionseinrichtung eine Kamera ist, welche Bilder der Umgebung aufnimmt. In einem besonders einfachen Fall kann die Detektionseinrichtung eine unidirektionale Kamera sein, welche auf dem Bearbeitungsgerät (oder auch in einem anderen mobilen Gerät) installiert ist. Alternativ können Bilder der Umgebung auch mittels eines omnidirektionalen Kamerasystems aufgenommen werden, d. h. mittels eines Kamerasystems mit einem deutlich größeren Sichtfeld als unidirektionale Kameras. Ein solches Kamerasystem kann beispielsweise ein Panoramakamerasystem mit einem horizontalen Gesichtsfeld von 360 Grad sein, oder ein Kamerasystem mit Fischaugenlinsen, welche in entgegengesetzte Richtungen ein Sichtfeld von 180 Grad und mehr aufweisen. Des Weiteren kann ein Stereo-Kamerasystem verwendet werden, bei welchem zwei Kameras nebeneinander angeordnet sind, oder eine Tiefenkamera, häufig als RGB-D-Kamera bezeichnet, bei welcher eine Stereoberechnung durch Projektion eines bekannten Punktemusters erfolgt. Ebenso kann auch eine zur Decke gerichtete Kamera verwendet werden. Besonders bevorzugt werden mehrere optische Systeme oder Detektionseinrichtungen miteinander kombiniert.
  • Alternativ oder zusätzlich zu der Verwendung einer Kamera als Detektionseinrichtung kann auch ein Laserdistanzsensor Anwendung finden, welcher besonders vorzugsweise Daten nicht nur in einer Ebene erfasst, sondern durch Verschwenken in einer Vielzahl von Ebenen. Des Weiteren können auch Informationen von Bildsensoren und Abstandssensoren miteinander fusioniert werden, beispielsweise indem Daten einer Kamera und Daten einer Distanzmesseinrichtung, wie beispielsweise eines Laserentfernungsmessers, miteinander kombiniert werden.
  • Es kann vorgesehen sein, dass die detektierten Umgebungsmerkmale und/oder Objekte zur Erstellung der Umgebungskarte in einem externen Gerät, insbesondere einem mobilen Gerät und/oder einem Server, verarbeitet werden. Die zur Erstellung der Umgebungskarte benötigten Berechnungen können somit nicht nur von einem eigenen Onboard-Computer des Bearbeitungsgerätes durchgeführt werden, sondern alternativ auch von einem externen Server, d. h. einer Cloud, oder mittels eines Computers eines mobilen Endgerätes, wie beispielsweise eines Mobiltelefons, eines Laptops, eines Tablet-Computers oder dergleichen. Denkbar sind auch Teillösungen, bei welchen ein Teil der Berechnungen auf dem Bearbeitungsgerät selbst und ein Teil der Berechnungen auf einem externen Gerät wie einem Server ausgeführt werden. Beispielsweise kann ein SLAM-Verfahren auf der Grundlage von Punktewolken auf dem Bearbeitungsgerät durchgeführt werden, während eine Umrechnung der Kartenrepräsentation in Flächenprimitive auf einem Server erfolgt. Im Falle einer zumindest teilweise externen Berechnung werden die detektierten Umgebungsmerkmale und/oder Objekte bzw. daraus bereits berechnete Daten als Datenmenge über eine bevorzugt drahtlose Netzwerkverbindung an ein externes Gerät übermittelt, welches dann die Berechnungen durchführt.
  • Es wird vorgeschlagen, dass die Umgebungskarte auf einem Display eines externen Gerätes, insbesondere eines mobilen Gerätes, dargestellt wird. Die Visualisierung der Umgebungskarte und die Nutzerinteraktion kann somit auf einem anderen Gerät als dem Bearbeitungsgerät selbst erfolgen. Insbesondere empfiehlt sich die Visualisierung auf dem Display eines mobilen Endgerätes. Beispielsweise kann die Umgebungskarte auf dem Display eines Mobiltelefons, Laptops, Tablet-Computers, Fernsehers, einer Küchenmaschine und dergleichen erfolgen. Denkbar ist jedoch auch die Darstellung der Umgebungskarte auf dem Display des Bearbeitungsgerätes in Verbindung mit entsprechenden Bedienelementen des Bearbeitungsgerätes. Im letztgenannten Fall entfällt eine Datenübertragung über ein Netzwerk. Die Umgebungskarte kann bereits während des Kartenaufbaus dargestellt werden, und/oder erst, wenn eine Fortbewegung des Bearbeitungsgerätes innerhalb der Umgebung beendet ist.
  • Es kann vorgesehen sein, dass zumindest ein Teilbereich der dargestellten Umgebungskarte und/oder ein in der Umgebungskarte dargestelltes Objekt rotiert, vergrößert und/oder verschoben werden kann. Damit kann ein Nutzer die Ansicht der Umgebungskarte derart verändern, dass beispielsweise eine Perspektive verändert wird, die Ansicht vergrößert und/oder verschoben wird und ähnliches. Beispielsweise kann die Ansicht auf ein Objekt auch so variiert werden, dass die Perspektive, aus welcher das Objekt dargestellt ist, einer aktuellen Ansicht des Nutzers in die Umgebung entspricht. Alternativ kann ein Objekt innerhalb der Umgebungskarte, oder auch die gesamte dargestellte Umgebung, so rotiert werden, dass die Ansicht einer aktuellen Fortbewegungsrichtung des Bearbeitungsgerätes entspricht.
  • Es kann zudem vorgesehen sein, dass ein Nutzer des Bearbeitungsgerätes einem in der Umgebungskarte vorhandenen Raum und/oder Raumteilbereich und/oder Objekt einen Namen und/oder einen Farbcode und/oder ein Symbol zuordnet, welche in Steuerbefehle zur Steuerung einer Fortbewegung des Bearbeitungsgerätes eingebunden werden können. Dadurch wird es dem Nutzer des Bearbeitungsgerätes erleichtert, sich in der Umgebungskarte zurechtzufinden. Beispielsweise können Räume einer Wohnung durch Zuweisung von Farben und/oder Namen gekennzeichnet werden, beispielsweise mit dem Namen „Küche“ und einer roten Einfärbung. Alternativ zu einzelnen Räumen können auch nur einzelne Bereiche eines Raumes in gleicher Art und Weise benannt werden, beispielsweise mit dem Namen „Hundeecke“ und der Farbe braun. Es können des Weiteren bestimmte Objekte durch Zuweisen eines Namens markiert werden, beispielsweise mit dem Namen „Sofa“, „Bett“ usw. Darüber hinaus kann die aktuelle Position des Bearbeitungsgerätes in der Umgebungskarte dargestellt werden. Dies kann auf einfache Art und Weise geschehen, beispielsweise indem ein Symbol wie ein Punkt oder ein Fähnchen zur Repräsentation des Bearbeitungsgerätes dargestellt wird. Aufwendigere Darstellungen zeigen ein 3D-Modell des Bearbeitungsgerätes in der Umgebungskarte. Aufbauend auf den Namen und/oder Farbcodes und/oder Symbolen können Funktionen zur Interaktion mit dem Bearbeitungsgerät implementiert werden. Beispielsweise kann ein zugeordneter Name und/oder ein zugeordneter Farbcode für das Anwählen eines Startpunktes oder einer Position, die das Bearbeitungsgerät in der Umgebung anfahren soll, genannt werden. Beispielsweise kann eine Position einer Basisstation innerhalb der Umgebungskarte gewählt werden, um das Bearbeitungsgerät dort für einen Ladevorgang eines Akkumulators hinzuschicken. Es können definierte Räume oder definierte Bereiche, die das Bearbeitungsgerät ansteuern soll, ausgewählt werden, beispielsweise durch Befehle wie „Reinige das Wohnzimmer“ oder „Reinige die Hundeecke“. Des Weiteren können auch Bereiche, die nicht mit einem Namen oder Farbcode verknüpft sind, durch Markieren ausgewählt werden, beispielsweise für eine Spotreinigung. Ebenso ist es möglich, Bereiche oder Räume innerhalb der Umgebungskarte auszuwählen, die nicht bearbeitet und nicht befahren werden sollen, nicht bearbeitet werden sollen aber befahren werden dürfen, oder besonders intensiv oder mit bestimmten Bearbeitungsparametern bearbeitet werden sollen.
  • Sollte das Bearbeitungsgerät zur Navigation eine andere Umgebungskarte nutzen als dem Nutzer zur Benutzerinteraktion auf dem Display dargestellt wird, so ist sicherzustellen, dass zum Beispiel eine Position, die der Nutzer in der angezeigten Umgebungskarte auswählt, korrekt in die von dem Bearbeitungsgerät verwendete Karte umgerechnet wird. Eine solche Umrechnung wird beispielsweise notwendig, wenn die Umgebungskarte, die dem Nutzer dargestellt wird, stark nachbearbeitet wurde, beispielsweise durch eine Umrechnung von Punktewolken in Flächenprimitive, Ausreißer-Eliminierung, d. h. Entfernen fehlerbehafteter Messwerte/Hindernispunkte, oder Anpassung von geraden Segmenten an eine Punktewolke.
  • Es kann vorgesehen sein, dass ein Objekt innerhalb der Umgebungskarte segmentiert wird und aus der Umgebungskarte extrahiert wird, wobei das extrahierte Objekt und/oder die um das extrahierte Objekt reduzierte Umgebungskarte in ein Datenverarbeitungsprogramm importiert und von diesem weiterverarbeitet wird. Ausgehend von der 3D-Umgebungskarte lassen sich somit einzelne Objekte der Umgebung, beispielsweise einzelne Möbelstücke, segmentieren und extrahieren. Die Segmentierung kann beispielsweise darauf beruhen, dass zusätzlich eine Bodenfläche, eine Decke und/oder Wände detektiert werden, beispielsweise ein Boden als waagerechte Fläche ohne Elevation, eine Wand als raumhohe vertikale Fläche und dergleichen. Nachfolgend wird das Objekt aus der 3D-Umgebungskarte herausgerechnet, also entfernt. Bei den übrig gebliebenen Strukturen im 3D-Modell handelt es sich dann mit großer Wahrscheinlichkeit ausschließlich um Objekte innerhalb der Umgebung, welche sich beispielsweise als Möbelstücke identifizieren lassen, indem man nach einer Ebene parallel zu einer Bodenfläche in geeigneter Höhe sucht, beispielsweise mit einem Abstand von ca. 80 cm bis 120 cm. Somit lassen sich Objekte wie Tische, Stühle, Schränke, Regale und viele weitere Möbelstücke identifizieren. Die segmentierten Objekte kann der Nutzer dann beispielsweise in ein anderes 3D-Modellierungsprogramm zur Weiterverarbeitung importieren. Beispielsweise können Möbelstücke aus der Umgebungskarte entfernt werden, um einen Grundriss eines Raumes oder einer Wohnung ohne Möbelstücke zu erhalten. Dieser Grundriss kann beispielsweise genutzt werden, um den Raum vermessen zu können, um ein anderes Möbelstück aus einer Möbeldatenbank in das 3D-Modell zu integrieren, um eine Einrichtung der Wohnung oder des Raumes zu ändern, um zu sehen wie andere Anordnungen von Möbelstücken aussehen würden, und dergleichen. Der Nutzer kann das errechnete 3D-Modell der Umgebung in ein Netzwerk hochladen und mit anderen Nutzern teilen.
  • Dies kann im Rahmen geeigneter Plattformen erfolgen, beispielsweise Social Media Plattformen wie Facebook, spezielle Einrichtungsportale und dergleichen. Alternativ kann das Bearbeitungsgerät auch ein bereits berechnetes 3D-Modell als Referenz abspeichern, gegebenenfalls unter Zuhilfenahme eines externen Gerätes, Servers oder dergleichen. Zur Erkennung von Veränderungen der Umgebung, beispielsweise während einer Patrouillenfahrt des Bearbeitungsgerätes, kann das Bearbeitungsgerät sein aktuelles Detektionsergebnis mit dem Referenzmodell vergleichen. Werden dabei unplausible Veränderungen oder sich fortbewegende Objekte erkannt, so kann das Bearbeitungsgerät einen Alarm ausgeben, zum Beispiel indem der Nutzer eine Mitteilung auf ein mobiles Endgerät erhält.
  • Schließlich wird vorgeschlagen, dass eine aktuelle Position des Bearbeitungsgerätes in der Umgebungskarte angezeigt wird. Dadurch erhält der Nutzer beispielsweise auch dann eine Information über die aktuelle Position des Bearbeitungsgerätes innerhalb der Umgebung, wenn er das Bearbeitungsgerät nicht selbst wahrnehmen kann, weil sich dieses beispielsweise in einem anderen Raum befindet als der Nutzer selbst.
  • Figurenliste
  • Im Folgenden wird die Erfindung anhand von Ausführungsbeispielen näher erläutert. Es zeigen:
    • 1 ein Bearbeitungsgerät in einer perspektivischen Ansicht von außen,
    • 2 eine Umgebung, in welcher ein Bearbeitungsgerät entlang einer Fortbewegungsroute verfährt,
    • 3 ein Bearbeitungsgerät während einer Vermessung der Umgebung,
    • 4 eine fotorealistische dreidimensionale Umgebungskarte.
  • Beschreibung der Ausführungsformen
  • 1 zeigt ein sich selbsttätig fortbewegendes Bearbeitungsgerät 1, welches hier als Saugroboter ausgebildet ist. Das Bearbeitungsgerät 1 verfügt über eine Detektionseinrichtung 4, welche innerhalb des Gehäuses des Bearbeitungsgerätes 1 angeordnet ist. Die Detektionseinrichtung 4 ist hier ein Kamerachip, beispielsweise ein CMOS- oder CCD-Chip, welcher ein Bild einer Umgebung 3 über in dem Gehäuse des Bearbeitungsgerätes 1 ebenfalls angeordnete Spiegel empfängt. Die Detektionseinrichtung 4 ist rotationsbeweglich, hier beispielsweise um 360 Grad, innerhalb des Gehäuses angeordnet, so dass Bilder der Umgebung rundum das Bearbeitungsgerät 1 herum aufgenommen werden können. Alternativ zu der Ausbildung der Detektionseinrichtung 4 als Kamera kann die Detektionseinrichtung 4 auch als optische Triangulationsmesseinrichtung oder dergleichen ausgebildet sein.
  • Das Bearbeitungsgerät 1 ist über Verfahrräder (nicht dargestellt) über eine zu reinigende Fläche verfahrbar. Des Weiteren weist das Bearbeitungsgerät 1 unterseitig, der zu reinigenden Fläche zugewandt, elektromotorisch angetriebene Bürsten (ebenfalls nicht dargestellt) auf. Des Weiteren weist das Bearbeitungsgerät 1 im Bereich der Bürsten eine nicht weiter dargestellte Saugmundöffnung auf, über welche mittels einer Motor-Gebläse-Einheit mit Sauggut beaufschlagte Luft in das Bearbeitungsgerät 1 eingesaugt werden kann. Für die Elektroversorgung der einzelnen Elektrokomponenten, beispielsweise für den Antrieb der Verfahrräder und der Bürsten und darüber hinaus weiter vorgesehener Elektronik, weist das Bearbeitungsgerät 1 einen wieder aufladbaren Akkumulator auf.
  • Die von der Detektionseinrichtung 4 aufgenommenen Bilder der Umgebung 3 können zu einer Umgebungskarte 2 kombiniert werden, wobei der Kartenaufbau nach bekannten Verfahren des visuellen SLAM (Simultaneous Localisation And Mapping) erfolgt.
  • 2 zeigt eine Umgebung 3 des Bearbeitungsgerätes 1, welche hier ein Teilbereich einer Wohnung ist, innerhalb welcher das Bearbeitungsgerät 1 selbsttätig verfahren kann. Die Umgebung 3 wird von dem Bearbeitungsgerät 1 entlang einer Fortbewegungsroute 9 durchfahren, wobei die Fortbewegungsroute 9 in äquidistanten Abständen eine Vielzahl von Messorten 10 aufweist, an welchen eine Aufnahme von Umgebungsmerkmalen 5 und/oder Objekten 6 der Umgebung 3 mittels der Detektionseinrichtung 4 erfolgt. Eine Schätzung einer Fahrdistanz d zwischen zwei Messorten 10 der Fortbewegungsroute 9 kann mittels Odometrie erfolgen, so dass stets auch auf die aktuelle Position des Bearbeitungsgerätes 1 innerhalb der Umgebung 3 geschlossen werden kann. Während der Fortbewegung des Bearbeitungsgerätes 1 werden in den dargestellten Abständen Bilder der Umgebung 3 aufgenommen. Aus jeweils zwei aufeinanderfolgenden Bildern werden dann Objektpunkte A, B, bzw. Objekte 6 und/oder Umgebungsmerkmale 5 mit Koordinaten eines Weltkoordinatensystems versehen.
  • 3 zeigt eine Detektion von Umgebungsmerkmalen 5 am Beispiel eines Wand-Decken-Übergangs, welcher einen Objektpunkt A aufweist, und am Beispiel eines bodennahen Objektes 6, welches einen Objektpunkt B aufweist. Die Positionen der Objektpunkte A und B innerhalb eines Weltkoordinatensystems können berechnet werden, indem zunächst an zwei aufeinanderfolgenden Messorten 10 ein Kamerabild aufgenommen wird. Eine Positionsschätzung für die Messorte 10 ist über ein Lokalisationsverfahren in einer bereits aufgebauten Umgebungskarte 2 möglich. Ein solches Verfahren wird ohnehin zur Navigation des Bearbeitungsgerätes 1 innerhalb der Umgebung 3 benötigt. Eine Schätzung für die von dem Bearbeitungsgerät 1 zurückgelegte Strecke zwischen zwei aufeinanderfolgenden Messorten 10 wird mittels Odometrie oder Vektorsubtraktion zwischen den aufeinanderfolgenden Messorten 10 entlang der Fortbewegungsroute 9 berechnet. Aus dem Abstand der Messorte 10, einem jeweiligen Detektionsausgangspunkt C1 , C2 der Detektionseinrichtung 4 sowie zwei Winkeln α und α2 für den Objektpunkt A und zwei Winkeln β1 und β2 für den Objektpunkt B können die Objektpunkte A, B in Bezug auf die aktuelle Position der Detektionseinrichtung 4 korrespondierend zu den jeweiligen Messorten 10 berechnet werden. Da die Position der Detektionseinrichtung 4 auf dem Bearbeitungsgerät 1 bekannt ist, können die Positionsschätzungen der Objektpunkte A und B in Bezug auf die Messorte 10 und somit das Weltkoordinatensystem durchgeführt werden.
  • Auf diese Art und Weise kann eine große Vielzahl von Objektpunkten A, B berechnet werden, so dass sich eine Punktewolke ergibt. Diese Punktewolke kann dann in eine dreidimensionale Darstellung der Umgebung 3, die aus Flächenprimitiven, beispielsweise Rechtecken und Dreiecken, besteht, umgerechnet werden.
  • Die Berechnungen zur Erstellung der Umgebungskarte 2 können grundsätzlich innerhalb des Bearbeitungsgerätes 1, mittels eines Onboard-Computers, durchgeführt werden. In dem gezeigten Ausführungsbeispiel werden die von der Detektionseinrichtung 4 aufgenommenen Bilddaten jedoch per drahtloser Kommunikation an ein externes Gerät 8, hier ein Laptop, übermittelt. Auf dem Laptop werden sowohl das SLAM-Verfahren auf der Grundlage von Punktewolken als auch die Umrechnung der Punktewolken in Flächenprimitive, aus welchen schließlich die fotorealistische dreidimensionale Umgebungskarte 2 aufgebaut ist, durchgeführt.
  • Gemäß 3 weist das externe Gerät 8, nämlich das Laptop, ein Display 7 auf, auf welchem die erstellte Umgebungskarte 2 angezeigt wird. In der Umgebungskarte 2 ist zum einen das Bearbeitungsgerät 1 selbst dargestellt, als auch Objekte 6, nämlich hier Möbelstücke, welche innerhalb der Umgebung 3 vorhanden sind. Die Anzeige der Umgebungskarte 2 auf dem Display 7 des Gerätes 8 kann noch während einer Fortbewegung des Bearbeitungsgerätes 1 durch die Umgebung 3 erfolgen. Nach Ende der Fortbewegung des Bearbeitungsgerätes 1 ist dann die gesamte entlang der Fortbewegungsroute 9 durchfahrene Umgebung 3 kartiert und ein entsprechendes 3D-Modell berechnet, mit welchem der Nutzer interagieren kann und welches Ausgangspunkt für weitere Anwendungen sein kann. Die dargestellte fotorealistische Umgebungskarte 2 ermöglicht dem Nutzer des Bearbeitungsgerätes 1 eine intuitive Orientierung innerhalb der Umgebungskarte 2, so dass sich der Nutzer besonders leicht in der Umgebungskarte 2 zurechtfinden, das Bearbeitungsgerät 1 verfolgen und diesem Anweisungen geben kann.
  • 4 zeigt eine Umgebungskarte 2 eines Raumes, welche anhand von unterschiedlichen Perspektiven des Bearbeitungsgerätes 1 erstellt wurde. Diese Umgebungskarte 2 ist eine fotorealistische dreidimensionale Darstellung der Umgebung 3, welche eine Vielzahl von Objekten 6 und auch eine aktuelle Position des Bearbeitungsgerätes 1 zeigt. Da das Bearbeitungsgerät 1 teilweise eine geringere Höhe als die Objekte 6, d. h. hier Möbelstücke, aufweist, beinhaltet die Umgebungskarte 2 eine Froschperspektive auf die Umgebung.
  • Die in der Umgebungskarte 2 dargestellten Objekte 6 können mit Namen und/oder Farbcodes versehen werden. Beispielsweise können hier Bereiche des dargestellten Raumes mit „Hundeecke“ oder dergleichen benannt werden. Des Weiteren können entsprechende Farben zugeordnet werden, beispielsweise die Farbe „Braun“ für die Hundeecke. Die Umgebungskarte 2 kann auf dem Display 7 des Gerätes 8 gedreht, vergrößert oder verschoben werden, so dass die Umgebungskarte 2 so orientiert ist, wie der Nutzer den jeweiligen Raum sieht, wenn er diesen betritt. Auch kann die aktuelle Position des Bearbeitungsgerätes 1 alternativ zu dem dargestellten 3D-Modell als Punkt, Fähnchen oder dergleichen in die Umgebungskarte 2 integriert werden.
  • Aufbauend auf den vorgenannten Funktionen zur Erstellung der Umgebungskarte 2 können auch weitere Funktionen zur Interaktion mit dem Bearbeitungsgerät 1 implementiert werden. Beispielsweise können Orte innerhalb des dargestellten Raumes ausgewählt werden, welche das Bearbeitungsgerät 1 gezielt anfahren soll. Zum Beispiel kann ein Befehl wie „Reinige die Hundeecke“ erfolgen.
  • Ausgehend von der dargestellten 3D-Umgebungskarte 2 lassen sich einzelne Objekte 6, beispielsweise Möbelstücke, segmentieren und aus der Umgebungskarte 2 extrahieren. Die Segmentierung und Extrahierung kann beispielsweise darauf beruhen, dass zunächst Wände und Bodenflächen als waagerechte bzw. vertikale Flächen erkannt und aus dem 3D-Modell der Umgebung 3 herausgerechnet werden. Bei den übriggebliebenen Strukturen des 3D-Modells handelt es sich dann mit großer Wahrscheinlichkeit um Objekte 6 wie Möbelstücke. Die Art der Objekte 6 lässt sich identifizieren, indem beispielsweise nach Ebenen parallel zu der Bodenfläche in ca. 80 cm bis 120 cm Abstand gesucht wird. Ähnlich lassen sich auch Suchkriterien für bestimmte Merkmale von Stühlen, Schränken, Regalen und dergleichen anwenden. Die segmentierten Objekte 6 kann der Nutzer dann in ein anderes 3D-Modellierungsprogramm zur Weiterverarbeitung importieren, beispielsweise in ein Programm zur Variation einer Inneneinrichtung oder dergleichen, um zu sehen, wie eine andere Anordnung von Möbelstücken in einem Raum aussehen würde. Der Nutzer kann das errechnete 3D-Modell der Umgebung 3 des Weiteren mit anderen Nutzern teilen, indem er dieses auf einem allgemein zugänglichen Server einer Social Media Plattform hochlädt.
  • Bezugszeichenliste
  • 1
    Bearbeitungsgerät
    2
    Umgebungskarte
    3
    Umgebung
    4
    Detektionseinrichtung
    5
    Umgebungsmerkmal
    6
    Objekt
    7
    Display
    8
    Gerät
    9
    Fortbewegungsroute
    10
    Messort
    A
    Objektpunkt
    B
    Objektpunkt
    C1
    Detektionsausgangspunkt
    C2
    Detektionsausgangspunkt
    d
    Fahrdistanz
    α1
    Winkel
    α2
    Winkel
    β1
    Winkel
    β2
    Winkel
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102008014912 A1 [0004]

Claims (10)

  1. Verfahren zur Erstellung einer Umgebungskarte (2) für ein sich selbsttätig innerhalb einer Umgebung (3) fortbewegendes Bearbeitungsgerät (1), wobei eine Detektionseinrichtung (4) Umgebungsmerkmale (5) und/oder Objekte (6) innerhalb der Umgebung (3) detektiert, und wobei Positionsdaten der Umgebungsmerkmale (5) und/oder Objekte (6) von einer Auswerteeinrichtung zu einer Umgebungskarte (2) verarbeitet werden, dadurch gekennzeichnet, dass die detektierten Umgebungsmerkmale (5) und/oder Objekte (6) durch eine 3D-Rekonstruktion zu einer fotorealistischen dreidimensionalen Umgebungskarte (2) verarbeitet werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass Umgebungsmerkmale (5) und/oder Objekte (6), insbesondere Objektpunkte (A, B) und/oder Objektflächen, zeitlich aufeinanderfolgend aus voneinander abweichenden Perspektiven der Detektionseinrichtung (4) aufgenommen werden, wobei die Umgebungskarte (2) aus den aufeinanderfolgenden Aufnahmen rekonstruiert wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Umgebungsmerkmale (5) und/oder Objekte (6) während einer Fortbewegung des Bearbeitungsgerätes (1), insbesondere im Rahmen einer Bodenbearbeitung, aufgenommen werden.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Detektionseinrichtung (4) eine Kamera ist, welche Bilder der Umgebung (3) aufnimmt.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die detektierten Umgebungsmerkmale (5) und/oder Objekte (6) zur Erstellung der Umgebungskarte (2) in einem externen Gerät (8), insbesondere einem mobilen Gerät (8) und/oder einem Server, verarbeitet werden.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Umgebungskarte (2) auf einem Display (7) eines externen Gerätes (8), insbesondere eines mobilen Gerätes (8), dargestellt wird.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass zumindest ein Teilbereich der dargestellten Umgebungskarte (2) und/oder ein in der Umgebungskarte (2) dargestelltes Objekt (6) rotiert, vergrößert und/oder verschoben werden kann.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein Nutzer des Bearbeitungsgerätes (1) einem in der Umgebungskarte (2) vorhandenen Raum und/oder Raumteilbereich und/oder Objekt (6) einen Namen und/oder einen Farbcode und/oder ein Symbol zuordnet, welcher in Steuerbefehle zur Steuerung einer Fortbewegung des Bearbeitungsgerätes (1) eingebunden werden kann.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein Objekt (6) innerhalb der Umgebungskarte (2) segmentiert wird und aus der Umgebungskarte (2) extrahiert wird, wobei das extrahierte Objekt (6) und/oder die um das extrahierte Objekt (6) reduzierte Umgebungskarte (2) in ein Datenverarbeitungsprogramm importiert und von diesem weiterverarbeitet wird.
  10. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine aktuelle Position des Bearbeitungsgerätes (1) in der Umgebungskarte (2) angezeigt wird.
DE102016124856.8A 2016-12-19 2016-12-19 Verfahren zur Erstellung einer Umgebungskarte für ein Bearbeitungsgerät Withdrawn DE102016124856A1 (de)

Priority Applications (7)

Application Number Priority Date Filing Date Title
DE102016124856.8A DE102016124856A1 (de) 2016-12-19 2016-12-19 Verfahren zur Erstellung einer Umgebungskarte für ein Bearbeitungsgerät
TW106136519A TW201823768A (zh) 2016-12-19 2017-10-24 為處理設備製作環境卡之方法
PCT/EP2017/082142 WO2018114412A1 (de) 2016-12-19 2017-12-11 Verfahren zur erstellung einer umgebungskarte für ein bearbeitungsgerät
CN201780078310.7A CN110088702A (zh) 2016-12-19 2017-12-11 为处理设备建立环境地图的方法
US16/470,630 US11269350B2 (en) 2016-12-19 2017-12-11 Method for creating an environment map for a processing unit
EP17825414.0A EP3555721A1 (de) 2016-12-19 2017-12-11 Verfahren zur erstellung einer umgebungskarte für ein bearbeitungsgerät
JP2019530669A JP2020502653A (ja) 2016-12-19 2017-12-11 処理装置の環境マップ作成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016124856.8A DE102016124856A1 (de) 2016-12-19 2016-12-19 Verfahren zur Erstellung einer Umgebungskarte für ein Bearbeitungsgerät

Publications (1)

Publication Number Publication Date
DE102016124856A1 true DE102016124856A1 (de) 2018-06-21

Family

ID=60935784

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016124856.8A Withdrawn DE102016124856A1 (de) 2016-12-19 2016-12-19 Verfahren zur Erstellung einer Umgebungskarte für ein Bearbeitungsgerät

Country Status (7)

Country Link
US (1) US11269350B2 (de)
EP (1) EP3555721A1 (de)
JP (1) JP2020502653A (de)
CN (1) CN110088702A (de)
DE (1) DE102016124856A1 (de)
TW (1) TW201823768A (de)
WO (1) WO2018114412A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017220180A1 (de) * 2017-11-13 2019-05-16 BSH Hausgeräte GmbH Erstellen einer Umgebungskarte
DE102022208869A1 (de) 2022-08-26 2024-02-29 BSH Hausgeräte GmbH Verfahren zum Erstellen einer Umgebungskarte

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109946715B (zh) * 2019-04-09 2021-06-25 云鲸智能科技(东莞)有限公司 探测方法、装置、移动机器人及存储介质
KR20220020443A (ko) * 2019-07-05 2022-02-21 엘지전자 주식회사 지능형 로봇 청소기의 주행 방법
WO2021097126A1 (en) * 2019-11-12 2021-05-20 Geomagical Labs, Inc. Method and system for scene image modification
JP7254222B1 (ja) 2022-01-20 2023-04-07 三菱電機エンジニアリング株式会社 環境地図生成装置、環境地図生成方法およびプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008014912A1 (de) 2008-03-19 2009-09-24 Vorwerk & Co. Interholding Gmbh Selbsttätig verfahrbares Bodenstaub-Aufsammelgerät sowie Gegenstand mit einer Sensoranordnung

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009132317A1 (en) * 2008-04-24 2009-10-29 Evolution Robotics Application of localization, positioning & navigation systems for robotic enabled mobile products
US8961695B2 (en) * 2008-04-24 2015-02-24 Irobot Corporation Mobile robot for cleaning
DE102009041362A1 (de) * 2009-09-11 2011-03-24 Vorwerk & Co. Interholding Gmbh Verfahren zum Betreiben eines Reinigungsroboters
KR102071575B1 (ko) * 2013-04-23 2020-01-30 삼성전자 주식회사 이동로봇, 사용자단말장치 및 그들의 제어방법
KR102061511B1 (ko) * 2013-04-26 2020-01-02 삼성전자주식회사 청소 로봇, 홈 모니터링 장치 및 그 제어 방법
KR102094347B1 (ko) * 2013-07-29 2020-03-30 삼성전자주식회사 자동 청소 시스템, 청소 로봇 및 그 제어 방법
KR102332752B1 (ko) * 2014-11-24 2021-11-30 삼성전자주식회사 지도 서비스를 제공하는 전자 장치 및 방법
US9751210B2 (en) 2014-11-26 2017-09-05 Irobot Corporation Systems and methods for performing occlusion detection

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008014912A1 (de) 2008-03-19 2009-09-24 Vorwerk & Co. Interholding Gmbh Selbsttätig verfahrbares Bodenstaub-Aufsammelgerät sowie Gegenstand mit einer Sensoranordnung

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017220180A1 (de) * 2017-11-13 2019-05-16 BSH Hausgeräte GmbH Erstellen einer Umgebungskarte
DE102022208869A1 (de) 2022-08-26 2024-02-29 BSH Hausgeräte GmbH Verfahren zum Erstellen einer Umgebungskarte

Also Published As

Publication number Publication date
TW201823768A (zh) 2018-07-01
US11269350B2 (en) 2022-03-08
JP2020502653A (ja) 2020-01-23
EP3555721A1 (de) 2019-10-23
WO2018114412A1 (de) 2018-06-28
CN110088702A (zh) 2019-08-02
US20190324473A1 (en) 2019-10-24

Similar Documents

Publication Publication Date Title
DE102016124856A1 (de) Verfahren zur Erstellung einer Umgebungskarte für ein Bearbeitungsgerät
EP3417350B1 (de) Verfahren zur steuerung eines autonomen mobilen roboters
EP3494446B1 (de) Verfahren und vorrichtung zur steuerung eines autonomen mobilen roboters
EP2977844A1 (de) Verfahren zur reinigung oder bearbeitung eines raumes mittels eines selbsttätig verfahrbaren gerätes
CN110801180B (zh) 清洁机器人的运行方法及装置
Turner et al. Fast, automated, scalable generation of textured 3D models of indoor environments
DE102014012811B4 (de) Bodenreinigungsgerät und Verfahren und System zum Ermitteln eines Wohnungsgrundrisses durch ein selbstfahrendes Bodenreinigungsgerät
DE102007045834B4 (de) Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
EP3281076B1 (de) Verfahren zur bearbeitung eines bodens
CN110458897B (zh) 多摄像头自动标定方法及***、监控方法及***
EP3974934A1 (de) Verfahren zur steuerung eines autonomen, mobilen roboters
Ferland et al. Egocentric and exocentric teleoperation interface using real-time, 3D video projection
DE102007045835A1 (de) Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
EP3538967A1 (de) Verfahren zum betrieb eines sich selbsttätig fortbewegenden roboters
DE102015100419A1 (de) Verfahren und Anordnung zum Bearbeiten von Bodenflächen
DE102012112036A1 (de) Selbstfahrendes Bodenbearbeitungsgerät und Verfahren zur Navigation bei einem selbstfahrenden Bodenbearbeitungsgerät
WO2017045981A1 (de) Vorrichtung und verfahren zur erzeugung eines modells von einem objekt mit überlagerungsbilddaten in einer virtuellen umgebung
DE102016114593A1 (de) Verfahren zur Steuerung eines autonomen mobilen Roboters
EP3559773B1 (de) Verfahren zur navigation und selbstlokalisierung eines sich autonom fortbewegenden bearbeitungsgerätes
EP2831839A1 (de) Verfahren zum automatischen betreiben einer überwachungsanlage
DE102014110201B3 (de) Selbstfahrender Roboter und Verfahren zur Hinderniserkennung bei einem selbstfahrenden Roboter
EP3995065B1 (de) Sich selbsttätig fortbewegendes reinigungsgerät
EP3812869B1 (de) Verfahren zur erstellung einer umgebungskarte für ein sich selbsttätig fortbewegendes bodenbearbeitungsgerät, sowie system aus zwei sich selbsttätig fortbewegenden bodenbearbeitungsgeräten
DE112021001445T5 (de) Detektionsvorrichtung, Verfolgungsvorrichtung, Detektionsprogramm und Verfolgungsprogramm
DE102022210911A1 (de) Verfahren zum Bestimmen eines Auswahlbereichs in einer Umgebung für ein mobiles Gerät

Legal Events

Date Code Title Description
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee