DE102006033935A1 - Verfahren zum Erkennen eines Umfelds - Google Patents

Verfahren zum Erkennen eines Umfelds Download PDF

Info

Publication number
DE102006033935A1
DE102006033935A1 DE102006033935A DE102006033935A DE102006033935A1 DE 102006033935 A1 DE102006033935 A1 DE 102006033935A1 DE 102006033935 A DE102006033935 A DE 102006033935A DE 102006033935 A DE102006033935 A DE 102006033935A DE 102006033935 A1 DE102006033935 A1 DE 102006033935A1
Authority
DE
Germany
Prior art keywords
line
processing unit
signal processing
robot
evaluated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102006033935A
Other languages
English (en)
Inventor
Wolfgang Niehsen
Jochen Wingbermuehle
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102006033935A priority Critical patent/DE102006033935A1/de
Publication of DE102006033935A1 publication Critical patent/DE102006033935A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Erkennen eines Objekts, bei dem für ein analoges Ausgangssignal (8) einer Farbkamera (4) mindestens eine Bildpunktlinie in Verbindung mit einer Mixed-Signal-Processing-Einheit (10) ausgewertet wird.

Description

  • Die Erfindung betrifft ein Verfahren zum Erkennen eines Umfelds, ein Verfahren zum Steuern einer Vorrichtung, eine Einrichtung, einen Roboter, ein Computerprogramm und ein Computerprogrammprodukt.
  • Stand der Technik
  • Mit der fortschreitenden Automatisierung auf technischem Gebiet ist der breite Einsatz von Servicerobotern für zunächst einfache Arbeiten im Haushalt in den nächsten Jahren zu erwarten. Typische Einsatzgebiete für derzeit am Markt verfügbare Systeme sind Staubsaugen, Rasenmähen und die Überwachung von Gebäuden.
  • Im Bereich der Überwachungstechnik werden bereits jetzt ohnehin notwendige Bildaufnahme- und ggf. Bildauswertungsmethoden der digitalen Bildverarbeitung zur Steuerung, bspw. Kollisionsvermeidung, Ortung und Wegeplanung, von beweglichen Einrichtungen und somit von Robotern eingesetzt. Autonome Staubsauger und Rasenmäher, die einem wesentlich höheren Kostendruck unterliegen, orientieren sich beim Bewegen nach dem Zufallsprinzip, d.h. ihre Route durch das zu bearbeitende Gebiet lässt sich nicht vorab festlegen. Stattdessen wird ihre Bewegung durch zufälliges Umkehren bei Kollisionen mit Objekten oder an Abgründen, bspw. an Treppen, bestimmt.
  • Die Kollisionserkennung und die Erkennung von Abgründen erfolgt mittels mechanischer oder optischer Sensoren wie Lichtschranken. Rasenmäher werden zudem durch eine induktiv arbeitende Begrenzung, in der Regel durch induktive Begrenzungsdrähte, am Verlassen ihres Arbeitsgebiets gehindert.
  • Offenbarung der Erfindung
  • Bei dem erfindungsgemäßen Verfahren zum Erkennen eines Umfelds wird für ein analoges Ausgangssignal einer Farbkamera mindestens eine Bildpunktlinie in Verbindung mit einer Mixed-Signal-Processing-Einheit ausgewertet.
  • Dies bedeutet, dass diese Mixed-Signal-Processing-Einheit typischerweise als Auswerteschaltung ausgebildet ist und eine Mischsignalbearbeitung der mindestens einen Bildpunktlinie des analogen Ausgangssignals durchführt. Mit dem durch dieses Verfahren ermöglichten Erkennen und somit Beobachten des Umfelds können u.a. Objekte erkannt werden.
  • Des weiteren kann vorgesehen sein, dass insbesondere anhand einer Phasenlage eines Farbsignals, in der Regel des analogen Ausgangssignals, mindestens ein Farbsignalübergang längs der mindestens einen ausgewerteten Bildpunktlinie detektiert wird. Die Erkennung des Objekts kann anhand eines Farbkontrastes erfolgen.
  • Als die mindestens eine Bildpunktlinie kann mindestens eine horizontal orientierte Bildzeile und/oder eine vertikal orientierte Bildspalte ausgewertet werden. Das Verfahren ist je nach Bauweise der Farbkamera und somit eines entsprechenden Sensors derart durchführbar, dass die Auswertung in Spaltenrichtung oder in Zeilenrichtung erfolgen kann. Des weiteren kann eine diagonale Ausrichtung von Bildzeilen oder Bildspalten zu einem Referenzsystem üblicherweise durch eine um die Blickrichtung oder Längsachse, bspw. um 45°, gedrehte Verbuung der Farbkamera erreicht werden.
  • Die Erfindung betrifft außerdem ein Verfahren zum automatischen Steuern einer beweglichen Vorrichtung, bei dem die Vorrichtung unter Berücksichtigung eines Umfelds, das durch das voranstehend beschriebene Verfahren erkannt wird, gesteuert wird.
  • In Ausgestaltung wird die Vorrichtung derart gesteuert, dass während einer Bewegung der Vorrichtung eine Kollision mit einem im Umfeld erkannten und somit registrierten Objekt vermieden wird. Eine Annäherung der Vorrichtung an das erkannte Objekt kann abgebrochen werden, wenn ein erkannter und/oder errechneter Abstand von dem Objekt zu gering sein sollte. Die Vorrichtung ist dann derart zu steuern, dass sie anhält, umkehrt oder abbiegt.
  • Es ist in einer alternativen Ausgestaltung vorgesehen, dass der Roboter auf dieses mindestens eine erkannte Objekt zusteuert und sich auf darauf hinbewegt, um mit diesem mindestens einen Objekt bspw. wechselzuwirken.
  • Die erfindungsgemäße Einrichtung weist eine Farbvideokamera und eine Mixed-Signal-Processing-Einheit auf und ist dazu ausgebildet, für ein analoges Ausgangssignal der Farbkamera mindestens eine Bildpunktlinie in Verbindung mit der Mixed-Signal-Processing-Einheit auszuwerten.
  • Die Einrichtung kann zudem eine Steuerungseinheit, die zur Steuerung einer beweglichen Vorrichtung unter Berücksichtigung eines erkannten Objekts ausgebildet ist, aufweisen und hierzu an der beweglichen Vorrichtung angeordnet oder befestigt sein. Somit sind mit der Einrichtung jeweils zumindest Schritte des Verfahrens zum Erkennen eines Objekts und des Verfahrens zum Steuern der beweglichen Vorrichtung ausführbar.
  • Die Erfindung betrifft des weiteren einen Roboter, der mindestens eine voranstehend genannte Einrichtung aufweist. Bewegungen des Roboters sind durch die mindestens eine Einrichtung zu steuern.
  • Das erfindungsgemäße Computerprogramm mit Programmcodemitteln ist zum Durchführen aller Schritte eines der voranstehend beschriebenen Verfahren geeignet, wenn das Computerprogramm auf einem Computer oder einer entsprechenden Recheneinheit, insbesondere einer erfindungsgemäßen Einrichtung oder einem erfindungsgemäßen Roboter, ausgeführt wird.
  • Die Erfindung betrifft außerdem ein Computerprogrammprodukt mit Programmcodemitteln, die auf einem computerlesbaren Datenträger gespeichert sind, um alle Schritte eines der vorgestellten Verfahren durchzuführen, wenn das Computerprogramm auf einem Computer oder einer entsprechenden Recheneinheit, insbesondere einer vorgestellten Einrichtung oder einem vorgestellten Roboter, ausgeführt wird.
  • Mit dieser Erfindung wird eine kamerabasierte Steuerung eines mobilen Roboters bzw. Serviceroboters in oder an Gebäuden, insbesondere für den Heimbereich, also Wohnung oder Garten, aber auch in gewerblich oder industriell genutzten Gebäuden bereitgestellt.
  • Die vorgeschlagene Erfindung ermöglicht eine sehr kostengünstige berührungslose Kollisionsvermeidung sowie eine Erkennung der Grenzen der zulässigen Arbeitsfläche anhand von Farbmerkmalen, bspw. Grenzen zwischen Beeten und Rasenflächen sowie Übergänge zwischen Teppichböden und Parkettböden oder Fliesen.
  • Der Roboter kann auch ohne die im Bereich der Überwachungstechnik oder industriellen Robotertechnik üblichen aufwendigen Bildauswertung Hindernisse frühzeitig erkennen und ihnen ausweichen. Gleichzeitig kann ein Verlassen des Arbeitsbereichs ggf. ohne Einbringen zusätzlicher Infrastruktur, bspw. von Berührungszäunen, verhindert werden.
  • Für bestimmte Aufgabenstellungen, in denen die bereits bearbeitete Fläche anhand von Farbmerkmalen von unbearbeiteter Fläche unterschieden werden kann, etwa beim Schneeräumen, ist zudem ein systematisches Abarbeiten der Fläche erreichbar. In diesem Fall müsste ein zum Schneeräumen ausgebildeter Roboter weißen Bereichen folgen.
  • Durch den Einsatz der Farbkamera, üblicherweise einer Farbvideokamera mit analogem Ausgangssignal in Verbindung mit der Mixed-Signal-Processing-Einheit bzw. Auswerteschaltung zur Auswertung eines oder mehrer Zeilensignale, wird eine Steuerung des Roboters oder Haushaltsroboters realisiert. Hierzu ist die Einrichtung als Teilsystem auf dem Roboter montiert. Durch eine Fernsteuerung wäre es alternativ denkbar, die Einrichtung unabhängig vom Roboter zu positionieren und den Roboter aus der Distanz zu beobachten und zu steuern.
  • Die vorgeschlagene Erfindung erweitert die Funktionalität von Haushaltsrobotern, so dass diese zur frühzeitigen Hinderniserkennung und Detektion von Grenzen des Arbeitsbereichs und ggf. für ein systematisches Abarbeiten einer Arbeitsfläche geeignet sind. Hierzu ist jedoch nicht die aus der Überwachungstechnik bekannte kostenintensive digitale Auswertung des gesamten Kamerabildes einzusetzen. Die für autonome Rasenmäher notwendige induktive Erfassung des Arbeitsbereichs kann entfallen. Durch die frühzeitige Erkennung von Hindernissen wird zudem die Sicherheit erhöht, da z.B. auch Kinderhände bereits vor einer unter Umständen gefährlichen Berührung bemerkt werden können.
  • Die Beschränkung auf die Auswertung analoger Bildpunktlinien, insbesondere von analogen Zeilensignalen, die zumindest teilweise mit analogen Schaltungskomponenten durchgeführt wird, führt zu einer gegenüber der herkömmlichen vollständig digitalen Bildverarbeitung starken Reduktion der zu verarbeitenden Datenrate und ermöglicht damit eine Verarbeitung mit kostengünstigen Mikrokontrollern. Insbesondere können anhand der Phasenlage des Farbsignals Farbsignalübergänge, die in der Regel an Objektgrenzen auftreten, längs der jeweils analysierten Bildpunktlinie lokalisiert werden.
  • Kurze Beschreibung der Zeichnungen
  • 1 zeigt in schematischer Darstellung eine Ausführungsform eines erfindungsgemäßen Roboters mit einer Ausführungsform einer erfindungsgemäßen Einrichtung.
  • 2 zeit ein Diagramm zur Durchführung einer Ausführungsform eines erfindungsgemäßen Verfahrens.
  • Ausführungsformen der Erfindung
  • Der in 1 in schematischer Darstellung gezeigte Roboter 2 mit Rädern 3 weist eine Farbkamera 4, die in Fahrtrichtung 6 orientiert ist, auf. Die Farbkamera 4 ist zum Erfassen eines Umfelds des Roboters 2 ausgebildet und stellt auf Grundlage des erfassten Umfelds ein analoges Ausgangssignal 8 (FBAS, Farb-Bild-Austast-Synchron-Signal) bereit.
  • Eine Mixed-Signal-Processing-Einheit 10 weist analoge und digitale Komponenten zur Auswertung eines oder mehrerer Signale von Bildpunktlinien des von der Farbkamera 4 erfassten Umfelds auf. Die Mixed-Signal-Processing-Einheit 10 bzw. Auswerteschaltung umfasst Mittel zur Detektion und/oder Lokalisierung von Farbübergängen anhand einer Phasenlage des Farbsignals. Die Bildpunktlinien können horizontal oder vertikal orientiert sein. Die Auswertung kann in Spaltenrichtung oder in Zeilenrichtung erfolgen. Somit ist das Verfahren entsprechend einer Bauweise der Farbkamera durchführbar. Durch eine um die Blickrichtung oder Längsachse, bspw. um 45°, gedrehte Verbauung der Farbkamera kann eine diagonale Ausrichtung von Bildzeilen oder Bildspalten zu einem Referenzsystem erreicht werden.
  • Einer Steuerungseinheit 12 des mobilen Roboters 2 wird von der Mixed-Signal-Processing-Einheit 10 ein Steuersignal 14 bereitgestellt. In der vorliegenden Ausführungsform umfasst eine erfindungsgemäße Einrichtung 13 die Kamera 4, die Mixed-Signal-Processing-Einheit 10 und die Steuerungseinheit 12. Unter Berücksichtigung dieses Steuersignals 14 werden Bewegungen des Roboters 2 derart gesteuert, dass er einem von der Farbkamera 4 und der Mixed-Signal-Processing-Einheit 10 erkannten Hindernis ausweicht. Des weiteren ist es auch möglich, Bewegungen des Roboters 2 entlang einer Farbgebung seiner Umgebung zu steuern.
  • Die Erfindung ist durch Beobachtung der Reaktion des gesteuerten Roboters 2 auf einfache Testmuster nachweisbar. Dabei erkennbare Merkmale sind die Auswertung von Farbübergängen und die rasterförmige, auf ausgewählte Bildlinien beschränkte Auswertung. Neben der Farbkamera 4 umfasst die Mixed-Signal-Processing-Einheit 10 eine Kombination von analogen und digitalen Bauelementen, mit denen das analoge Ausgangssignal 8 bzw. Bildeingangssignal von der Farbkamera 4 nachzuweisen ist.
  • Die Erfindung kann grundsätzlich für autonome Serviceroboter im Haushalt eingesetzt werden. Hierzu gehören insbesondere autonome Rasenmäher, autonome Staubsauger und Teppichreiniger sowie Roboter für handwerkliche Tätigkeiten, wie bspw. autonomes Bohnern, Wienern, oder Polieren. Zudem ist ein autonomer Winterdienst, der einen Streudienst und das Schneeräumen umfasst, möglich.
  • Das anhand des Diagramms aus 2 dargestellte Ausführungsform des Verfahrens umfasst als ersten Schritt eine Erfassung 20 eines Umfelds eines Roboters durch eine an dem Roboter installierten Kamera. Ein von der Kamera bereitgestelltes analoges Ausgangssignal 22 wird an eine Mixed-Signal-Processing-Einheit weitergeleitet. Durch diese Mixed-Signal-Processing-Einheit wird eine Auswertung 24 mindestens einer Bildpunktlinie des analogen Ausgangssignals durchgeführt. Die Mixed-Signal-Processing-Einheit erzeugt ein Steuersignal 26, das an eine zur Steuerung 28 des Roboters vorgesehene Steuereinheit übertragen wird. Mindestens ein im Umfeld des Roboters befindliches Objekt kann durch das Verfahren erkannt werden, so dass der Roboter unter Berücksichtigung dieses mindestens einen Objekts zu steuern ist. Der Roboter kann nunmehr dem mindestens einen erkannten Objekten ausweichen.

Claims (11)

  1. Verfahren zum Erkennen eines Umfelds, bei dem für ein analoges Ausgangssignal (8, 22) einer Farbkamera (4) mindestens eine Bildpunktlinie in Verbindung mit einer Mixed-Signal-Processing-Einheit (10) ausgewertet wird.
  2. Verfahren nach Anspruch 1, bei dem anhand einer Phasenlage eines Farbsignals mindestens ein Farbsignalübergang längs der mindestens einen ausgewerteten Bildpunktlinie detektiert wird.
  3. Verfahren nach Anspruch 1 oder 2, bei dem als die mindestens eine Bildpunktlinie mindestens eine Bildzeile ausgewertet wird.
  4. Verfahren zum automatischen Steuern einer beweglichen Vorrichtung, bei dem die Vorrichtung unter Berücksichtigung eines Umfelds, das durch ein Verfahren nach einem der Ansprüche 1 bis 3 erkannt wird, gesteuert wird.
  5. Verfahren nach Anspruch 4, bei dem die Vorrichtung derart gesteuert wird, dass während einer Bewegung der Vorrichtung eine Kollision mit einem erkannten Objekt vermieden wird.
  6. Einrichtung, die eine Farbvideokamera (4) und eine Mixed-Signal-Processing-Einheit (10) aufweist und dazu ausgebildet ist, für ein analoges Ausgangssignal (8, 22) der Farbkamera (4) mindestens eine Bildpunktlinie in Verbindung mit der Mixed-Signal-Processing-Einheit (10) auszuwerten.
  7. Einrichtung nach Anspruch 6, die eine Steuerungseinheit (12), die zur Steuerung (28) einer beweglichen Vorrichtung unter Berücksichtigung eines erkannten Objekts ausgebildet ist, aufweist.
  8. Einrichtung nach Anspruch 7, die an der beweglichen Vorrichtung angeordnet ist.
  9. Roboter, der mindestens eine Einrichtung nach einem der Ansprüche 6 bis 8 aufweist und dessen Bewegungen durch die mindestens eine Einrichtung (13) zu steuern sind.
  10. Computerprogramm mit Programmcodemitteln, um alle Schritte eines Verfahrens nach einem der Ansprüche 1 bis 5 durchzuführen, wenn das Computerprogramm auf einem Computer oder einer entsprechenden Recheneinheit, insbesondere einer Einrichtung oder einem Roboter (2) nach einem der Ansprüche 6 bis 9, ausgeführt wird.
  11. Computerprogrammprodukt mit Programmcodemitteln, die auf einem computerlesbaren Datenträger gespeichert sind, um alle Schritte eines Verfahrens nach einem der Ansprüche 1 bis 5 durchzuführen, wenn das Computerprogramm auf einem Computer oder einer entsprechenden Recheneinheit, insbesondere einer Einrichtung oder einem Roboter (2) nach einem der Ansprüche 6 bis 9, ausgeführt wird.
DE102006033935A 2006-07-21 2006-07-21 Verfahren zum Erkennen eines Umfelds Withdrawn DE102006033935A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102006033935A DE102006033935A1 (de) 2006-07-21 2006-07-21 Verfahren zum Erkennen eines Umfelds

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102006033935A DE102006033935A1 (de) 2006-07-21 2006-07-21 Verfahren zum Erkennen eines Umfelds

Publications (1)

Publication Number Publication Date
DE102006033935A1 true DE102006033935A1 (de) 2008-01-24

Family

ID=38830744

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102006033935A Withdrawn DE102006033935A1 (de) 2006-07-21 2006-07-21 Verfahren zum Erkennen eines Umfelds

Country Status (1)

Country Link
DE (1) DE102006033935A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013006692A1 (de) 2013-04-16 2014-10-16 Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr Universelles autonomes Fahrgestell zum Transport von Funktions- und Lastträgervorrichtungen
US9820433B2 (en) 2012-12-28 2017-11-21 Positec Power Tools (Suzhou Co., Ltd.) Auto mowing system
CN108665473A (zh) * 2018-04-28 2018-10-16 北京航天自动控制研究所 一种视觉导引及视觉里程计复用方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9820433B2 (en) 2012-12-28 2017-11-21 Positec Power Tools (Suzhou Co., Ltd.) Auto mowing system
US10555456B2 (en) 2012-12-28 2020-02-11 Positec Power Tools (Suzhou) Co., Ltd. Auto mowing system
DE102013006692A1 (de) 2013-04-16 2014-10-16 Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr Universelles autonomes Fahrgestell zum Transport von Funktions- und Lastträgervorrichtungen
DE102013006692B4 (de) * 2013-04-16 2020-10-01 Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr Universelles autonomes Fahrgestell zum Transport von Funktions- und Lastträgervorrichtungen
CN108665473A (zh) * 2018-04-28 2018-10-16 北京航天自动控制研究所 一种视觉导引及视觉里程计复用方法
CN108665473B (zh) * 2018-04-28 2020-11-10 北京航天自动控制研究所 一种视觉导引及视觉里程计复用方法

Similar Documents

Publication Publication Date Title
EP3376933B1 (de) Robotergestützte bearbeitung einer oberfläche mittels eines roboters
EP2812766B2 (de) Verfahren zum automatischen auslösen einer selbstlokalisierung
EP2818954B1 (de) Verfahren zum Planen einer virtuellen Spur, fahrerloses Transportfahrzeug mit einer Steuervorrichtung zur Unterstützung des entsprecheden Planungsverfahrens
EP2737467B2 (de) Verfahren zur unterstützung eines fahrers eines kraftfahrzeugs
EP3379990B1 (de) Bodenreinigungssystem und verfahren zum reinigen einer bodenfläche
DE102014012811B4 (de) Bodenreinigungsgerät und Verfahren und System zum Ermitteln eines Wohnungsgrundrisses durch ein selbstfahrendes Bodenreinigungsgerät
DE102012207269A1 (de) Fahrerloses Transportfahrzeug und Verfahren zum Betreiben eines fahrerlosen Transportfahrzeugs
WO2017174203A1 (de) Verfahren und vorrichtung zum steuern eines krans, eines baggers, einer raupe oder einer ähnlichen baumaschine
EP3355147B1 (de) Verfahren zum betrieb eines sich selbsttätig fortbewegenden fahrzeugs
DE102013019374B4 (de) Verfahren zum Betrieb eines zur vollständig automatisierten Führung eines Kraftfahrzeugs ausgebildeten Fahrzeugsystems und Kraftfahrzeug
DE102016007719B4 (de) Einen Sichtsensor verwendendes Robotersystem
DE102010007025A1 (de) Verfahren und Vorrichtung zur Überwachung eines Manipulatorraumes
DE102018116065A1 (de) Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Servicegerätes
EP3613321B1 (de) Sich selbsttätig innerhalb einer umgebung fortbewegendes bodenbearbeitungsgerät
WO2017041948A1 (de) Verfahren und vorrichtung zum betreiben eines parkplatzes
EP3392738A1 (de) Verfahren zum betrieb eines sich selbsttätig fortbewegenden fahrzeugs
EP3683645B1 (de) System mit einem ersten bodenbearbeitungsgerät und einem zweiten bodenbearbeitungsgerät sowie verfahren zum betrieb eines solchen systems
EP3524114A1 (de) Reinigungsroboter und verfahren zur steuerung eines reinigungsroboters
EP3562730B1 (de) Verfahren zum automatisierten parken eines kraftfahrzeugs
DE102014221763A1 (de) Verfahren zur automatischen Steuerung von Objekten innerhalb eines räumlich abgegrenzten Bereichs, der für die Herstellung oder Wartung oder das Parken eines Fahrzeugs vorgesehen ist
DE102006033935A1 (de) Verfahren zum Erkennen eines Umfelds
DE102014219538A1 (de) Verfahren zum Betreiben von mobilen Plattformen und mobile Plattform
DE102014105506A1 (de) Robotsauger mit einer Kamera als optischem Sensor und Verfahren zum Betrieb eines solchen Robotsaugers
EP3377715B1 (de) Verfahren zum steuern eines sich teilautonom bewegenden fahrzeugs innerhalb einer betriebsumgebung und bauwerk dafür
EP3527118B1 (de) Reinigungsroboter

Legal Events

Date Code Title Description
R005 Application deemed withdrawn due to failure to request examination

Effective date: 20130723