DE102016124894B4 - Verfahren und Vorrichtung zum Erstellen einer Bedienoberfläche zum Bedienen eines Gebäudeautomationssystems mittels eines Reinigungsroboters, Reinigungsroboter und Gebäudeautomationssystem - Google Patents

Verfahren und Vorrichtung zum Erstellen einer Bedienoberfläche zum Bedienen eines Gebäudeautomationssystems mittels eines Reinigungsroboters, Reinigungsroboter und Gebäudeautomationssystem Download PDF

Info

Publication number
DE102016124894B4
DE102016124894B4 DE102016124894.0A DE102016124894A DE102016124894B4 DE 102016124894 B4 DE102016124894 B4 DE 102016124894B4 DE 102016124894 A DE102016124894 A DE 102016124894A DE 102016124894 B4 DE102016124894 B4 DE 102016124894B4
Authority
DE
Germany
Prior art keywords
cleaning robot
component
map
building automation
automation system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102016124894.0A
Other languages
English (en)
Other versions
DE102016124894A1 (de
Inventor
Eckard Riedenklau
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Miele und Cie KG
Original Assignee
Miele und Cie KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Miele und Cie KG filed Critical Miele und Cie KG
Priority to DE102016124894.0A priority Critical patent/DE102016124894B4/de
Publication of DE102016124894A1 publication Critical patent/DE102016124894A1/de
Application granted granted Critical
Publication of DE102016124894B4 publication Critical patent/DE102016124894B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B15/00Systems controlled by a computer
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B15/00Systems controlled by a computer
    • G05B15/02Systems controlled by a computer electric
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/26Pc applications
    • G05B2219/2642Domotique, domestic, home control, automation, smart house

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Electric Vacuum Cleaner (AREA)

Abstract

Verfahren (600) zum Erstellen einer Bedienoberfläche (300) zum Bedienen eines Gebäudeautomationssystems (102), wobei das Erstellen durch einen Reinigungsroboter (100) erfolgt, wobei der Reinigungsroboter (100) ausgebildet ist, um eine Karte (518) einer dem Gebäudeautomationssystem (102) zugeordneten Umgebung zu erstellen und unter Verwendung der Karte (518) zumindest einen Zielpunkt (106) in der Umgebung anzufahren, wobei das Verfahren (600) folgende Schritte umfasst:Einlesen (610) einer Verortungsinformation (114), die eine beim Anfahren des Zielpunktes (106) mittels eines Sensors (108) des Reinigungsroboters (100) erfasste Aktion zumindest einer Komponente (112) des Gebäudeautomationssystems (102)repräsentiert;Verorten (620) der Komponente (112) in der Karte (518) unter Verwendung der Verortungsinformation (114); undEinfügen (630) zumindest eines Steuerungselements (400, 402) zum Steuern der Komponente (112) in die Karte (518) abhängig von einem Ergebnis des Verortens (620), um die Bedienoberfläche (300) zu erstellen; undmit einem Schritt des Empfangens eines eine Anwesenheit des Reinigungsroboters (100) am Zielpunkt (106) repräsentierenden Anwesenheitssignals (120) und einem Schritt des Ausgebens eines Aktivierungssignals (122) zum Aktivieren der Komponente (112) unter Verwendung des Anwesenheitssignals (120).

Description

  • Die Erfindung betrifft ein Verfahren zum Erstellen einer Bedienoberfläche zum Bedienen eines Gebäudeautomationssystems mittels eines Reinigungsroboters, eine entsprechende Vorrichtung, ein entsprechendes Computerprogramm, einen Reinigungsroboter sowie ein Gebäudeautomationssystem.
  • Es sind Saugroboter bekannt, die beim Saugen autonom eine Karte ihrer Umgebung aufbauen können. Diese Karte kann beispielsweise auf einem mobilen Gerät wie einem Smartphone oder Tablet angezeigt werden.
  • Ferner sind sogenannte Smart-Home-Systeme zur Gebäudeautomation bekannt, deren Steuerungen händisch zusammengestellt werden können. Insbesondere die logische Verknüpfung und Gruppierung zu Räumen wird dabei typischerweise vom Benutzer vorgenommen.
  • Aus der US 2014 / 0 324 271 A1 ist ein Verfahren zur Erstellung der Bedienoberfläche eines Gebäudeautomatisierungssystems bekannt, wobei die Erstellung durch einen Reinigungsroboter erfolgt. Dabei erfasst der Reinigungsroboter mit einem Sensor Komponenten des Gebäudeautomatisationssystems und verortet diese Komponenten in einer Karte der dem Gebäudeautomatisationssystem zugeordneten Umgebung. In der Karte werden dabei in Abhängigkeit vom Verorten der Komponenten durch den Reinigungsroboter Steuerungselemente zum Steuern der Komponenten eingefügt.
  • Vor diesem Hintergrund stellt sich die vorliegende Erfindung die Aufgabe, ein verbessertes Verfahren und eine verbesserte Vorrichtung zum Erstellen einer Bedienoberfläche zum Bedienen eines Gebäudeautomationssystems, einen verbesserten Reinigungsroboter sowie ein verbessertes Gebäudeautomationssystem zu schaffen.
  • Erfindungsgemäß wird diese Aufgabe durch ein Verfahren, eine Vorrichtung, einen Reinigungsroboter und ein Gebäudeautomationssystem mit den Merkmalen der Hauptansprüche gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen der Erfindung ergeben sich aus den nachfolgenden Unteransprüchen.
  • Es wird ein Verfahren zum, vorzugsweise autonomen, Erstellen einer Bedienoberfläche zum Bedienen eines Gebäudeautomationssystems mittels eines Reinigungsroboters vorgestellt, wobei der Reinigungsroboter ausgebildet ist, um eine Karte einer dem Gebäudeautomationssystem zugeordneten Umgebung zu erstellen und unter Verwendung der Karte zumindest einen Zielpunkt in der Umgebung anzufahren, wobei das Verfahren folgende Schritte umfasst:
    • Einlesen einer Verortungsinformation, die eine beim Anfahren des Zielpunktes mittels eines Sensors des Reinigungsroboters erfasste Aktion zumindest einer Komponente des Gebäudeautomationssystems und/oder eine beim Anfahren des Zielpunktes mittels eines Sensors des Gebäudeautomationssystems erfasste Aktion des Reinigungsroboters repräsentiert;
  • Verorten der Komponente in der Karte unter Verwendung der Verortungsinformation; und
    Einfügen zumindest eines Steuerungselements zum Steuern der Komponente in die Karte abhängig von einem Ergebnis des Verortens, um die Bedienoberfläche zu erstellen.
  • Unter einer Bedienoberfläche kann beispielsweise eine Steuerungskarte mit Bediensymbolen zum Steuern einzelner Komponenten des Gebäudeautomationssystems verstanden werden. Die Bedienoberfläche kann beispielsweise auf einem berührungsempfindlichen Bildschirm, der Teil des Reinigungsroboters, eines Smartphones oder eines Tablets sein kann, angezeigt werden, sodass ein Benutzer in der Lage ist, das Gebäudeautomationssystem durch Berühren der Bediensymbole zu steuern. Unter einem Gebäudeautomationssystem, auch Smart Home oder intelligentes Wohnen genannt, kann ein System zur Vernetzung von Geräten, Leuchten und Tastern in einem Gebäude, insbesondere einer Wohnumgebung, verstanden werden. Bei den vernetzten Geräten, auch Komponenten des Gebäudeautomationssystems genannt, kann es sich beispielsweise um Geräte der Haustechnik, um Haushaltsgeräte, beispielsweise Rollläden, Heizkörper, Herde, Kühlschränke oder Waschmaschinen, oder um Geräte der Unterhaltungselektronik handeln. Bei der Komponente kann es sich entweder um einen Aktor oder einen Sensor handeln. Beispielsweise kann die Komponente fernsteuerbar sein. Unter einem Reinigungsroboter kann ein Bodenpflegegerät verstanden werden, das ausgebildet ist, um Räume autonom zu reinigen. Der Reinigungsroboter kann ausgebildet sein, um die Umgebung des Gebäudeautomationssystems, beispielsweise eine Wohnumgebung, mittels der von ihm erstellten Karte selbstständig abzufahren. Die Karte kann beispielsweise in einem SLAM-Verfahren (SLAM = Simultaneous Localization And Mapping; „simultane Lokalisierung und Kartenerstellung“) von dem Reinigungsroboter erstellt worden sein. Unter einem Zielpunkt kann ein von dem Reinigungsroboter anzufahrender Ort in der Karte verstanden werden, dessen Koordinaten dem Reinigungsroboter bekannt sind.
  • Unter einer Verarbeitungsinformation kann ein von dem Sensor des Reinigungsroboters bzw. von dem Sensor des Gebäudeautomationssystems erfasstes optisches oder akustisches Signal verstanden werden, das einen bestimmten durch die Komponente hervorgerufenen Effekt repräsentieren kann, wie er etwa beim Ein- und Ausschalten einer Leuchte oder beim Auf- und Abrollen eines Rollladens entsteht.
  • Bei dem Sensor des Gebäudeautomationssystems kann es sich beispielsweise um die zu verortende Komponente des Gebäudeautomationssystems handeln.
  • Unter einem Steuerungselement kann beispielsweise ein Bedienelement verstanden werden, das je nach Ausführungsform Schalter oder Taster zum Steuern der Komponente grafisch nachbildet. Die Bedienoberfläche kann beispielsweise dadurch erstellt werden, dass das Steuerungselement in der Karte des Reinigungsroboters eingeblendet wird, beispielsweise an einer Stelle der Karte, an dem die Komponente mittels der Verortungsinformation verortet wurde.
  • Der hier beschriebene Ansatz beruht auf der Erkenntnis, dass eine Kartendarstellung eines Reinigungsroboters, etwa eines Saugroboters oder eines sonstigen Serviceroboters, um interaktive Steuerungselemente für ein Smart-Home-System erweitert werden kann.
  • Durch Verwendung des Kartenmaterials des Reinigungsroboters kann eine umständliche, unter Umständen komplett von Hand durchzuführende Einrichtung des Smart-Home-Systems durch dessen Benutzer vermieden werden und somit der Bedienkomfort des Smart-Home-Systems deutlich gesteigert werden. Dadurch kann eine anschauliche Steuerungsoberfläche realisiert werden, die der jeweiligen Wohnsituation in besonderem Maße gerecht wird. Vor allem ein als Karte dargestelltes Smart-Home-Interface kommt dem Verständnis des Benutzers sehr entgegen.
  • Durch den Reinigungsroboter kann die Erstellung einer solchen interaktiven Steuerungskarte automatisiert werden. Dabei kann der Reinigungsroboter autonom Steuerungselemente für seine jeweilige Karte erstellen, mit denen das Smart-Home-System intuitiver gesteuert werden kann. Das Kartenmaterial kann beispielsweise bereits vom Reinigungsroboter nach verschiedenen Algorithmen, die etwa das SLAM-Problem lösen, erstellt und per Wi-Fi zur Weiterverarbeitung bereitgestellt werden. Beispielsweise kann der Reinigungsroboter mit demselben Netzwerk wie eine Steuerung des Smart-Home-Systems verbunden sein. Dabei kann das Netzwerk lokal oder vom Anbieter der Smart-Home-System-Steuerung über das Internet bereitgestellt sein.
  • Gemäß einer Ausführungsform kann im Schritt des Einlesens eine die Komponente repräsentierende Komponenteninformation eingelesen werden. Im Schritt des Verortens kann die Komponente unter Verwendung der Komponenteninformation verortet werden. Unter einer Komponenteninformation kann eine Information verstanden werden, durch die der Reinigungsroboter auf eine semantische Bedeutung der Komponente schließen kann. Beispielsweise kann die Komponenteninformation Angaben zu einem Typ, einem Namen, einem Gruppennamen oder einem Raum der Komponente umfassen. Durch diese Ausführungsform wird eine zuverlässige und genaue Verortung der Komponente in der Karte des Reinigungsroboters ermöglicht.
  • Gemäß einer weiteren Ausführungsform kann im Schritt des Einfügens das Steuerungselement mit einem Abschnitt der Karte verknüpft werden, in dem die Komponente verortet wurde. Beispielsweise kann das Steuerungselement derart mit der Karte verknüpft werden, dass das Steuerungselement bei Berühren der Bedienoberfläche an einer der Komponente zugeordneten Stelle automatisch eingeblendet wird. Durch diese Ausführungsform kann eine manuelle Verknüpfung zwischen einem Ort der Komponente in der Karte und dem Steuerungselement entfallen.
  • Es ist vorteilhaft, wenn im Schritt des Verortens die Komponente durch Triangulation verortet wird. Dadurch kann die Komponente genau und effizient verortet werden.
  • Das Verfahren kann gemäß einer weiteren Ausführungsform einen Schritt des Empfangens eines eine Anwesenheit des Reinigungsroboters am Zielpunkt repräsentierenden Anwesenheitssignals umfassen. Dabei kann in einem Schritt des Ausgebens ein Aktivierungssignal zum Aktivieren der Komponente unter Verwendung des Anwesenheitssignals ausgegeben werden. Dadurch kann die Komponente in Abhängigkeit von der Anwesenheit des Reinigungsroboters am Zielpunkt aktiviert werden.
  • Der Reinigungsroboter kann ausgebildet sein, um unter Verwendung der Karte zumindest einen weiteren Zielpunkt in der Umgebung anzufahren. Hierbei ist es von Vorteil, wenn im Schritt des Einlesens zumindest eine weitere Verortungsinformation eingelesen wird, wobei die weitere Verortungsinformation eine beim Anfahren des weiteren Zielpunktes mittels des Sensors des Reinigungsroboters erfasste Aktion der Komponente oder, zusätzlich oder alternativ, eine beim Anfahren des weiteren Zielpunktes mittels des Sensors des Gebäudeautomationssystems erfasste Aktion des Reinigungsroboters repräsentiert. Dementsprechend kann im Schritt des Verortens die Komponente unter Verwendung der weiteren Verortungsinformation verortet werden. Dadurch wird eine besonders genaue Verortung der Komponente in der Karte des Reinigungsroboters ermöglicht.
  • Dieses Verfahren kann beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware, beispielsweise in einer Vorrichtung, implementiert sein.
  • Der hier vorgestellte Ansatz schafft ferner eine Vorrichtung, die ausgebildet ist, um die Schritte einer Variante eines hier vorgestellten Verfahrens in entsprechenden Einrichtungen durchzuführen, anzusteuern bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.
  • Unter einer Vorrichtung kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Die Vorrichtung kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen der Vorrichtung beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.
  • Des Weiteren schafft der hier beschriebene Ansatz einen Reinigungsroboter mit einer Vorrichtung gemäß einer vorstehenden Ausführungsform sowie ein Gebäudeautomationssystem mit einer Vorrichtung gemäß einer vorstehenden Ausführungsform.
  • Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.
  • Ein Ausführungsbeispiel der Erfindung ist in den Zeichnungen rein schematisch dargestellt und wird nachfolgend näher beschrieben. Es zeigt
    • 1 eine schematische Darstellung eines Reinigungsroboters gemäß einem Ausführungsbeispiel;
    • 2 eine schematische Darstellung einer Vorrichtung gemäß einem Ausführungsbeispiel;
    • 3 eine schematische Darstellung einer Bedienoberfläche gemäß einem Ausführungsbeispiel;
    • 4 eine schematische Darstellung einer Bedienoberfläche gemäß einem Ausführungsbeispiel;
    • 5 eine schematische Darstellung eines Verfahrens zum Erstellen einer Karte mittels eines Reinigungsroboters gemäß einem Ausführungsbeispiel; und
    • 6 eine schematische Darstellung eines Verfahrens zum Erstellen einer Bedienoberfläche zum Bedienen eines Gebäudeautomationssystems mittels eines Reinigungsroboters gemäß einem Ausführungsbeispiel.
  • 1 zeigt eine schematische Darstellung eines Reinigungsroboters 100 gemäß einem Ausführungsbeispiel. Der Reinigungsroboter 100 ist über eine geeignete Schnittstelle, etwa eine WLAN- oder Bluetooth-Verbindung, mit einem Gebäudeautomationssystem 102 verbunden. Um eine dem Gebäudeautomationssystem 102 zugeordnete Umgebung, etwa eine Wohnumgebung, abfahren zu können, ist der Reinigungsroboter 100 in der Lage, eine Karte der Umgebung zu erstellen, etwa mittels eines nachfolgend anhand von 3 beschriebenen Verfahrens. Dabei umfasst die von dem Reinigungsroboter 100 erstellte Karte zumindest einen Zielpunkt 106, der beim Abfahren der Umgebung angesteuert werden soll. Zum Erfassen der Umgebung ist der Reinigungsroboter 100 mit einem Sensor 108, beispielsweise einem optischen oder akustischen Sensor, ausgestattet.
  • Der Reinigungsroboter 100 weist eine Vorrichtung 110 zum Erstellen einer Bedienoberfläche zur Bedienung des Gebäudeautomationssystems 102 auf. Beim Anfahren des Zielpunktes 106 erfasst der Sensor 108 eine Aktion zumindest einer Komponente 112 des Gebäudeautomationssystems 102, etwa einer Leuchte oder eines Rollladens, und sendet eine die Aktion repräsentierende Verortungsinformation 114 an die Vorrichtung 110. Diese ist ausgebildet, um die Komponente 112 unter Verwendung der Verortungsinformation 114 in der Karte des Reinigungsroboters 100 zu verorten. Abhängig vom Ergebnis der Verortung fügt die Vorrichtung 110 zumindest ein Steuerungselement, etwa ein Bediensymbol, in die Karte ein und erstellt so eine grafische Bedienoberfläche zur einfachen und komfortablen Bedienung des Gebäudeautomationssystems 102. Dabei verknüpft die Vorrichtung 110 das Steuerungselement beispielsweise mit demjenigen Abschnitt der Karte, in dem die Komponente 112 unter Verwendung der Verortungsinformation 114 verortet wurde.
  • Optional ist die Vorrichtung 110 ausgebildet, um die derart erstellte Bedienoberfläche in Form entsprechender Kartendaten 116 an das Gebäudeautomationssystem 102 oder auch an ein sonstiges mit dem Reinigungsroboter 100 gekoppeltes Gerät, etwa ein Smartphone oder Tablet, zur Weiterverarbeitung zu übertragen.
  • Gemäß dem in 1 gezeigten Ausführungsbeispiel ist das Gebäudeautomationssystem 102 ausgebildet, um eine die Komponente 112 repräsentierende Komponenteninformation 118 an den Reinigungsroboter 100 zu senden. Die Komponenteninformation 118 enthält je nach Ausführungsbeispiel etwa Angaben zu einem Typ, einem Namen, einem Gruppennamen oder einem Raum der Komponente 112. Die Vorrichtung 110 ist ausgebildet, um die Komponenteninformation 118 einzulesen und diese zusätzlich zur Verortungsinformation 114 zur Verortung der Komponente 112 in der Karte des Reinigungsroboters 100 zu verwenden.
  • Gemäß einem weiteren Ausführungsbeispiel ist der Reinigungsroboter 100 ausgebildet, um beim Erreichen des Zielpunktes 106 ein Anwesenheitssignal 120, das die Anwesenheit des Reinigungsroboters 100 am Zielpunkt 106 anzeigt, an das Gebäudeautomationssystem 102 zu senden. Das Anwesenheitssignal 120 wird von dem Gebäudeautomationssystem 102 verwendet, um ein Aktivierungssignal 122 zum Aktivieren der Komponente 112 an die Komponente 112 zu senden, sodass die Komponente 112 erst dann aktiviert wird, wenn der Reinigungsroboter 100 am Zielpunkt 106 angelangt ist. Beispielsweise ist das Gebäudeautomationssystem 102 ausgebildet, um die Komponente 112 mittels des Aktivierungssignals 122 in einem bestimmten, vom Reinigungsroboter 100 mittels des Sensors 108 eindeutig und einfach wiederzuerkennenden Muster zu bewegen oder ein- oder auszuschalten. Alternativ erfolgt die Ausgabe des Aktivierungssignals 122 durch den Reinigungsroboter 100 selbst. Dadurch kann die Zuverlässigkeit der Verortung der Komponente 112 mittels des Reinigungsroboters 100 weiter erhöht werden.
  • Gemäß 1 ist der Reinigungsroboter 100 ausgebildet, um zumindest einen weiteren Zielpunkt 124 in der von ihm erstellten Karte der dem Gebäudeautomationssystem 102 zugeordneten Umgebung anzufahren. Beim Anfahren des weiteren Zielpunktes 124 erfasst der Sensor 108 wiederum eine Aktion der Komponente 112, die beispielsweise wiederum durch das Gebäudeautomationssystem 102 ausgelöst wird, sobald der Reinigungsroboter 100 den weiteren Zielpunkt 124 erreicht. Analog zum Zielpunkt 106 sendet der Sensor 108 eine entsprechende weitere Verortungsinformation 126 an die Vorrichtung 110, die diese zusätzlich zur Verortungsinformation 114 verwendet, um die Komponente 112 in der Karte des Reinigungsroboters 100 zu verorten. Insbesondere verwendet die Vorrichtung 110 die beiden Verortungsinformationen 114, 126, um den genauen Ort der Komponente 112 durch Triangulation zu ermitteln.
  • Der Reinigungsroboter 100 ist optional ausgebildet, um beim Erstellen der Karte zumindest einen die beiden Zielpunkte 106, 124 miteinander verbindenden Pfad 128 zu ermitteln.
  • Gemäß einem alternativen Ausführungsbeispiel ist die Vorrichtung 110 als Teil eines Steuergeräts des Gebäudeautomationssystems 102 realisiert. Dabei ist die Vorrichtung 110 beispielsweise ausgebildet, um den Reinigungsroboter 100 durch Ausgeben entsprechender Steuersignale 130 über die Schnittstelle zu den einzelnen Zielpunkten 106, 124 der Umgebung zu steuern und Aktionen des Reinigungsroboters 100 beim Erreichen der Zielpunkte 106, 124, etwa eine Bewegung des Reinigungsroboters 100 oder ein vom Reinigungsroboter 100 erzeugtes optisches oder akustisches Signal, mittels eines entsprechenden Sensors, der beispielsweise durch die Komponente 112 gebildet sein kann, in Form der Verortungsinformationen 114, 126 zu verarbeiten. Beispielsweise ist das Gebäudeautomationssystem 102 in der Lage, um die Aktionen des Reinigungsroboters 100 mittels der Steuersignale 130 in Abhängigkeit von einem Aufenthaltsort des Reinigungsroboters 100 in der Umgebung gezielt auszulösen. Zusätzlich empfängt die Vorrichtung 110 über die Schnittstelle beispielsweise die von dem Reinigungsroboter 100 erstellte Karte und verwendet diese zusammen mit den Verortungsinformationen 114, 126, um die Komponente 112 in der Karte zu verorten und zur Erstellung der Bedienoberfläche das der Komponente 112 zugeordnete Steuerungselement entsprechend der Verortung in die Karte einzufügen.
  • 2 zeigt eine schematische Darstellung einer Vorrichtung 110 gemäß einem Ausführungsbeispiel, beispielsweise einer vorangehend anhand von 1 beschriebenen Vorrichtung. Die Vorrichtung 110 umfasst eine Einleseeinheit 210 zum Einlesen der Verortungsinformation 114, eine Verortungseinheit 220 zum Verorten der Komponente des Gebäudeautomationssystems in der vom Reinigungsroboter erstellten Karte unter Verwendung der die Komponente repräsentierenden Verortungsinformation 114 sowie eine Erstellungseinheit 230 zum Erstellen der Bedienoberfläche durch Einfügen des der Komponente zugeordneten Steuerungselements in die Karte entsprechend einem von der Verortungseinheit 120 bereitgestellten Verortungsergebnis 232. Die Erstellungseinheit 230 ist zudem ausgebildet, um die Bedienoberfläche in Form der Kartendaten 116 auszugeben.
  • 3 zeigt eine schematische Darstellung einer Bedienoberfläche 300 gemäß einem Ausführungsbeispiel. Die Bedienoberfläche 300 wurde beispielsweise von einer vorangehend anhand der 1 und 2 beschriebenen Vorrichtung erstellt. Gemäß 3 ist die Bedienoberfläche 300 beispielhaft als eine Karte mit grafischen Darstellungen verschiedener Smart-Home-Aktoren des Gebäudeautomationssystems, hier von Rollläden 302 und Leuchten 304, ausgestaltet.
  • 4 zeigt eine schematische Darstellung einer Bedienoberfläche 300 gemäß einem Ausführungsbeispiel. Die Bedienoberfläche 300 gleicht der vorangehend anhand von 3 beschriebenen Bedienoberfläche, mit dem Unterschied, dass in 4 zusätzlich zwei je einer Komponente des Gebäudeautomationssystems zugeordnete Steuerungselemente 400, 402 eingeblendet sind, die zur Steuerung zweier Aktoren, hier beispielhaft eines Rollladens 302 und einer Leuchte 304, dienen.
  • Beispielsweise öffnet sich nach einem Klick auf den jeweiligen Smart-Home-Aktor in der Karte, etwa durch Berühren mit einem Finger, ein Overlay-Fenster mit den zugehörigen Steuerungselementen. Im Fall des Rollladens umfasst das erste Steuerungselement 400 beispielsweise ein erstes Bediensymbol zum Aufrollen des Rollladens und ein zweites Bediensymbol zum Abrollen des Rollladens. Im Fall der Leuchte umfasst das zweite Steuerungselement 402 beispielsweise ein erstes Bediensymbol zum Erhöhen der Helligkeit und ein zweites Bediensymbol zum Verringern der Helligkeit. Je nach Ausführungsbeispiel können die Steuerungselemente 400, 402 jeweils auch mehr als zwei und/oder andersartige Bediensymbole, z.B. auch Schiebe- oder Drehregler, Farbwähler usw., umfassen. Alternativ werden die Steuerungselemente 400, 402 direkt angezeigt, d. h. ohne erstmaliges Anwählen des betreffenden Aktors in der Karte. Gemäß einem weiteren Ausführungsbeispiel ist die Bedienoberfläche 300 derart ausgestaltet, dass beispielsweise der Rollladen in der Karte direkt mit dem Finger oder mit der Maus durch Ziehen und Ablegen hinaufgeschoben oder heruntergezogen werden kann.
  • 5 zeigt ein Ablaufdiagramm eines Verfahrens 500 zum Erstellen einer Karte mittels eines Reinigungsroboters gemäß einem Ausführungsbeispiel, etwa eines vorangehend anhand der 1 bis 4 beschriebenen Reinigungsroboters. Zunächst erfolgt in einem Schritt 502 eine Kartenerstellung durch ein SLAM-Verfahren. In einem weiteren Schritt 504 wird eine Schwellenwertberechnung durchgeführt. In einem Schritt 506 erfolgt die Generierung von Pfaden aus der Karte sowie die Berechnung verteilter Zielpunkte. Je nach Ausführungsbeispiel erfolgt die Pfadgenerierung in einem Schritt 508 mittels Skeleton oder in einem Schritt 510 mittels Voronoi-Tesselierung (nach Invertierung). Die Berechnung der verteilten Zielpunkte erfolgt entweder in einem Schritt 512 mittels Closing und Opening der Ergebnisse aus der Pfadberechnung (als Abkürzung für Ultimate Points) oder in einem Schritt 514 durch Berechnung von Ultimate Points. In einem Schritt 516 werden die Ergebnisse der Pfadgenerierung bzw. der Berechnung der Zielpunkte überlagert und weiterverarbeitet.
  • Auf den Pfaden kann der Reinigungsroboter nach einer Durchgangsprüfung sicher navigieren. Die Skeleton-Methode erzeugt mehr Pfade mit einer besseren Abdeckung der Karte. Die Zielpunkte liegen alle nahe an den berechneten Pfaden. Hier liefert die Ultimate-Points-Methode eine bessere Abdeckung. Eine Schwellenwertberechnung kann helfen, um die Anzahl der Ziele zu reduzieren.
  • Einzelne Versionen der Karte bei oder nach der Erstellung sind mit Quadraten mit dem Bezugszeichen 518 gekennzeichnet.
  • 6 zeigt ein Ablaufdiagramm eines Verfahrens 600 gemäß einem Ausführungsbeispiel. Das Verfahren 600 zum Erstellen einer Bedienoberfläche zum Bedienen eines Gebäudeautomationssystems mittels eines Reinigungsroboters kann beispielsweise von einer Vorrichtung, wie sie vorangehend anhand der 1 bis 5 beschrieben ist, durchgeführt werden. Dabei wird in einem Schritt 610 die Verortungsinformation eingelesen.
  • In einem weiteren Schritt 620 wird die Komponente des Gebäudeautomationssystems in der Karte des Reinigungsroboters unter Verwendung der Verortungsinformation verortet. In einem Schritt 630 wird die Bedienoberfläche erstellt, in dem ein entsprechendes Steuerungselement zum Steuern der Komponente abhängig von einem Ergebnis der Verortung in die Karte eingefügt wird.
  • Durch ein derartiges Verfahren kann der Reinigungsroboter in einem Smart Home, vorangehend auch Gebäudeautomationssystem genannt, weitestgehend autonom eine intuitiv zu bedienende Karte als Steuerung für das Smart Home erstellen. Je nach Ausführungsbeispiel kann dabei der Nutzer an jeder Stelle unterstützend eingreifen, sofern gewünscht.
  • Gemäß einem Ausführungsbeispiel umfasst das Verfahren 600 folgende Schritte. Voraussetzung dafür ist, dass der Reinigungsroboter und das Smart Home bereits in Betrieb genommen wurden und bei beiden eine Netzwerkverbindung eingerichtet wurde. Gegebenenfalls hat der Reinigungsroboter bereits auch die Karte des Gebäudes bzw. der Wohnung aufgebaut.
  • Zunächst scannt der Reinigungsroboter in einen ihm zugewiesenen IP-Segment, beispielsweise 192.168.1.*, alle 255 möglichen IP-Adressen auf bekannte Schnittstellen von Smart-Home-Systemen und vernetzten Geräten. Beispielsweise werden bei Verwendung von OpenHAB (Open Home Automation Bus) folgende Aufrufe gestartet, wobei auf Rückantworten gewartet wird:
    • http://192.168.1.0:8080/rest/items ... http://192.168.1.254:8080/rest/items
  • Gleichzeitig können auch andere Protokolle (HTTP, TCP/IP, UDP, WebSocket, etc. unterschiedlicher Hersteller) auf eine ähnliche Weise abgefragt werden. Diese Aufrufe veranlassen das System dazu, eine Gesamtliste aller dem Smart Home bekannten Sensoren und Aktoren und deren logische Gruppierung auszugeben. Auf mindestens einer Adresse wird es wahrscheinlich eine verwertbare Antwort geben, die weiter verarbeitet werden kann.
  • Dieser Scan wird mit weiteren Smart-Home-Schnittstellen fortgesetzt, die eventuell eine andere Aufrufstruktur aufweisen. Diese Aufrufe können dem Reinigungsroboter beispielsweise auch noch nach Auslieferung, etwa über eine Schnittstelle zur drahtlosen Kommunikation, mittels Softwareupdates nachgerüstet werden. Der Nutzer kann darüber hinaus gezielt IP-Adressen und Schnittstellen vorgeben, um diesen Prozess abzukürzen.
  • Hat der Reinigungsroboter den Scan der Systeme erfolgreich abgeschlossen, liegt eine Liste verfügbarer Sensoren und Aktoren vor. Im Fall von OpenHAB ist ein Aktor, etwa ein Rollladen, beispielsweise wie folgt im JSON-Format beschrieben:
{

"link":"http://192.168.1.100:8080/rest/items/Shutter_GF_Living",
"state":"1 00",
"type":"Rollershutterltem",

"name":"Shutter_GF_Living",
"label":"Livingroom",
"tags":[],
"groupNames": [
"GF _Living",
"Shutters"
},
...
  • An dem Beispiel ist zu erkennen, dass jedes Listenelement einen Typ hat, mit dem der Reinigungsroboter schon auf die semantische Bedeutung des Elements schließen kann. Optional wird über die Auswertung des Feldes „groupNames“ ein Graph erstellt, um damit auf die Zugehörigkeit der Elemente zueinander schließen zu können.
  • Um die gesammelten Elemente des Smart-Home-Systems in der Karte des Reinigungsroboters zu verorten, sollten Zielpunkte und Pfade zwischen den Zielen berechnet werden, mit denen der Reinigungsroboter sicher die gesamte Wohnumgebung abfahren und beobachten kann. Ein Flussdiagramm, das diese Berechnungen vereinfacht illustriert, ist beispielhaft in 5 gezeigt. Der Reinigungsroboter verfügt nun über eine Liste von Smart-Home-Elementen, vorangehend auch Komponenten genannt, und über eine Liste mit Zielpunkten, die durch ein Netz von Pfaden miteinander verbunden sind.
  • Die Liste der Zielpunkte wird Punkt für Punkt angefahren. An jedem Zielpunkt wird die Liste der vom Roboter mit Sensoren beobachtbaren Smart-Home-Elemente ein- oder mehrfach geschaltet, um beispielsweise in einem Kamerabild oder mit einem Mikrofon den jeweiligen Effekt zu beobachten. Für jeden Zielpunkt und jedes Element wird die Effektgröße, gegebenenfalls verknüpft mit einer Richtung, erfasst und in einer Kreuztabelle hinterlegt. Aus diesen Daten wird nun etwa durch Triangulation relativ genau ermittelt, an welchem Punkt in der Karte des Reinigungsroboters die Quelle des Effekts zu verorten ist.
  • Analog kann auch mit Sensoren des Smart-Home-Systems verfahren werden. Sofern der Reinigungsroboter in der Lage ist, Bewegungsmelder, Lichtsensoren, Lautstärkepegelmesser o. Ä. auszulösen, können auch diese in entsprechender Weise kartiert werden.
  • Gemäß einem Ausführungsbeispiel hat der Nutzer an dieser Stelle die Möglichkeit einzugreifen, um nur Teile der Element- oder Zielliste durch den Roboter abarbeiten zu lassen, etwa wenn dem Nutzer bekannt ist, dass in einem bestimmten Raum keine Smart-Home-Elemente verbaut sind, oder die Steuerung bestimmter Elemente durch den Nutzer nicht gewünscht sind.
  • An diesen Punkten werden beispielsweise in einer App des Reinigungsroboters passende Steuerungselemente für den jeweiligen Smart-Home-Aktor und entsprechende Anzeigen für Sensoren eingeblendet. Diese ermöglichen dem Nutzer nun eine intuitive Überwachung und Steuerung. Auch hier hat der Nutzer optional die Möglichkeit, das Ergebnis nach eigenen Vorstellungen zu bearbeiten und zu verändern.
  • Je nach Ausführungsbeispiel wird der Nutzer bei der Einrichtung des Smart-Home-Systems teilweise oder vollständig durch den Reinigungsroboter unterstützt. Somit kann eine aufwendige händische Einrichtung des Smart-Home-Systems entfallen, zumal eine solche Einrichtung ohne technisches Grundwissen sehr schwierig sein kann. Gleichzeitig erhält der Nutzer eine intuitiv zu bedienende Nutzerschnittstelle.
  • Mittels eines derartigen Verfahrens erstellte Karten und Interaktionsmöglichkeiten sind beispielhaft in den 3 und 4 dargestellt.
  • Reinigungsroboter und Smart-Home-Installationen werden am Markt bislang nicht als verknüpfbare Systeme betrachtet. Folglich generiert zwar der Reinigungsroboter eine Karte, diese kann aber nur im Roboterkontext genutzt werden. Umgekehrt ist es oft erforderlich, das Smart Home langwierig von Hand einzurichten, bis es sinnvoll funktioniert und steuerbar ist. Hier fehlt dann aber oft eine intuitive Darstellung für die Steuerung, die oft nur eine abstrakte Darstellung der Sensorwerte und Schalter beinhaltet. Mittels des hier vorgeschlagenen Ansatzes wird nun eine Kartendarstellung ermöglicht, durch die der Aufwand bei der Einrichtung auf ein Minimum reduziert werden kann. Durch die Nutzung von Synergien zwischen Reinigungsroboter und Smart Home kann dieses Problem weitgehend in Software gelöst werden.
  • Je nach Ausführungsbeispiel kann die Implementierung aufseiten des Reinigungsroboters wie auch aufseiten des Smart-Home-Systems erfolgen. Dabei kann das Smart-Home-System Kartenmaterial nutzen, das es über die API des Reinigungsroboters oder auch mehrerer Reinigungsroboter empfängt. Der Reinigungsroboter wird dabei durch das Smart-Home-System entsprechend gesteuert.
  • Claims (10)

    1. Verfahren (600) zum Erstellen einer Bedienoberfläche (300) zum Bedienen eines Gebäudeautomationssystems (102), wobei das Erstellen durch einen Reinigungsroboter (100) erfolgt, wobei der Reinigungsroboter (100) ausgebildet ist, um eine Karte (518) einer dem Gebäudeautomationssystem (102) zugeordneten Umgebung zu erstellen und unter Verwendung der Karte (518) zumindest einen Zielpunkt (106) in der Umgebung anzufahren, wobei das Verfahren (600) folgende Schritte umfasst: Einlesen (610) einer Verortungsinformation (114), die eine beim Anfahren des Zielpunktes (106) mittels eines Sensors (108) des Reinigungsroboters (100) erfasste Aktion zumindest einer Komponente (112) des Gebäudeautomationssystems (102)repräsentiert; Verorten (620) der Komponente (112) in der Karte (518) unter Verwendung der Verortungsinformation (114); und Einfügen (630) zumindest eines Steuerungselements (400, 402) zum Steuern der Komponente (112) in die Karte (518) abhängig von einem Ergebnis des Verortens (620), um die Bedienoberfläche (300) zu erstellen; und mit einem Schritt des Empfangens eines eine Anwesenheit des Reinigungsroboters (100) am Zielpunkt (106) repräsentierenden Anwesenheitssignals (120) und einem Schritt des Ausgebens eines Aktivierungssignals (122) zum Aktivieren der Komponente (112) unter Verwendung des Anwesenheitssignals (120).
    2. Verfahren (600) gemäß Anspruch 1, bei dem im Schritt des Einlesens (610) eine die Komponente (112) repräsentierende Komponenteninformation (118) eingelesen wird, wobei im Schritt des Verortens (620) die Komponente (112) unter Verwendung der Komponenteninformation (118) verortet wird.
    3. Verfahren (600) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt des Einfügens (630) das Steuerungselement (400, 402) mit einem Abschnitt der Karte (518) verknüpft wird, in dem die Komponente (112) verortet wurde.
    4. Verfahren (600) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt des Verortens (620) die Komponente (112) durch Triangulation verortet wird.
    5. Verfahren (600) gemäß einem der vorangegangenen Ansprüche, bei dem der Reinigungsroboter (100) ausgebildet ist, um unter Verwendung der Karte (518) zumindest einen weiteren Zielpunkt (124) in der Umgebung anzufahren, wobei im Schritt des Einlesens (610) zumindest eine weitere Verortungsinformation (126) eingelesen wird, wobei die weitere Verortungsinformation (126) eine beim Anfahren des weiteren Zielpunktes (124) mittels des Sensors (108) des Reinigungsroboters (100) erfasste Aktion der Komponente (112) repräsentiert, wobei im Schritt des Verortens (620) die Komponente (112) unter Verwendung der weiteren Verortungsinformation (126) verortet wird.
    6. Vorrichtung (110) mit Einheiten (210, 220, 230), die ausgebildet sind, um das Verfahren (600) gemäß einem der Ansprüche 1 bis 6 auszuführen.
    7. Reinigungsroboter (100) mit einer Vorrichtung (110) gemäß Anspruch 6.
    8. Gebäudeautomationssystem (102) mit einer Vorrichtung (110) gemäß Anspruch 6.
    9. Computerprogramm, das ausgebildet ist, um das Verfahren (600) gemäß einem der Ansprüche 1 bis 5 auszuführen und/oder anzusteuern.
    10. Maschinenlesbares Speichermedium, auf dem das Computerprogramm nach Anspruch 9 gespeichert ist.
    DE102016124894.0A 2016-12-20 2016-12-20 Verfahren und Vorrichtung zum Erstellen einer Bedienoberfläche zum Bedienen eines Gebäudeautomationssystems mittels eines Reinigungsroboters, Reinigungsroboter und Gebäudeautomationssystem Active DE102016124894B4 (de)

    Priority Applications (1)

    Application Number Priority Date Filing Date Title
    DE102016124894.0A DE102016124894B4 (de) 2016-12-20 2016-12-20 Verfahren und Vorrichtung zum Erstellen einer Bedienoberfläche zum Bedienen eines Gebäudeautomationssystems mittels eines Reinigungsroboters, Reinigungsroboter und Gebäudeautomationssystem

    Applications Claiming Priority (1)

    Application Number Priority Date Filing Date Title
    DE102016124894.0A DE102016124894B4 (de) 2016-12-20 2016-12-20 Verfahren und Vorrichtung zum Erstellen einer Bedienoberfläche zum Bedienen eines Gebäudeautomationssystems mittels eines Reinigungsroboters, Reinigungsroboter und Gebäudeautomationssystem

    Publications (2)

    Publication Number Publication Date
    DE102016124894A1 DE102016124894A1 (de) 2018-06-21
    DE102016124894B4 true DE102016124894B4 (de) 2021-06-10

    Family

    ID=62250732

    Family Applications (1)

    Application Number Title Priority Date Filing Date
    DE102016124894.0A Active DE102016124894B4 (de) 2016-12-20 2016-12-20 Verfahren und Vorrichtung zum Erstellen einer Bedienoberfläche zum Bedienen eines Gebäudeautomationssystems mittels eines Reinigungsroboters, Reinigungsroboter und Gebäudeautomationssystem

    Country Status (1)

    Country Link
    DE (1) DE102016124894B4 (de)

    Families Citing this family (1)

    * Cited by examiner, † Cited by third party
    Publication number Priority date Publication date Assignee Title
    DE102018211591A1 (de) * 2018-07-12 2020-01-16 BSH Hausgeräte GmbH Verfahren und Vorrichtung zur Ermittlung von Metadaten für Smart-Home Komponenten

    Citations (4)

    * Cited by examiner, † Cited by third party
    Publication number Priority date Publication date Assignee Title
    US20140324271A1 (en) * 2013-04-26 2014-10-30 Samsung Electronics Co., Ltd. Cleaning robot, home monitoring apparatus, and method for controlling the cleaning robot
    US20160005229A1 (en) * 2014-07-01 2016-01-07 Samsung Electronics Co., Ltd. Electronic device for providing map information
    DE102014113040A1 (de) * 2014-09-10 2016-03-10 Miele & Cie. Kg Verfahren zum Betrieb eines Haushaltsgerätesystems
    DE102015100419A1 (de) * 2015-01-13 2016-07-14 Miele & Cie. Kg Verfahren und Anordnung zum Bearbeiten von Bodenflächen

    Patent Citations (4)

    * Cited by examiner, † Cited by third party
    Publication number Priority date Publication date Assignee Title
    US20140324271A1 (en) * 2013-04-26 2014-10-30 Samsung Electronics Co., Ltd. Cleaning robot, home monitoring apparatus, and method for controlling the cleaning robot
    US20160005229A1 (en) * 2014-07-01 2016-01-07 Samsung Electronics Co., Ltd. Electronic device for providing map information
    DE102014113040A1 (de) * 2014-09-10 2016-03-10 Miele & Cie. Kg Verfahren zum Betrieb eines Haushaltsgerätesystems
    DE102015100419A1 (de) * 2015-01-13 2016-07-14 Miele & Cie. Kg Verfahren und Anordnung zum Bearbeiten von Bodenflächen

    Also Published As

    Publication number Publication date
    DE102016124894A1 (de) 2018-06-21

    Similar Documents

    Publication Publication Date Title
    DE102016113060A1 (de) Verfahren zum Steuern eines Objekts
    EP2710777B1 (de) Heimautomatisierungssteuerungssystem sowie verfahren zum steuern einer einrichtung eines heimautomatisierungssystems
    EP3414633A1 (de) Heimautomatisierungssystem
    DE102016102644A1 (de) Verfahren zur Steuerung eines autonomen mobilen Roboters
    EP3383598B1 (de) Manipulatorsystem und verfahren zur identifikation von bedienvorrichtungen
    EP3085204B1 (de) Beleuchtungssystem mit automatischer leuchtenidentifizierung zur ortsabhängigen leuchtenkonfiguration und verfahren zum betrieb eines beleuchtungssystems
    DE102011006062A1 (de) Verfahren zur autonomen Inspektion einer Umgebung oder Bearbeitung von Bodenflächen
    EP3644554B1 (de) Verfahren für eine entnahmeeinheit und zugehörige entnahmeeinheit
    DE102013203676A1 (de) Haushaltsgerät mit einer Lichtquelle und Verfahren zum Betreiben eines Haushaltsgerätes
    EP3175679A1 (de) Steuerungsanlage für ein beleuchtungssystem sowie verfahren zur konfiguration und inbetriebnahme derselben
    DE102016124894B4 (de) Verfahren und Vorrichtung zum Erstellen einer Bedienoberfläche zum Bedienen eines Gebäudeautomationssystems mittels eines Reinigungsroboters, Reinigungsroboter und Gebäudeautomationssystem
    EP3562730B1 (de) Verfahren zum automatisierten parken eines kraftfahrzeugs
    DE102018132921A1 (de) Verfahren zum Betreiben eines Feldgeräts der Automatisierungstechnik in einer Augmented-Reality/Mixed-Reality- Umgebung
    DE102017113612A1 (de) Autonomes Reinigungssystem und Reinigungsverfahren
    DE102019217769A1 (de) Fernaktivierung der Wireless-Service-Schnittstelle eines Steuergerätes über ein Bussystem
    EP3821314B1 (de) Verfahren und vorrichtung zur ermittlung von metadaten für smart-home komponenten
    DE102014217615A1 (de) Verfahren und Vorrichtung zur zentralen Bedienung von vernetzten elektrischen Geräten in einem Haus
    EP3995065A1 (de) Sich selbsttätig fortbewegendes reinigungsgerät
    EP2952984A2 (de) Verfahren zum Einstellen von Funktionalitäten eines Situationswächters sowie Gebäudeinstallation
    WO2016134935A1 (de) Verfahren und system zur projektion von information in einem raum
    DE102014104291A1 (de) Einrichtung zur Steuerung der Haustechnik in Gebäuden
    EP3156890A1 (de) Infotainmentsystem für fahrzeuge unter verwendung eines tragbaren endgerätes
    DE102018207291A1 (de) Verfahren zum Steuern eines Geräts
    DE102021214206A1 (de) Autonomes mobiles Arbeitsgerät
    DE102014115284A1 (de) Bedienvorrichtung zur Funktionseinstellung eines elektrischen Geräts und Verfahren zur Funktionseinstellung eines elektrischen Geräts mittels einer Bedienvorrichtung

    Legal Events

    Date Code Title Description
    R012 Request for examination validly filed
    R016 Response to examination communication
    R084 Declaration of willingness to licence
    R018 Grant decision by examination section/examining division
    R020 Patent grant now final
    R079 Amendment of ipc main class

    Free format text: PREVIOUS MAIN CLASS: G05D0001020000

    Ipc: G05D0001430000