DE102016124894B4 - Verfahren und Vorrichtung zum Erstellen einer Bedienoberfläche zum Bedienen eines Gebäudeautomationssystems mittels eines Reinigungsroboters, Reinigungsroboter und Gebäudeautomationssystem - Google Patents
Verfahren und Vorrichtung zum Erstellen einer Bedienoberfläche zum Bedienen eines Gebäudeautomationssystems mittels eines Reinigungsroboters, Reinigungsroboter und Gebäudeautomationssystem Download PDFInfo
- Publication number
- DE102016124894B4 DE102016124894B4 DE102016124894.0A DE102016124894A DE102016124894B4 DE 102016124894 B4 DE102016124894 B4 DE 102016124894B4 DE 102016124894 A DE102016124894 A DE 102016124894A DE 102016124894 B4 DE102016124894 B4 DE 102016124894B4
- Authority
- DE
- Germany
- Prior art keywords
- cleaning robot
- component
- map
- building automation
- automation system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004140 cleaning Methods 0.000 title claims abstract description 104
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000009471 action Effects 0.000 claims abstract description 12
- 230000004913 activation Effects 0.000 claims abstract description 6
- 230000003213 activating effect Effects 0.000 claims abstract description 3
- 238000004590 computer program Methods 0.000 claims description 5
- 238000013459 approach Methods 0.000 description 7
- 230000004807 localization Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 239000000463 material Substances 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000005096 rolling process Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0016—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B15/00—Systems controlled by a computer
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B15/00—Systems controlled by a computer
- G05B15/02—Systems controlled by a computer electric
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/04—Programme control other than numerical control, i.e. in sequence controllers or logic controllers
- G05B19/042—Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/20—Pc systems
- G05B2219/26—Pc applications
- G05B2219/2642—Domotique, domestic, home control, automation, smart house
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Electric Vacuum Cleaner (AREA)
Abstract
Verfahren (600) zum Erstellen einer Bedienoberfläche (300) zum Bedienen eines Gebäudeautomationssystems (102), wobei das Erstellen durch einen Reinigungsroboter (100) erfolgt, wobei der Reinigungsroboter (100) ausgebildet ist, um eine Karte (518) einer dem Gebäudeautomationssystem (102) zugeordneten Umgebung zu erstellen und unter Verwendung der Karte (518) zumindest einen Zielpunkt (106) in der Umgebung anzufahren, wobei das Verfahren (600) folgende Schritte umfasst:Einlesen (610) einer Verortungsinformation (114), die eine beim Anfahren des Zielpunktes (106) mittels eines Sensors (108) des Reinigungsroboters (100) erfasste Aktion zumindest einer Komponente (112) des Gebäudeautomationssystems (102)repräsentiert;Verorten (620) der Komponente (112) in der Karte (518) unter Verwendung der Verortungsinformation (114); undEinfügen (630) zumindest eines Steuerungselements (400, 402) zum Steuern der Komponente (112) in die Karte (518) abhängig von einem Ergebnis des Verortens (620), um die Bedienoberfläche (300) zu erstellen; undmit einem Schritt des Empfangens eines eine Anwesenheit des Reinigungsroboters (100) am Zielpunkt (106) repräsentierenden Anwesenheitssignals (120) und einem Schritt des Ausgebens eines Aktivierungssignals (122) zum Aktivieren der Komponente (112) unter Verwendung des Anwesenheitssignals (120).
Description
- Die Erfindung betrifft ein Verfahren zum Erstellen einer Bedienoberfläche zum Bedienen eines Gebäudeautomationssystems mittels eines Reinigungsroboters, eine entsprechende Vorrichtung, ein entsprechendes Computerprogramm, einen Reinigungsroboter sowie ein Gebäudeautomationssystem.
- Es sind Saugroboter bekannt, die beim Saugen autonom eine Karte ihrer Umgebung aufbauen können. Diese Karte kann beispielsweise auf einem mobilen Gerät wie einem Smartphone oder Tablet angezeigt werden.
- Ferner sind sogenannte Smart-Home-Systeme zur Gebäudeautomation bekannt, deren Steuerungen händisch zusammengestellt werden können. Insbesondere die logische Verknüpfung und Gruppierung zu Räumen wird dabei typischerweise vom Benutzer vorgenommen.
- Aus der US 2014 / 0 324 271 A1 ist ein Verfahren zur Erstellung der Bedienoberfläche eines Gebäudeautomatisierungssystems bekannt, wobei die Erstellung durch einen Reinigungsroboter erfolgt. Dabei erfasst der Reinigungsroboter mit einem Sensor Komponenten des Gebäudeautomatisationssystems und verortet diese Komponenten in einer Karte der dem Gebäudeautomatisationssystem zugeordneten Umgebung. In der Karte werden dabei in Abhängigkeit vom Verorten der Komponenten durch den Reinigungsroboter Steuerungselemente zum Steuern der Komponenten eingefügt.
- Vor diesem Hintergrund stellt sich die vorliegende Erfindung die Aufgabe, ein verbessertes Verfahren und eine verbesserte Vorrichtung zum Erstellen einer Bedienoberfläche zum Bedienen eines Gebäudeautomationssystems, einen verbesserten Reinigungsroboter sowie ein verbessertes Gebäudeautomationssystem zu schaffen.
- Erfindungsgemäß wird diese Aufgabe durch ein Verfahren, eine Vorrichtung, einen Reinigungsroboter und ein Gebäudeautomationssystem mit den Merkmalen der Hauptansprüche gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen der Erfindung ergeben sich aus den nachfolgenden Unteransprüchen.
- Es wird ein Verfahren zum, vorzugsweise autonomen, Erstellen einer Bedienoberfläche zum Bedienen eines Gebäudeautomationssystems mittels eines Reinigungsroboters vorgestellt, wobei der Reinigungsroboter ausgebildet ist, um eine Karte einer dem Gebäudeautomationssystem zugeordneten Umgebung zu erstellen und unter Verwendung der Karte zumindest einen Zielpunkt in der Umgebung anzufahren, wobei das Verfahren folgende Schritte umfasst:
- Einlesen einer Verortungsinformation, die eine beim Anfahren des Zielpunktes mittels eines Sensors des Reinigungsroboters erfasste Aktion zumindest einer Komponente des Gebäudeautomationssystems und/oder eine beim Anfahren des Zielpunktes mittels eines Sensors des Gebäudeautomationssystems erfasste Aktion des Reinigungsroboters repräsentiert;
- Verorten der Komponente in der Karte unter Verwendung der Verortungsinformation; und
Einfügen zumindest eines Steuerungselements zum Steuern der Komponente in die Karte abhängig von einem Ergebnis des Verortens, um die Bedienoberfläche zu erstellen. - Unter einer Bedienoberfläche kann beispielsweise eine Steuerungskarte mit Bediensymbolen zum Steuern einzelner Komponenten des Gebäudeautomationssystems verstanden werden. Die Bedienoberfläche kann beispielsweise auf einem berührungsempfindlichen Bildschirm, der Teil des Reinigungsroboters, eines Smartphones oder eines Tablets sein kann, angezeigt werden, sodass ein Benutzer in der Lage ist, das Gebäudeautomationssystem durch Berühren der Bediensymbole zu steuern. Unter einem Gebäudeautomationssystem, auch Smart Home oder intelligentes Wohnen genannt, kann ein System zur Vernetzung von Geräten, Leuchten und Tastern in einem Gebäude, insbesondere einer Wohnumgebung, verstanden werden. Bei den vernetzten Geräten, auch Komponenten des Gebäudeautomationssystems genannt, kann es sich beispielsweise um Geräte der Haustechnik, um Haushaltsgeräte, beispielsweise Rollläden, Heizkörper, Herde, Kühlschränke oder Waschmaschinen, oder um Geräte der Unterhaltungselektronik handeln. Bei der Komponente kann es sich entweder um einen Aktor oder einen Sensor handeln. Beispielsweise kann die Komponente fernsteuerbar sein. Unter einem Reinigungsroboter kann ein Bodenpflegegerät verstanden werden, das ausgebildet ist, um Räume autonom zu reinigen. Der Reinigungsroboter kann ausgebildet sein, um die Umgebung des Gebäudeautomationssystems, beispielsweise eine Wohnumgebung, mittels der von ihm erstellten Karte selbstständig abzufahren. Die Karte kann beispielsweise in einem SLAM-Verfahren (SLAM = Simultaneous Localization And Mapping; „simultane Lokalisierung und Kartenerstellung“) von dem Reinigungsroboter erstellt worden sein. Unter einem Zielpunkt kann ein von dem Reinigungsroboter anzufahrender Ort in der Karte verstanden werden, dessen Koordinaten dem Reinigungsroboter bekannt sind.
- Unter einer Verarbeitungsinformation kann ein von dem Sensor des Reinigungsroboters bzw. von dem Sensor des Gebäudeautomationssystems erfasstes optisches oder akustisches Signal verstanden werden, das einen bestimmten durch die Komponente hervorgerufenen Effekt repräsentieren kann, wie er etwa beim Ein- und Ausschalten einer Leuchte oder beim Auf- und Abrollen eines Rollladens entsteht.
- Bei dem Sensor des Gebäudeautomationssystems kann es sich beispielsweise um die zu verortende Komponente des Gebäudeautomationssystems handeln.
- Unter einem Steuerungselement kann beispielsweise ein Bedienelement verstanden werden, das je nach Ausführungsform Schalter oder Taster zum Steuern der Komponente grafisch nachbildet. Die Bedienoberfläche kann beispielsweise dadurch erstellt werden, dass das Steuerungselement in der Karte des Reinigungsroboters eingeblendet wird, beispielsweise an einer Stelle der Karte, an dem die Komponente mittels der Verortungsinformation verortet wurde.
- Der hier beschriebene Ansatz beruht auf der Erkenntnis, dass eine Kartendarstellung eines Reinigungsroboters, etwa eines Saugroboters oder eines sonstigen Serviceroboters, um interaktive Steuerungselemente für ein Smart-Home-System erweitert werden kann.
- Durch Verwendung des Kartenmaterials des Reinigungsroboters kann eine umständliche, unter Umständen komplett von Hand durchzuführende Einrichtung des Smart-Home-Systems durch dessen Benutzer vermieden werden und somit der Bedienkomfort des Smart-Home-Systems deutlich gesteigert werden. Dadurch kann eine anschauliche Steuerungsoberfläche realisiert werden, die der jeweiligen Wohnsituation in besonderem Maße gerecht wird. Vor allem ein als Karte dargestelltes Smart-Home-Interface kommt dem Verständnis des Benutzers sehr entgegen.
- Durch den Reinigungsroboter kann die Erstellung einer solchen interaktiven Steuerungskarte automatisiert werden. Dabei kann der Reinigungsroboter autonom Steuerungselemente für seine jeweilige Karte erstellen, mit denen das Smart-Home-System intuitiver gesteuert werden kann. Das Kartenmaterial kann beispielsweise bereits vom Reinigungsroboter nach verschiedenen Algorithmen, die etwa das SLAM-Problem lösen, erstellt und per Wi-Fi zur Weiterverarbeitung bereitgestellt werden. Beispielsweise kann der Reinigungsroboter mit demselben Netzwerk wie eine Steuerung des Smart-Home-Systems verbunden sein. Dabei kann das Netzwerk lokal oder vom Anbieter der Smart-Home-System-Steuerung über das Internet bereitgestellt sein.
- Gemäß einer Ausführungsform kann im Schritt des Einlesens eine die Komponente repräsentierende Komponenteninformation eingelesen werden. Im Schritt des Verortens kann die Komponente unter Verwendung der Komponenteninformation verortet werden. Unter einer Komponenteninformation kann eine Information verstanden werden, durch die der Reinigungsroboter auf eine semantische Bedeutung der Komponente schließen kann. Beispielsweise kann die Komponenteninformation Angaben zu einem Typ, einem Namen, einem Gruppennamen oder einem Raum der Komponente umfassen. Durch diese Ausführungsform wird eine zuverlässige und genaue Verortung der Komponente in der Karte des Reinigungsroboters ermöglicht.
- Gemäß einer weiteren Ausführungsform kann im Schritt des Einfügens das Steuerungselement mit einem Abschnitt der Karte verknüpft werden, in dem die Komponente verortet wurde. Beispielsweise kann das Steuerungselement derart mit der Karte verknüpft werden, dass das Steuerungselement bei Berühren der Bedienoberfläche an einer der Komponente zugeordneten Stelle automatisch eingeblendet wird. Durch diese Ausführungsform kann eine manuelle Verknüpfung zwischen einem Ort der Komponente in der Karte und dem Steuerungselement entfallen.
- Es ist vorteilhaft, wenn im Schritt des Verortens die Komponente durch Triangulation verortet wird. Dadurch kann die Komponente genau und effizient verortet werden.
- Das Verfahren kann gemäß einer weiteren Ausführungsform einen Schritt des Empfangens eines eine Anwesenheit des Reinigungsroboters am Zielpunkt repräsentierenden Anwesenheitssignals umfassen. Dabei kann in einem Schritt des Ausgebens ein Aktivierungssignal zum Aktivieren der Komponente unter Verwendung des Anwesenheitssignals ausgegeben werden. Dadurch kann die Komponente in Abhängigkeit von der Anwesenheit des Reinigungsroboters am Zielpunkt aktiviert werden.
- Der Reinigungsroboter kann ausgebildet sein, um unter Verwendung der Karte zumindest einen weiteren Zielpunkt in der Umgebung anzufahren. Hierbei ist es von Vorteil, wenn im Schritt des Einlesens zumindest eine weitere Verortungsinformation eingelesen wird, wobei die weitere Verortungsinformation eine beim Anfahren des weiteren Zielpunktes mittels des Sensors des Reinigungsroboters erfasste Aktion der Komponente oder, zusätzlich oder alternativ, eine beim Anfahren des weiteren Zielpunktes mittels des Sensors des Gebäudeautomationssystems erfasste Aktion des Reinigungsroboters repräsentiert. Dementsprechend kann im Schritt des Verortens die Komponente unter Verwendung der weiteren Verortungsinformation verortet werden. Dadurch wird eine besonders genaue Verortung der Komponente in der Karte des Reinigungsroboters ermöglicht.
- Dieses Verfahren kann beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware, beispielsweise in einer Vorrichtung, implementiert sein.
- Der hier vorgestellte Ansatz schafft ferner eine Vorrichtung, die ausgebildet ist, um die Schritte einer Variante eines hier vorgestellten Verfahrens in entsprechenden Einrichtungen durchzuführen, anzusteuern bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.
- Unter einer Vorrichtung kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Die Vorrichtung kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen der Vorrichtung beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.
- Des Weiteren schafft der hier beschriebene Ansatz einen Reinigungsroboter mit einer Vorrichtung gemäß einer vorstehenden Ausführungsform sowie ein Gebäudeautomationssystem mit einer Vorrichtung gemäß einer vorstehenden Ausführungsform.
- Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.
- Ein Ausführungsbeispiel der Erfindung ist in den Zeichnungen rein schematisch dargestellt und wird nachfolgend näher beschrieben. Es zeigt
-
1 eine schematische Darstellung eines Reinigungsroboters gemäß einem Ausführungsbeispiel; -
2 eine schematische Darstellung einer Vorrichtung gemäß einem Ausführungsbeispiel; -
3 eine schematische Darstellung einer Bedienoberfläche gemäß einem Ausführungsbeispiel; -
4 eine schematische Darstellung einer Bedienoberfläche gemäß einem Ausführungsbeispiel; -
5 eine schematische Darstellung eines Verfahrens zum Erstellen einer Karte mittels eines Reinigungsroboters gemäß einem Ausführungsbeispiel; und -
6 eine schematische Darstellung eines Verfahrens zum Erstellen einer Bedienoberfläche zum Bedienen eines Gebäudeautomationssystems mittels eines Reinigungsroboters gemäß einem Ausführungsbeispiel. -
1 zeigt eine schematische Darstellung eines Reinigungsroboters100 gemäß einem Ausführungsbeispiel. Der Reinigungsroboter100 ist über eine geeignete Schnittstelle, etwa eine WLAN- oder Bluetooth-Verbindung, mit einem Gebäudeautomationssystem102 verbunden. Um eine dem Gebäudeautomationssystem102 zugeordnete Umgebung, etwa eine Wohnumgebung, abfahren zu können, ist der Reinigungsroboter100 in der Lage, eine Karte der Umgebung zu erstellen, etwa mittels eines nachfolgend anhand von3 beschriebenen Verfahrens. Dabei umfasst die von dem Reinigungsroboter100 erstellte Karte zumindest einen Zielpunkt106 , der beim Abfahren der Umgebung angesteuert werden soll. Zum Erfassen der Umgebung ist der Reinigungsroboter100 mit einem Sensor108 , beispielsweise einem optischen oder akustischen Sensor, ausgestattet. - Der Reinigungsroboter
100 weist eine Vorrichtung110 zum Erstellen einer Bedienoberfläche zur Bedienung des Gebäudeautomationssystems102 auf. Beim Anfahren des Zielpunktes106 erfasst der Sensor108 eine Aktion zumindest einer Komponente112 des Gebäudeautomationssystems102 , etwa einer Leuchte oder eines Rollladens, und sendet eine die Aktion repräsentierende Verortungsinformation114 an die Vorrichtung110 . Diese ist ausgebildet, um die Komponente112 unter Verwendung der Verortungsinformation114 in der Karte des Reinigungsroboters100 zu verorten. Abhängig vom Ergebnis der Verortung fügt die Vorrichtung110 zumindest ein Steuerungselement, etwa ein Bediensymbol, in die Karte ein und erstellt so eine grafische Bedienoberfläche zur einfachen und komfortablen Bedienung des Gebäudeautomationssystems102 . Dabei verknüpft die Vorrichtung110 das Steuerungselement beispielsweise mit demjenigen Abschnitt der Karte, in dem die Komponente112 unter Verwendung der Verortungsinformation114 verortet wurde. - Optional ist die Vorrichtung
110 ausgebildet, um die derart erstellte Bedienoberfläche in Form entsprechender Kartendaten116 an das Gebäudeautomationssystem102 oder auch an ein sonstiges mit dem Reinigungsroboter100 gekoppeltes Gerät, etwa ein Smartphone oder Tablet, zur Weiterverarbeitung zu übertragen. - Gemäß dem in
1 gezeigten Ausführungsbeispiel ist das Gebäudeautomationssystem102 ausgebildet, um eine die Komponente112 repräsentierende Komponenteninformation118 an den Reinigungsroboter100 zu senden. Die Komponenteninformation118 enthält je nach Ausführungsbeispiel etwa Angaben zu einem Typ, einem Namen, einem Gruppennamen oder einem Raum der Komponente112 . Die Vorrichtung110 ist ausgebildet, um die Komponenteninformation118 einzulesen und diese zusätzlich zur Verortungsinformation114 zur Verortung der Komponente112 in der Karte des Reinigungsroboters100 zu verwenden. - Gemäß einem weiteren Ausführungsbeispiel ist der Reinigungsroboter
100 ausgebildet, um beim Erreichen des Zielpunktes106 ein Anwesenheitssignal120 , das die Anwesenheit des Reinigungsroboters100 am Zielpunkt106 anzeigt, an das Gebäudeautomationssystem102 zu senden. Das Anwesenheitssignal120 wird von dem Gebäudeautomationssystem102 verwendet, um ein Aktivierungssignal122 zum Aktivieren der Komponente112 an die Komponente112 zu senden, sodass die Komponente112 erst dann aktiviert wird, wenn der Reinigungsroboter100 am Zielpunkt106 angelangt ist. Beispielsweise ist das Gebäudeautomationssystem102 ausgebildet, um die Komponente112 mittels des Aktivierungssignals122 in einem bestimmten, vom Reinigungsroboter100 mittels des Sensors108 eindeutig und einfach wiederzuerkennenden Muster zu bewegen oder ein- oder auszuschalten. Alternativ erfolgt die Ausgabe des Aktivierungssignals122 durch den Reinigungsroboter100 selbst. Dadurch kann die Zuverlässigkeit der Verortung der Komponente112 mittels des Reinigungsroboters100 weiter erhöht werden. - Gemäß
1 ist der Reinigungsroboter100 ausgebildet, um zumindest einen weiteren Zielpunkt124 in der von ihm erstellten Karte der dem Gebäudeautomationssystem102 zugeordneten Umgebung anzufahren. Beim Anfahren des weiteren Zielpunktes124 erfasst der Sensor108 wiederum eine Aktion der Komponente112 , die beispielsweise wiederum durch das Gebäudeautomationssystem102 ausgelöst wird, sobald der Reinigungsroboter100 den weiteren Zielpunkt124 erreicht. Analog zum Zielpunkt106 sendet der Sensor108 eine entsprechende weitere Verortungsinformation126 an die Vorrichtung110 , die diese zusätzlich zur Verortungsinformation114 verwendet, um die Komponente112 in der Karte des Reinigungsroboters100 zu verorten. Insbesondere verwendet die Vorrichtung110 die beiden Verortungsinformationen114 ,126 , um den genauen Ort der Komponente112 durch Triangulation zu ermitteln. - Der Reinigungsroboter
100 ist optional ausgebildet, um beim Erstellen der Karte zumindest einen die beiden Zielpunkte106 ,124 miteinander verbindenden Pfad128 zu ermitteln. - Gemäß einem alternativen Ausführungsbeispiel ist die Vorrichtung
110 als Teil eines Steuergeräts des Gebäudeautomationssystems102 realisiert. Dabei ist die Vorrichtung110 beispielsweise ausgebildet, um den Reinigungsroboter100 durch Ausgeben entsprechender Steuersignale130 über die Schnittstelle zu den einzelnen Zielpunkten106 ,124 der Umgebung zu steuern und Aktionen des Reinigungsroboters100 beim Erreichen der Zielpunkte106 ,124 , etwa eine Bewegung des Reinigungsroboters100 oder ein vom Reinigungsroboter100 erzeugtes optisches oder akustisches Signal, mittels eines entsprechenden Sensors, der beispielsweise durch die Komponente112 gebildet sein kann, in Form der Verortungsinformationen114 ,126 zu verarbeiten. Beispielsweise ist das Gebäudeautomationssystem102 in der Lage, um die Aktionen des Reinigungsroboters100 mittels der Steuersignale130 in Abhängigkeit von einem Aufenthaltsort des Reinigungsroboters100 in der Umgebung gezielt auszulösen. Zusätzlich empfängt die Vorrichtung110 über die Schnittstelle beispielsweise die von dem Reinigungsroboter100 erstellte Karte und verwendet diese zusammen mit den Verortungsinformationen114 ,126 , um die Komponente112 in der Karte zu verorten und zur Erstellung der Bedienoberfläche das der Komponente112 zugeordnete Steuerungselement entsprechend der Verortung in die Karte einzufügen. -
2 zeigt eine schematische Darstellung einer Vorrichtung110 gemäß einem Ausführungsbeispiel, beispielsweise einer vorangehend anhand von1 beschriebenen Vorrichtung. Die Vorrichtung110 umfasst eine Einleseeinheit210 zum Einlesen der Verortungsinformation114 , eine Verortungseinheit220 zum Verorten der Komponente des Gebäudeautomationssystems in der vom Reinigungsroboter erstellten Karte unter Verwendung der die Komponente repräsentierenden Verortungsinformation114 sowie eine Erstellungseinheit230 zum Erstellen der Bedienoberfläche durch Einfügen des der Komponente zugeordneten Steuerungselements in die Karte entsprechend einem von der Verortungseinheit120 bereitgestellten Verortungsergebnis232 . Die Erstellungseinheit230 ist zudem ausgebildet, um die Bedienoberfläche in Form der Kartendaten116 auszugeben. -
3 zeigt eine schematische Darstellung einer Bedienoberfläche300 gemäß einem Ausführungsbeispiel. Die Bedienoberfläche300 wurde beispielsweise von einer vorangehend anhand der1 und2 beschriebenen Vorrichtung erstellt. Gemäß3 ist die Bedienoberfläche300 beispielhaft als eine Karte mit grafischen Darstellungen verschiedener Smart-Home-Aktoren des Gebäudeautomationssystems, hier von Rollläden302 und Leuchten304 , ausgestaltet. -
4 zeigt eine schematische Darstellung einer Bedienoberfläche300 gemäß einem Ausführungsbeispiel. Die Bedienoberfläche300 gleicht der vorangehend anhand von3 beschriebenen Bedienoberfläche, mit dem Unterschied, dass in4 zusätzlich zwei je einer Komponente des Gebäudeautomationssystems zugeordnete Steuerungselemente400 ,402 eingeblendet sind, die zur Steuerung zweier Aktoren, hier beispielhaft eines Rollladens302 und einer Leuchte304 , dienen. - Beispielsweise öffnet sich nach einem Klick auf den jeweiligen Smart-Home-Aktor in der Karte, etwa durch Berühren mit einem Finger, ein Overlay-Fenster mit den zugehörigen Steuerungselementen. Im Fall des Rollladens umfasst das erste Steuerungselement
400 beispielsweise ein erstes Bediensymbol zum Aufrollen des Rollladens und ein zweites Bediensymbol zum Abrollen des Rollladens. Im Fall der Leuchte umfasst das zweite Steuerungselement402 beispielsweise ein erstes Bediensymbol zum Erhöhen der Helligkeit und ein zweites Bediensymbol zum Verringern der Helligkeit. Je nach Ausführungsbeispiel können die Steuerungselemente400 ,402 jeweils auch mehr als zwei und/oder andersartige Bediensymbole, z.B. auch Schiebe- oder Drehregler, Farbwähler usw., umfassen. Alternativ werden die Steuerungselemente400 ,402 direkt angezeigt, d. h. ohne erstmaliges Anwählen des betreffenden Aktors in der Karte. Gemäß einem weiteren Ausführungsbeispiel ist die Bedienoberfläche300 derart ausgestaltet, dass beispielsweise der Rollladen in der Karte direkt mit dem Finger oder mit der Maus durch Ziehen und Ablegen hinaufgeschoben oder heruntergezogen werden kann. -
5 zeigt ein Ablaufdiagramm eines Verfahrens500 zum Erstellen einer Karte mittels eines Reinigungsroboters gemäß einem Ausführungsbeispiel, etwa eines vorangehend anhand der1 bis4 beschriebenen Reinigungsroboters. Zunächst erfolgt in einem Schritt502 eine Kartenerstellung durch ein SLAM-Verfahren. In einem weiteren Schritt504 wird eine Schwellenwertberechnung durchgeführt. In einem Schritt506 erfolgt die Generierung von Pfaden aus der Karte sowie die Berechnung verteilter Zielpunkte. Je nach Ausführungsbeispiel erfolgt die Pfadgenerierung in einem Schritt508 mittels Skeleton oder in einem Schritt510 mittels Voronoi-Tesselierung (nach Invertierung). Die Berechnung der verteilten Zielpunkte erfolgt entweder in einem Schritt512 mittels Closing und Opening der Ergebnisse aus der Pfadberechnung (als Abkürzung für Ultimate Points) oder in einem Schritt514 durch Berechnung von Ultimate Points. In einem Schritt516 werden die Ergebnisse der Pfadgenerierung bzw. der Berechnung der Zielpunkte überlagert und weiterverarbeitet. - Auf den Pfaden kann der Reinigungsroboter nach einer Durchgangsprüfung sicher navigieren. Die Skeleton-Methode erzeugt mehr Pfade mit einer besseren Abdeckung der Karte. Die Zielpunkte liegen alle nahe an den berechneten Pfaden. Hier liefert die Ultimate-Points-Methode eine bessere Abdeckung. Eine Schwellenwertberechnung kann helfen, um die Anzahl der Ziele zu reduzieren.
- Einzelne Versionen der Karte bei oder nach der Erstellung sind mit Quadraten mit dem Bezugszeichen
518 gekennzeichnet. -
6 zeigt ein Ablaufdiagramm eines Verfahrens600 gemäß einem Ausführungsbeispiel. Das Verfahren600 zum Erstellen einer Bedienoberfläche zum Bedienen eines Gebäudeautomationssystems mittels eines Reinigungsroboters kann beispielsweise von einer Vorrichtung, wie sie vorangehend anhand der1 bis5 beschrieben ist, durchgeführt werden. Dabei wird in einem Schritt610 die Verortungsinformation eingelesen. - In einem weiteren Schritt
620 wird die Komponente des Gebäudeautomationssystems in der Karte des Reinigungsroboters unter Verwendung der Verortungsinformation verortet. In einem Schritt630 wird die Bedienoberfläche erstellt, in dem ein entsprechendes Steuerungselement zum Steuern der Komponente abhängig von einem Ergebnis der Verortung in die Karte eingefügt wird. - Durch ein derartiges Verfahren kann der Reinigungsroboter in einem Smart Home, vorangehend auch Gebäudeautomationssystem genannt, weitestgehend autonom eine intuitiv zu bedienende Karte als Steuerung für das Smart Home erstellen. Je nach Ausführungsbeispiel kann dabei der Nutzer an jeder Stelle unterstützend eingreifen, sofern gewünscht.
- Gemäß einem Ausführungsbeispiel umfasst das Verfahren
600 folgende Schritte. Voraussetzung dafür ist, dass der Reinigungsroboter und das Smart Home bereits in Betrieb genommen wurden und bei beiden eine Netzwerkverbindung eingerichtet wurde. Gegebenenfalls hat der Reinigungsroboter bereits auch die Karte des Gebäudes bzw. der Wohnung aufgebaut. - Zunächst scannt der Reinigungsroboter in einen ihm zugewiesenen IP-Segment, beispielsweise 192.168.1.*, alle 255 möglichen IP-Adressen auf bekannte Schnittstellen von Smart-Home-Systemen und vernetzten Geräten. Beispielsweise werden bei Verwendung von OpenHAB (Open Home Automation Bus) folgende Aufrufe gestartet, wobei auf Rückantworten gewartet wird:
- http://192.168.1.0:8080/rest/items ... http://192.168.1.254:8080/rest/items
- Gleichzeitig können auch andere Protokolle (HTTP, TCP/IP, UDP, WebSocket, etc. unterschiedlicher Hersteller) auf eine ähnliche Weise abgefragt werden. Diese Aufrufe veranlassen das System dazu, eine Gesamtliste aller dem Smart Home bekannten Sensoren und Aktoren und deren logische Gruppierung auszugeben. Auf mindestens einer Adresse wird es wahrscheinlich eine verwertbare Antwort geben, die weiter verarbeitet werden kann.
- Dieser Scan wird mit weiteren Smart-Home-Schnittstellen fortgesetzt, die eventuell eine andere Aufrufstruktur aufweisen. Diese Aufrufe können dem Reinigungsroboter beispielsweise auch noch nach Auslieferung, etwa über eine Schnittstelle zur drahtlosen Kommunikation, mittels Softwareupdates nachgerüstet werden. Der Nutzer kann darüber hinaus gezielt IP-Adressen und Schnittstellen vorgeben, um diesen Prozess abzukürzen.
- Hat der Reinigungsroboter den Scan der Systeme erfolgreich abgeschlossen, liegt eine Liste verfügbarer Sensoren und Aktoren vor. Im Fall von OpenHAB ist ein Aktor, etwa ein Rollladen, beispielsweise wie folgt im JSON-Format beschrieben:
{ "link":"http://192.168.1.100:8080/rest/items/Shutter_GF_Living", "state":"1 00", "type":"Rollershutterltem", "name":"Shutter_GF_Living", "label":"Livingroom", "tags":[], "groupNames": [ "GF _Living", "Shutters" }, ...
An dem Beispiel ist zu erkennen, dass jedes Listenelement einen Typ hat, mit dem der Reinigungsroboter schon auf die semantische Bedeutung des Elements schließen kann. Optional wird über die Auswertung des Feldes „groupNames“ ein Graph erstellt, um damit auf die Zugehörigkeit der Elemente zueinander schließen zu können.
Um die gesammelten Elemente des Smart-Home-Systems in der Karte des Reinigungsroboters zu verorten, sollten Zielpunkte und Pfade zwischen den Zielen berechnet werden, mit denen der Reinigungsroboter sicher die gesamte Wohnumgebung abfahren und beobachten kann. Ein Flussdiagramm, das diese Berechnungen vereinfacht illustriert, ist beispielhaft in 5 gezeigt. Der Reinigungsroboter verfügt nun über eine Liste von Smart-Home-Elementen, vorangehend auch Komponenten genannt, und über eine Liste mit Zielpunkten, die durch ein Netz von Pfaden miteinander verbunden sind.
Die Liste der Zielpunkte wird Punkt für Punkt angefahren. An jedem Zielpunkt wird die Liste der vom Roboter mit Sensoren beobachtbaren Smart-Home-Elemente ein- oder mehrfach geschaltet, um beispielsweise in einem Kamerabild oder mit einem Mikrofon den jeweiligen Effekt zu beobachten. Für jeden Zielpunkt und jedes Element wird die Effektgröße, gegebenenfalls verknüpft mit einer Richtung, erfasst und in einer Kreuztabelle hinterlegt. Aus diesen Daten wird nun etwa durch Triangulation relativ genau ermittelt, an welchem Punkt in der Karte des Reinigungsroboters die Quelle des Effekts zu verorten ist.
Analog kann auch mit Sensoren des Smart-Home-Systems verfahren werden. Sofern der Reinigungsroboter in der Lage ist, Bewegungsmelder, Lichtsensoren, Lautstärkepegelmesser o. Ä. auszulösen, können auch diese in entsprechender Weise kartiert werden.
Gemäß einem Ausführungsbeispiel hat der Nutzer an dieser Stelle die Möglichkeit einzugreifen, um nur Teile der Element- oder Zielliste durch den Roboter abarbeiten zu lassen, etwa wenn dem Nutzer bekannt ist, dass in einem bestimmten Raum keine Smart-Home-Elemente verbaut sind, oder die Steuerung bestimmter Elemente durch den Nutzer nicht gewünscht sind.
An diesen Punkten werden beispielsweise in einer App des Reinigungsroboters passende Steuerungselemente für den jeweiligen Smart-Home-Aktor und entsprechende Anzeigen für Sensoren eingeblendet. Diese ermöglichen dem Nutzer nun eine intuitive Überwachung und Steuerung. Auch hier hat der Nutzer optional die Möglichkeit, das Ergebnis nach eigenen Vorstellungen zu bearbeiten und zu verändern.
Je nach Ausführungsbeispiel wird der Nutzer bei der Einrichtung des Smart-Home-Systems teilweise oder vollständig durch den Reinigungsroboter unterstützt. Somit kann eine aufwendige händische Einrichtung des Smart-Home-Systems entfallen, zumal eine solche Einrichtung ohne technisches Grundwissen sehr schwierig sein kann. Gleichzeitig erhält der Nutzer eine intuitiv zu bedienende Nutzerschnittstelle.
Mittels eines derartigen Verfahrens erstellte Karten und Interaktionsmöglichkeiten sind beispielhaft in den 3 und 4 dargestellt.
Reinigungsroboter und Smart-Home-Installationen werden am Markt bislang nicht als verknüpfbare Systeme betrachtet. Folglich generiert zwar der Reinigungsroboter eine Karte, diese kann aber nur im Roboterkontext genutzt werden. Umgekehrt ist es oft erforderlich, das Smart Home langwierig von Hand einzurichten, bis es sinnvoll funktioniert und steuerbar ist. Hier fehlt dann aber oft eine intuitive Darstellung für die Steuerung, die oft nur eine abstrakte Darstellung der Sensorwerte und Schalter beinhaltet. Mittels des hier vorgeschlagenen Ansatzes wird nun eine Kartendarstellung ermöglicht, durch die der Aufwand bei der Einrichtung auf ein Minimum reduziert werden kann. Durch die Nutzung von Synergien zwischen Reinigungsroboter und Smart Home kann dieses Problem weitgehend in Software gelöst werden.
Je nach Ausführungsbeispiel kann die Implementierung aufseiten des Reinigungsroboters wie auch aufseiten des Smart-Home-Systems erfolgen. Dabei kann das Smart-Home-System Kartenmaterial nutzen, das es über die API des Reinigungsroboters oder auch mehrerer Reinigungsroboter empfängt. Der Reinigungsroboter wird dabei durch das Smart-Home-System entsprechend gesteuert.
Claims (10)
- Verfahren (600) zum Erstellen einer Bedienoberfläche (300) zum Bedienen eines Gebäudeautomationssystems (102), wobei das Erstellen durch einen Reinigungsroboter (100) erfolgt, wobei der Reinigungsroboter (100) ausgebildet ist, um eine Karte (518) einer dem Gebäudeautomationssystem (102) zugeordneten Umgebung zu erstellen und unter Verwendung der Karte (518) zumindest einen Zielpunkt (106) in der Umgebung anzufahren, wobei das Verfahren (600) folgende Schritte umfasst: Einlesen (610) einer Verortungsinformation (114), die eine beim Anfahren des Zielpunktes (106) mittels eines Sensors (108) des Reinigungsroboters (100) erfasste Aktion zumindest einer Komponente (112) des Gebäudeautomationssystems (102)repräsentiert; Verorten (620) der Komponente (112) in der Karte (518) unter Verwendung der Verortungsinformation (114); und Einfügen (630) zumindest eines Steuerungselements (400, 402) zum Steuern der Komponente (112) in die Karte (518) abhängig von einem Ergebnis des Verortens (620), um die Bedienoberfläche (300) zu erstellen; und mit einem Schritt des Empfangens eines eine Anwesenheit des Reinigungsroboters (100) am Zielpunkt (106) repräsentierenden Anwesenheitssignals (120) und einem Schritt des Ausgebens eines Aktivierungssignals (122) zum Aktivieren der Komponente (112) unter Verwendung des Anwesenheitssignals (120).
- Verfahren (600) gemäß
Anspruch 1 , bei dem im Schritt des Einlesens (610) eine die Komponente (112) repräsentierende Komponenteninformation (118) eingelesen wird, wobei im Schritt des Verortens (620) die Komponente (112) unter Verwendung der Komponenteninformation (118) verortet wird. - Verfahren (600) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt des Einfügens (630) das Steuerungselement (400, 402) mit einem Abschnitt der Karte (518) verknüpft wird, in dem die Komponente (112) verortet wurde.
- Verfahren (600) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt des Verortens (620) die Komponente (112) durch Triangulation verortet wird.
- Verfahren (600) gemäß einem der vorangegangenen Ansprüche, bei dem der Reinigungsroboter (100) ausgebildet ist, um unter Verwendung der Karte (518) zumindest einen weiteren Zielpunkt (124) in der Umgebung anzufahren, wobei im Schritt des Einlesens (610) zumindest eine weitere Verortungsinformation (126) eingelesen wird, wobei die weitere Verortungsinformation (126) eine beim Anfahren des weiteren Zielpunktes (124) mittels des Sensors (108) des Reinigungsroboters (100) erfasste Aktion der Komponente (112) repräsentiert, wobei im Schritt des Verortens (620) die Komponente (112) unter Verwendung der weiteren Verortungsinformation (126) verortet wird.
- Vorrichtung (110) mit Einheiten (210, 220, 230), die ausgebildet sind, um das Verfahren (600) gemäß einem der
Ansprüche 1 bis6 auszuführen. - Reinigungsroboter (100) mit einer Vorrichtung (110) gemäß
Anspruch 6 . - Gebäudeautomationssystem (102) mit einer Vorrichtung (110) gemäß
Anspruch 6 . - Computerprogramm, das ausgebildet ist, um das Verfahren (600) gemäß einem der
Ansprüche 1 bis5 auszuführen und/oder anzusteuern. - Maschinenlesbares Speichermedium, auf dem das Computerprogramm nach
Anspruch 9 gespeichert ist.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102016124894.0A DE102016124894B4 (de) | 2016-12-20 | 2016-12-20 | Verfahren und Vorrichtung zum Erstellen einer Bedienoberfläche zum Bedienen eines Gebäudeautomationssystems mittels eines Reinigungsroboters, Reinigungsroboter und Gebäudeautomationssystem |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102016124894.0A DE102016124894B4 (de) | 2016-12-20 | 2016-12-20 | Verfahren und Vorrichtung zum Erstellen einer Bedienoberfläche zum Bedienen eines Gebäudeautomationssystems mittels eines Reinigungsroboters, Reinigungsroboter und Gebäudeautomationssystem |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102016124894A1 DE102016124894A1 (de) | 2018-06-21 |
DE102016124894B4 true DE102016124894B4 (de) | 2021-06-10 |
Family
ID=62250732
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102016124894.0A Active DE102016124894B4 (de) | 2016-12-20 | 2016-12-20 | Verfahren und Vorrichtung zum Erstellen einer Bedienoberfläche zum Bedienen eines Gebäudeautomationssystems mittels eines Reinigungsroboters, Reinigungsroboter und Gebäudeautomationssystem |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102016124894B4 (de) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018211591A1 (de) * | 2018-07-12 | 2020-01-16 | BSH Hausgeräte GmbH | Verfahren und Vorrichtung zur Ermittlung von Metadaten für Smart-Home Komponenten |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140324271A1 (en) * | 2013-04-26 | 2014-10-30 | Samsung Electronics Co., Ltd. | Cleaning robot, home monitoring apparatus, and method for controlling the cleaning robot |
US20160005229A1 (en) * | 2014-07-01 | 2016-01-07 | Samsung Electronics Co., Ltd. | Electronic device for providing map information |
DE102014113040A1 (de) * | 2014-09-10 | 2016-03-10 | Miele & Cie. Kg | Verfahren zum Betrieb eines Haushaltsgerätesystems |
DE102015100419A1 (de) * | 2015-01-13 | 2016-07-14 | Miele & Cie. Kg | Verfahren und Anordnung zum Bearbeiten von Bodenflächen |
-
2016
- 2016-12-20 DE DE102016124894.0A patent/DE102016124894B4/de active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140324271A1 (en) * | 2013-04-26 | 2014-10-30 | Samsung Electronics Co., Ltd. | Cleaning robot, home monitoring apparatus, and method for controlling the cleaning robot |
US20160005229A1 (en) * | 2014-07-01 | 2016-01-07 | Samsung Electronics Co., Ltd. | Electronic device for providing map information |
DE102014113040A1 (de) * | 2014-09-10 | 2016-03-10 | Miele & Cie. Kg | Verfahren zum Betrieb eines Haushaltsgerätesystems |
DE102015100419A1 (de) * | 2015-01-13 | 2016-07-14 | Miele & Cie. Kg | Verfahren und Anordnung zum Bearbeiten von Bodenflächen |
Also Published As
Publication number | Publication date |
---|---|
DE102016124894A1 (de) | 2018-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102016113060A1 (de) | Verfahren zum Steuern eines Objekts | |
EP2710777B1 (de) | Heimautomatisierungssteuerungssystem sowie verfahren zum steuern einer einrichtung eines heimautomatisierungssystems | |
EP3414633A1 (de) | Heimautomatisierungssystem | |
DE102016102644A1 (de) | Verfahren zur Steuerung eines autonomen mobilen Roboters | |
EP3383598B1 (de) | Manipulatorsystem und verfahren zur identifikation von bedienvorrichtungen | |
EP3085204B1 (de) | Beleuchtungssystem mit automatischer leuchtenidentifizierung zur ortsabhängigen leuchtenkonfiguration und verfahren zum betrieb eines beleuchtungssystems | |
DE102011006062A1 (de) | Verfahren zur autonomen Inspektion einer Umgebung oder Bearbeitung von Bodenflächen | |
EP3644554B1 (de) | Verfahren für eine entnahmeeinheit und zugehörige entnahmeeinheit | |
DE102013203676A1 (de) | Haushaltsgerät mit einer Lichtquelle und Verfahren zum Betreiben eines Haushaltsgerätes | |
EP3175679A1 (de) | Steuerungsanlage für ein beleuchtungssystem sowie verfahren zur konfiguration und inbetriebnahme derselben | |
DE102016124894B4 (de) | Verfahren und Vorrichtung zum Erstellen einer Bedienoberfläche zum Bedienen eines Gebäudeautomationssystems mittels eines Reinigungsroboters, Reinigungsroboter und Gebäudeautomationssystem | |
EP3562730B1 (de) | Verfahren zum automatisierten parken eines kraftfahrzeugs | |
DE102018132921A1 (de) | Verfahren zum Betreiben eines Feldgeräts der Automatisierungstechnik in einer Augmented-Reality/Mixed-Reality- Umgebung | |
DE102017113612A1 (de) | Autonomes Reinigungssystem und Reinigungsverfahren | |
DE102019217769A1 (de) | Fernaktivierung der Wireless-Service-Schnittstelle eines Steuergerätes über ein Bussystem | |
EP3821314B1 (de) | Verfahren und vorrichtung zur ermittlung von metadaten für smart-home komponenten | |
DE102014217615A1 (de) | Verfahren und Vorrichtung zur zentralen Bedienung von vernetzten elektrischen Geräten in einem Haus | |
EP3995065A1 (de) | Sich selbsttätig fortbewegendes reinigungsgerät | |
EP2952984A2 (de) | Verfahren zum Einstellen von Funktionalitäten eines Situationswächters sowie Gebäudeinstallation | |
WO2016134935A1 (de) | Verfahren und system zur projektion von information in einem raum | |
DE102014104291A1 (de) | Einrichtung zur Steuerung der Haustechnik in Gebäuden | |
EP3156890A1 (de) | Infotainmentsystem für fahrzeuge unter verwendung eines tragbaren endgerätes | |
DE102018207291A1 (de) | Verfahren zum Steuern eines Geräts | |
DE102021214206A1 (de) | Autonomes mobiles Arbeitsgerät | |
DE102014115284A1 (de) | Bedienvorrichtung zur Funktionseinstellung eines elektrischen Geräts und Verfahren zur Funktionseinstellung eines elektrischen Geräts mittels einer Bedienvorrichtung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R084 | Declaration of willingness to licence | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G05D0001020000 Ipc: G05D0001430000 |