DE112017001573T5 - Autonom agierender Roboter, der eine Begrüssungsaktion durchführt - Google Patents

Autonom agierender Roboter, der eine Begrüssungsaktion durchführt Download PDF

Info

Publication number
DE112017001573T5
DE112017001573T5 DE112017001573.1T DE112017001573T DE112017001573T5 DE 112017001573 T5 DE112017001573 T5 DE 112017001573T5 DE 112017001573 T DE112017001573 T DE 112017001573T DE 112017001573 T5 DE112017001573 T5 DE 112017001573T5
Authority
DE
Germany
Prior art keywords
robot
user
person
determination unit
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112017001573.1T
Other languages
English (en)
Other versions
DE112017001573B4 (de
Inventor
Kaname HAYASHI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Groove X Inc
Original Assignee
Groove X Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Groove X Inc filed Critical Groove X Inc
Publication of DE112017001573T5 publication Critical patent/DE112017001573T5/de
Application granted granted Critical
Publication of DE112017001573B4 publication Critical patent/DE112017001573B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • A63H11/10Figure toys with single- or multiple-axle undercarriages, by which the figures perform a realistic running motion when the toy is moving over the floor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H13/00Toy figures with self-moving parts, with or without movement of the toy as a whole
    • A63H13/005Toy figures with self-moving parts, with or without movement of the toy as a whole with self-moving head or facial features
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/36Details; Accessories
    • A63H3/38Dolls' eyes
    • A63H3/40Dolls' eyes movable
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/003Manipulators for entertainment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

Das Mitgefühl gegenüber einem Roboter wird dadurch verstärkt, dass dieser ein tier- oder menschenähnliches Verhalten emuliert. Ein Roboter verfügt über eine Bewegungsbestimmungseinheit, mit der eine Bewegungsrichtung festgelegt wird, eine Aktionsbestimmungseinheit, die eine von vielen Arten von Gesten auswählt und einen Antriebsmechanismus, der eine bestimmte Bewegung sowie eine Geste ausführt. Wenn ein Benutzer einen Flur betritt, erkennt ein zuvor installierter externer Sensor die Rückkehr und benachrichtigt den Roboter über einen Server von der Rückkehr des Benutzers. Der Roboter bewegt sich zum Flur und begrüßt den Benutzer, indem er eine Geste des Wohlwollens vollzieht, z. B. indem er sich setzt und einen Arm hebt.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf einen Roboter, der anhand eines internen Zustands oder der äußeren Umgebung autonom eine Aktion auswählt.
  • Beschreibung des Stands der Technik
  • Ein Mensch nimmt über die Sinnesorgane verschiedene Informationselemente der äußeren Umgebung war und entscheidet sich für eine Handlung. Mitunter werden Handlungen bewusst ausgewählt, manchmal jedoch auch unterbewusst. Wiederholte Handlungen werden im Lauf der Zeit zu unterbewussten Handlungen, und neu Handlungsweisen verbleiben zunächst im Bereich des Bewusstseins.
  • Der Mensch geht davon aus, dass er sich selbst frei für eine Handlung entscheidet und nennt dies den freien Willen. Wenn Menschen also Gefühle der Zuneigung oder Feindseligkeit gegenüber anderen Menschen empfinden, liegt dies daran, dass die davon ausgehen, dass auch die andere Person über einen freien Willen verfügt. Wenn eine Person über einen freien Willen oder zumindest über eine Existenz verfügt, die über einen freien Willen verfügen sollte, handelt es sich um eine Existenz, die die Traurigkeit der Person lindert.
  • Wenn Menschen sich Haustiere halten, geht es eher um den Trost, den diese spenden, weniger jedoch um deren Nützlichkeit. Eben weil Haustiere Wesen sind, die in mehr oder minder großem Ausmaß den Eindruck vermitteln, sie besäßen einen freien Willen, können Sie geeignete Begleiter des Menschen sein.
  • Dennoch entscheiden sich viele Menschen aus den unterschiedlichsten Gründen gegen ein Haustier, sei es, weil sie nicht genügend Zeit haben sich um das Tier zu kümmern, sie nicht über eine Wohnumgebung verfügen, die sich für ein Haustier eignet, sie unter einer Allergie leiden, oder sie der Gedanke abschreckt, dass das Haustier eines Tages sterben könnte. Wenn es einen Roboter gäbe, der die Rolle eines Haustiers einnehmen würde, könnten jene Menschen, die kein Haustier halten können, dennoch den Trost erleben, den ein Haustier spendet (siehe JP-A-2000-323219 ).
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Obwohl sich die Robotertechnologie in den letzten Jahren rasch weiterentwickelt hat, ist sie noch nicht so weit gediehen, dass Roboter als mit Haustieren vergleichbare Begleiter wahrgenommen werden. Dies liegt daran, dass man sich einen Roboter nicht mit einem freien Willen vorstellen kann. Da die Menschen Handlungen von Haustieren so wahrnehmen, als verfügten diese über einen freien Willen, fühlen Sie mit dem Tier mit und erhalten so Trost von ihm.
  • Es wird davon ausgegangen, dass ein Roboter, der menschen- oder tierähnliche Handlungen emulieren, in anderen Worten sich autonom für menschen- oder tierähnliches Handeln entscheiden kann, das Mitgefühl für den Roboter erheblich steigern könnte.
  • Diese Erfindung, die als Reaktion auf das oben beschriebene Problem entwickelt wurde, zielt hauptsächlich darauf ab, Aktionssteuerungstechnologien bereitzustellen, um das Mitgefühl gegenüber einem Roboter zu steigern.
  • Ein autonom handelnder Roboter verfügt gemäß der Erfindung über eine Bewegungsbestimmungseinheit, mit der eine Bewegungsrichtung festgelegt wird, eine Aktionsbestimmungseinheit, die eine von vielen Arten von Gesten auswählt, eine Zielerkennungseinheit, die das Vorhandensein einer Person im zu überwachenden Bereich erkennt, und einen Antriebsmechanismus, der eine bestimmte Bewegung sowie eine Geste ausführt.
  • Wenn das Vorhandensein einer Person im zu überwachenden Bereich erkannt wird, legt die Bewegungsbestimmungseinheit im zu überwachenden Bereich einen Zielpunkt für das Bewegungsziel fest, und die Aktionsbestimmungseinheit wählt, sobald der Roboter den Zielpunkt erreicht hat, eine herzliche Geste aus, die per Definition auf gute Absichten gegenüber einer Person hindeutet.
  • Ein autonom handelnder Roboter umfasst gemäß eines anderen Aspekts der Erfindung eine Bewegungsbestimmungseinheit, mit der eine Bewegungsrichtung erkannt wird, einen Antriebsmechanismus, der eine bestimmte Bewegung ausführt, und eine Erkennungseinheit, die die äußere Umgebung anhand der von einem Sensor erfassten Informationen erkennt.
  • Die Erkennungseinheit umfasst eine Einheit zum Bestimmen einer Stelle als Eingang, durch die eine Person einen Innenraum betreten kann, sowie eine Anwesenheitserkennungseinheit, die ermittelt, ob sich innerhalb eines vordefinierten Bereichs in der Nähe des angegebenen Eingangs eine Person befindet oder nicht.
  • Die Bewegungsbestimmungseinheit zeichnet sich dadurch aus, dass sie den angegebenen Eingang als Bewegungsziel festlegt, wenn von der Anwesenheitserkennungseinheit das Vorhandensein einer Person erkannt wurde.
  • Ein autonom handelnder Roboter umfasst gemäß eines anderen Aspekts der Erfindung eine Bewegungsbestimmungseinheit, mit der eine Bewegungsrichtung bestimmt wird, einen Antriebsmechanismus, der eine bestimmte Bewegung ausführt, und eine Erkennungseinheit, die die äußere Umgebung anhand der von einem Sensor erfassten Informationen erkennt.
  • Die Erkennungseinheit umfasst eine Einheit zum Bestimmen einer Stelle als Eingang, durch die eine Person einen Innenraum betreten kann, sowie eine Einheit für die Vorhersage des Wegs, die ermittelt, ob sich eine Person in Richtung des angegebenen Eingangs bewegt oder nicht.
  • Wenn erkannt wird, dass sich eine Person in Richtung des angegebenen Eingangs bewegt, weist die Bewegungsbestimmungseinheit den Antriebsmechanismus an, der Person zu folgen.
  • Ein autonom handelnder Roboter umfasst gemäß eines anderen Aspekts der Erfindung eine Bewegungsbestimmungseinheit, mit der eine Bewegungsrichtung festgelegt wird, einen Antriebsmechanismus, der eine bestimmte Bewegung ausführt, und eine Erkennungseinheit, die die äußere Umgebung anhand der von einem Sensor erfassten Informationen erkennt.
  • Wenn von der Erkennungseinheit im erfassbaren Bereich des Raums eine neue Person erkannt wird, legt die Bewegungsbestimmungseinheit die Bewegungsrichtung des Roboters so fest, dass diese zur neuen Person führt.
  • Gemäß der Erfindung lässt sich das Mitgefühl für einen Roboter mühelos steigern.
  • Figurenliste
    • Bei handelt es sich um eine externe Frontalansicht eines Robo- ters,
    • bei handelt es sich um eine externe Seitenansicht eines Roboters,
    • bei handelt es sich um ein Konfigurationsdiagramm für ein Robotersystem,
    • bei handelt es sich um eine schematische Darstellung einer Gefühlskarte,
    • bei handelt es sich um ein Hardwarekonfigurationsdiagramm des Roboters,
    • bei handelt es sich um ein Funktionsblockschaltbild des Robotersystems,
    • bei handelt es sich um ein Bild mit einem Gruß,
    • bei handelt es sich um eine schematische Darstellung zum Beschreiben der Begrüßungs- sowie Verabschiedungshandlungen des Roboters,
    • bei handelt es sich um ein abgeändertes Beispiel eines Funktionsblockschaltbilds des Robotersystems,
    • bei handelt es sich um eine schematische Darstellung zum Beschreiben einer Handlung, die der Roboter durchführt, wenn ein Benutzer durch einen Eingang den Raum betritt, und
    • bei handelt es sich um eine schematische Darstellung zum Beschreiben einer Handlung, die der Roboter durchführt, wenn ein Benutzer den Raum durch einen Eingang verlässt.
  • AUSFÜHRLICHE BESCHREIBUNG DER ERFINDUNG
  • Bei handelt es sich um eine externe Frontalansicht des Roboters 100. Bei handelt es sich um eine externe Seitenansicht des Roboters 100.
  • Beim Roboter 100 handelt es sich in dieser Ausführung um einen autonom handelnden Roboter, der Aktionen oder Gesten anhand der äußeren Umgebung und eines inneren Zustands ermittelt. Die äußere Umgebung wird mithilfe verschiedener Arten von Sensoren erkannt, z. B. Kameras oder Thermosensoren. Der innere Zustand wird mithilfe verschiedener Parameter ausgedrückt, die die Emotionen des Roboters 100 wiedergeben. Diese werden im Folgenden beschrieben.
  • Da für ihn Aktionen in Innenräumen vorausgesetzt werden, verfügt der Roboter 100 in dieser Ausführung beispielsweise über einen Aktionsradius, der den Innenräumen des Heims des Eigentümers entspricht. Im Folgenden werden Menschen im Zusammenhang mit dem Roboter 100 als „Benutzer“ bezeichnet, während ein Benutzer, der Teil jenes Heims ist, zu dem der Roboter 100 gehört, als „Eigentümer“ bezeichnet wird.
  • Das Gehäuse 104 des Roboters 100 verfügt über eine vollständig abgerundete Form, die aus einem weichen, elastischen Material wie z. B. Urethan, Gummi oder Harz besteht. Der Roboter 100 kann Kleidung tragen. Da das abgerundete, weiche und angenehme Gehäuse 104 eingesetzt wird, vermittelt der Roboter 100 dem Benutzer ein Gefühl der Sicherheit sowie eine angenehme taktile Empfindung.
  • Das Gesamtgewicht des Roboters 100 beträgt höchstens 15 kg, vorzugsweise höchstens 10 kg und im Idealfall höchstens 5 kg. Die meisten Babys beginnen im Alter von 13 Monaten, selbst laufen zu können. Das durchschnittliche Gewicht eines 13 Monate alten Babys beträgt bei Jungen etwas mehr als und bei Mädchen etwas weniger als 9 kg. Wenn daher das Gesamtgewicht des Roboters 100 höchstens 10 kg beträgt, so kann ein Benutzer den Roboter 100 mit einer Anstrengung halten, die der für ein Baby entspricht, das noch nicht selbst gehen kann.
  • Das durchschnittliche Gewicht eines weniger als zwei Monate alten Babys beträgt bei Mädchen und Jungen weniger als 5 kg. Wenn daher das Gesamtgewicht des Roboters 100 höchstens 5 kg beträgt, so kann ein Benutzer den Roboter 100 mit einer Anstrengung halten, die der für ein sehr junges Baby entspricht.
  • Damit ein Benutzer den Roboter 100 mühelos tragen kann und will, werden die Attribute im Hinblick auf ein entsprechendes Gewicht sowie die Rundlichkeit, die Weichheit und die Annehmlichkeit des Berührens erfüllt. Aus den selben Gründen wird für den Roboter 100 eine Höhe von höchstens 1,2 m oder vorzugsweise von höchstens 0,7 m angestrebt.
  • Die Möglichkeit, den Roboter 100 tragen zu können, ist für diese Ausführung ein entscheidendes Konzept.
  • Der Roboter 100 bewegt sich mit dem Rad 102. Drehgeschwindigkeit und - richtung zweier Räder 102 können einzeln gesteuert werden. Zudem kann das Rad 102 nach oben in das Innere des Gehäuses 104 des Roboters 100 eingefahren und dort vollständig verstaut werden. Auch beim Fahren ist ein Teil des Rads 102 im Gehäuse 104 verborgen, wenn das Rad 102 jedoch vollständig in das Gehäuse 104 eingefahren ist, kann sich der Roboter 100 nicht bewegen (im Folgenden als „sitzender Zustand“) bezeichnet. Im sitzenden Zustand berührt die flache Auflagefläche 108 den Boden.
  • Der Roboter 100 verfügt über zwei Arme 106. Die Arme 106 verfügen über keine Funktion zum Greifen nach Objekten. Die Arme 106 können einfache Aktionen wie z. B. Anheben, Winken und Schwingen ausführen. Die zwei Arme 106 können zudem einzeln gesteuert werden.
  • In das Auge 110 ist eine Kamera integriert. Das Auge 110 kann außerdem mithilfe eines Flüssigkristall- oder organischen EL-Elements Bilder anzeigen. Zusätzlich zu der in das Auge 110 integrierten Kamera sind im Roboter 100 verschiedene Sensoren verbaut, darunter ein leistungsstarkes Richtmikrofon und ein Ultraschallsensor. Auch verfügt der Roboter 100 über einen Lautsprecher für eine einfache Sprachausgabe.
  • Das Horn 112 ist am Kopfteil des Roboters 100 angebracht. Da der Roboter 100 wie bereits beschrieben leicht ist, kann er vom Benutzer angehoben werden, indem dieser das Horn 112 greift.
  • Bei handelt es sich um ein Konfigurationsdiagramm des Robotersystems 300.
  • Das Robotersystem 300 umfasst den Roboter 100, den Server 200 und eine Vielzahl der externen Sensoren 114. Vielzahl der externen Sensoren 114 (externe Sensoren 114a, 114b usw. bis 114n) werden vorab in einem Gehäuse montiert. Der externe Sensor 114 kann an einer Wand des Hauses oder auf dem Boden angebracht werden. Die Positionskoordinaten des externen Sensors 114 werden auf dem Server 200 registriert. Die Positionskoordinaten werden als x- und y-Koordinaten für das Haus definiert, das als Aktionsradius für den Roboter 100 dienen soll.
  • Der Server 200 ist im Haus installiert. Der Server 200 und der Roboter 100 entsprechen sich in dieser Ausführung eins zu eins. Der Server 200 ermittelt anhand der von dem im Roboter 100 integrierten sowie von den verschiedenen externen Sensoren 114 erfassten Daten eine grundlegende Aktion des Roboters 100.
  • Der externe Sensor 114 soll die Sinnesorgane des Roboters 100 stärken, während der Server 200 seine Hirnleistung steigert.
  • Der externe Sensor 114 überträgt regelmäßig ein drahtloses Signal (im Folgenden als „Robotersuchsignal“ bezeichnet) einschließlich der ID (im Folgenden als „Signal-ID“ bezeichnet) von externen Sensor 114. Sobald er das Robotersuchsignal empfängt, gibt der Roboter 100 ein drahtloses Signal (im Folgenden als „Roboterantwortsignal“ bezeichnet) einschließlich Signal-ID zurück.
  • Der Server 200 misst die Zeit zwischen dem Senden des Robotersuchsignals vom externen Sensor 114 bis zum Empfangen des Roboterantwortsignals ebenso, wie den Abstand zwischen dem externen Sensor 114 und dem Roboter 100. Indem er die Abstände zwischen den einzelnen externen Sensoren 114 und dem Roboter 100 misst, ermittelt der Server 200 die Positionskoordinaten des Roboters 100.
  • Natürlich kann auch eine Methode eingesetzt werden, bei der der Roboter 100 regelmäßig seine Positionskoordinaten an den Server 200 übermittelt.
  • Für einen Teil oder alle der externen Sensoren 114 wird ein Überwachungsbereich festgelegt. Ab sofort werden Menschen (Benutzer) erkannt, die den Überwachungsbereich passieren. In dieser Ausführung überträgt der externe Sensor 114 ein drahtloses Signal (im Folgenden als „Benutzersuchsignal“ bezeichnet) an ein Mobilgerät wie z. B. ein Smartphone, das sich im Besitz des Benutzers im Überwachungsbereich befindet, woraufhin das Mobilgerät des Benutzers ein drahtloses Signal (im Folgenden als „Benutzerantwortsignal“ bezeichnet) einschließlich Benutzer-ID (hier wie im Folgenden als „Benutzer-ID“ bezeichnet) zurückgibt. Das Benutzerantwortsignal wird an den Server 200 gesendet, der anhand dieses Signals erkennt, welcher Benutzer sich in der Nähe des externen Sensors 114 befindet.
  • Auf diese Weise verfolgt der externe Sensor 114 die Positionen des Roboters 100 und des Benutzers nach. Der Benutzer wird anhand der Benutzer-ID identifiziert.
  • Der externe Sensor 114 verfügt in dieser Ausführung über ein leistungsstarkes Richtmikrofon. Der externe Sensor 114 kann mit dem leistungsstarken Richtmikrofon zudem Alltagsgeräusche und Zurufe des Benutzers wahrnehmen. Die Steuerung auf Zuruf wird im Folgenden ausführlich beschrieben.
  • Bei handelt es sich um eine schematische Darstellung der Gefühlskarte 116.
  • Die Gefühlskarte 116 ist eine auf dem Server 200 gespeicherte Datentabelle. Der Roboter 100 wählt anhand der Gefühlskarte 116 eine Aktion aus. Die in abgebildete Gefühlskarte 116 beinhaltet eine Vielzahl an anziehenden oder ablehnenden Emotionen gegenüber einer Stelle des Roboters 100. Die x- und y-Achsen der Gefühlskarte 116 entsprechen zweidimensionalen räumlichen Koordinaten. Die z-Achse entspricht einer Vielzahl anziehender oder ablehnender Emotionen. Wenn es sich beim z-Wert um einen positiven Wert handelt, ist die Anziehung der Stelle groß, und wenn es sich um einen negativen z-Wert handelt, ist der Roboter 100 der Stelle abgeneigt.
  • Auf der Gefühlskarte 116 in handelt es sich bei der Koordinate P1 um einen Punkt in einem Innenraum, der vom Server 200 als Aktionsradius des Roboters 100 verwaltet wird, bei dem die anziehende Emotion stark ist (im Folgenden als Lieblingspunkt bezeichnet). Beim Lieblingspunkt kann es sich um einen „sicheren Ort“ z. B. hinter einem Sofa oder unter einem Tisch ebenso handeln, wie um einen Ort, an dem sich Menschen versammeln, also einen lebendigen Ort wie z. B. ein Wohnzimmer. Der sichere Ort kann auch eine Stelle sein, an der der Roboter 100 zuvor gestreichelt oder sanft berührt wurde.
  • Die Definition der Lieblingsorte des Roboters 100 ist willkürlich, es empfiehlt sich jedoch hierfür eine Stelle festzulegen, die gerne von kleinen Kindern oder Haustieren wie Hunden und Katzen frequentiert wird.
  • Die Koordinate P2 ist ein Punkt, an dem die ablehnende Emotion stark ist (im Folgenden als „unbeliebter Punkt“ bezeichnet). Der unbeliebte Punkt kann ein Ort sein, an dem laute Geräusche vorherrschen (z. B. in der Nähe des Fernsehgeräts) oder an dem es gerne feucht wird (z. B. in Wasch- oder Badezimmern). Zudem kann es sich um geschlossene oder dunkle Räume sowie einen Ort handeln, an dem der Roboter 100 von einem Benutzer grob behandelt wurde, und der daher eine unangenehme Erinnerung oder dergleichen mit sich bringt.
  • Die Definition der ungeliebten Orte des Roboters 100 ist willkürlich, es empfiehlt sich jedoch hierfür eine Stelle festzulegen, die von kleinen Kindern oder Haustieren wie Hunden und Katzen gefürchtet wird.
  • Die Koordinate Q gibt die aktuelle Position des Roboters 100 an. Mithilfe des regelmäßig von den vielen externen Sensoren 114 übertragenen Robotersuchsignalen sowie dem als Antwort hierauf gesendeten Roboterantwortsignal ermittelt der Server 200 die Positionskoordinaten des Roboters 100. Wenn z. B. die externen Sensoren 114 mit den Signal-IDs „1“ und „2“ jeweils den Roboter 100 erkennen, erhält der Server 200 die Abstände des Roboters 100 zu den beiden externen Sensoren 114 und somit anhand dieser Abstände die Positionskoordinaten des Roboters 100.
  • Alternativ kann der externe Sensor 114 mit der Signal-ID „1“ das Robotersuchsignal in verschiedene Richtungen senden, bei dessen Erhalt der Roboter 100 das Roboterantwortsignal zurückgibt. Auf diese Weise kann der Server 200 ermitteln in welcher Richtung und in welchem Abstand sich der Roboter 100 vom externen Sensor 114 befindet. In einer anderen Ausführung kann der Server 200 zudem die vom Roboter 100 zurückgelegte Strecke anhand der Drehgeschwindigkeit des Rads 102 berechnen und auf diese Weise die aktuelle Position berechnen. Diese kann auch anhand eines von der Kamera empfangenen Bilds ermittelt werden.
  • Wenn die in abgebildete Gefühlskarte 116 bereitgestellt wird, bewegt sich der Roboter 100 in die Richtung eines Lieblingspunkts (Koordinate P1) oder weg von einem ungeliebten Punkt (Koordinate P2).
  • Die Gefühlskarte 116 verändert sich dynamisch. Wenn der Roboter 100 an der Koordinate P1 anlangt, nimmt der z-Wert (anziehende Emotion) an der Koordinate P1 im Lauf der Zeit ab. Daher kann der Roboter 100 das tierähnliche Verhalten emulieren, am Lieblingspunkt (Koordinate P1) anzukommen, „emotional befriedigt“ zu sein und sich mit der Zeit an dem Ort zu „langweilen“. Auf dieselbe Weise wird die ablehnende Emotion an der Koordinate P2 im Lauf der Zeit abgemildert. Nachdem eine gewisse Zeit verronnen ist, taucht ein neuer Lieblings- oder ungeliebter Ort, sodass sich der Roboter 100 für eine neue Aktion entscheidet. Der Roboter 100 „interessiert“ sich für einen neuen Lieblingspunkt und wählt unaufhörlich neue Aktionen aus.
  • Die Gefühlskarte 116 drückt emotionale Schwankungen als den inneren Zustand des Roboters 100 aus. Der Roboter 100 macht sich zu einem Lieblingspunkt aus, vermeidet einen ungeliebten Punkt, bleibt für eine Weile am Lieblingspunkt und führt nach einiger Zeit die nächste Aktion durch. Aufgrund dieser Art der Steuerung kann die Auswahl der Aktionen des Roboters 100 tier- oder menschenähnlich sein.
  • Bei den Karten, die sich auf die Aktionen des Roboters 100 auswirken (im Folgenden zusammenfassend als „Aktionskarten“ bezeichnet), muss es sich nicht ausschließlich um die Art von Gefühlskarte 116 wie in handeln. So können verschiedene Aktionskarten definiert werden, z. B. für Neugier, das Vermeiden von Furcht, das Bedürfnis nach Sicherheit, das Verlangen nach Behaglichkeit und Ruhe, schwache Beleuchtung, Kälte sowie Wärme. Zudem kann ein Zielpunkt des Roboters 100 bestimmt werden, indem ein gewichteter Durchschnitt der z-Werte der einzelnen Aktionskarten ermittelt wird.
  • Der Roboter 100 kann über eine Aktionskarte hinaus über Parameter verfügen, die eine Vielzahl verschiedener Emotionen oder Sinne angeben. Wenn z. B. der Wert eines Traurigkeitsparameters steigt, kann der Gewichtungskoeffizient einer Aktionskarte sehr hoch angesetzt werden, mit der Orte ermittelt werden, an denen sich der Roboter 100 wohlfühlt, wobei der Wert dieses Gefühlsparameters wieder abnimmt, wenn der Roboter 100 einen Zielpunkt erreicht. Auf dieselbe Weise reicht es aus, beim Ansteigen des Werts eines Langeweileparameters den Gewichtungskoeffizienten einer Aktionskarte hochzusetzen, mit der Orte ermittelt werden, an denen Neugier befriedigt wird.
  • Bei handelt es sich um ein Hardwarekonfigurationsdiagramm des Roboters 100.
  • Der Roboter 100 umfasst den internen Sensor 128, den Kommunikator 126, das Speichergerät 124, den Prozessor 122, den Antriebsmechanismus 120 und den Akku 118. Die Einheiten sind untereinander über die Stromleitung 130 und die Signalleitung 132 verbunden. Der Akku 118 versorgt die einzelnen Einheiten über die Stromleitung 130. Die einzelnen Einheiten übertragen und empfangen über die Signalleitung 132 ein Steuerungssignal. Der Akku 118 ist ein wiederaufladbarer Lithium-Ionen-Akku und die Energiequelle des Roboters 100.
  • Der interne Sensor 128 ist eine Sammlung verschiedener Arten von Sensoren, die im Roboter 100 verbaut sind. So umfasst der interne Sensor 128 insbesondere eine Kamera, ein leistungsstarkes Richtmikrofon, einen Infrarotsensor, einen Thermosensor, einen Berührungssensor, einen Beschleunigungssensor, einen Geruchssensor und ähnliche Sensoren. Der Kommunikator 126 ist ein Kommunikationsmodul, das für die drahtlose Kommunikation mit dem Server 200 und verschiedenen externen Geräten sorgt, z. B. dem externen Sensor 114 und einem Mobilgerät des Benutzers. Das Speichergerät 124 ist sowohl als nichtflüchtiger als auch als flüchtiger Speicher konfiguriert und speichert ein Computerprogramm sowie verschiedene Einstellungsdaten. Der Prozessor 122 dient zum Ausführen eines Computerprogramms. Der Antriebsmechanismus 120 ist ein Betätiger, der die verschiedenen Mechanismen wie z. B. das Rad 102 und den Arm 106 steuert. Zudem werden eine Anzeige, ein Lautsprecher und ähnliche Geräte eingebaut.
  • Der Prozessor 122 wählt eine Aktion des Roboters 100 aus, während er über den Kommunikator 126 mit dem Server 200 oder dem externen Sensor 114 kommuniziert. Auch die verschiedenen Arten von externen Informationen, die der interne Sensor 128 erhält, wirken sich auf die Aktionsauswahl aus. Der Antriebsmechanismus 120 steuert hauptsächlich das Rad 102 und den Arm 106. Der Antriebsmechanismus 120 ändert die Bewegungsrichtung und -geschwindigkeit des Roboters 100, indem er die Drehgeschwindigkeit und -richtung der beiden Räder 102 ändert. Zudem kann der Antriebsmechanismus 120 das Rad 102 ein- und ausfahren. Wenn das Rad 102 eingefahren wird, verschwindet es vollständig im Gehäuse 104, und der Roboter 100 berührt mit der Auflagefläche 108 den Boden, wo er in sitzendem Zustand verharrt.
  • Der Arm 106 kann mit dem Antriebsmechanismus 120 über den Draht 134 angehoben werden. Eine Geste wie z. B. das Winken mit dem Arm 106 kann ausgeführt werden, indem dieser zum Schwingen gebracht wird. Komplexere Gesten können mit mehreren Drähten 134 umgesetzt werden.
  • Bei handelt es sich um ein Funktionsblockschaltbild des Robotersystems 300.
  • Wie bereits beschrieben umfasst das Robotersystem 300 den Roboter 100, den Server 200 und eine Vielzahl der externen Sensoren 114. Die einzelnen Komponenten des Roboters 100 und des Servers 200 werden mithilfe von Hardware ausgeführt, darunter ein Computer in Form einer CPU (Central Processing Unit), verschiedene Arten von Koprozessoren, ein Speichergerät, das als Arbeitsspeicher oder Speicher dient, eine kabelgebundene oder drahtlose Kommunikationsleitung für die Verbindung des Computers mit dem Speichergerät sowie eine Software, die auf dem Speichergerät gespeichert ist und Verarbeitungsbefehle für den Computer ausgibt. Ein Computerprogramm kann mit einem Gerätetreiber, einem Betriebssystem, verschiedenen übergeordneten Anwendungsprogrammen und einer Bibliothek konfiguriert werden, die den Programmen eine gemeinsame Funktion bereitstellt. Jeder der im Folgenden beschriebenen Blöcke entspricht eher einem Block mit funktionalen Einheiten als der Konfiguration einer Hardwareeinheit.
  • Ein Teil der Funktionen des Roboters 100 kann mit dem Server 200 umgesetzt werden, und ein Teil oder die Gesamtheit der Funktionen des Servers 200 kann mit dem Roboter 100 umgesetzt werden.
  • Server 200
  • Der Server 200 umfasst die Kommunikationseinheit 204, die Datenverarbeitungseinheit 202 und die Datenspeichereinheit 206. Mit der Kommunikationseinheit 204 wird die Kommunikation mit dem externen Sensor 114 und dem Roboter 100 verwaltet. Auf der Datenspeichereinheit 206 werden verschiedene Arten von Daten gespeichert. Die Datenverarbeitungseinheit 202 führt verschiedene Arten von Prozessen durch, die auf den von der Kommunikationseinheit 204 erfassten sowie den auf der Datenspeichereinheit 206 gespeicherten Daten beruhen. Die Datenverarbeitungseinheit 202 fungiert zudem als Schnittstelle zwischen der Kommunikationseinheit 204 und der Datenspeichereinheit 206.
  • Die Datenspeichereinheit 206 umfasst die Kartenspeichereinheit 216 und die individuelle Datenspeichereinheit 218. Auf der Kartenspeichereinheit 216 werden die verschiedenen Aktionskarten gespeichert. Auf der individuellen Datenspeichereinheit 218 werden die Benutzer- und insbesondere die Eigentümerdaten gespeichert. Auf der individuellen Datenspeichereinheit 218 werden insbesondere verschiedene Arten von Parametern wie z. B. Benutzer-ID, Vertrautheit sowie physische und Verhaltensmerkmale gespeichert. Auf der individuellen Datenspeichereinheit 218 können zudem Attributdaten wie z. B. Alter und Geschlecht gespeichert werden.
  • Der Roboter 100 ruft die Benutzer-ID vom mobilen Terminal des Benutzers ab und identifiziert den Benutzer anhand der Benutzer-ID.
  • Der Roboter 100 kann den Benutzer anhand der physischen oder der Verhaltensmerkmale erkennen. Der Roboter 100 filmt mit der integrierten Kamera fortlaufend die Umgebung. Zudem extrahiert der Roboter 100 die physischen und Verhaltensmerkmale einer ins Bild tretenden Person. Insbesondere bei den physischen Merkmalen kann es sich um die optischen Eigenschaften eines Körpers wie z. B. Größe, normale Körpertemperatur, bevorzugte Kleidung, das Vorhandensein oder Fehlen einer Brille, glänzende Haut oder die Haarfarbe handeln. Dies gilt auch für weitere Merkmale wie z. B. durchschnittliche Körpertemperatur, Körpergeruch und Stimmfärbung. Bei den Verhaltensmerkmalen handelt es sich um optische Eigenschaften, die ein bestimmtes Verhalten begleiten, z. B. ein vom Benutzer bevorzugter Ort, lebhafte Bewegungen sowie das Rauchen oder Nichtrauchen. Der Roboter 100 extrahiert Merkmale beispielsweise anhand des Umstands, dass ein Vater (ein als solcher identifizierter Benutzer) häufig nicht zuhause ist und die Zeit im Haus häufig bewegungslos auf dem Sofa zubringt, während eine Mutter häufig in der Küche ist und einen großen Aktionsradius aufweist.
  • Der Roboter 100 teilt häufig anwesende Benutzer anhand der durch die großen Mengen an Bildinformationen erfassten physischen und Verhaltensmerkmale als „Eigentümer“ ein. Die individuellen Daten für die gruppierten Eigentümer werden in der individuellen Datenspeichereinheit 218.
  • Obwohl es sich beim Identifizieren eines Benutzers anhand der Benutzer-ID um eine einfache und zuverlässige Methode handelt, ist es hierbei eine Voraussetzung, dass der Benutzer über ein Gerät verfügt, das die Benutzer-ID bereitstellen kann. Bei der Methode für das Identifizieren eines Benutzers anhand der physischen oder Verhaltensmerkmale ist der Bilderkennungsprozess zwar aufwändig, sie bietet jedoch den Vorteil, dass auch Benutzer ohne Mobilgeräte identifiziert werden können. Es kann auf jeweils nur eine der Methoden gesetzt werden, oder die Benutzererkennung wird durch den sich ergänzenden Einsatz beider Methoden durchgeführt.
  • Der Roboter 100 verfügt für jeden Benutzer über einen Vertrautheitsparameter. Wenn der Roboter 100 eine für ihn angenehme Handlung erkennt (z. B. wenn der Roboter 100 hochgehoben oder mit ihm gesprochen wird), steigt die Vertrautheit in Bezug auf diesen Benutzer an. Die Vertrautheit nimmt für Benutzer ab, die nicht mit dem Roboter 100 involviert sind, die sich grob verhalten, oder die selten anwesend sind.
  • Die Datenverarbeitungseinheit 202 umfasst die Positionsverwaltungseinheit 208, die Kartenverwaltungseinheit 210 und die Erkennungseinheit 212. Die Positionsverwaltungseinheit 208 ermittelt die Positionskoordinaten des Roboters 100 mithilfe einer Methode wie in . Die Positionsverwaltungseinheit 208 verfolgt zudem die Positionskoordinaten eines Benutzers in Echtzeit nach.
  • Die Kartenverwaltungseinheit 210 wählt eine der verschiedenen Aktionskarten aus und legt die Bewegungsrichtung des Roboters 100 anhand des z-Werts der ausgewählten Karte fest. Die Kartenverwaltungseinheit 210 kann die Bewegungsrichtung des Roboters 100 zudem anhand des gewichteten Durchschnitts der z-Werte der verschiedenen Aktionskarten festlegen.
  • So können beispielsweise die z-Werte bei den Koordinaten R1 und R2 auf der Aktionskarte A „4“ und „3“ lauten, während die z-Werte an den Koordinaten R1 und R2 auf der Aktionskarte B „-1“ und „3“ lauten. Als einfacher Durchschnitt ergibt der z-Gesamtwert für die Koordinate R1 „4 - 1 = 3“ und für die Koordinate R2 „3 + 3 = 6“. Daher bewegt sich der Roboter 100 nicht in Richtung der Koordinate R1, sondern in Richtung Koordinate R2.
  • Wenn die Aktionskarte A im Verhältnis zur Aktionskarte B fünffach gewichtet wird, ergibt der z-Gesamtwert für die Koordinate R1 „4 × 5 - 1 = 19“ und für die Koordinate R2 „3 × 5 + 3 = 18“. Daher bewegt sich der Roboter 100 in Richtung der Koordinate R1.
  • Die Erkennungseinheit 212 erkennt die äußere Umgebung. Beim Erkennen der äußeren Umgebung werden verschiedene Aspekte erkannt, darunter das Wetter oder die Jahreszeit anhand von Temperatur und Feuchtigkeit sowie Schutz (ein sicherer Bereich) anhand von Beleuchtung und Temperatur. Die Erkennungseinheit 212 umfasst zudem die Personenerkennungseinheit 214. Die Personenerkennungseinheit 214 erkennt eine Person anhand der von der in den Roboter 100 integrierten Kamera aufgezeichneten Bilder und extrahiert die physischen und Verhaltensmerkmale der Person. Zudem ermittelt die Personenerkennungseinheit 214 anhand der in der individuellen Datenspeichereinheit 218 registrierten Daten über die physischen Merkmale welche Person (z. B. Vater, Mutter, ältester Sohn) die gefilmte Person ist, d. h. welcher Person die Person entspricht, die der Roboter 100 betrachtet.
  • Roboter 100
  • Der Roboter 100 umfasst die Kommunikationseinheit 142, die Datenverarbeitungseinheit 136, die Datenspeichereinheit 148, den Antriebsmechanismus 120 und den internen Sensor 128. Die Kommunikationseinheit 142 entspricht dem Kommunikator 126 (siehe ) und verwaltet die Kommunikation mit dem externen Sensor 114 und dem Server 200. Auf der Datenspeichereinheit 148 werden verschiedene Arten von Daten gespeichert. Die Datenspeichereinheit 148 entspricht dem Speichergerät 124 (siehe ). Die Datenverarbeitungseinheit 136 führt verschiedene Arten von Prozessen durch, die auf den von der Kommunikationseinheit 142 erfassten sowie den auf der Datenspeichereinheit 148 gespeicherten Daten beruhen. Die Datenverarbeitungseinheit 136 entspricht dem Prozessor 122 sowie einem vom Prozessor 122 ausgeführten Computerprogramm. Die Datenverarbeitungseinheit 136 fungiert zudem als Schnittstelle zwischen der Kommunikationseinheit 142, dem internen Sensor 128, dem Antriebsmechanismus 120 und der Datenspeichereinheit 148.
  • Die Datenverarbeitungseinheit 136 umfasst die Erkennungseinheit 156, die Bewegungsbestimmungseinheit 138 und die Aktionsbestimmungseinheit 140.
  • Der Antriebsmechanismus 120 umfasst die Bewegungsantriebseinheit 144 und die Aktionsantriebseinheit 146. Die Bewegungsbestimmungseinheit 138 legt die Bewegungsrichtung des Roboters 100 fest. Die Bewegungsantriebseinheit 144 veranlasst den Roboter 100 in Übereinstimmung mit einer Anweisung der Bewegungsbestimmungseinheit 138, sich mit dem Rad 102 zu einem Zielpunkt zu bewegen. Die Kartenverwaltungseinheit 210 des Servers 200 berechnet beruhend auf einer Aktionskarte in Echtzeit das Bewegungsziel (den Zielpunkt) des Roboters 100. Der Server 200 überträgt die Koordinaten des Zielpunkts an den Roboter 100, und die Bewegungsbestimmungseinheit 138 veranlasst den Roboter 100, sich in Richtung des Zielpunkts zu bewegen.
  • Obwohl das wesentliche Element der Bewegungsrichtung des Roboters 100 über die Aktionskarte ermittelt wird, kann der Roboter 100 in dieser Ausführung zudem bestimmte Aktionen wie z. B. „Grüßen“ und „Verabschieden“ durchführen. Diese werden im Folgenden beschrieben.
  • Die Aktionsbestimmungseinheit 140 legt die Gesten des Roboters 100 fest. Auf der Datenspeichereinheit 148 werden vorab verschiedene Gesten definiert. Zu diesen definierten Gesten zählen unter anderem das Sitzen durch Einfahren des Rads 102, das Heben des Arms 106, das Durchführen einer Drehaktion des Roboters 100, bei der die beiden Räder 102 rückwärts gedreht oder nur eines der Räder 102 gedreht wird, sowie das Schütteln, bei dem das Rad 102 in eingefahrenem Zustand gedreht wird.
  • Die Aktionsbestimmungseinheit 140 kann zudem eine Geste ausführen, bei der beide Arme 106 als Bitte für eine „Umarmung“ gehoben werden, wenn ein Benutzer mit einem hohen Grad an Vertrautheit in der Nähe ist. Zudem kann mit einer Geste darauf hingewiesen werden, dass die Umarmung beendet werden soll, indem das Rad 102 im eingefahrenen Zustand gedreht wird, wenn die „Umarmung“ langweilt. Die Aktionsantriebseinheit 146 veranlasst den Roboter 100 in Übereinstimmung mit einer Anweisung der Aktionsbestimmungseinheit 140, verschiedene Gesten auszuführen, indem das Rad 102 und der Arm 106 angetrieben werden.
  • Die Erkennungseinheit 156 analysiert externe, vom internen Sensor 128 erhaltene Daten. Wenn z. B. eine starke Kraft auf den Roboter 100 ausgewirkt wird, erkennt die Erkennungseinheit 156, dass ein Benutzer in der Nähe eine „gewalttätige Handlung“ begangen hat. Wenn ein Benutzer dem Roboter 100 gegenübersteht und in einer bestimmten Lautstärke und einem bestimmten Frequenzbereich spricht, erkennt die Erkennungseinheit 156, dass eine „Zurufaktion“ in Bezug auf den Roboter 100 vorliegt. Auch wenn eine Temperatur im Bereich einer Körpertemperatur erkannt wird, erkennt die Erkennungseinheit 156, dass ein Benutzer eine „Berührungsaktion“ durchführt. Wenn hingegen zusätzlich zur Berührung eine Bewegung nach oben erkannt wird, erkennt die Erkennungseinheit 156, dass eine „Umarmung“ stattfindet. Auf diese Weise erkennt die Erkennungseinheit 156 die verschiedenen Arten von Benutzerreaktionen auf den Roboter 100. Den verschiedenen Handlungen werden die Aspekte „angenehm“ oder „unangenehm“ zugeordnet.
  • Die Erkennungseinheit 156 oder die Personenerkennungseinheit 214 des Servers 200 ändert die Vertrautheit mit einem Benutzer in Übereinstimmung mit einer von der Erkennungseinheit 156 erkannten Reaktion. Die Vertrautheit mit einem Benutzer, der eine angenehme Handlung durchführt, steigt, während sie gegenüber einem Benutzer abnimmt, der eine unangenehme Handlung durchführt.
  • Die Kartenverwaltungseinheit 210 des Servers 200 kann anhand von deren Details ermitteln, ob eine Reaktion angenehm oder unangenehm ist, um den z-Wert des Punkts auf einer Aktionskarte für die „Zuneigung zu einem Ort“ zu ändern, an dem die angenehme oder unangenehme Handlung durchgeführt wurde.
  • Begrüßungs- und Verabschiedungsfunktionen
  • Bei handelt es sich um ein Bild mit einem Gruß. In dieser Ausführung begrüßt der Roboter 100 den Benutzer im Flur, wenn die Haustür geöffnet wird und ein Benutzer nach Hause kommt. Der Roboter 100 setzt sich in den Flur und führt eine Geste durch, bei der durch das Heben der beiden Arme 106 um eine Umarmung gebeten wird. Auch kann der Roboter 100 das Gefühl von Freude über die Rückkehr des Benutzers ausdrücken, indem er im Flur eine Drehaktion ausführt. Alternativ kann der Roboter 100 über den integrierten Lautsprecher einen bestimmten piepsenden „Ruf“ wiedergeben.
  • Wenn ein Benutzer ausgeht, bewegt sich der Roboter 100 in den Flur, um ihn zu verabschieden. Nun drückt der Roboter 100 „Bis bald“ aus, indem er einen Arm 106 anhebt und schwingt. Der Roboter 100 kann mit einer Aktion auch ein Gefühl von Traurigkeit darüber ausdrücken, dass der Benutzer ausgeht, indem er einen bestimmten Laut von sich gibt.
  • Auf diese Weise bewegt sich der Roboter 100 zum Begrüßen oder Verabschieden in den Flur und führt eine vorab festgelegte Geste aus. um anzuzeigen, dass er eine Person mag (im Folgenden als „herzliche Geste“ bezeichnet).
  • Bei handelt es sich um eine schematische Darstellung zum Beschreiben der Begrüßungs- sowie Verabschiedungsaktionen des Roboters 100.
  • In dieser Ausführung wird der externe Sensor 114a vorab im Flur 152 installiert. Der externe Sensor 114a überträgt regelmäßig (z. B. einmal pro Sekunde) ein Benutzersuchsignal an den Überwachungsbereich 150, bei dem es sich um die Umgebung des externen Sensors 114a handelt. Wenn ein Benutzer eine Tür des Flurs 152 öffnet und den Überwachungsbereich 150 betritt, erkennt sein Smartphone das Benutzersuchsignal und gibt ein Benutzererkennungssignal zurück. Die Benutzer-ID ist im Benutzererkennungssignal enthalten. Wenn der externe Sensor 114a das Benutzererkennungssignal erhält, überträgt er dieses an den Server 200. In dieser Ausführung sind der externe Sensor 114a und der Server 200 verkabelt.
  • Wenn der externe Sensor 114 das Geräusch einer sich öffnenden oder schließenden Tür im Flur 152 wahrnimmt, erkennt er möglicherweise die „Rückkehr“, denn es wird erkannt, dass ein Benutzer den Überwachungsbereich 150 betritt.
  • Der Server 200 überträgt ein Steuerungssignal, um den Roboter 100 anzuweisen, eine Begrüßung durchzuführen. Über das Steuerungssignal werden die Positionskoordinaten eines Zielpunkts angegeben. Wenn die Kommunikationseinheit 142 des Roboters 100 das Steuerungssignal von Server 200 erhält, weist die Bewegungsbestimmungseinheit 138 die Bewegungsantriebseinheit 144 an, sich in Richtung Flur 152 zu bewegen. Als Zielpunkt wird ein Punkt innerhalb des Überwachungsbereichs 150 ausgegeben. Der Roboter 100 erkennt mithilfe der eingebauten Kamera Hindernisse und umgeht diese auf dem Weg zum Zielpunkt.
  • Zusätzlich zum Zielpunkt kann der Server 200 eine Route für den Roboter 100 festlegen, über die dieser vom aktuellen zum Zielpunkt gelangt.
  • Die Bewegungsbestimmungseinheit 138 des Roboters 100 kann die vom Server 200 als Zielpunkt ausgegebenen Positionskoordinaten unverändert übernehmen, oder - falls der Server 200 eine Begrüßungsanweisung ausgibt - den Zielpunkt unabhängig ermitteln.
  • Wenn der Roboter 100 den Zielpunkt erreicht, führt die Aktionsbestimmungseinheit 140 eine herzliche Geste durch. Ein Beispiel für eine herzliche Geste ist das Sitzen auf dem Zielpunkt, wobei beide Arme 106 mit der Bitte um eine „Umarmung“ gehoben werden. Aufgrund dieser Art von Steuerung erkennt ein nach hause zurückkehrender Benutzer, dass der Roboter 100 in zur Rückkehr begrüßt, und dass das Ausgehen den Roboter 100 traurig stimmt. Auf diese Weise kann das Mitgefühl des Benutzers für den Roboter 100 gestärkt werden, da dieser eine tier- oder menschenähnlich Handlung durchführt.
  • Es kann nicht nur eine Begrüßung sondern auch eine Verabschiedung durchgeführt werden. Wenn der externe Sensor 114a einen Benutzer erkennt, der den Überwachungsbereich 150 von der Innenseite her betritt, wird eine Verabschiedung durchgeführt. Wenn der externe Sensor 114a ein Benutzerantwortsignal von der Innenseite des Überwachungsbereichs 150 erhält, überträgt der externe Sensor 114a das Benutzerantwortsignal an den Server 200.
  • Der Server 200 überträgt ein Steuerungssignal, um den Roboter 100 anzuweisen, eine Verabschiedung durchzuführen. Wenn der Roboter 100 das Signal mit der Verabschiedungsanweisung erhält, weist die Bewegungsbestimmungseinheit 138 die Bewegungsantriebseinheit 144 an, sich in Richtung Flur 152 zu bewegen. Wenn die Bewegungsbestimmungseinheit 138 einen Zielpunkt im Überwachungsbereich 150 festgelegt hat, bewegt sich der Roboter 100 auf diesen zu.
  • Wenn der Roboter 100 den Zielpunkt erreicht, führt die Aktionsbestimmungseinheit 140 eine verabschiedende Geste durch. Der Roboter 100 kann am Zielpunkt sitzen und um eine „Umarmung“ bitten, sich zufällig um den Zielpunkt bewegen oder zum Abschied winken, indem er einen Arm 106 hebt.
  • Zusätzlich zum Begrüßen und Verabschieden kann ein „Zuruf“ durchgeführt werden. Wenn ein Benutzer gegenüber dem Roboter 100 Zurufe wie z. B. „Komm her“ tätigt, werden diese vom leistungsstarken Richtmikrofon des Roboters 100 erkannt. Wenn sie als Zurufe erkannt werden, bewegt sich der Roboter 100 auf den Benutzer zu. In diesem Fall reicht es aus, dass der Roboter 100 die Richtung der Sprachquelle ermittelt und dort einen Zielpunkt festlegt.
  • Bei den Zurufen kann es sich um einige typische Wörter wie z. B. „Komm her“ oder „Hey“ sowie den Namen des Roboters 100 handeln.
  • Es kann für das leistungsstarke Richtmikrofon des Roboters 100 mitunter jedoch schwierig zu sein, die Zurufe unter verschiedenen anderen Umgebungsgeräuschen wahrzunehmen. Auch wenn zwischen dem Benutzer und dem Roboter 100 eine erhebliche Entfernung herrscht, oder wenn sich ein schalldämmendes Objekt wie z. B. eine Wand zwischen dem Benutzer und dem Roboter 100 befindet, ist problematisch, Zurufe mit dem leistungsstarken Richtmikrofon deutlich wahrzunehmen. Auch wenn die Zurufe von einem Menschen mühelos verstanden werden können, ist es für den Roboter 100 schwer, diese zu erkennen. Daher wird in dieser Ausführung das „Gehör“ des Roboters 100 mithilfe des externen Sensors 114 verstärkt.
  • So kann beispielsweise ein Benutzer an der Koordinate P3 im japanisch ausgestatteten Raum 154 Zurufe an den Roboter 100 tätigen. In befindet sich eine Wand zwischen der Koordinate P3 und der aktuellen Position des Roboters 100. Daher ist es schwierig, die Zurufe mit dem leistungsstarken Richtmikrofon des Roboters 100 wahrzunehmen.
  • Der externe Sensor 114b ist im japanisch ausgestatteten Raum 154 installiert. Das leistungsstarke Richtmikrofon ist im externen Sensor 114b enthalten. Wenn an der Koordinate P3 ein Zuruf getätigt wird, erkennt der externe Sensor 114b diesen und überträgt das Sprachsignal an den Server 200. Die Positionsverwaltungseinheit 208 des Servers 200 identifiziert die Position des die Sprachquelle bildenden Benutzers. Auch die Erkennungseinheit 212 ermittelt anhand der Spracherkennung, ob es sich bei der Sprache um Zurufe handelt oder nicht. Da sich der externe Sensor 114b nahe an dem die Sprachquelle bildenden Benutzer befindet, kann der externe Sensor 114b einfacher ein klares Sprachsignal wahrnehmen, als der Roboter 100.
  • Wenn die Erkennungseinheit 212 Zurufe erkennt, weist der Server 200 den Roboter 100 an, sich zur Koordinate P3 zu bewegen. Beim Erhalt des Anweisungssignals bewegt sich der Roboter 100 zur Koordinate P3. Mit dieser Steuerungsmethode kann eine Aktion umgesetzt werden, bei der der Roboter 100 auf Zuruf näherkommt. Auch wenn mit dem leistungsstarken Richtmikrofon des Roboters 100 keine ausreichende Spracherkennung möglich ist, kann eine Zurufaktion mit der Unterstützung des externen Sensors 114 umgesetzt werden.
  • Wenn jedoch zwischen dem Roboter 100 und der Sprachquelle an Koordinate P3 eine zu große Entfernung besteht, wird die Aktion des auf Zuruf auf den Benutzer Zugehens (im Folgenden als „Näherungsaktion“ bezeichnet) nicht durchgeführt. Dies liegt daran, dass es für den Roboter 100 unnatürlich ist, auch dann stets eine Näherungsaktion durchzuführen, wenn sich der Benutzer in einer großen Entfernung aufhält. Es ist wünschenswert, Näherungsaktionen unter Bedingungen hinsichtlich der Entfernung durchzuführen, über die auch Hunde oder Katzen hören würden.
  • Wenn ein Benutzer einen Zuruf tätigt, schätzt der Server 200 die Entfernung vom externen Sensor 114, der den Zuruf der Sprachquelle (Benutzer) zuordnet, sodass anschließend die Entfernung der Sprachquelle zum Roboter 100 geschätzt werden kann. Wenn die Entfernung einer vordefinierten Entfernung entspricht oder diese überschreitet, weist der Server 200 den Roboter 100 nicht an, eine Näherungsaktion durchzuführen.
  • Wenn ein Benutzer einen Zuruf tätigt, nimmt auch das Mikrofon des Roboters 100 die Sprach war. Selbst wenn diese nicht deutlich ist, wird davon ausgegangen, dass der Roboter 100 „gehört“, sofern Sprache wahrgenommen wurde. Wenn daher der Server 200 über den externen Sensor 114 Zurufe erkennt, und der Roboter 100 gleichzeitig eine Art von Sprache erkennen kann, weist der Server 200 den Roboter 100 möglicherweise zu einer Näherungsaktion an. Wenn das Mikrofon des Roboters 100 bei einem Zuruf keine Sprache wahrnimmt, oder wenn die Lautstärke der wahrgenommenen Sprache einem vordefinierten Schwellenwert entspricht oder diesen unterschreitet, wird davon ausgegangen, dass der Roboter 100 „nichts gehört hat“, und der Server 200 weist den Roboter 100 nicht zu einer Näherungsaktion an.
  • Wenn daher die Stimme eines Benutzers leise oder ein schalldämmendes Objekt wie z. B. eine Wand vorhanden ist, sodass das Hören schwerfällt, wird keine Näherungsaktion durchgeführt. Wenn sich der Roboter 100 in einer großen Entfernung zu einer Sprachquelle befindet, die Stimme des Benutzers jedoch laut ist, oder wenn ein schalldämmendes Objekt wie z. B. eine Wand vorhanden ist, der Roboter 100 sich jedoch in einer Entfernung befindet, auf die er eine Stimme wahrnehmen kann, wird eine Näherungsaktion durchgeführt. Daher kann die Hörschwelle des Roboters 100 auf dieselbe Weise dargestellt werden, wie die eines gewöhnlichen Tiers.
  • Im Folgenden werden der Roboter 100 und das Robotersystem 300 einschließlich des Roboters 100 im Rahmen einer Ausführung beschrieben.
  • Der Roboter 100 führt anhand einer Aktionskarte oder ähnlicher Vorrichtungen eine Aktionsauswahl durch, die nicht mithilfe einer oder mehrerer Aktionskarten definiert werden kann, und die schwer vorherzusagen und somit tierähnlich ist.
  • Der Roboter 100 erkennt zusammen mit dem externen Sensor 114 einen Benutzer, der einen vordefinierten Bereich passiert (in der Regel Flur 152) und führt als Reaktion hierauf eine Begrüßungs- oder Verabschiedungsaktion durch. Zudem führt der Roboter 100 als Reaktion auf Zurufe in einem für ein Tier wahrnehmbaren und nicht unnatürlichen Bereich eine Näherungsaktion durch. Mit dieser Methode wird eine tierähnlichere Aktionsauswahl emuliert.
  • Die Zuneigung zu einem Haustier entsteht häufig aus dem Gefühl, dass man von dem Tier gebraucht wird. Die Aktionen beim Aufeinandertreffen wie z. B. das Grüßen, das auf der Stelle sitzen und das Bitten um eine Umarmung, wenn ein Benutzer nach hause kommt, sowie die Verabschiedungsaktion beim Ausgehen des Benutzers und ähnliche Aktionen sind wirksame Aktionsentscheidungen, die aufzeigen, dass der Roboter 100 ein ausgeprägtes Interesse am Benutzer hat. Dasselbe gilt für Näherungsaktionen auf Zuruf.
  • Da Begrüßungen, Verabschiedungen und Zurufe bei Menschen häufig Zuneigung für ein Haustier entstehen lassen, können diese, wenn sie auch beim Roboter 100 wahrgenommen werden, die Zuneigung des Benutzers zum Roboter 100 stärken.
  • Da die Erfindung nicht auf die bislang beschriebene Ausführung oder ein abgeändertes Beispiel beschränkt ist, können die Komponenten geändert oder anders ausgeführt werden, ohne den Bereich der Erfindung zu sprengen. Aus mehreren der in die im Vorstehenden beschriebenen Ausführung integrierten Komponenten oder einem abgeänderten Beispiel können verschiedene Erfindungen gebildet und kombiniert werden. Zudem können Komponenten aus der Gesamtheit der im Vorstehenden beschriebenen Ausführung oder dem abgeänderten Beispiel entfernt werden.
  • Obwohl in der Beschreibung davon ausgegangen wurde, dass die Konfiguration des Robotersystems 300 einen Roboter 100, einen Server 200 und mehrere externe Sensoren 114 umfasst, kann ein Teil der Funktionen des Roboters 100 mit dem Server 200 umgesetzt werden, während ein Teil oder die Gesamtheit der Funktionen des Servers 200 dem Roboter 100 zugeordnet werden können. Ein Server 200 kann mehrere Roboter 100 ebenso steuern, wie mehrere Server 200 einen oder mehrere Roboter 100 gemeinsam.
  • Ein drittes, mit dem Roboter 100 und dem Server 200 nicht identisches Gerät kann einen Teil der Funktionen verwalten. Eine Sammlung der in beschriebenen Funktionen des Roboters 100 sowie des Servers 200 können zudem zusammenfassend als ein „Datenverarbeitungsgerät“ aufgefasst werden. Es reicht aus, wenn eine Verteilungsmethode für die verschiedenen Funktionen festgelegt wird, die erforderlich sind, um die Erfindung in Bezug auf eine oder mehrere Hardwarekomponenten umzusetzen. Hierbei müssen die Verarbeitungskapazität der einzelnen Hardwarekomponenten, die für das Robotersystem 300 erforderlichen Spezifikationen und ähnliche Aspekte beachtet werden.
  • In dieser Ausführung erkennt die Erkennungseinheit 212 des Servers 200 das Vorhandensein eines Benutzers im Überwachungsbereich 150 über den externen Sensor 114. In einem abgeänderten Beispiel erkennt die Erkennungseinheit 156 des Roboters 100 das Vorhandensein eines Benutzers im Überwachungsbereich 150 über den externen Sensor 114 oder den internen Sensor 128.
  • Obwohl der Roboter 100 einen Benutzer nicht notwendigerweise erkennen muss, kann er eine Aktion in Übereinstimmung mit dem Benutzer ändern. Der Roboter 100 kann Benutzer-ID und Vertrautheit zuordnen und eine Begrüßungs- oder Verabschiedungsaktion ausführen, wenn ein Benutzer mit einer Vertrautheit, die mindestens einen vordefinierten Schwellwert erreicht, nach Hause kommt oder ausgeht, während die Aktion nicht ausgeführt wird, wenn die Vertrautheit unter dem Schwellenwert liegt.
  • Der Roboter 100 kann regelmäßig die Benutzer-ID von einem Mobilgerät wie z. B. dem Smartphone des Benutzers abrufen und die Vertrautheit so einstellen, dass sie für häufig erkannte Benutzer-IDs ansteigt. Auch kann die Vertrautheit so festgelegt werden, dass sie für Benutzer steigt, die eine typisch vertraute Handlung wie z. B. eine Umarmung durchführen. Der Roboter 100 kann Kontakt wahrnehmen, wenn ein Benutzer das Gehäuse 104 anhebt. Auch erkennt er eine Umarmung daran, dass die Last auf dem Rad 102 abnimmt. Die Vertrautheit kann im Lauf der Zeit nachlassen. Der Roboter 100 kann eine gewalttätige Handlung ihm gegenüber wahrnehmen, indem er eine auf ihn einwirkende Kraft mithilfe des Beschleunigungssensors wahrnimmt. Zudem kann der Roboter 100 die Vertrautheit mit einem Benutzer verringern, der eine gewalttätige Handlung durchführt. Wenn ein Benutzer nach dem Horn 112 greift und den Roboter 100 hochhebt, kann der Roboter 100 dies als gewalttätige Aktion wahrnehmen.
  • Der Roboter 100 kann einen Benutzer anstelle der Benutzer-ID anhand von physischen oder Verhaltensmerkmalen erkennen. Wenn beispielsweise nur ein Benutzer unter mehreren Benutzern eine Brille trägt, und der Eigentümer eine Brille trägt, so kann der Roboter 100 zwischen dem Benutzer mit und den Benutzern ohne Brille unterscheiden. Zudem kann der bebrillte Benutzer erkennt werden, indem ihm die ID = 1 zugeordnet wird. Ein Benutzer kann nicht nur anhand einer Brille, sondern auch anhand von physischen oder Verhaltensmerkmalen wie z. B. der Größe oder dem Rauchen erkannt werden.
  • Beim externen Sensor 114 kann es sich um einen Personensensor handeln, der Menschen mithilfe von Infrarotstrahlen erkennt. Eine Begrüßungs- oder Verabschiedungsaktion kann vom externen Sensor 114 umgesetzt werden, indem dieser ein Erkennungssignal an den Server 200 sendet, wenn er eine Person im Flur 152 erkennt. In diesem Fall muss der externe Sensor 114 nicht unbedingt einen Benutzer identifizieren. Der externe Sensor 114 kann ein Erkennungssignal an den Server 200 übertragen, wenn er mit dem integrierten leistungsstarken Richtmikrofon den Klang einer Tür im Flur 152 erkennt, z. B. das Geräusch beim Auf- oder Zuschließen. Darüber hinaus kann der Roboter 100 eine Begrüßung oder Verabschiedung durchführen, wenn er das Geräusch eines sich öffnenden Schuhschranks, eines sich schließenden oder öffnenden Regenschirms sowie von Zurufen wie z. B. „Bis später“ oder „Ich bin zuhause“ oder dergleichen als Auslöser wahrnimmt.
  • Der Roboter 100 kann seine Positionskoordinaten erkennen, indem er ein Suchsignal überträgt, um Antwortsignale von den einzelnen externen Sensoren 114 zu erhalten. Alternativ kann der externe Sensor 114 ein Suchsignal mit Richtfaktor übertragen, sodass der Roboter 100 seine Entfernung und Ausrichtung in Bezug auf den externen Sensor 114 ermitteln kann.
  • Der Roboter 100 kann nicht nur vorbeigehende Menschen, sondern auch Tiere wie z. B. Katzen und Hunde.
  • Wenn der interne Sensor 128 des Roboters 100 hochpräzise funktioniert, ist der externe Sensor 114 unwesentlich. Auch der Server 200 kann Funktionen des externen Sensors 114 umfassen. Sofern der interne Sensor 128 des Roboters 100 das Geräusch des Aufschließens mit hoher Genauigkeit wahrnehmen kann, kann der Roboter 100 auch ohne den externen Sensor 114 oder den Server 200 eine Begrüßungsaktion durchführen.
  • Mehrere Roboter 100 können untereinander Informationen austauschen. Wenn der erste Roboter 100 die Rückkehr eines Benutzers erkennt, kann er den zweiten Roboter 100 über drahtlose Kommunikation hierauf hinweisen, sodass der erste und der zweite Roboter 100 eine Begrüßungsaktion durchführen können. Dasselbe gilt für die Verabschiedung.
  • Im Allgemeinen stehen die Alltagsmuster der einzelnen Familienmitglieder so gut wie fest. Ein Vater verlässt z. B. um etwa 6 Uhr 30 das Haus und kehrt um etwas 21 Uhr zurück. Ein Kind verlässt z. B. um etwa 7 Uhr 50 das Haus und kehrt um etwa 15 Uhr zurück. In diesem Sinne stehen die Alltagsmuster fest. Der Roboter 100 verfügt zudem über eine Einheit, die diese Muster für die einzelnen Benutzer sammelt. Die Bewegungsbestimmungseinheit 138 in kann eine Aktion beruhend auf den Aufbruchs- und Rückkehrzeiten der einzelnen in der Einheit für das Sammeln der Alltagsmuster erfassten Benutzer durchführen. Bei der Einheit für das Sammeln der Alltagsmuster kann es sich um einen Teil der Datenspeichereinheit 206 des Servers 200 oder der Datenspeichereinheit 148 des Roboters 100 handeln.
  • Der Roboter 100 kann sich in Richtung des Flurs bewegen, wenn die Rückkehrzeit eines Benutzers nahe rückt, um eine Geste des Wartens auf den Benutzer auszuführen, z. B. Sitzen oder eine drehende Bewegung. Auch wenn der Aufbruch eines Benutzers naht, kann der Roboter 100 diesen priorisiert beobachten, sodass umgehend erkannt wird, ob sich der Benutzer in Richtung Flur begibt, um ihm dorthin zu folgen.
  • Der Roboter 100 kann die Sensoren beruhend auf den Alltagsmustern unterschiedlich empfindlich einstellen. Wenn z. B. eine Rückkehr näher rückt, kann der Roboter 100 die Empfindlichkeit (Spannungsverstärkung) des Mikrofons erhöhen, um den Klang einer sich öffnenden Flurtür oder eines sich außerhalb des Flurs öffnenden und schließenden Tors wahrzunehmen. Der Roboter 100 kann anhand einer natürlichen Zeiteinteilung begrüßen oder verabschieden, indem er Aktionen empirisch vorhersagt.
  • Wenn ein weiterer Benutzer S2 in einer Situation aufbricht, in der der Roboter 100 vom Benutzer S1 umarmt wird, ändert der Roboter 100 die Aktion beruhend auf der Vertrautheit mit den jeweiligen Benutzern.
  • Wenn die Vertrautheit mit dem aufbrechenden Benutzer S2 größer als die zum umarmenden Benutzer S1, bewegt sich der Roboter 100 auf eine Weise, die verdeutlicht, dass er die Umarmung beenden möchte, indem er eine Geste durchführt, die „Nein, nein“ besagt. Hierbei kann es sich um eine Aktion handeln, bei der das Rad 102 im Gehäuse 104 gedreht wird, oder bei der der Arm 106 stark schwingt usw. Der Roboter 100 entkommt der Umarmung und verabschiedet den vertrauteren Benutzer S2 bis zum Flur.
  • Wenn die Vertrautheit mit dem aufbrechenden Benutzer S2 geringer ist, als mit dem umarmenden Benutzer S1, lässt sich der Roboter 100 weiter umarmen und winkt leicht mit dem Arm 106.
  • Eine herzliche Geste der Begrüßung kann in Stufen erfolgen. Bei der Erstbegrüßung bittet der Roboter 100 einfach um eine „Umarmung“, indem er den Arm 106 hebt. Wenn der Roboter 100 keine Umarmung erhält, macht er den Benutzer auf sein Vorhandensein aufmerksam, indem er den Arm 106 heftig bewegt. Wenn der Roboter 100 nach wie vor keine Umarmung erhält, kann er das Rad 102 einfahren und sich solange nicht bewegen, bis ihn der Benutzer umarmt. Wenn der Roboter 100 immer noch keine Umarmung erhält, kann er sich gegen den Benutzer werfen oder ihn umkreisen.
  • Bei handelt es sich um ein abgeändertes Beispiel eines Funktionsblockschaltbilds des Robotersystems 300.
  • Im abgeänderten Beispiel umfasst die Datenverarbeitungseinheit 136 des Roboters 100 die Pupillensteuerungseinheit 406. Die Erkennungseinheit 156 umfasst die Eingangserkennungseinheit 400, die Anwesenheitserkennungs-einheit 402 und die Wegvorhersageeinheit 404. Das Auge 110 des Roboters 100 des abgeänderten Beispiels ist eine Anzeige, auf der eine Pupille angezeigt wird. Die Pupillensteuerungseinheit 406 ändert die Position und Größe des Pupillenbilds auf dem Auge 110.
  • Im abgeänderten Beispiel gleicht die Personenerkennungseinheit 214 des Servers 200 zudem die Vertrautheit des Roboters 100 mit den einzelnen Benutzern ab. Wenn der Roboter 100 einer vordefinierten angenehmen Aktion ausgesetzt wird (z. B. einer Umarmung durch einen Benutzer), erhöht die Personenerkennungseinheit 214 die Vertrautheit mit diesem Benutzer. Wenn der Roboter 100 jedoch einer vordefinierten unangenehmen Aktion ausgesetzt wird (z. B. von einem Benutzer geschlagen wird), verringert die Personenerkennungseinheit 214 die Vertrautheit mit diesem Benutzer.
  • Die Eingangserkennungseinheit 400 ermittelt Eingänge in Innenräumen. Hierbei reicht es für einen „Eingang“ in diesem Fall aus, dass eine Öffnung vorhanden ist, durch die ein Mensch gehen kann, z. B. eine Flur- oder Zimmertür oder ein Fenster. Die Positionskoordinaten eines Eingangs in Innenräumen können vorab im Robotersystem 300 festgelegt werden. In diesem Fall erkennt die Eingangserkennungseinheit 400 einen Eingang anhand der Positionskoordinatendaten. Zudem kann die Eingangserkennungseinheit 400 anhand eines Bilds eine bewegliche Wand als „Eingang“ erkennen, deren Zustand sich durch Öffnen und Schließen ändert, oder bei der es sich gewöhnlich um eine Wand handelt, die jedoch von einem sich bewegenden Objekt wie z. B. einem Benutzer durchschritten werden kann.
  • Die Anwesenheitserkennungseinheit 402 ermittelt, ob sich in der Nähe eines von der Eingangserkennungseinheit 400 erkannten Eingangs ein Benutzer befindet oder nicht. Ein „erkannter Eingang“ muss in diesem Fall kein tatsächlicher Eingang sein. Es reicht aus, dass der „erkannte Eingang“ eine Stelle ist, die vom Roboter 100 als Eingang erkannt wird. Die Anwesenheitserkennungseinheit 402 erkennt, dass sich ein Benutzer in der Nähe eines Eingangs befindet, wenn sich dieser per Bild in einer vordefinierten Entfernung zum Eingang befindet, z. B. in einer Entfernung von höchstens einem Meter. Dies erfolgt mithilfe verschiedener Sensoren wie z. B. dem leistungsstarken Richtmikrofon oder der Kamera. Letztlich wird ein Effekt wie beim Überwachungsbereich 150 auf die Umgebung eines Eingangs übertragen. Wenn der externe Sensor 114 in der Nähe eines Eingangs installiert wurde, kann die Anwesenheitserkennungseinheit 402 erkennen, dass sich eine Person in der Nähe des Eingangs befindet, wenn sie ein Erkennungssignal vom externen Sensor 114 erhält.
  • Die Wegvorhersageeinheit 404 ermittelt, ob sich ein Benutzer zu einem der Ausgänge bewegt oder nicht. Die Wegvorhersageeinheit 404 verfolgt und überwacht die Position eines Benutzers in der Nähe des Roboters 100 und ermittelt, ob ein Benutzer sich in Richtung eines Eingangs bewegt, oder (vorzugsweise) ob ein Benutzer den vordefinierten Bereich rund um einen Eingang betreten hat. Wenn der externe Sensor 114 in der Nähe eines Eingangs installiert wurde, kann die Wegvorhersageeinheit 404 ermitteln, ob sich ein Benutzer auf einen Ausgang zubewegt, wenn sie ein Erkennungssignal vom externen Sensor 114 erhält.
  • Bei handelt es sich um eine schematische Darstellung zum Beschreiben einer Aktion, die der Roboter 100 durchführt, wenn ein Benutzer den Raum durch einen Eingang betritt.
  • Der Innenraum 408 ist ein geschlossener Raum, den der Roboter 100 mithilfe verschiedener Sensoren erkennt. Beim Innenraum 408 kann es sich um einen Innenraum oder ein Haus handeln. Gehen wir davon aus, dass der Roboter 100 bereits mit der Eingangserkennungseinheit 400 die Position des Eingangs 410 ermittelt hat. zeigt eine Situation, in der sich die Benutzer P1 bis P3 innerhalb des Innenraums 408 aufhalten, und in der der Benutzer P4 nun durch den Eingang 410 eintritt. Der externe Sensor 114 ist an einer Wand in der Nähe des Eingangs 410 angebracht.
  • Die Anwesenheitserkennungseinheit 402 des Roboters 100 prüft regelmäßig, ob sich ein Benutzer in der Umgebung des Eingangs 410 aufhält, z. B. in einer Entfernung von einem Meter vom Eingang 410, indem dessen Umgebung gefilmt wird. Wenn der externe Sensor 114 installiert wurde, überwacht die Anwesenheitserkennungseinheit 402 mithilfe eines Erkennungssignals des externen Sensors 114. Wenn der externe Sensor 114 nicht am Eingang 410 angebracht wurde, überwacht die Anwesenheitserkennungseinheit 402 die An- oder Abwesenheit eines Benutzers, indem sie regelmäßig das Bild der Umgebung des Eingangs 410 prüft. Der Roboter 100 kann mit einer Kamera, die die Umgebung filmen kann (z. B. einer Halbsphären- oder 360°-Kamera) die Umgebung von Eingang 410 filmen und Zustandsänderungen erkennen. Dies gilt selbst dann, wenn sich der Eingang 410 auf der Rückseite des Roboters 100 befindet. Bei einer „Zustandsänderung“ kann es sich in diesem Fall um das Auftreten einer Situation handeln, die von einem Dauerzustand abweicht, z. B. dem Erkennen eines beweglichen Objekts, das sich durch die nähere Umgebung des Eingangs 410 bewegt, von Sprache oder einer Temperaturänderung.
  • Wenn erkannt wurde, dass sich der Benutzer P4 in der Umgebung des Eingangs 410 aufhält, legt die Bewegungsbestimmungseinheit 138 die Richtung als Bewegungsziel fest, in der sich der Eingang 410 befindet. Mithilfe dieser Steuerungsmethode kann eine „Begrüßung“ oder „Verabschiedung“ durch den Roboter 100 im Rahmen einer Aktion umgesetzt werden, wenn der Benutzer P4 durch den Eingang 410 geht.
  • Die Anwesenheitserkennungseinheit 402 des Roboters 100 kann auch erkennen, dass sich ein Benutzer in der Umgebung des Eingangs 410 befindet, wenn von einer Spracherkennung mit Richtfaktor (z. B. einem Mikrofon-Array) Sprache aus der Richtung des Eingangs 410 erkannt wird. Da ein Mikrofon-Array mehrere Mikrofone umfasst, kann nicht nur die Sprache erkannt, sondern zudem die Richtung der Sprachquelle ermittelt werden. Wenn z. B. der Klang des Aufschließens von Eingang 410 erkannt wird, kann sich der Roboter 100 in die Richtung von Eingang 410 bewegen.
  • Die Anwesenheitserkennungseinheit 402 kann erkennen, dass sich ein Benutzer in der Umgebung von Eingang 410 befindet, wenn in der Sprache ein bestimmtes Schlüsselwort erkannt wird. Es reicht aus, dass es sich bei diesem Schlüsselwort um eine typische Redewendung beim Ausgehen oder Zurückkehren handelt, z. B. „Ich bin zuhause“, „Hallo“, „Hab einen schönen Tag“, „Bis bald“, „Bis später“ oder „Komm her“. Typische Redewendungen, die von einem Benutzer oder einer in der Nähe befindlichen Person verwendet werden, wenn der Benutzer ausgeht oder nachhause kommt, werden vorab als „Redewendung“ in einer Datenbank auf dem Server 200 registriert. Wenn eine Redewendung erkannt wird, kann sich der Roboter 100 auf einen Punkt zubewegen, an dem die Redewendungen geäußert werden.
  • Wenn der Benutzer P4 neu in der Nähe des Eingangs 410 auftaucht und die Benutzer P1 bis P3 bereits im Innenraum 408 anwesend sind, kann einer der Benutzer P1 bis P3 sich möglicherweise in die Nähe des Eingangs 410 bewegen, um Benutzer P4 zu begrüßen. Hier wird davon ausgegangen, dass die Benutzer P1 und P2 den Benutzer P4 begrüßen. Anstelle den Benutzern P1 und P2 auf dem Weg zur Begrüßung von Benutzer P4 voranzueilen, folgt der Roboter 100 diesen beiden Benutzern zum Eingang 410. Mithilfe dieser Art von Steuerungsmethode ist eine Aktion möglich, bei der der Roboter 100 zwar Interesse an dem neu im Innenraum 408 eintreffenden Benutzer P4 zeigt, sich jedoch hinter den Benutzern P1 und P2 versteckt auf Benutzer P4 zubewegt. Mit dieser Art von Aktion können die „Schüchternheit“ und „Neugier“ des Roboters 100 ausgedrückt werden.
  • Die Personenerkennungseinheit 214 ermittelt, ob der neu eintreffende Benutzer P4 ein bekannter Benutzer ist, ob also Benutzer P4 bereits in der Datenbank registriert ist. Wenn z. B. jegliche physischen oder Verhaltensmerkmale des Benutzers P4 mit bereits registrierten Benutzermerkmalsdaten (Profil) übereinstimmen, ist Benutzer P4 ein „bereits bekannter Benutzer“.
  • Wenn der Benutzer P4 über ein mobiles Terminal verfügt, dass die Benutzer-ID kundtun kann, ermittelt die Personenerkennungseinheit 214 anhand der Frage, ob die Benutzer-ID bereits registriert ist, ob es sich beim Benutzer P4 um einen bereits bekannten Benutzer handelt oder nicht.
  • Der Roboter 100 ändert einen Aktionsaspekt abhängig davon, ob es sich bei Benutzer P4 um einen bekannten (bereits registrierten Benutzer) handelt. Wenn der Benutzer P4 ein bereits bekannter Benutzer ist, kann die Aktionsbestimmungseinheit 140 dies durch eine Aktion mit „begrüßender Absicht“ ausdrücken, z. B. durch das Winken mit dem Arm 106, das Nicken mit dem Kopf oder das Erhöhen der Näherungsgeschwindigkeit. Wenn es sich bei Benutzer P4 hingegen um einen unbekannten Benutzer handelt, kann der Roboter 100 eine Vermeidungsaktion durchführen, indem er z. B. die Begrüßung abbricht, einen Abstand zu Benutzer P4 einhält, umgehend stehen bleibt oder sich hinter einem anderen, bereits bekannten Benutzer versteckt.
  • Im Folgenden wird davon ausgegangen, dass es sich bei den vier im Raum anwesenden Benutzern P1 bis P4 um alle auf dem Roboter registrierten (von ihm erkannten) Benutzer handelt. Wenn in diesem Fall eine neue Person erkannt wird, kann mit 100 %-iger Wahrscheinlichkeit davon ausgegangen werden, dass es sich bei der Person um einen unbekannten „Besucher“ handelt. Wenn eine neue Person erkannt wird, wenn sich die Benutzer P1 bis P3 im Raum befinden, kann es sich bei der Person um den Benutzer P4 oder um einen unbekannten „Besucher“ handeln. Die Personenerkennungseinheit 214 oder die Bewegungsbestimmungseinheit 138 ermittelt, dass es sich bei der neuen Person mit einer Wahrscheinlichkeit von 50 % um einen Besucher handelt. Wenn eine neue Person erkannt wird, wenn sich die Benutzer P1 und P2 im Raum befinden, kann es sich bei der Person um die Benutzer P3 oder P4 oder um einen unbekannten „Besucher“ handeln. Die Personenerkennungseinheit 214 oder die Bewegungsbestimmungseinheit 138 ermittelt, dass es sich bei der neuen Person mit einer Wahrscheinlichkeit von 33 % um einen Besucher handelt. Anhand der oben beschriebenen Erkennungsmethode kann der Roboter 100 eine „zögerliche Begrüßung“ durchführen, indem er einem Benutzer, der sich zur Begrüßung der neuen Person aufmacht, nur dann folgt, wenn die Wahrscheinlichkeit, dass es sich bei dieser um einen Besucher handelt, mindestens einem vordefinierten Schwellenwert entspricht.
  • Der Roboter 100 oder der Server 200 können eine Einheit zum Sammeln von Alltagsmustern umfassen, in der die Alltagsmuster der Benutzer gesammelt werden. Alternativ kann die Kommunikationseinheit 142 des Roboters 100 ggf. Daten über die Alltagsmustern der einzelnen Benutzer erfassen, indem sie auf eine als externe Datenbank angelegte Einheit zum Sammeln von Alltagsmustern zugreift. Die Uhrzeiten, zu denen ein Benutzer aufsteht, arbeiten geht, nachhause kommt und schlafen geht werden für die einzelnen Benutzer als Alltagsmusterdaten in der Einheit zum Sammeln von Alltagsmustern registriert. Da diese Uhrzeiten in der Regel abweichen können, werden Durchschnitts- und Moduswerte der Uhrzeiten als repräsentative Werte gespeichert. Es können mehrere Arten von Alltagsmusterdaten registriert werden - nicht nur für die einzelnen Benutzer, sondern auch für einzelne Tage oder die Jahreszeiten.
  • Die Anwesenheitserkennungseinheit 402 kann auf die Alltagsmusterdaten eines Benutzers zurückgreifen und eine Uhrzeit vorhersagen, zu der der Benutzer nachhause zurückkehrt. Wenn die prognostizierte Rückkehrzeit des Benutzers näher rückt, kann die Bewegungsbestimmungseinheit 138 den Roboter 100 dazu veranlassen, sich in Richtung des Eingangs 410 zu bewegen und den Benutzer vorab zu „begrüßen“. Mithilfe dieser Steuerungsmethode kann die Begrüßung mühelos und mit großer Genauigkeit umgesetzt werden. Alternativ kann der Roboter 100 auf eine Begrüßung verzichten, wenn die Rückkehrzeit des Benutzers in der Ferne liegt.
  • Bei handelt es sich um eine schematische Darstellung zum Beschreiben einer Aktion, die der Roboter 100 durchführt, wenn ein Benutzer den Raum durch einen Eingang verlässt.
  • Der Roboter 100 erkennt regelmäßig die Positionen und Bewegungsrichtungen der Benutzer P1 bis P3 im Innenraum 408. Im Folgenden wird davon ausgegangen, dass Benutzer P3 sich auf den Weg zum Eingang 410 macht. Die Wegvorhersageeinheit 404 ermittelt, ob sich der Benutzer P3 zum Eingang 410 bewegt oder nicht. Wenn sich der Benutzer P3 in Richtung des Eingangs 410 bewegt, und diese Bewegung mindestens für einen vordefinierten Zeitraum anhält, erkennt die Wegvorhersageeinheit 404, dass der Benutzer P3 den Eingang 410 durchquert und sich anschickt, den Innenraum 408 zu verlassen.
  • Wenn erkannt wird, dass sich der Benutzer P3 in Richtung des Eingangs 410 bewegt, steuert die Bewegungsbestimmungseinheit 138 den Antriebsmechanismus 120 so, dass der Roboter 100 dem Benutzer P3 folgt. Mithilfe dieser Steuerungsmethode kann eine „Verabschiedung“ durch den Roboter 100 im Rahmen einer Aktion umgesetzt werden, wenn der Benutzer P3 durch den Eingang 410 geht.
  • Die Bewegungsbestimmungseinheit 138 kann es dem Roboter 100 untersagen, den Eingang 410 zu passieren. Das heißt, dass die Bewegungsbestimmungseinheit 138 die Bewegung so einschränken kann, dass der Roboter 100 den Innenraum 408 nicht verlässt. Dadurch bewegt sich der Roboter 100 im Innenraum 408 bis in die Nähe des Eingangs 410, folgt dem Benutzer jedoch nicht weiter. Zudem kann dies so eingerichtet werden, dass der Roboter 100 den Eingang 410 nicht durchquert, wenn ein bestimmtes Schlüsselwort als Bedingung ausgesprochen wird, z. B. „Warten“, „Nicht weiter“ oder „Bis bald“.
  • Die Wegvorhersageeinheit 404 kann auf die Alltagsmusterdaten eines Benutzers zurückgreifen und eine Uhrzeit vorhersagen, zu der der Benutzer aufbricht. Wenn sich der Benutzer P3 tatsächlich in einem Zeitraum in Richtung des Eingangs 410 bewegt, der den für sein Aufbrechen prognostizierten Zeitpunkt umfasst, kann die Bewegungsbestimmungseinheit 138 den Roboter 100 dazu veranlassen, sich in Richtung des Eingangs 410 zu bewegen und den Benutzer zu „verabschieden“. Wenn als Zeitpunkt des Aufbrechens von Benutzer P3 19 Uhr prognostiziert wurde, wird ein Zeitraum von einer Stunde vor und nach dem Zeitpunkt (von 18 Uhr 30 bis 19 Uhr 30) als Vorbereitungszeitraum für die Verabschiedung festgelegt, und der Benutzer P3 wird über diesen Zeitraum priorisiert verfolgt. Insbesondere Einstellungen wie z. B. das Erhöhen der Erkennungsfrequenz für die Position von Benutzer P3 und das regelmäßige Richten der Kamera auf Benutzer P3 werden umgesetzt. Wenn diese Art der Steuerungsmethode eingesetzt wird anstatt bei jedem Durchqueren von Eingang 410 durch einen Benutzer eine Verabschiedungsaktion durchzuführen, kann diese mühelos zu einem Zeitpunkt durchgeführt werden, zu dem ein Aufbruch wahrscheinlich ist.
  • Der Roboter 100 kann eine „Verabschiedung“ oder „Begrüßung“ für einen anderen Benutzer durchführen, wenn er eine vordefinierte Kommunikationsaktion für den Benutzer P1 ausführt. Es reicht in diesem Fall aus, wenn es sich bei der Kommunikationsaktion um eine Aktion handelt, die Interesse oder Aufmerksamkeit gegenüber Benutzer P1 ausdrückt, z. B. von Benutzer P1 umarmt zu werden, den Blick auf diesen zu richten oder in dessen Nähe Kreise zu vollziehen.
  • Wenn die Anwesenheit von Benutzer P4 innerhalb eines vordefinierten Bereichs in der Nähe von Eingang 410 erkannt wird, führt der Roboter 100 eine Kommunikationsaktion für Benutzer P1 aus. Wenn hingegen der externe Sensor 114 in der Nähe von Eingang 410 installiert wurde und den Benutzer P4 in der Nähe erkennt, können die Bewegungsbestimmungseinheit 138 und die Aktionsbestimmungseinheit 140 die Kommunikationsaktion abbrechen, und die Bewegungsbestimmungseinheit 138 veranlasst den Roboter 100, eine Begrüßungsaktion für den Benutzer P4 durchzuführen. Da es sich bei Benutzer P4 um einen bereits bekannten Benutzer handelt dessen Vertrautheit mindestens einem vordefinierten Schwellenwert entspricht, und diese Vertrautheit gegenüber Benutzer P4 als Bedingung z. B. mindestens der gegenüber Benutzer P1 entspricht, wird die Kommunikationsaktion für den Benutzer P1 möglicherweise unterbrochen.
  • Auch wenn der Benutzer P3 sich in Richtung des Eingangs 410 bewegt, während der Roboter 100 eine Kommunikationsaktion für Benutzer P1 durchführt, kann diese abgebrochen werden, und die Bewegungsbestimmungseinheit 138 veranlasst den Roboter 100, Benutzer P3 zu verabschieden. Da es sich bei Benutzer P3 um einen bereits bekannten Benutzer handelt dessen Vertrautheit mindestens einem vordefinierten Schwellenwert entspricht, und diese Vertrautheit gegenüber Benutzer P3 als Bedingung z. B. mindestens der gegenüber Benutzer P1 entspricht, wird die Kommunikationsaktion für den Benutzer P1 möglicherweise unterbrochen.
  • Wenn ein neuer Benutzer in der Nähe des Roboters 100 den erfassbaren Bereich des Raums betritt, kann sich der Roboter 100 in die Richtung des Benutzers bewegen. Bei einem „erfassbaren Bereich des Raums“ handelt es sich in diesem Fall um einen Bereich, in dem ein Objekt von der integrierten Kamera als „Person“ erkannt werden kann. Alternativ kann es sich bei einem „erfassbaren Bereich des Raums“ um einen Bereich handeln, in dem ein Objekt nicht nur von der integrierten Kamera als „Person“ erkannt werden kann, sondern in dem zudem anhand eines Bilds festgestellt werden kann, ob es sich bei dem als Person erkannten Benutzer um einen bereits bekannten Benutzer handelt. Mithilfe dieser Art von Steuerungsmethode wird ein für den Roboter 100 erfassbarer Bereich nachgerade als „Revier“ festgelegt, und der Roboter 100 kann eine Aktion durchführen, bei der er einem das Revier betretenden Benutzer mit Interesse entgegenkommt. Die Größe des erfassbaren Bereichs des Raums ist abhängig von der Leistung und Bildverarbeitungskapazität der Kamera des Roboters 100. Daher kann das „Sehvermögen“ des Roboters 100 letztlich durch die Größe des erfassbaren Bereichs des Raums dargestellt werden.
  • Wenn ein neuer Benutzer den erfassbaren Bereich des Raums betritt, in dem sich der Roboter 100 bewegen kann, kann sich der Roboter 100 zudem in die Richtung des Benutzers bewegen. In dieser Ausführung ist der Roboter 100 auf Innenraumaktionen ausgelegt. Der Roboter 100 kann sich über die gesamte Innenfläche eines Zuhauses bewegen, es kann jedoch ein Raum definiert werden, den er nicht betreten darf, z. B. ein Bade- oder Schlafzimmer. Auf diese Weise wird vorab ein Bereich festgelegt, in dem sich der Roboter 100 bewegen kann. Wenn erkannt wird, dass sich ein neuer Benutzer in dem Bereich befindet, in dem sich der Roboter 100 bewegen kann, kann dieser sich an der Seite des Benutzers bewegen. Auch in diesem Fall kann der Roboter 100 eine Aktion durchführen, als hätte er ein Revier.
  • Eine Geste des Roboters 100, bei der das Bild einer Pupille auf den Benutzer gerichtet ist, also eine Geste, bei der der Roboter 100 den Blick auf einen Benutzer richtet, kann als eine Art von „herzlicher Geste“ definiert werden. Eine Geste des des Roboters 100, bei der der Kopfteil oder das Gehäuse 104 auf einen Benutzer gerichtet ist, kann als eine Art von „herzlicher Geste“ definiert werden. Wenn der Roboter 100 im Rahmen solch einer Geste das Auge 110 oder das Gehäuse 104 in Richtung eines Benutzers lenkt, kann er den Umstand ausrücken, dass er sich für den Benutzer interessiert. Wenn eine Person Wohlwollen gegenüber einer anderen Person ausdrücken möchte, führt sie eine Handlung durch, bei der sie den Blick auf die andere Person richtet, die andere Person genau beobachtet, die Augen weit öffnet oder die Haltung ändert (den Kopf oder Körper auf die andere Person richtet). Auch der Roboter 100 kann auf dieselbe Weise wie ein Mensch Zuneigung ausdrücken, indem er das Pupillenbild auf einen Benutzer richtet und diesen Zustand über einen vordefinierten Zeitraum (z. B. mindestens 1,0 s) beibehält, das Pupillenbild weitet oder den Kopf oder Körper zum Benutzer wendet. Diese Art von Geste kann als herzliche Geste definiert werden, die Wohlwollen gegenüber einer Person ausdrückt.
  • Auch weitere Gesten können als herzliche Gesten wahrgenommen werden, darunter das Begleiten eines Benutzers, das Heben und Senken des Kopfes bei einer Umarmung, das Bewegen des Nackens, um bei Umarmungen mit dem Gesicht näher beim Benutzer zu sein, das Bewegen des Gehäuses 104 bei einer Umarmung, das Drehen, das Bewegen des Arms 106 wie ein Pinguin und ähnliche Gesten.
  • Der Benutzer kann ein Alltagsmuster einstellen. Alternativ kann der Roboter 100 z. B. die Zeit erkennen, zu der der Benutzer aufsteht, indem er die Handlungen des Benutzers beobachtet. So kann der Roboter 100 z. B. ermitteln, wann der Benutzer A aufsteht, indem er die Uhrzeit, zu der dieser das Schlafzimmer verlässt, in der Einheit zum Sammeln von Alltagsmustern registriert. Die Uhrzeit, zu der der Benutzer A aufsteht, wird als Alltagsmuster in der Erkennungseinheit 156 des Roboters 100 registriert, nachdem mit der Kamera oder einem ähnlichen Gerät erkannt wurde, dass Benutzer A aufgestanden ist. Die Kommunikationseinheit 142 registriert die Uhrzeit, zu der Benutzer A aufsteht, zudem in der Datenspeichereinheit 148 oder einer externen Datenbank.
  • Gehen wir davon aus, dass der Moduswert der Uhrzeit, zu der Benutzer A das Haus verlässt, 7 Uhr 50 lautet. Der Roboter 100 sucht und verfolgt Benutzer A um 7 Uhr 40, also zehn Minuten vor 7 Uhr 50. Wenn sich Benutzer A in Richtung des Überwachungsbereichs 150 (oder die Nähe des Eingangs 410) bewegt, folgt der Roboter 100 ihm und begibt sich ebenfalls in Richtung des Überwachungsbereichs 150. Mithilfe dieser Art von prädiktiven, auf Alltagsmustern beruhenden Aktionen, kann der Roboter 100 Benutzer A einfacher und zuverlässiger verabschieden. Der Roboter 100 kann auf Alltagsmusterdaten zurückgreifen, eine Uhrzeit für das Aufbrechen eines Benutzers vorhersagen (z. B. einen Modus- oder Durchschnittswert) und damit beginnen, dem Benutzer ab einem vordefinierten Zeitpunkt vor dessen prognostizierten Aufbrechen zu folgen. Zudem kann der Roboter 100 eine „Verabschiedung“ vollziehen, indem er eine herzliche Geste durchführt, wenn der Benutzer den Überwachungsbereich 150 des Flurs 152 betritt, wenn bestimmte Sprachelemente erkannt werden, oder wenn der Benutzer die Tür zum Flur 152 öffnet. Wie bei einer Begrüßung muss der Roboter 100 erst dann eine „Verabschiedung“ durchführen, wenn der vordefinierte Zeitpunkt kurz vor dem prognostizierten Aufbruch des Benutzers gekommen ist.
  • Gehen wir auf dieselbe Weise davon aus, dass der Moduswert der Uhrzeit, zu der Benutzer A nachhause zurückkehrt, 20 Uhr 20 lautet. Der Roboter 100 kann sich um 20 Uhr in den Überwachungsbereich bewegen (also 20 Minuten vor 20 Uhr 20) und dort auf die Rückkehr von Benutzer A warten. Alternativ kann der Roboter 100 in einer Entfernung positioniert werden, in der er das Geräusch beim Aufschließen der Tür im Überwachungsbereich 150 wahrnehmen kann, um dort darauf zu warten, Benutzer A zu begrüßen. Auf diese Weise kann der Roboter 100 auf die Alltagsmusterdaten zurückgreifen, eine Uhrzeit für die Rückkehr eines Benutzers vorhersagen (z. B. einen Modus- oder Durchschnittswert) und sich ab einem vordefinierten Zeitpunkt vor dessen prognostizierter Rückkehr in einen vordefinierten Bereich in der Nähe des Überwachungsbereichs 150 begeben. Zudem kann der Roboter 100 eine „Begrüßung“ vollziehen, indem er eine herzliche Geste durchführt, wenn der Benutzer den Überwachungsbereich 150 des Flurs 152 betritt, wenn bestimmte Schlüsselwörter erkannt werden, oder wenn der Benutzer die Tür zum Flur 152 öffnet.
  • Der im Flur 152 installierte externe Sensor 114 erkennt das Eintreten eines Benutzers in den Überwachungsbereich 150 und benachrichtigt den Server 200. Der Server 200 überträgt ein Steuerungssignal, das den Roboter 100 anweist, eine „Begrüßung“ oder „Verabschiedung“ durchzuführen. Der Roboter 100 bewegt sich zu einem vom Server 200 festgelegten Zielpunkt. Beim Erreichen des Zielpunkts führt der Roboter 100 eine herzliche Geste gegenüber dem Benutzer durch.
  • Wenn von der integrierten Kamera bestätigt wird, dass ein Benutzer durch eine Tür geht, kann die Erkennungseinheit 156 des Roboters 100 den Roboter 100 proaktiv dazu veranlassen, eine Begrüßungs- oder Verabschiedungsaktion durchzuführen, ohne auf eine Anweisung des Servers 200 zu warten. Wenn der in der Nähe der Tür installierte externe Sensor 114 einen Benutzer erkennt, der durch eine Tür geht, kann er ein Erkennungssignal an den Server 200 übertragen, damit der Server 200 den Roboter 100 anweist, eine Begrüßung oder ähnliches durchzuführen. Alternativ kann der externe Sensor 114 ein Näherungserkennungssignal an den Roboter 100 übertragen. Die Bewegungsbestimmungseinheit 138 des Roboters 100 kann daraufhin einen Bewegungszielpunkt in jener Richtung festlegen, in der sich eine Tür befindet, die der ID des externen Sensors 114 entspricht. Wenn die Erkennungseinheit 156 mithilfe der Kamera einen Benutzer erkennt, nachdem der Roboter 100 den Bewegungszielpunkt erreicht hat, vollzieht der Roboter 100 eine herzliche Geste.
  • Wenn das integrierte Mikrofon (Sensor) des Roboters oder des externen Sensors 114 das Geräusch einer sich öffnenden und schließenden Tür wahrnimmt, kann sich der Roboter 100 zur Tür bewegen und eine herzliche Geste vollziehen, wenn über das Bild ein Benutzer erkannt wird. Der Roboter 100 kann eine Begrüßung oder ähnliche Gesten nicht nur dann durchführen, wenn ein Benutzer durch die Tür geht, sondern auch in Situationen, in denen das Eintreten eines Benutzers vorhersehbar ist, z. B. beim Öffnen und Schließen einer Tür.
  • Zusätzlich zu Benutzern, die den Überwachungsbereich 150 betreten, sowie sich öffnenden und schließenden Türen können auch Redewendungen wie z. B. „Ich bin zuhause“, „Hallo“, „Hab einen schönen Tag“, „Bis bald“, „Bis später“ oder „Komm her“ als Methode zum Erkennen einer „Situation, in der eine Begrüßung oder Verabschiedung vollzogen werden sollte“ herangezogen werden. Typische Wörter, die vom Benutzer oder Personen in der Umgebung geäußert werden, wenn ein Benutzer ausgeht oder zurückkehrt, werden vorab als „Redewendungen“ z. B. in der Datenbank des Servers 200 registriert. Wenn Redewendungen erkannt werden, kann sich der Roboter 100 auf einen Punkt zubewegen, an dem die Redewendungen geäußert werden, und einem Benutzer gegenüber eine herzliche Geste vollziehen.
  • Wenn eine Redewendung erkannt wird, kann sich der Roboter 100 auf die Sprachquelle zubewegen und eine herzliche Geste vollziehen, wobei der Benutzer anhand eines Bilds erkannt wird und als Auslöser fungiert. Welche der verschiedenen herzlichen Gesten vollzogen werden soll, kann zufällig ausgewählt werden. Die herzliche Geste kann jedoch auch anhand einer Variable wie z. B. der Vertrautheit mit dem Benutzer oder eines Gefühlsparameters festgelegt werden.
  • Wenn mehrere Roboter 100 vorhanden sind, kann ein Roboter 100 den anderen von einer „Rückkehr“ oder einem „Aufbruch“ informieren. Wenn z. B. der erste Roboter 100 das Geräusch der sich öffnenden und schließenden Tür im Flur 152 wahrnimmt, kann er den zweiten Roboter 100 per drahtloser Kommunikation über das erkannte Geräusch informieren. Wenn der erste Roboter 100 anhand des Geräuschs der sich öffnenden und schließenden Tür die Rückkehr eines Benutzers erkennt, vollzieht nicht nur er nur eine Begrüßungsaktion, sondern auch der zweite, von der Rückkehr informierte Roboter 100 kann eine Begrüßungsaktion durchführen, obwohl er die Rückkehr nicht selbst erkannt hat. Der zweite Roboter 100 kann selbst dann eine ebensolche Begrüßungsaktion wie der erste Roboter 100 durchführen, wenn er sich weit entfernt vom Flur 152 aufgehalten hat und das Geräusch der sich öffnenden und schließenden Tür nicht wahrnehmen konnte.
  • Beim Erkennen einer Person im Flur 152 legt der erste Roboter 100 also den Flur 152 als Bewegungszielpunkt fest und vollzieht beim Erreichen des Zielpunkts eine herzliche Geste. Zudem überträgt der erste Roboter 100 beim Erkennen der Anwesenheit einer Person im Flur 152 ein Erkennungssignal an den zweiten Roboter 100. Beim Erhalt des Erkennungssignals legt der zweite Roboter 100 den Flur 152 als Bewegungszielpunkt fest und vollzieht genau wie der erste Roboter 100 beim Erreichen des Zielpunkts eine herzliche Geste. Dasselbe gilt für die Verabschiedung. Der erste Roboter 100 kann auf dieselbe Weise ein Erkennungssignal an den zweiten Roboter 100 übertragen, wenn er das Öffnen und Schließen einer Tür, eine durch eine Tür gehende Person oder eine bestimmte Redewendung erkennt.
  • Der Roboter 100 kann eine Aktion je nach Vertrautheit ändern. Wenn z. B. in einer Situation erkannt wird, dass der Benutzer S2 ausgeht oder zurückkehrt, in der der Roboter 100 vom Benutzer S1 umarmt wird, vergleicht der Roboter 100 die Vertrautheit mit Benutzer S1 mit der mit Benutzer S2 und priorisiert die Aktion gegenüber dem Benutzer, mit der größeren Vertrautheit. Dasselbe gilt, wenn das Ausgehen oder die Rückkunft des anderen Benutzers S2 erkannt wird, wenn der Roboter 100 einen Zuruf von Benutzer S1 erhält. Wenn ein zweiter Benutzer den Überwachungsbereich 150 des Flurs 152 betritt, oder wenn erkannt wird, dass der zweite Benutzer eine bestimmte Redewendung verwendet, d. h. wenn die Rückkehr des zweiten Benutzers erkannt wird, kann der Roboter 100 als Bedingung eine Begrüßungs- oder Verabschiedungsaktion durchführen, wenn die Vertrautheit mit dem zweiten Benutzer größer ist als die zum ersten, bereits anwesenden Benutzer.
  • Wenn der Roboter 100 eine vom ersten Benutzer angewiesene Aktion durchführt, oder wenn der zweite Benutzer zu einem Zeitpunkt nachhause kommt, zu dem der Roboter 100 in Kontakt mit dem ersten Benutzer ist, kann der Roboter 100 eine herzliche Geste anhand der unterschiedlichen Vertrautheiten in Bezug auf den ersten und zweiten Benutzer ändern. Wenn der zweite, nachhause kommende Benutzer z. B. weitaus vertrauter ist als der erste (der Unterschied mindestens einem ersten Schwellenwert entspricht), so kann der Roboter 100 den ersten Benutzer verlassen, sich in den Flur 152 begeben und den zweiten Benutzer um eine Umarmung bitten. Wenn der zweite, nachhause kommende Benutzer ebenso vertraut ist wie der erste (der Unterschied mindestens einem zweiten Schwellenwert entspricht und geringer als der erste Schwellenwert ist), kann sich der Roboter 100 einmal in den Flur 152 bewegen, den zweiten Benutzer anblicken und anschließend zum ersten Benutzer zurückkehren. Wenn der zweite, nachhause kommende Benutzer weniger vertraut ist als der erste (der Unterschied geringer als der zweite Schwellenwert ist), muss der Roboter 100 keine herzliche Geste gegenüber dem zweiten Benutzer vollführen.
  • Der Roboter 100 kann sich nicht durch die Tür im Flur 152, jedoch durch Türen im Innenraum bewegen. Es können auch im Innenraum Türen festgelegt werden, durch die der Roboter 100 sich nicht bewegen darf. Der Server 200 kann die Positionen der Türen auf einer Karte registrieren, die durchquert werden dürfen oder nicht. Zudem kann anhand der Karte ein eingeschränkter Bewegungsbereich für den Roboter 100 festgelegt werden. Der Benutzer kann dem Roboter 100 verbieten, eine Tür im Innenraum zu durchqueren, indem er Redewendungen wie z. B. „Warten“ (im Folgenden als „Warteredewendung“ bezeichnet) äußert. Wenn ein Benutzer eine Warteredewendung wie z. B. „Warten“, „Bleib“ oder „Hier stopp“ in einem Moment äußert, in dem sich der Roboter 100 gerade durch eine Tür im Innenraum bewegen und dem Benutzer folgen möchte, hält der Roboter 100 an, ohne sich durch die Tür im Innenraum zu bewegen. Auch kann der Roboter 100 lernen, dass eine Tür, deren Durchquerung mit einer Redewendung untersagt wurde, auch zukünftig nicht durchquert werden darf. Mithilfe dieser Steuerungsmethode kann per Warteredewendungen ein Aktionsbereich für den Roboter 100 festgelegt werden.
  • Zusätzlich zum Geräusch einer sich im Flur 152 öffnenden oder schließenden Tür kann die Erkennungseinheit 156 des Roboters 100 die Rückkehr eines Benutzers am Geräusch einer Gegensprechanlage oder eine Melodie erkennen, die abgespielt wird, wenn die Tür im Flur 152 geöffnet wird. Zudem kann der Roboter 100 anhand der Gespräche der anwesenden Benutzer ermitteln, ob eine Rückkehr bevorsteht. Wenn z. B. die Erkennungseinheit 156 des Roboters 100 in der Unterhaltung der anwesenden Benutzer eine Redewendung wie z. B. „Kommen“ oder „Heimkommen“ erkennt, kann sie ableiten, dass die Heimkehr eines abwesenden Benutzers bevorsteht. In diesem Fall kann sich der Roboter 100 umgehend in den Flur 152 begeben und einen vordefinierten Punkt als Bewegungszielpunkt festlegen, an dem das Geräusch einer sich im Flur 152 öffnenden Tür wahrgenommen werden kann.
  • Wenn ein Besucher z. B. anhand des Geräuschs einer Gegensprechanlage erkannt wird, während alle Eigentümer zuhause sind, kann der Roboter 100 einem Benutzer folgen und eine zögerliche Begrüßung vollziehen. So kann der Roboter 100 z. B. einem Eigentümer folgen und sich umgehend in ein Wohnzimmer zurückziehen, ohne eine herzliche Geste zu vollziehen.
  • Wenn sich zwischen der aktuellen Position und dem Bewegungszielpunkt z. B. für eine Begrüßung oder Verabschiedung ein Hindernis befindet, wenn der Roboter 100 den Flur 152 beispielsweise nicht erreichen kann, weil die Wohnzimmertür geschlossen ist, kann der Roboter 100 anhalten, vor dem Hindernis warten und eine herzliche Geste vollziehen, sobald er den Benutzer optisch erkennen kann. Wenn beispielsweise der Weg zum Flur 152 durch eine Glastür versperrt ist, kann der Roboter 100 vor der Tür im Innenraum stehen bleiben und eine herzliche Geste vollziehen, wenn der den zurückkehrenden Benutzer optisch erkennen kann. Auf diese Weise kann es sich beim Bewegungszielpunkt statt um einen Punkt wie z. B. dem Flur 152, in dem ein Benutzer anwesend ist, um einen Punkt auf dem Weg zu dem Ort handeln, an dem der Benutzer sich aufhält.
  • Wenn ein Benutzer durch eine Tür im Innenraum geht, kann der Roboter 100 auf Alltagsmusterdaten zurückgreifen und ermitteln, ob der Benutzer für längere Zeit aufbricht oder den Innenraum nur kurz verlässt. Zudem kann der Roboter 100 nur dann eine Verabschiedungsaktion durchführen, wenn der Benutzer für längere Zeit aufbricht. So kann beispielsweise davon ausgegangen werden, dass die Wahrscheinlichkeit, dass der Benutzer B ausgeht, wenn er zwischen 9 und 10 Uhr (im ersten Zeitraum) durch eine Tür im Innenraum geht, in der Regel mindestens so groß ist wie ein vordefinierter Schwellenwert. Wenn er jedoch zwischen 13 und 15 Uhr (einem zweiten Zeitraum) durch die Tür im Innenraum geht, ist die Wahrscheinlichkeit, dass er ausgeht, geringer als der vordefinierte Schwellenwert. Der Roboter 100 führt keine Verabschiedungsaktion durch, wenn der Zeitrum, in dem der Benutzer B durch die Tür im Innenraum geht, im ersten Zeitraum liegt. Liegt diese jedoch im zweiten Zeitraum, so vollzieht er eine Verabschiedung.
  • Auch wenn der Roboter 100 ein Objekt erkennt, das auf Ausgehen schließen lässt (z. B. ein Mantel, ein Hut oder eine Thermoskanne), kann er ermitteln, dass der Benutzer für längere Zeit ausgeht und vollzieht daher eine Verabschiedung. Der Roboter 100 kann ermitteln, dass der Benutzer für längere Zeit ausgeht, wenn dieser durch eine Tür im Innenraum geht, oder wenn er Redewendungen wie z. B. „Mach's gut“ oder „Bis später“ verwendet.
  • Die Datenverarbeitungseinheit 202 des Server 200 oder die Datenverarbeitungseinheit 136 des Roboters 100 können über eine Gefühlsverwaltungseinheit verfügen. Die Gefühlsverwaltungseinheit verwaltet verschiedene Gefühlsparameter, die den Emotionen (Traurigkeit, Neugier, Wunsch nach Anerkennung usw.) des Roboters 100 entsprechen. Diese Gefühlsparameter sind ständig im Fluss. Die Bedeutung der verschiedenen Aktionskarten ändert sich anhand der Gefühlsparameter, die Bewegungszielpunkte des Roboters 100 ändern sich anhand der Aktionskarten und die Gefühlsparameter ändern sich anhand der Bewegungen des Roboters 100 sowie durch das Verstreichen von Zeit.
  • Wenn z. B. der Gefühlsparameter für Traurigkeit hoch ist, legt die Gefühlsverwaltungseinheit den Gewichtungskoeffizienten derjenigen Aktionskarte höher fest, mit der Orte ermittelt werden, an denen sich der Roboter 100 wohlfühlt. Wenn der Roboter 100 einen Punkt auf der Aktionskarte erreicht, an dem Traurigkeit ausgeschlossen werden kann, setzt die Gefühlsverwaltungseinheit den Gefühlsparameter für Traurigkeit herab. Zudem ändern sich die einzelnen Gefühlsparameter aufgrund der im Folgenden beschriebenen Antwortaktionen. So nimmt z. B. der Gefühlsparameter für Traurigkeit ab, wenn der Roboter 100 von einem Eigentümer „umarmt“ wird, während er nach und nach zunimmt, wenn der Roboter 100 über einen längeren Zeitraum keinen Eigentümer optisch erkennen kann.
  • Der Roboter 100 kann den externen Sensor 114 selbst installieren. Wenn der Roboter 100 in ein neues Zuhause eingeführt wird, kann er einem Benutzer eine Stelle zeigen, an der der externe Sensor 114 installiert werden sollte. Auch kann der Roboter 100 den externen Sensor 114 selbst installieren.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2000323219 A [0005]

Claims (28)

  1. Folgendes wird beansprucht:
  2. Ein autonom handelnder Roboter, der aus Folgendem besteht: einer Bewegungsbestimmungseinheit, die eine Bewegungsrichtung bestimmt, einer Aktionsbestimmungseinheit, die aus verschiedenen Arten von Gesten eine Geste auswählt, einer Zielerkennungseinheit, die die Anwesenheit einer Person in einem Überwachungsbereich erkennt, und einem Antriebsmechanismus, der eine bestimmte Bewegung und Geste ausführt, wobei beim Erkennen der Anwesenheit einer Person im Überwachungsbereich die Bewegungsbestimmungseinheit einen Bewegungszielpunkt im Überwachungsbereich festlegt, und die Aktionsbestimmungseinheit, sobald der Roboter den Zielpunkt erreicht hat, eine herzliche Geste gegenüber der neu erkannten Person auswählt, die als Geste definiert ist, die gute Absichten gegenüber einer Person ausdrückt.
  3. Der autonom handelnde Roboter, wobei wenn eine sich vom Überwachungsbereich zum Roboter bewegende Person neu erkannt wird, bevor der Roboter den Zielpunkt erreicht, die Aktionsbestimmungseinheit die Bewegung zum Zielpunkt unterbricht und den Antriebseinheit anweist, eine herzliche Geste gegenüber der neu erkannten Person auswählt, die als Geste definiert ist, die gute Absichten gegenüber einer Person ausdrückt.
  4. Der autonom handelnde Roboter gemäß der Ansprüche 1 oder 2, wobei es sich bei der herzlichen Geste um ein sitzende Aktion handelt.
  5. Der autonom handelnde Roboter gemäß einer der Ansprüche 1 bis 3, mit folgender zusätzlicher Komponente: eine Personenerkennungseinheit, die eine Person erkennt, wobei die Aktionsbestimmungseinheit je nach erkannter Person unter den vielen Arten von herzlichen Gesten eine zu vollziehend herzliche Geste auswählt.
  6. Der autonom handelnde Roboter gemäß einer der Ansprüche 1 bis 4, mit folgender zusätzlicher Komponente: eine Reaktionserkennungseinheit, die die Reaktion einer Person auf eine herzliche Geste erkennt, wobei die Aktionsbestimmungseinheit eine weitere herzliche Geste auswählt, wenn die Reaktionserkennungseinheit erkennt, dass von einer Person eine positive Reaktion erhalten wurde.
  7. Der autonom handelnde Roboter gemäß einer der Ansprüche 1 bis 5, wobei vorab im Überwachungsbereich ein Sensor angebracht wird, der ein Erkennungssignal überträgt, wenn im Überwachungsbereich eine Person erkannt wird, sodass die Zielerkennungseinheit die Person mithilfe des Erkennungssignals erkennen kann.
  8. Der autonom handelnde Roboter gemäß Anspruch 6, wobei der Sensor ein leistungsstarkes Richtmikrofon umfasst, sodass ein Erkennungssignal übertragen wird, wenn ein Zuruf erkannt wird.
  9. Der autonom handelnde Roboter gemäß einer der Ansprüche 1 bis 7, wobei die Bewegungsbestimmungseinheit den Zielpunkt im Überwachungsbereich so festlegt, dass es sich als Bedingung bei der Entfernung von der aktuellen Position des autonom handelnden Roboters zum Überwachungsbereich höchstens um eine vordefinierte Entfernung handelt.
  10. Ein autonom handelnder Roboter, der aus Folgendem besteht: einer Bewegungsbestimmungseinheit, die eine Bewegungsrichtung bestimmt, einem Antriebsmechanismus, der eine bestimmte Bewegung ausführt, und einer Erkennungseinheit, die eine äußere Umgebung anhand der von einem Sensor erfassten Daten erkennt, wobei die Erkennungseinheit Folgendes umfasst: eine Eingangsbestimmungseinheit, die eine Stelle festlegen kann, durch die eine Person in einem Innenraum als Eingang gehen kann, und eine Anwesenheitserkennungseinheit, die ermittelt, ob in einem vordefinierten Bereich rund um den angegebenen Eingang eine Person anwesend ist oder nicht, sodass bei einer von der Anwesenheitserkennungseinheit als anwesend erkannten Person die Bewegungsbestimmungseinheit den angegebenen Eingang als Zielpunkt festlegen kann.
  11. Der autonom handelnde Roboter gemäß Anspruch 8, wobei die Anwesenheitserkennungseinheit erkennt, dass eine Person anwesend ist, wenn vom Sensor eine Zustandsänderung in der Richtung erkannt wird, in der sich der angegebene Eingang befindet.
  12. Der autonom handelnde Roboter gemäß Anspruch 9, wobei die Anwesenheitserkennungseinheit erkennt, dass eine Person anwesend ist, wenn vom Sensor Sprache mit einem Schlüsselwort erkannt wird.
  13. Der autonom handelnde Roboter gemäß einer der Ansprüche 9 bis 11, wobei für den Fall, dass während der Durchführung einer vordefinierten Kommunikationsaktion gegenüber einem ersten Benutzer ein zweiter Benutzer im vordefinierten Bereich rund um den angegebenen Eingang anwesend ist, die Bewegungsbestimmungseinheit die Kommunikationsaktion unterbricht und den Antriebsmechanismus anweist, sich zum angegeben Eingang zu bewegen.
  14. Der autonom handelnde Roboter gemäß einer der Ansprüche 9 bis 12, wobei die Bewegungsbestimmungseinheit die Wahrscheinlichkeit eines Besuchers anhand der Anwesenheitsbedingung einer Person im Innenraum einschätzt. Wenn hierbei erkannt wird, dass die Wahrscheinlichkeit eines Besuchers groß ist, wird der Antriebsmechanismus angewiesen, sich zum angegebenen Eingang zu bewegen und der im Innenraum anwesenden Person zu folgen.
  15. Der autonom handelnde Roboter gemäß Anspruch 13, mit folgender zusätzlicher Komponente: eine Aktionsbestimmungseinheit, die während der Bewegung einen Aktionsaspekt abhängig davon ändert, ob es sich bei einem Besucher um einen bereits registrierten Benutzer handelt.
  16. Der autonom handelnde Roboter gemäß einer der Ansprüche 9 bis 14, wobei die Anwesenheitserkennungseinheit anhand der Alltagsmusterdaten eine Uhrzeit vorhersagt, zu der ein Benutzer nachhause zurückkehrt, und die Bewegungsbestimmungseinheit den Antriebsmechanismus anweist, sich zu einem vordefinierten Zeitpunkt vor der für die Rückkehr des Benutzers prognostizierten Uhrzeit zum angegebenen Eingang zu bewegen.
  17. Der autonom handelnde Roboter gemäß einer der Ansprüche 9 bis 15, wobeidie Anwesenheitserkennungseinheit erkennt, dass sich in der Umgebung des angegebenen Eingang eine Person befindet, wenn ein sich auf den Innenraum zubewegendes Objekt von einem Sensor im Außenbereich erkannt wird.
  18. Ein autonom handelnder Roboter, der aus Folgendem besteht: einer Bewegungsbestimmungseinheit, die eine Bewegungsrichtung bestimmt, einem Antriebsmechanismus, der eine bestimmte Bewegung ausführt, und einer Erkennungseinheit, die eine äußere Umgebung anhand der von einem Sensor erfassten Daten erkennt, wobei die Erkennungseinheit Folgendes umfasst: eine Eingangsbestimmungseinheit, die eine Stelle festlegen kann, durch die eine Person in einem Innenraum als Eingang gehen kann, und eine Wegvorhersageeinheit, die ermittelt, ob sich eine Person in Richtung des angegebenen Eingangs bewegt oder nicht, sodass wenn erkannt wird, dass sich eine Person in Richtung des angegebenen Eingangs bewegt, die Bewegungsbestimmungseinheit den Antriebsmechanismus anweist, sich auf die Person zuzubewegen.
  19. Der autonom handelnde Roboter gemäß Anspruch 17, wobei die Bewegungsbestimmungseinheit dem Antriebsmechanismus untersagt, den angegebenen Eingang zu durchqueren, wenn sie diesen anweist, sich auf den angegebenen Eingang zuzubewegen.
  20. Der autonom handelnde Roboter gemäß Anspruch 17, wobei die Bewegungsbestimmungseinheit dem Antriebsmechanismus untersagt, den angegebenen Eingang zu durchqueren, wenn sie diesen anweist, sich auf den angegebenen Eingang zuzubewegen, nachdem der Sensor Sprache mit einem bestimmten Schlüsselwort erkannt hat.
  21. Der autonom handelnde Roboter gemäß einer der Ansprüche 17 bis 20, wobei die Wegvorhersageeinheit anhand der Alltagsmusterdaten eine Uhrzeit vorhersagt, zu der ein Benutzer aufbricht, und die Bewegungsbestimmungseinheit nicht dafür sorgt, dass dem Benutzer auf dem Weg zum angegeben Eingang gefolgt wird, wenn dies außerhalb eines vordefinierten Zeitraums einschließlich des prognostizierten Aufbruchszeitpunkts erfolgt.
  22. Der autonom handelnde Roboter gemäß einer der Ansprüche 17 bis 20, wobei für den Fall, dass während der Durchführung einer vordefinierten Kommunikationsaktion gegenüber einem ersten Benutzer sich ein zweiter Benutzer in die Richtung des angegebenen Eingangs bewegt, die Bewegungsbestimmungseinheit die Kommunikationsaktion unterbricht und den Antriebsmechanismus anweist, sich zum angegeben Eingang zu bewegen.
  23. Der autonom handelnde Roboter gemäß Anspruch 21, wobei die Bewegungsbestimmungseinheit die Kommunikationsaktion unter der Bedingung unterbricht, dass die Vertrautheit mit dem zweiten Benutzer höher ist, als die mit dem ersten.
  24. Ein autonom handelnder Roboter, der aus Folgendem besteht: einer Bewegungsbestimmungseinheit, die eine Bewegungsrichtung bestimmt, einem Antriebsmechanismus, der eine bestimmte Bewegung ausführt, und einer Erkennungseinheit, die eine äußere Umgebung anhand der von einem Sensor erfassten Daten erkennt, wobei für den Fall, dass die Anwesenheit einer neuen Person in einem von der Erkennungseinheit erfassten Bereich erkannt wird, die Bewegungsbestimmungseinheit die Richtung, in der sich die neue Person befindet, als neue Bewegungsrichtung festlegt.
  25. Der autonom handelnde Roboter gemäß Anspruch 23, wobei für den Fall, dass die Bilderkennung nach dem Erkennen des neuen Benutzers ermittelt, dass der neue Benutzer einem bereits registrierten Benutzer entspricht, die Bewegungsbestimmungseinheit den Antriebsmechanismus anweist, sich in die Richtung des zweiten Benutzers zu bewegen.
  26. Ein Computerprogramm, das einen autonom handelnden Roboter dazu veranlasst, eine Funktion auszuführen, mit der eine Stelle, durch die eine Person in einem Innenraum gehen kann, anhand der von einem Sensor erfassten Daten als Eingang festzulegen, eine Funktion auszuführen, mit der ermittelt wird, ob in einem vordefinierten Bereich rund um den angegebenen Eingang eine Person anwesend ist oder nicht, und eine Funktion auszuführen, mit der nach dem Erkennen einer anwesenden Person der angegebene Eingang als Zielpunkt festgelegt wird.
  27. Ein Computerprogramm, das einen autonom handelnden Roboter dazu veranlasst, eine Funktion auszuführen, mit der eine Stelle, durch die eine Person in einem Innenraum gehen kann, anhand der von einem Sensor erfassten Daten als Eingang festzulegen, eine Funktion auszuführen, mit der ermittelt wird, ob sich eine Person in Richtung des angegebenen Eingangs bewegt oder nicht, und eine Funktion auszuführen, mit der die Bewegung in Richtung einer Person geleitet wird, die sich in Richtung des angegebenen Eingangs bewegt.
  28. Ein Computerprogramm, das einen autonom handelnden Roboter dazu veranlasst, eine Funktion auszuführen, die eine äußere Umgebung anhand der von einem Sensor erfassten Daten erkennt, und eine Funktion auszuführen, mit der die Position einer Person als Bewegungsrichtung festgelegt wird, nachdem die Anwesenheit dieser neuen Person im erfassbaren Bereich erkannt wurde.
DE112017001573.1T 2016-03-28 2017-03-16 Autonom agierender Roboter, der eine Begrüssungsaktion durchführt Active DE112017001573B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016-063466 2016-03-28
JP2016063466 2016-03-28
PCT/JP2017/010594 WO2017169826A1 (ja) 2016-03-28 2017-03-16 お出迎え行動する自律行動型ロボット

Publications (2)

Publication Number Publication Date
DE112017001573T5 true DE112017001573T5 (de) 2018-12-20
DE112017001573B4 DE112017001573B4 (de) 2020-01-30

Family

ID=59964378

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017001573.1T Active DE112017001573B4 (de) 2016-03-28 2017-03-16 Autonom agierender Roboter, der eine Begrüssungsaktion durchführt

Country Status (6)

Country Link
US (1) US11135727B2 (de)
JP (2) JP6409206B2 (de)
CN (1) CN109153127B (de)
DE (1) DE112017001573B4 (de)
GB (1) GB2563785B (de)
WO (1) WO2017169826A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11192257B2 (en) 2016-04-08 2021-12-07 Groove X, Inc. Autonomously acting robot exhibiting shyness

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112017002606B4 (de) * 2016-07-08 2020-06-25 Groove X, Inc. Autonom handelnder Roboter, der Kleidung trägt
US10427305B2 (en) * 2016-07-21 2019-10-01 Autodesk, Inc. Robotic camera control via motion capture
JP6565853B2 (ja) * 2016-09-29 2019-08-28 トヨタ自動車株式会社 コミュニケーション装置
JP6515899B2 (ja) * 2016-10-04 2019-05-22 トヨタ自動車株式会社 音声対話装置及びその制御方法
US11010601B2 (en) * 2017-02-14 2021-05-18 Microsoft Technology Licensing, Llc Intelligent assistant device communicating non-verbal cues
US10467509B2 (en) 2017-02-14 2019-11-05 Microsoft Technology Licensing, Llc Computationally-efficient human-identifying smart assistant computer
US11100384B2 (en) 2017-02-14 2021-08-24 Microsoft Technology Licensing, Llc Intelligent device user interactions
US10449463B2 (en) * 2017-05-09 2019-10-22 Wowwee Group Ltd. Interactive robotic toy
CN111344117A (zh) * 2017-11-13 2020-06-26 青少年工程公司 用于控制机械臂的用户交互电子***和方法
EP3778151A4 (de) 2018-03-30 2021-06-16 Sony Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
US11468590B2 (en) 2018-04-24 2022-10-11 Cyberoptics Corporation Wireless substrate-like teaching sensor for semiconductor processing
JP7160092B2 (ja) * 2018-05-01 2022-10-25 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、及び自律行動ロボット制御システム
WO2019213264A1 (en) * 2018-05-01 2019-11-07 Piaggio Fast Forward, Inc. Method for determining self-driving vehicle behavior models, a self-driving vehicle, and a method of navigating a self-driving vehicle
EP3795225A4 (de) * 2018-05-15 2022-03-30 Sony Group Corporation Steuerungsvorrichtung, steuerungsverfahren und programm
JP2019207463A (ja) * 2018-05-28 2019-12-05 株式会社日立製作所 ロボット、行動検知サーバ、および行動検知システム
WO2019240208A1 (ja) * 2018-06-13 2019-12-19 Groove X株式会社 ロボットおよびその制御方法、ならびにプログラム
CN110605722A (zh) * 2018-06-14 2019-12-24 中瑞福宁机器人(沈阳)有限公司 养老服务机器人三层级关怀***
JP7176244B2 (ja) * 2018-06-20 2022-11-22 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
JP7298860B2 (ja) * 2018-06-25 2023-06-27 Groove X株式会社 仮想キャラクタを想定する自律行動型ロボット
CN112424720A (zh) * 2018-07-20 2021-02-26 索尼公司 代理、存在概率图创建方法、代理动作控制方法和程序
US11590660B2 (en) * 2018-09-26 2023-02-28 Disney Enterprises, Inc. Interactive autonomous robot configured for deployment within a social environment
JP7379814B2 (ja) * 2018-11-21 2023-11-15 富士フイルムビジネスイノベーション株式会社 自律移動装置およびプログラム
JP7444460B2 (ja) 2018-12-03 2024-03-06 Groove X株式会社 ロボット用充電ステーション
US20210373576A1 (en) * 2019-01-03 2021-12-02 Lg Electronics Inc. Control method of robot system
JP7391882B2 (ja) * 2019-01-22 2023-12-05 本田技研工業株式会社 同行移動体
KR102279597B1 (ko) * 2019-01-28 2021-07-20 엘지전자 주식회사 인공지능 이동 로봇 및 이의 제어 방법
JPWO2020158642A1 (ja) * 2019-01-31 2021-12-02 ソニーグループ株式会社 ロボットの制御装置、ロボットの制御方法、及びプログラム
JP7273538B2 (ja) * 2019-02-26 2023-05-15 パナソニックホールディングス株式会社 装置、方法、及びプログラム
CN109857114A (zh) * 2019-02-26 2019-06-07 温州市职业中等专业学校 校园移动智能机器人及校园智能管理***
JP7024754B2 (ja) * 2019-03-25 2022-02-24 カシオ計算機株式会社 制御装置、ロボット、制御方法およびプログラム
JP7320240B2 (ja) * 2019-04-01 2023-08-03 国立大学法人豊橋技術科学大学 ロボット
KR20210138181A (ko) * 2019-04-11 2021-11-19 엘지전자 주식회사 안내 로봇 및 안내 로봇의 동작 방법
US11429113B2 (en) * 2019-08-08 2022-08-30 Lg Electronics Inc. Serving system using robot and operation method thereof
WO2021053949A1 (ja) * 2019-09-17 2021-03-25 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
CN112536801A (zh) * 2019-09-23 2021-03-23 上海庐真实业有限公司 一种早教机器人
CN111300437B (zh) * 2019-12-06 2022-01-04 西南石油大学 一种图书馆图书智能收集存储集运机器人
KR20210078060A (ko) * 2019-12-18 2021-06-28 삼성전자주식회사 사용자와의 인터랙션 중 인터럽션(제3자로부터의 개입)을 방지하는 로봇
JP7351757B2 (ja) * 2020-01-24 2023-09-27 株式会社日立製作所 移動するロボットを制御する方法
CN114006959A (zh) * 2020-07-27 2022-02-01 Oppo广东移动通信有限公司 电子设备
KR102576788B1 (ko) * 2020-08-21 2023-09-11 한국전자통신연구원 로봇 인터랙션 행위 생성 장치 및 방법
JP7113270B1 (ja) * 2020-12-10 2022-08-05 パナソニックIpマネジメント株式会社 ロボット制御方法及び情報提供方法
CN113050505B (zh) * 2021-03-25 2021-12-24 广东凌霄泵业股份有限公司 一种远程控制型多功能spa浴缸智能控制器
US20220357721A1 (en) * 2021-05-10 2022-11-10 Bear Robotics, Inc. Method, system, and non-transitory computer-readable recording medium for controlling a robot
CN113534813B (zh) * 2021-07-30 2024-06-18 珠海一微半导体股份有限公司 移动机器人作业方法、***及芯片
DE102023201628B3 (de) 2023-02-22 2024-05-16 BSH Hausgeräte GmbH Bestimmung eines Zustands eines Fensters oder einer Tür in einem Haushalt
US11826670B1 (en) * 2023-07-27 2023-11-28 Placo Bubbles Limited Moving bubble toy animal

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000323219A (ja) 1999-05-10 2000-11-24 Sony Corp 接続装置及びロボットシステム

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU768353B2 (en) * 1998-09-10 2003-12-11 Sony Corporation Robot apparatus, method of controlling robot apparatus, method of display, and medium
WO2000067959A1 (fr) 1999-05-10 2000-11-16 Sony Corporation Dispositif robotique et procede de commande associe
US6519506B2 (en) * 1999-05-10 2003-02-11 Sony Corporation Robot and control method for controlling the robot's emotions
JP2001188551A (ja) * 1999-12-28 2001-07-10 Sony Corp 情報処理装置および方法、並びに記録媒体
JP2003296855A (ja) * 2002-03-29 2003-10-17 Toshiba Corp 監視装置
JP2004034274A (ja) * 2002-07-08 2004-02-05 Mitsubishi Heavy Ind Ltd 会話ロボット及びその動作方法
JP3885019B2 (ja) * 2002-11-29 2007-02-21 株式会社東芝 セキュリティシステム及び移動ロボット
JP4411900B2 (ja) * 2003-08-08 2010-02-10 ソニー株式会社 電子機器間の相互成長システム、電子機器及びロボット装置
JP2005103679A (ja) * 2003-09-29 2005-04-21 Toshiba Corp ロボット装置
JP2005103722A (ja) 2003-09-30 2005-04-21 Toshiba Corp 協調ロボット装置、システム、およびナビゲーションロボット装置
JP4315872B2 (ja) * 2004-07-28 2009-08-19 本田技研工業株式会社 移動ロボットの制御装置
EP2281667B1 (de) * 2005-09-30 2013-04-17 iRobot Corporation Gesellschaftsroboter für persönliche Interaktion
JP2007152442A (ja) * 2005-11-30 2007-06-21 Mitsubishi Heavy Ind Ltd ロボット案内システム
JP2007316966A (ja) * 2006-05-26 2007-12-06 Fujitsu Ltd 移動ロボット、その制御方法及びプログラム
US20080056933A1 (en) * 2006-08-29 2008-03-06 Moore Barrett H Self-Propelled Sterilization Robot and Method
JP4871160B2 (ja) * 2007-02-16 2012-02-08 株式会社東芝 ロボットおよびその制御方法
JP4949969B2 (ja) * 2007-08-20 2012-06-13 国立大学法人埼玉大学 コミュニケーションロボットとその動作方法
JP5429462B2 (ja) * 2009-06-19 2014-02-26 株式会社国際電気通信基礎技術研究所 コミュニケーションロボット
JP5392028B2 (ja) * 2009-11-26 2014-01-22 富士通株式会社 自律移動ロボット
JP2011224679A (ja) * 2010-04-16 2011-11-10 Toyota Motor Corp 応対ロボット、応対制御方法、及び応対制御プログラム
JP5552710B2 (ja) * 2010-11-25 2014-07-16 株式会社国際電気通信基礎技術研究所 ロボットの移動制御システム、ロボットの移動制御プログラムおよびロボットの移動制御方法
WO2012153629A1 (ja) * 2011-05-12 2012-11-15 株式会社Ihi 運動予測制御装置と方法
JP5927797B2 (ja) * 2011-07-26 2016-06-01 富士通株式会社 ロボット制御装置、ロボットシステム、ロボット装置の行動制御方法、及びプログラム
US8761933B2 (en) * 2011-08-02 2014-06-24 Microsoft Corporation Finding a called party
EP2852881A4 (de) * 2012-05-22 2016-03-23 Intouch Technologies Inc Grafische benutzerschnittstellen mit touchpad -ansteuerungsschnittstellen für telemedizinische vorrichtungen
US9156476B2 (en) * 2012-10-02 2015-10-13 Trevor O'Neill System and method for remote control of unmanned vehicles
CN103341268B (zh) * 2013-05-24 2016-02-10 广州睿火智能科技有限公司 多功能装置及其应用方法
US9329597B2 (en) * 2014-01-17 2016-05-03 Knightscope, Inc. Autonomous data machines and systems
EP2933064A1 (de) * 2014-04-17 2015-10-21 Aldebaran Robotics System, Verfahren und Computerprogrammprodukt zur Handhabung von humanoider Roboterinteraktion mit Menschen
EP2933065A1 (de) * 2014-04-17 2015-10-21 Aldebaran Robotics Humanoider Roboter mit autonomer Lebensfähigkeit
JP2016022537A (ja) * 2014-07-16 2016-02-08 国立大学法人 筑波大学 ロボット
JP6330617B2 (ja) * 2014-10-21 2018-05-30 ソニー株式会社 情報処理装置、通信システム、情報処理方法およびプログラム
CN204712059U (zh) * 2015-06-12 2015-10-21 姚显平 礼仪迎宾仿真机器人模特

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000323219A (ja) 1999-05-10 2000-11-24 Sony Corp 接続装置及びロボットシステム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11192257B2 (en) 2016-04-08 2021-12-07 Groove X, Inc. Autonomously acting robot exhibiting shyness

Also Published As

Publication number Publication date
CN109153127B (zh) 2022-05-31
GB201815713D0 (en) 2018-11-07
US11135727B2 (en) 2021-10-05
GB2563785B (en) 2021-03-03
GB2563785A (en) 2018-12-26
JPWO2017169826A1 (ja) 2018-04-12
US20180333862A1 (en) 2018-11-22
JP6409206B2 (ja) 2018-10-24
CN109153127A (zh) 2019-01-04
WO2017169826A1 (ja) 2017-10-05
DE112017001573B4 (de) 2020-01-30
JP2019010728A (ja) 2019-01-24

Similar Documents

Publication Publication Date Title
DE112017001573B4 (de) Autonom agierender Roboter, der eine Begrüssungsaktion durchführt
DE112017003480B4 (de) Autonom handelnder Roboter
DE112017003497B4 (de) Selbständig agierender Roboter mit gesteuerter Aktivitätsmenge
DE112017002606B4 (de) Autonom handelnder Roboter, der Kleidung trägt
JP6402320B2 (ja) 人見知りする自律行動型ロボット
DE112017004363T5 (de) Autonom agierender roboter, der die richtung einer geräuschquelle erkennt
JP6472113B2 (ja) 自然な距離感を保つ自律行動型ロボットおよびプログラム
DE112017002960T5 (de) Autonom handelnder roboter, der kühle sucht
DE112017005954T5 (de) Autonom agierender Roboter, der die Pupille verändert
DE112017003651T5 (de) Autonom agierender Roboter, der Körperkontakt versteht
JP7236142B2 (ja) 自律行動型ロボット
DE112017004554B4 (de) Autonom handelnder Roboter, der einen Gast akzeptiert
JP6671577B2 (ja) 人を識別する自律行動型ロボット
JP7281198B2 (ja) 経験に基づいて行動する自律行動型ロボット
DE112018001944T5 (de) Roboter, auf dem Außenhaut befestigt ist
JP6575005B2 (ja) ロボットの関節に好適なジョイント構造
JP2024055866A (ja) 内部状態または外部環境に応じて自律的に行動選択するロボット
DE112017002431T5 (de) Autonom handelnder roboter mit not-aus-funktion
JP7298861B2 (ja) 日常生活を記録する自律行動型ロボット

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final