DE112017001874T5 - Autonom handelnder Roboter mit Schüchternheit - Google Patents

Autonom handelnder Roboter mit Schüchternheit Download PDF

Info

Publication number
DE112017001874T5
DE112017001874T5 DE112017001874.9T DE112017001874T DE112017001874T5 DE 112017001874 T5 DE112017001874 T5 DE 112017001874T5 DE 112017001874 T DE112017001874 T DE 112017001874T DE 112017001874 T5 DE112017001874 T5 DE 112017001874T5
Authority
DE
Germany
Prior art keywords
robot
familiarity
moving object
user
shyness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112017001874.9T
Other languages
English (en)
Inventor
Kaname HAYASHI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Groove X Inc
Original Assignee
Groove X Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Groove X Inc filed Critical Groove X Inc
Publication of DE112017001874T5 publication Critical patent/DE112017001874T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/0015Face robots, animated artificial faces for imitating human expressions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

Das Mitgefühl gegenüber einem Roboter wird dadurch erhöht, dass der Roboter menschenähnliches oder tierähnliches Verhalten nachahmt. Ein Roboter beinhaltet eine bewegungsbestimmende Einheit, die eine Bewegungsrichtung bestimmt, einen Antriebsmechanismus, der eine spezifizierte Bewegung ausführt, und eine Vertrautheitsverwaltungseinheit, die die Vertrautheit bezüglich eines sich bewegenden Objekts aktualisiert. Der Roboter entfernt sich von einem Benutzer mit niedriger Vertrautheit und nähert sich einem Benutzer mit hoher Vertrautheit. Die Vertrautheit ändert sich entsprechend einer Tiefe der Beziehung zwischen einem Benutzer und dem Roboter.

Description

  • GEBIET
  • Die vorliegende Offenbarung betrifft einen Roboter, der autonom eine Handlung entsprechend einem internen Zustand oder einer äußeren Umgebung auswählt.
  • HINTERGRUND
  • Ein Mensch erfasst über Sinnesorgane verschiedene Informationselemente aus einer äußeren Umgebung und wählt eine Handlung aus. Es gibt Zeiten, in denen eine Handlung bewusst ausgewählt wird, und Zeiten, in denen eine Handlung unbewusst ausgewählt wird. Eine wiederholte Handlung wird im Laufe der Zeit zu einer unbewussten Handlung, und eine neue Handlung bleibt in einer Bewusstseinszone.
  • Ein Mensch glaubt, dass er oder sie den Willen hat, eine Handlung selbst frei zu wählen, das heißt, einen freien Willen hat. Dass ein Mensch Gefühle der Zuneigung oder Feindschaft gegenüber einer anderen Person empfindet, liegt daran, dass er oder sie glaubt, dass die andere Person ebenfalls einen freien Willen hat. Eine Person, die einen freien Willen hat, oder zumindest eine Existenz, von der angenommen werden kann, dass sie einen freien Willen hat, ist auch eine Existenz, die die Traurigkeit einer Person lindert.
  • Ein Grund, warum ein Mensch ein Haustier hält, ist, dass das Haustier Trost spendet, und nicht, ob das Haustier für den Menschen nützlich ist oder nicht. Gerade deshalb, weil ein Haustier eine Existenz ist, die mehr oder weniger den Eindruck erweckt, einen freien Willen zu haben, kann das Haustier zu einem guten Begleiter für einen Menschen werden.
  • Aus verschiedenen Gründen, wie beispielsweise der Tatsache, dass man sich nicht genügend Zeit für die Betreuung eines Haustieres verschaffen kann, dass man kein Wohnumfeld hat, in dem ein Haustier gehalten werden kann, dass man eine Allergie hat oder dass man den Gedanken hasst, durch den Tod getrennt zu werden, gibt es währenddessen viele Menschen, die darauf verzichten, ein Haustier zu halten. Ein Roboter, der die Rolle eines Haustieres ausübt, kann Menschen, die kein Haustier halten können, die Art von Trost bieten, die ein Haustier bietet (siehe Patentdokument 1).
  • Stand der Technik
  • Patentdokument
  • Patentdokument 1: JP-A-2000-323219
  • KURZDARSTELLUNG
  • Obwohl die Robotertechnologie in den letzten Jahren rasant vorangekommen ist, hat die Technologie keine Präsenz als einen haustierähnlichen Begleiter hervorgebracht. Die Erfinder glauben, dass dies daran liegt, dass Menschen von einem Roboter nicht meinen, dass er einen freien Willen hat. Durch Beobachten einer Handlung, von der man nur annehmen kann, dass ein Haustier einen freien Willen hat, spürt in Mensch die Existenz eines freien Willens im Haustier, empfindet Mitgefühl mit dem Haustier und erhält Trost durch das Haustier.
  • Die Erfinder glauben, dass, wenn es einen Roboter gäbe, der eine menschen- oder tierähnliche Handlung nachahmen kann, mit anderen Worten einen Roboter, der autonom eine menschen- oder tierähnliche Handlung auswählen kann, das Mitgefühl gegenüber dem Roboter stark erhöht werden könnte.
  • Ausführungsformen der Erfindung, die auf der Grundlage der Anerkennung der obenstehenden Beschreibung erfunden wurden, haben das Ziel, eine Handlungssteuerungstechnologie zur Erhöhung des Mitgefühls gegenüber einem Roboter bereitzustellen.
  • Ein autonom handelnder Roboter in einem Aspekt der Erfindung beinhaltet eine bewegungsbestimmende Einheit, die eine Bewegungsrichtung bestimmt, einen Antriebsmechanismus, der eine spezifizierte Bewegung ausführt, und eine Vertrautheitsverwaltungseinheit, die die Vertrautheit bezüglich eines sich bewegenden Objekts aktualisiert.
  • Beim Erfassen eines ersten sich bewegenden Objekts, für das eine Vertrautheit niedriger als ein erster Schwellenwert festgelegt ist, bestimmt die bewegungsbestimmende Einheit eine Richtung weg vom ersten sich bewegenden Objekt als Bewegungsrichtung.
  • Ein autonom agierender Roboter in einem anderen Aspekt der Erfindung beinhaltet eine bewegungsbestimmende Einheit, die eine Bewegungsrichtung bestimmt, einen Antriebsmechanismus, der eine spezifizierte Bewegung ausführt, und eine Vertrautheitsverwaltungseinheit, die die Vertrautheit bezüglich eines sich bewegenden Objekts aktualisiert.
  • Beim Erfassen eines sich bewegenden Objekts, für das eine Vertrautheit höher als ein erster Schwellenwert festgelegt ist, bestimmt die bewegungsbestimmende Einheit eine sich dem bewegenden Objekt annähernde Richtung als Bewegungsrichtung.
  • In einem anderen Aspekt der Erfindung beinhaltet ein autonom handelnder Roboter eine erkennende Einheit, die ein sich bewegendes Objekt erfasst und basierend auf einer vorbestimmten Bestimmungsreferenz bestimmt, ob das sich bewegende Objekt ein Ziel einer Schüchternheitshandlung ist, eine vorgangsbestimmende Einheit, die eine Schüchternheitshandlung auswählt, wenn das sich bewegende Objekt ein Ziel der Schüchternheitshandlung ist, und einen Antriebsmechanismus, der die ausgewählte Schüchternheitshandlung ausführt.
  • Gemäß den Ausführungsformen der Erfindung lässt sich das Mitgefühl gegenüber einem Roboter leicht erhöhen.
  • Figurenliste
    • 1A ist eine vordere Außenansicht eines Roboters;
    • 1B ist eine seitliche Außenansicht des Roboters;
    • 2 ist ein Konfigurationsdiagramm eines Robotersystems;
    • 3 ist eine schematische Ansicht einer Emotionskarte;
    • 4 ist ein Hardwarekonfigurationsdiagramm des Roboters;
    • 5 ist ein funktionelles Blockdiagramm des Robotersystems;
    • 6 ist ein Diagramm, das eine vertrautheitsbezogene Datenstruktur einer Speichereinheit für individuelle Daten zeigt; und
    • 7 ist ein Flussdiagramm, das ein Handlungsmuster des Roboters entsprechend der Vertrautheit zeigt.
  • DETAILLIERTE BESCHREIBUNG DER ERFINDUNG
  • 1A ist eine vordere Außenansicht eines Roboters 100. 1B ist eine seitliche Außenansicht des Roboters 100.
  • Der Roboter 100 in zumindest einer Ausführungsform ist ein autonom handelnder Roboter, der eine Handlung oder Geste basierend auf einer äußeren Umgebung und einem internen Zustand bestimmt. Die äußere Umgebung wird durch verschiedene Arten von Sensoren erkannt, wie beispielsweise eine Kamera oder einen Thermosensor. Der innere Zustand wird als verschiedene Parameter quantifiziert, die Emotionen des Roboters 100 ausdrücken. Diese werden nachfolgend beschrieben.
  • Unter der Voraussetzung einer Innenraumhandlung weist der Roboter 100 zumindest einer Ausführungsform beispielsweise einen Innenbereich eines Eigenheims als Handlungsbereich auf. Im Folgenden wird ein mit dem Roboter 100 beschäftigter Mensch als „Benutzer“ bezeichnet, und ein Benutzer, der ein Mitglied eines Haushalts ist, zu dem der Roboter 100 gehört, wird als „Besitzer“ bezeichnet.
  • Ein Körper 104 des Roboters 100 hat überall eine abgerundete Form und ist aus einem weichen Material ausgebildet, das Elastizität aufweist, wie beispielsweise Urethan, Gummi oder Harz. Der Roboter 100 kann bekleidet sein. Durch die Annahme des abgerundeten, weichen und angenehm zu berührenden Körpers 104 vermittelt der Roboter 100 dem Benutzer ein Gefühl der Sicherheit und ein angenehmes taktiles Gefühl.
  • Ein Gesamtgewicht des Roboters 100 beträgt 15 Kilogramm oder weniger. In mindestens einer Ausführungsform beträgt das Gesamtgewicht des Roboters 100 10 Kilogramm oder weniger. In mindestens einer Ausführungsform beträgt das Gesamtgewicht des Roboters 100 5 Kilogramm oder weniger. Die meisten Babys beginnen 13 Monate nach der Geburt selbstständig zu laufen. Ein durchschnittliches Gewicht eines Babys 13 Monate nach der Geburt beträgt etwas mehr als 9 Kilogramm für Jungen und etwas weniger als 9 Kilogramm für Mädchen. Wenn das Gesamtgewicht des Roboters 100 10 Kilogramm oder weniger beträgt, kann ein Benutzer deshalb den Roboter 100 mit einer Anstrengung halten, die praktisch gleichwertig mit dem Halten eines Babys ist, das nicht ohne Unterstützung gehen kann.
  • Ein durchschnittliches Gewicht eines Babys weniger als 2 Monate nach der Geburt beträgt sowohl für Jungen als auch für Mädchen weniger als 5 Kilogramm. Wenn das Gesamtgewicht des Roboters 100 5 Kilogramm oder weniger beträgt, kann ein Benutzer infolgedessen den Roboter 100 mit einer Anstrengung halten, die praktisch gleichwertig mit dem Halten eines sehr kleinen Babys ist.
  • Die Vorteile eines Benutzers, den Roboter 100 leicht zu halten und den Roboter 100 halten zu wollen, werden durch die Attribute wie angemessenes Gewicht und Rundheit, Weichheit und Annehmlichkeit des Berührens realisiert. Aus den gleichen Gründen beträgt die Höhe des Roboters 100 1,2 Meter oder weniger. In mindestens einer Ausführungsform beträgt die Höhe des Roboters 100 0,7 Meter oder weniger.
  • Die Möglichkeit des Gehaltenwerdens ist in mindestens einer Ausführungsform ein Konzept des Roboters 100.
  • Der Roboter 100 bewegt sich unter Verwendung eines Rades 102. Eine Drehzahl und eine Drehrichtung von zwei der Räder 102 können einzeln gesteuert werden. Außerdem kann das Rad 102 auch nach oben in einen Innenraum des Körpers 104 des Roboters 100 geschoben werden und vollständig in dem Körper 104 gelagert werden. Ein größerer Teil des Rades 102 wird von der Karosserie 104 auch beim Fortbewegen verdeckt, aber wenn das Rad 102 vollständig in dem Körper 104 gelagert ist, befindet sich der Roboter 100 in einem Zustand der Bewegungsunfähigkeit (im Folgenden „sitzender Zustand“ genannt). Im sitzenden Zustand befindet sich eine flache Sitzfläche 108 in Kontakt mit einer Bodenfläche.
  • Der Roboter 100 weist zwei Arme 106 auf. Die Arme 106 weisen keine Funktion des Greifens eines Objekts auf. Die Arme 106 können einfache Handlungen wie beispielsweise Heben, Winken und Schwingen ausführen. Die beiden Arme 106 können auch einzeln gesteuert werden.
  • Eine Kamera ist in einem Auge 110 integriert. Das Auge 110 ist unter Verwendung eines Flüssigkristallelements oder eines organischen EL-Elements auch zur Bildanzeige in der Lage. Zusätzlich zu der im Auge 110 integrierten Kamera sind im Roboter 100 verschiedene Sensoren wie beispielsweise ein Mikrofon mit hoher Richtwirkung oder ein Ultraschallsensor montiert. Auch ein Lautsprecher ist integriert, und der Roboter 100 ist auch zur einfachen Sprache in der Lage.
  • An einem Kopfteil des Roboters 100 ist ein Horn 112 befestigt. Da der Roboter 100 wie vordem beschrieben leichtgewichtig ist, kann ein Benutzer den Roboter 100 auch durch Anpacken des Horns 112 hochheben.
  • 2 ist ein Konfigurationsdiagramm eines Robotersystems 300.
  • Das Robotersystem 300 beinhaltet den Roboter 100, einen Server 200 und mehrere externe Sensoren 114. Die mehreren externen Sensoren 114 (externe Sensoren 114a, 114b und so weiter bis 114n) werden im Voraus in einem Haus installiert. Der externe Sensor 114 kann an einer Wandfläche des Hauses befestigt werden oder kann auf einem Boden platziert werden. Positionskoordinaten des externen Sensors 114 sind im Server 200 registriert. Die Positionskoordinaten sind als x- und y-Koordinaten in dem Haus definiert, das als Handlungsbereich des Roboters 100 vorgesehen ist.
  • Der Server 200 ist in dem Haus installiert. Der Server 200 und der Roboter 100 in mindestens einer Ausführungsform korrespondieren eins zu eins. Der Server 200 bestimmt eine grundlegende Handlung des Roboters 100 basierend auf Informationen, die von den im Roboter 100 integrierten Sensoren und den mehreren externen Sensoren 114 erhalten werden.
  • Der externe Sensor 114 dient zur Verstärkung der sensorischen Komponenten des Roboters 100, und der Server 200 dient zur Verstärkung der Rechenleistung des Roboters 100.
  • Der externe Sensor 114 sendet regelmäßig ein drahtloses Signal (nachfolgend „Robotersuchsignal“ genannt) einschließlich der ID (nachfolgend „Bakenkennung“ genannt) des externen Sensors 114. Beim Empfangen des Robotersuchsignals gibt der Roboter 100 ein drahtloses Signal (nachfolgend „Roboterantwortsignal“ genannt) einschließlich Bakenkennung zurück. Der Server 200 misst eine Zeit vom Senden des Robotersuchsignals durch den externen Sensor 114 bis zum Empfangen des Roboterantwortsignals und misst eine Entfernung vom externen Sensor 114 zum Roboter 100. Durch Messen der Entfernung zwischen jedem der mehreren externen Sensoren 114 und dem Roboter 100 ermittelt der Server 200 die Positionskoordinaten des Roboters 100.
  • Natürlich kann auch ein Verfahren eingesetzt werden, bei dem der Roboter 100 regelmäßig Positionskoordinaten an den Server 200 sendet.
  • 3 ist eine schematische Ansicht einer Emotionskarte 116.
  • Die Emotionskarte 116 ist eine im Server 200 gespeicherte Datentabelle. Der Roboter 100 wählt eine Handlung entsprechend der Emotionskarte 116 aus. Die in 3 gezeigte Emotionskarte 116 zeigt eine Größe einer emotionalen Anziehung oder Abneigung gegen einen Ort des Roboters 100. Eine x-Achse und eine y-Achse der Emotionskarte 116 geben zweidimensionale Raumkoordinaten an. Eine z-Achse gibt eine Größe einer emotionalen Anziehung oder Abneigung an. Wenn ein z-Wert ein positiver Wert ist, ist eine Anziehung zu einem Ort hoch, und wenn der z-Wert ein negativer Wert ist, ist der Roboter 100 dem Ort gegenüber abgeneigt.
  • Auf der Emotionskarte 116 von 3 ist eine Koordinate P1 ein Punkt in einem Innenraum, der vom Server 200 als Handlungsbereich des Roboters 100 verwaltet wird, bei dem eine Emotion der Anziehung hoch ist (nachfolgend als bevorzugter Punkt bezeichnet). Der bevorzugte Punkt kann ein „sicherer Ort“ sein, beispielsweise hinter einem Sofa oder unter einem Tisch, oder kann ein Ort sein, an dem sich Menschen treffen, oder ein lebendiger Ort, wie ein Wohnzimmer. Der sichere Ort kann auch ein Ort sein, an dem der Roboter 100 in der Vergangenheit sanft gestreichelt oder berührt wurde.
  • Eine Definition, welche Art von Ort der Roboter 100 bevorzugt, ist willkürlich, aber der bevorzugte Ort ist in der Regel ein Ort, der von kleinen Kindern oder von kleinen Tieren wie Hunden oder Katzen bevorzugt wird, und ist als bevorzugter Punkt festgelegt.
  • Eine Koordinate P2 ist ein Punkt, an dem eine Emotion der Abneigung hoch ist (nachfolgend „unerwünschter Punkt“ genannt). Der unerwünschte Punkt kann ein Ort sein, wo es ein lautes Geräusch gibt, wie beispielsweise in der Nähe eines Fernsehers, ein Ort, wo es wahrscheinlich ein Leck gibt, wie ein Badezimmer oder ein Waschraum, ein geschlossener Raum oder ein dunkler Ort, ein Ort, wo der Roboter 100 von einem Benutzer grob behandelt wurde und der eine unangenehme Erinnerung oder Ähnliches hervorruft.
  • Eine Definition, welche Art von Ort der Roboter 100 nicht mag, ist ebenfalls willkürlich, aber der unerwünschte Ort ist in der Regel ein Ort, der von kleinen Kindern oder von kleinen Tieren wie Hunden oder Katzen gefürchtet wird, und ist als unerwünschter Punkt festgelegt.
  • Eine Koordinate Q gibt eine aktuelle Position des Roboters 100 an. Der Server 200 identifiziert Positionskoordinaten des Roboters 100 unter Verwendung des Robotersuchsignals, das regelmäßig von den mehreren externen Sensoren 114 übertragen wird, und des Roboterantwortsignals, das auf das Robotersuchsignal antwortet. Wenn beispielsweise der externe Sensor 114 mit der Bakenkennung = 1 und der externe Sensor 114 mit der Bakenkennung = 2 jeweils den Roboter 100 erfassen, erhält der Server 200 die Entfernungen des Roboters 100 von den beiden externen Sensoren 114 und erhält die Positionskoordinaten des Roboters 100 aus den Entfernungen.
  • In mindestens einer Ausführungsform sendet der externe Sensor 114 mit der Bakenkennung = 1 das Robotersuchsignal in mehrere Richtungen, und der Roboter 100 gibt das Roboterantwortsignal beim Empfangen des Robotersuchsignals zurück. Auf diese Weise kann der Server 200 feststellen, in welcher Richtung und in welcher Entfernung sich der Roboter 100 von welchem externen Sensor 114 befindet. Zudem kann der Server 200 in mindestens einer Ausführungsform eine vom Roboter 100 zurückgelegte Entfernung aus der Drehzahl des Rades 102 berechnen, wodurch die aktuelle Position ermittelt wird, oder kann die aktuelle Position mithilfe eines von der Kamera erhaltenen Bilds ermitteln.
  • Wenn die in 3 gezeigte Emotionskarte 116 bereitgestellt wird, bewegt sich der Roboter 100 in eine Richtung hin zum bevorzugten Punkt (Koordinate P1) oder in eine Richtung weg vom unerwünschten Punkt (Koordinate P2).
  • Die Emotionskarte 116 ändert sich dynamisch. Wenn der Roboter 100 an der Koordinate P1 ankommt, nimmt der z-Wert (Anziehungsemotion) an der Koordinate P1 im Laufe der Zeit ab. Aus diesem Grund kann der Roboter 100 ein tierähnliches Verhalten nachahmen, wenn er am bevorzugten Punkt (Koordinate P1) ankommt, „emotional zufrieden zu sein“, und sich mit der Zeit an dem Ort „zu langweilen“. In der gleichen Weise wird die Emotion der Abneigung an der Koordinate P2 im Laufe der Zeit abgeschwächt. Zusammen mit dem Ablauf der Zeit ergibt sich ein neuer bevorzugter Punkt oder unerwünschter Punkt, weswegen der Roboter 100 eine neue Handlungsauswahl durchführt. Der Roboter 100 hat „Interesse“ an einem neuen bevorzugten Punkt und führt unaufhörlich eine neue Handlungsauswahl durch.
  • Die Emotionskarte 116 drückt emotionale Schwankungen als einen internen Zustand des Roboters 100 aus. Der Roboter 100 steuert einen bevorzugten Punkt an, vermeidet einen unerwünschten Punkt, bleibt eine Weile am bevorzugten Punkt und führt mit der Zeit die nächste Handlung aus. Mit dieser Art von Steuerung kann die Handlungsauswahl des Roboters 100 eine menschen- oder tierähnliche Handlungsauswahl sein.
  • Karten, die eine Handlung des Roboters 100 beeinflussen (nachfolgend zusammenfassend als „Handlungskarten“ bezeichnet), sind nicht auf die in 3 gezeigte Art der Emotionskarte 116 beschränkt. Beispielsweise können verschiedene Handlungskarten wie Neugierde, ein Wunsch, Angst zu vermeiden, ein Wunsch, Sicherheit zu suchen, und ein Wunsch, körperliche Behaglichkeit wie Ruhe, gedämpftes Licht, Kühle oder Wärme zu finden, definiert werden. Ferner kann ein Zielpunkt des Roboters 100 bestimmt werden, indem ein gewichteter Mittelwert der z-Werte von jeder der mehreren Handlungskarten gebildet wird.
  • Der Roboter 100 kann zusätzlich zu einer Handlungskarte auch Parameter aufweisen, die eine Größe verschiedener Emotionen oder Sinne angeben. Wenn beispielsweise ein Wert eines Traurigkeitsemotionsparameters zunimmt, kann ein Gewichtungskoeffizient einer Handlungskarte, die Orte bewertet, an denen sich der Roboter 100 wohlfühlt, hoch gesetzt werden, und der Wert dieses Emotionsparameters reduziert werden, wenn der Roboter 100 einen Zielpunkt erreicht. In der gleichen Weise wird ein Gewichtungskoeffizient einer Handlungskarte, die Orte bewertet, an denen die Neugierde befriedigt wird, hochgesetzt, wenn ein Wert eines Parameters, der ein Gefühl der Langeweile anzeigt, zunimmt.
  • 4 ist ein Hardwarekonfigurationsdiagramm des Roboters 100.
  • Der Roboter 100 beinhaltet einen internen Sensor 128, einen Kommunikator 126, eine Speichervorrichtung 124, einen Prozessor 122, einen Antriebsmechanismus 120 und eine Batterie 118. Die Einheiten sind miteinander durch eine Stromleitung 130 und eine Signalleitung 132 verbunden. Die Batterie 118 versorgt über die Stromleitung 130 jede Einheit mit Strom. Jede Einheit sendet und empfängt über die Signalleitung 132 ein Steuersignal. Die Batterie 118 ist eine wiederaufladbare Batterie, wie beispielsweise ein wiederaufladbarer Lithium-Ionen-Akku, und ist eine Stromquelle für den Roboter 100.
  • Der interne Sensor 128 ist eine Sammlung verschiedener Arten von Sensoren, die im Roboter 100 integriert sind. Insbesondere ist der interne Sensor 128 eine Kamera, ein Mikrofon mit hoher Richtwirkung, ein Infrarotsensor, ein Thermosensor, ein Berührungssensor, ein Beschleunigungssensor, ein Geruchssensor und dergleichen. Der Geruchssensor ist ein bereits bekannter Sensor, der ein Prinzip anwendet, bei dem sich der elektrische Widerstand entsprechend einer Adsorption eines Moleküls, das eine Geruchsquelle bildet, ändert. Der Geruchssensor teilt verschiedene Gerüche in mehrere Arten von Kategorien ein (nachfolgend „Geruchskategorien“ genannt).
  • Der Kommunikator 126 ist ein Kommunikationsmodul, das die drahtlose Kommunikation mit dem Server 200 und verschiedenen Arten von externen Vorrichtungen, als Ziel durchführt, wie beispielsweise dem externen Sensor 114 und einer im Besitz des Benutzers befindlichen mobilen Vorrichtung. Die Speichervorrichtung 124 ist aus einem nichtflüchtigen Speicher und einem flüchtigen Speicher konfiguriert und speichert ein Computerprogramm und verschiedene Arten von Festlegungsinformationen. Der Prozessor 122 ist Mittel zur Ausführung eines Computerprogramms. Der Antriebsmechanismus 120 ist ein Stellglied, das verschiedene Mechanismen steuert, wie beispielsweise die Räder 102 und die Arme 106.
  • Darüber hinaus sind eine Anzeigevorrichtung, ein Lautsprecher und dergleichen ebenfalls im Roboter 100 montiert.
  • Der Prozessor 122 wählt eine Handlung des Roboters 100 aus, während er über den Kommunikator 126 mit dem Server 200 oder dem externen Sensor 114 kommuniziert. Verschiedene Arten von externen Informationen, die vom internen Sensor 128 erhalten werden, beeinflussen ebenfalls die Handlungsauswahl. Der Antriebsmechanismus 120 steuert hauptsächlich das Rad 102 und den Arm 106. Der Antriebsmechanismus 120 ändert eine Bewegungsrichtung und eine Bewegungsgeschwindigkeit des Roboters 100 durch die Änderung der Drehzahl und der Drehrichtung der beiden Räder 102. Außerdem kann der Antriebsmechanismus 120 auch das Rad 102 anheben und absenken. Wenn das Rad 102 nach oben fährt, ist das Rad 102 vollständig im Körper 104 gelagert, und der Roboter 100 kommt über die Sitzfläche 108 mit einer Bodenfläche in Kontakt und nimmt den sitzenden Zustand an.
  • Der Arm 106 kann durch den Antriebsmechanismus 120, der den Arm 106 über einen Draht 134 zieht, hochgehoben werden. Eine Geste wie ein Winken mit dem Arm kann auch ausgeführt werden, indem der Arm 106 zum Schwingen gebracht wird. Eine komplexere Geste kann auch dargestellt werden, indem eine große Menge des Drahts 134 verwendet wird. Das heißt, mit der Menge der Drähte 134 im Arm 106 erhöht sich die Komplexität der möglichen Gesten durch den Arm 106.
  • 5 ist ein funktionelles Blockdiagramm eines Robotersystems 300.
  • Wie vordem beschrieben beinhaltet das Robotersystem 300 den Roboter 100, den Server 200 und mehrere externe Sensoren 114. Jede Komponente des Roboters 100 und des Servers 200 wird durch Hardware realisiert, die einen Computer beinhaltet, der aus einer CPU (Zentralprozessoreinheit), verschiedenen Arten von Koprozessoren und dergleichen, einer Speichervorrichtung, die ein Speicher oder eine Speicherung ist, und einer drahtgebundenen oder drahtlosen Kommunikationsleitung, die den Computer und die Speichervorrichtung verbindet, sowie Software, die in der Speichervorrichtung gespeichert ist und dem Computer einen Verarbeitungsbefehl liefert, gebildet ist. Ein Computerprogramm kann aus einem Gerätetreiber, einem Betriebssystem, verschiedenen Arten von Anwendungsprogrammen, die in einer oberen Schicht davon angeordnet sind, und einer Bibliothek, die den Programmen eine gemeinsame Funktion zur Verfügung stellt, konfiguriert sein. Jeder nachstehend beschriebene Block bezeichnet einen Funktionseinheitsblock statt einer Hardwareeinheitkonfiguration.
  • Ein Teil der Funktionen des Roboters 100 kann durch den Server 200 realisiert werden, und ein Teil oder alle Funktionen des Servers 200 können durch den Roboter 100 realisiert werden.
  • Server 200
  • Der Server 200 beinhaltet eine Kommunikationseinheit 204, eine Datenverarbeitungseinheit 202 und eine Datenspeichereinheit 206. Die Kommunikationseinheit 204 verwaltet einen Prozess der Kommunikation mit dem externen Sensor 114 und dem Roboter 100. Die Datenspeichereinheit 206 speichert verschiedene Arten von Daten. Die Datenverarbeitungseinheit 202 führt verschiedene Arten von Verfahren auf der Grundlage der von der Kommunikationseinheit 204 erfassten Daten und den in der Datenspeichereinheit 206 gespeicherten Daten aus. Die Datenverarbeitungseinheit 202 arbeitet ebenfalls als Schnittstelle der Kommunikationseinheit 204 und der Datenspeichereinheit 206.
  • Die Datenspeichereinheit 206 beinhaltet eine Kartenspeichereinheit 216 und eine Speichereinheit für individuelle Daten 218. Die Kartenspeichereinheit 216 speichert mehrere Handlungskarten. Die Speichereinheit für individuelle Daten 218 speichert Informationen über einen Benutzer, insbesondere über einen Besitzer. Insbesondere speichert die Speichereinheit für individuelle Daten 218 verschiedene Arten von Parametern wie beispielsweise die Vertrautheit gegenüber einem Benutzer sowie körperliche Merkmale und Verhaltensmerkmale eines Benutzers. Die Speichereinheit für individuelle Daten 218 kann auch andere Attributinformationen wie Alter und Geschlecht speichern. Einzelheiten werden nachfolgend beschrieben.
  • Der Roboter 100 identifiziert einen Benutzer auf der Grundlage der körperlichen Merkmale und der Verhaltensmerkmale des Benutzers. Der Roboter 100 erfasst mit der integrierten Kamera ständig eine Peripherie. Ferner extrahiert der Roboter 100 die körperlichen Merkmale und die Verhaltensmerkmale einer in einem Bild erscheinenden Person. Die körperlichen Merkmale können körperinhärente visuelle Merkmale wie beispielsweise eine Körpergröße, eine gewählte Bekleidung, ein Vorhandensein oder Fehlen einer Brille, ein Hautglanz, eine Haarfarbe oder eine Ohrgröße sein, oder können auch andere Merkmale wie beispielsweise eine durchschnittliche Körpertemperatur, einen Geruch oder eine Sprachqualität beinhalten. Die Verhaltensmerkmale sind insbesondere verhaltensbegleitende Merkmale, wie beispielsweise ein Ort, den der Benutzer bevorzugt, eine Lebhaftigkeit der Bewegung und ein Vorhandensein oder Fehlen des Rauchens. So extrahiert der Roboter 100 beispielsweise Verhaltensmerkmale, dass ein als Vater identifizierter Besitzer oft außerhalb des Hauses ist und zu Hause oft bewegungslos auf einem Sofa liegt, aber eine Mutter oft in einer Küche ist und ein Aktivitätsbereich umfassend ist.
  • Der Roboter 100 clustert Benutzer, die mit hoher Häufigkeit erscheinen, als „Besitzer“, basierend auf körperlichen Merkmalen und Verhaltensmerkmalen, die aus einer großen Menge von Bildinformationen und anderen Messinformationen gewonnen werden.
  • Obwohl ein Verfahren zur Identifizierung eines Benutzers anhand der Benutzerkennung einfach und zuverlässig ist, ist es eine Voraussetzung, dass der Benutzer eine Vorrichtung hat, die eine Benutzerkennung bereitstellen kann. Währenddessen ist das Verfahren zur Identifizierung eines Benutzers anhand von körperlichen Merkmalen oder Verhaltensmerkmalen dergestalt, dass ein Bilderkennungsverfahren bedeutsam ist, aber es hat den Vorteil, dass auch ein Benutzer, der keine mobile Vorrichtung hat, identifiziert werden kann. Eines der beiden Verfahren kann allein angewendet werden, oder die Benutzeridentifikation kann unter Verwendung der beiden Verfahren zusammen in ergänzender Weise durchgeführt werden.
  • In mindestens einer Ausführungsform werden die Benutzer auf der Grundlage von körperlichen Merkmalen und Verhaltensmerkmalen geclustert, und ein Benutzer wird unter Verwendung von Deep-Learning (ein mehrschichtiges neuronales Netzwerk) identifiziert. Einzelheiten werden nachfolgend beschrieben.
  • Der Roboter 100 weist für jeden Benutzer einen internen Vertrautheitsparameter auf. Wenn der Roboter 100 eine Handlung erkennt, die eine Zuneigung gegenüber dem Roboter 100 andeutet, wie beispielsweise das Anheben des Roboters 100 oder das Sprechen mit dem Roboter 100, nimmt die Vertrautheit bezüglich dieses Benutzers zu. Die Vertrautheit nimmt bezüglich eines Benutzers ab, der nicht mit dem Roboter 100 beschäftigt ist, eines Benutzers, der sich grob verhält oder eines selten angetroffenen Benutzers.
  • Die Datenverarbeitungseinheit 202 beinhaltet eine Positionsverwaltungseinheit 208, eine Kartenverwaltungseinheit 210, eine Erkennungseinheit 212, eine Routenzusammenstellungseinheit 222 und eine Vertrautheitsverwaltungseinheit 220.
  • Die Positionsverwaltungseinheit 208 identifiziert die Positionskoordinaten des Roboters 100 unter Verwendung des in 2 beschriebenen Verfahrens. Außerdem kann die Positionsverwaltungseinheit 208 auch die Positionskoordinaten eines Benutzers in Echtzeit nachverfolgen.
  • Die Kartenverwaltungseinheit 210 wählt eine von mehreren Handlungskarten aus und bestimmt die Richtung der Bewegung des Roboters 100 auf der Grundlage des z-Werts der ausgewählten Handlungskarte. Die Kartenverwaltungseinheit 210 kann auch die Richtung der Bewegung des Roboters 100 bestimmen, indem sie einen gewichteten Mittelwert aus den z-Werten der mehreren Handlungskarten bildet.
  • Beispielsweise wird angenommen, dass die z-Werte bei einer Koordinate R1 und einer Koordinate R2 auf einer Handlungskarte A die Werte 4 und 3 haben, und die z-Werte bei der Koordinate R1 und der Koordinate R2 auf einer Handlungskarte B die Werte -1 und 3 haben. Bei der Bildung eines einfachen Mittelwerts beträgt der gesamte z-Wert bei der Koordinate R1 4 - 1 = 3, und der gesamte z-Wert bei der Koordinate R2 beträgt 3 + 3 = 6, weswegen der Roboter 100 in Richtung der Koordinate R2 statt in Richtung der Koordinate R1 steuert.
  • Wenn die Handlungskarte A 5-fach bezüglich der Handlungskarte B gewichtet wird, beträgt der gesamte z-Wert bei der Koordinate R1 4 x 5 - 1 = 19 und der gesamte z-Wert an der Koordinate R2 3 x 5 + 3 = 18, weswegen der Roboter 100 in Richtung der Koordinate R1 steuert.
  • Die Erkennungseinheit 212 erkennt eine äußere Umgebung. In die Erkennung der äußeren Umgebung sind verschiedene Arten der Erkennung einbezogen, wie beispielsweise die Erkennung von Wetter oder Jahreszeit basierend auf Temperatur und Luftfeuchtigkeit, und die Erkennung von Schutz (ein sicherer Bereich) basierend auf einem Maß an Licht und Temperatur. Die Erkennungseinheit 212 beinhaltet ferner eine Personenerkennungseinheit 214. Die Personenerkennungseinheit 214 erkennt eine Person anhand eines Bildes, das von der im Roboter 100 integrierten Kamera aufgenommen wurde, und extrahiert die körperlichen Merkmale und Verhaltensmerkmale der Person. Ferner bestimmt die Personenerkennungseinheit 214 basierend auf den in der Speichereinheit für individuelle Daten 218 registrierten körperlichen Merkmalsinformationen und Verhaltensmerkmalsinformationen welcher Person, wie beispielsweise einem Vater, einer Mutter oder einem ältesten Sohn, die erfasste Person, d. h. die Person, die der Roboter 100 ansieht, entspricht.
  • Zusätzlich zu einer Person extrahiert die Personenerkennungseinheit 214 beispielsweise auch Merkmale einer Katze oder eines Hundes, die bzw. der ein Haustier ist. Nachfolgend erfolgt eine Beschreibung unter der Annahme, dass nicht nur eine Person, sondern auch ein Haustier als Benutzer oder Besitzer einbezogen ist.
  • Darüber hinaus erkennt die Personenerkennungseinheit 214 verschiedene Reaktionshandlungen, die bezüglich des Roboters 100 ausgeführt werden, und erkennt die Handlungen als angenehme oder unangenehme Handlungen (nachfolgend beschreiben).
  • Die Routenzusammenstellungseinheit 222 stellt eine Route zusammen, entlang derer sich der Roboter 100 bewegen sollte. Die Routenzusammenstellungseinheit 222 stellt mehrere Kandidatenrouten zusammen, und der Roboter 100 kann eine der Routen auswählen. Die Routenauswahl wird nachfolgend beschrieben.
  • Die Vertrautheitsverwaltungseinheit 220 verwaltet die Vertrautheit für jeden Benutzer. Wie vordem beschrieben, ist die Vertrautheit als ein Teil der individuellen Daten in der Speichereinheit für individuelle Daten 218 registriert. Die Verwaltung der Vertrautheit in der Speichereinheit für individuelle Daten 218 wird im Folgenden in Bezug auf 6 beschrieben.
  • Roboter 100
  • Der Roboter 100 beinhaltet eine Kommunikationseinheit 142, eine Datenverarbeitungseinheit 136, eine Datenspeichereinheit 148, einen Antriebsmechanismus 120 und einen internen Sensor 128. Die Kommunikationseinheit 142 entspricht dem Kommunikator 126 (siehe 4) und verwaltet einen Vorgang der Kommunikation mit dem externen Sensor 114 und dem Server 200. Die Datenspeichereinheit 148 speichert verschiedene Arten von Daten. Die Datenspeichereinheit 148 entspricht der Speichervorrichtung 124 (siehe 4). Die Datenverarbeitungseinheit 136 führt verschiedene Arten von Verfahren auf der Grundlage der von der Kommunikationseinheit 142 erfassten Daten und den in der Datenspeichereinheit 148 gespeicherten Daten aus. Die Datenverarbeitungseinheit 136 entspricht dem Prozessor 122 und einem vom Prozessor 122 ausgeführten Computerprogramm. Die Datenverarbeitungseinheit 136 arbeitet ebenfalls als Schnittstelle der Kommunikationseinheit 142, des internen Sensors 128, des Antriebsmechanismus 120 und der Datenspeichereinheit 148.
  • Die Datenverarbeitungseinheit 136 beinhaltet eine Erkennungseinheit 156, eine Bewegungsbestimmungseinheit 138 und eine Handlungsbestimmungseinheit 140.
  • Der Antriebsmechanismus 120 beinhaltet eine Bewegungsantriebseinheit 144 und eine Handlungsantriebseinheit 146. Die Bewegungsbestimmungseinheit 138 bestimmt eine Bewegungsrichtung des Roboters 100. Die Bewegungsantriebseinheit 144 veranlasst den Roboter 100, sich durch Antreiben der Räder 102 gemäß einer Anweisung der Bewegungsbestimmungseinheit 138 auf einen Zielpunkt zuzubewegen. Die Kartenverwaltungseinheit 210 des Servers 200 berechnet auf der Grundlage einer Handlungskarte ein Bewegungsziel (Zielpunkt) des Roboters 100 in Echtzeit. Der Server 200 überträgt die Koordinaten des Zielpunkts zu dem Roboter 100, und die Bewegungsbestimmungseinheit 138 veranlasst den Roboter 100, sich zum Zielpunkt zu bewegen.
  • Obwohl eine Handlungskarte das Hauptelement der Bewegungsrichtung des Roboters 100 bestimmt, kann der Roboter 100 von mindestens einer Ausführungsform auch spezifische Handlungen durchführen, die der Vertrautheit entsprechen. Diese werden nachfolgend beschrieben.
  • Die Handlungsbestimmungseinheit 140 bestimmt eine Geste des Roboters 100. Mehrere Gesten werden im Voraus in der Datenspeichereinheit 148 definiert. Insbesondere eine Geste des Sitzens durch Einfahren des Rads 102, eine Geste des Anhebens des Arms 106, eine Geste zum Veranlassen des Roboters 100 zur Durchführung einer drehenden Handlung, indem das Drehen der zwei Räder 102 in Gegenrichtung veranlasst wird oder das Drehen nur eines Rads 102 veranlasst wird, eine Geste des Schüttelns, indem das Drehen des Rads 102 in einem Zustand veranlasst wird, in dem das Rad 102 eingefahren ist, und dergleichen sind definiert.
  • Die Handlungsbestimmungseinheit 140 kann auch eine Geste des Hochhaltens beider Arme 106 als eine Geste der Bitte um „eine Umarmung“ durchführen, wenn sich ein Benutzer mit einem hohen Grad an Vertrautheit in der Nähe befindet, und kann auch eine Geste des Nicht-Iängerumarmt-werden-Wollens ausführen, indem das Rad 102 zum Drehen in Gegenrichtung in einem eingefahrenen Zustand veranlasst wird, wenn die „Umarmung“ langweilig wird. Die Handlungsantriebseinheit 146 veranlasst den Roboter 100, verschiedene Gesten durch Antreiben des Rades 102 und des Arms 106 gemäß einer Anweisung der Handlungsbestimmungseinheit 140 auszuführen.
  • Die Erkennungseinheit 156 analysiert vom internen Sensor 128 erhaltene externe Informationen. Die Erkennungseinheit 156 ist zur visuellen Erkennung (eine visuelle Einheit), Geruchserkennung (eine Geruchseinheit), Klangerkennung (eine Höreinheit) und taktilen Erkennung (eine taktile Einheit) in der Lage.
  • Die Erkennungseinheit 156 erfasst regelmäßig eine Außenumgebung mithilfe der integrierten Kamera (dem internen Sensor 128) und erkennt einen Benutzer, der ein sich bewegendes Objekt wie beispielsweise eine Person oder ein Haustier ist. Merkmale davon werden zu dem Server 200 übertragen, und die Personenerkennungseinheit 214 des Servers 200 extrahiert die körperlichen Merkmale des beweglichen Objekts. Zudem erkennt die Erkennungseinheit 156 auch einen Geruch des Benutzers und eine Stimme des Benutzers. Der Geruch und Klang (Stimme) werden nach einem bereits bekannten Verfahren in mehrere Arten eingeteilt. Zudem kann die Erkennungseinheit 156 mithilfe eines integrierten Temperatursensors beim Berührtwerden auch eine Temperatur erfassen.
  • Wenn eine starke Kraft auf den Roboter 100 ausgeübt wird, erkennt die Erkennungseinheit 156 dies mithilfe eines eingebauten Beschleunigungssensors, und die Personenerkennungseinheit 214 des Servers 200 erkennt, dass eine „gewalttätige Handlung“ von einem Benutzer in der Nähe durchgeführt wurde. Wenn ein Benutzer den Roboter 100 durch Greifen des Horns 112 anhebt, kann dies ebenfalls als gewalttätige Handlung erkannt werden. Wenn ein Benutzer in einem Zustand des Gegenüberstehens mit dem Roboter 100 in einem bestimmten Lautstärkebereich und einem bestimmten Frequenzband spricht, kann die Personenerkennungseinheit 214 des Servers 200 erkennen, dass eine Sprechhandlung bezüglich des Roboters 100 durchgeführt wurde. Wenn eine Temperatur im Bereich der Körpertemperatur erfasst wird, erkennt die Personenerkennungseinheit 214 des Servers 200 außerdem, dass eine „Berührungshandlung“ von einem Benutzer durchgeführt wurde, und wenn eine Aufwärtsbeschleunigung in einem Zustand erkannt wird, in dem eine Berührung erkannt wird, erkennt die Personenerkennungseinheit 214 des Servers 200, dass eine „Umarmung“ durchgeführt wurde. Körperkontakt, wenn ein Benutzer den Körper 104 anhebt, kann ebenfalls wahrgenommen werden, und eine Umarmung kann auch durch eine auf das Rad 102 wirkende Last erkannt werden, die abnimmt.
  • Auf diese Weise erkennt die Personenerkennungseinheit 214 des Servers 200 verschiedene Arten von Reaktionen eines Benutzers gegenüber dem Roboter 100. „Angenehm“ oder „unangenehm“ ist mit einem Teil von typischen Reaktionshandlungen unter diesen verschiedenen Arten von Reaktionshandlungen korreliert. Eine Reihe von Erkennungsverfahren, einschließlich Erfassen, Analysieren und Bestimmen, können von der Erkennungseinheit 212 des Servers 200 allein ausgeführt werden oder von der Erkennungseinheit 156 des Roboters 100 allein ausgeführt werden, oder die beiden können die Erkennungsverfahren unter Aufteilung der Rollen ausführen.
  • Die Vertrautheitsverwaltungseinheit 220 des Servers 200 ändert die Vertrautheit gegenüber einem Benutzer gemäß einer von der Erkennungseinheit 156 erkannten Reaktion. Im Wesentlichen nimmt die Vertrautheit gegenüber einem Benutzer zu, der eine angenehme Handlung ausführt, während die Vertrautheit gegenüber einem Benutzer, der eine unangenehme Handlung ausführt, abnimmt.
  • Die Erkennungseinheit 212 des Servers 200 kann bestimmen, ob eine Reaktion angenehm oder unangenehm ist, und die Kartenverwaltungseinheit 210 kann auf einer Handlungskarte, die die „Vorliebe für einen Ort“ darstellt, den z-Wert des Punktes ändern, an dem die angenehme oder unangenehme Handlung ausgeführt wurde. Wenn beispielsweise eine angenehme Handlung in einem Wohnzimmer ausgeführt wird, kann die Kartenverwaltungseinheit 210 mit hoher Wahrscheinlichkeit einen bevorzugten Punkt im Wohnzimmer festlegen. In diesem Fall wird ein positiver Rückmeldungsnutzen dadurch realisiert, dass der Roboter 100 das Wohnzimmer bevorzugt und das Wohnzimmer weiter begünstigt, da er Empfänger einer angenehmen Handlung im Wohnzimmer ist.
  • Die Routenzusammenstellungseinheit 222 des Servers 200 stellt bei Bedarf eine Bewegungsroute (nachfolgend „Fluchtweg“ genannt) zusammen, ausgehend von einem Fall, in dem eine unbekannte Person, d. h. ein sich bewegendes Objekt mit niedriger Vertrautheit, erkannt wird (nachfolgend „Fluchtereignis“ genannt), mit der aktuellen Position des Roboters 100 als ein Ursprung. Um einen Fluchtweg zu bestimmen, sind zumindest (1) eine Auswahl einer endgültigen Bewegungsposition (nachfolgend „Bewegungsendposition“ genannt) und (2) eine Position, von der aus die Bewegung gestartet werden soll (nachfolgend „Bewegungsstartposition“ genannt), erforderlich. Wenn die Bewegungsendposition aufgesucht wird, wird eine Route von der Bewegungsstartposition zur Bewegungsendposition zusammengestellt und eine Verschiebung zur tatsächlichen Handlung wird vorgenommen, nachdem der Roboter 100 eine unbekannte Person erfasst, und der Zeitaufwand bis zur Handlung nimmt zu. Aus diesem Grund wird eine Fluchthandlung, die eigentlich eine sofortige Handlung sein sollte, unnatürlich.
  • Die Routenzusammenstellungseinheit 222 erstellt bei Bedarf einen Fluchtweg entsprechend der aktuellen Position des Roboters 100, auch wenn kein Fluchtereignis eingetreten ist. Wenn ein Fluchtereignis eintritt, kann der Roboter 100 sofort Ausweichhandlungen auf der Basis eines zuvor von der Routenzusammenstellungseinheit 222 erstellten Fluchtwegs durchführen. Es reicht aus, dass die Bewegungsstartposition die aktuelle Position des Roboters 100 ist. Die Bewegungsendposition kann eine beliebige Position sein, die durch einen vorbestimmten Abstand vom Roboter 100 getrennt ist, oder kann in einer Nähe eines Benutzers, dessen Vertrautheit einen vorbestimmten Wert oder mehr hat, festgelegt sein.
  • Die Funktion der Routenzusammenstellungseinheit 222 kann im Roboter 100 statt im Server 200 gelagert sein.
  • Die Kartenverwaltungseinheit 210 erstellt eine Karte (nachfolgend „statische Karte“ genannt), die einen sicheren Ort aufzeichnet, wie beispielsweise eine Position von Möbeln, hinter denen sich der Roboter 100 verstecken kann, oder einen sicheren Ort, der sich in einem Raum befindet, in dem sich der Roboter 100 befindet, und speichert die Karte in der Kartenspeichereinheit 216. Außerdem erstellt die Kartenverwaltungseinheit 210 eine Karte (nachfolgend „dynamische Karte“ genannt), die die Position einer Person mit hoher Vertrautheit aufzeichnet, die sich in dem Raum befindet, in dem sich der Roboter 100 befindet (normalerweise im selben Haus), und speichert die Karte in der Kartenspeichereinheit 216. Die Routenzusammenstellungseinheit 222 kann die dynamische Karte mit Vorrang vor der statischen Karte verwenden. Aus diesem Grund kann der Roboter 100 eine ausweichende Handlung des Versteckens hinter einer Person statt des Versteckens hinter einem Objekt priorisieren, wenn ein Fluchtereignis eintritt.
  • Die Routenzusammenstellungseinheit 222 bezieht sich auf die in der Kartenspeichereinheit 216 gespeicherte statische Karte und dynamische Karte und verwendet als Bewegungsendposition einen der aktuellen Position des Roboters 100 am nächsten liegenden Punkt. Ferner erstellt die Routenzusammenstellungseinheit 222 bei Bedarf einen Fluchtweg von der Bewegungsstartposition zur Bewegungsendposition. Die Routenzusammenstellungseinheit 222 kann bei jeder Bewegung des Roboters 100 einen Fluchtweg zusammenstellen oder regelmäßig einen Fluchtweg zusammenstellen.
  • Schüchternheitsfunktion
  • 6 ist ein Diagramm, das eine vertrautheitsbezogene Datenstruktur der Speichereinheit für individuelle Daten 218 zeigt.
  • Die Personenerkennungseinheit 214 des Servers 200 erkennt ein sich bewegendes Objekt aus verschiedenen Arten von Daten, die vom externen Sensor 114 oder dem internen Sensor 128 erhalten werden, und extrahiert daraus Merkmale (körperliche Merkmale und Verhaltensmerkmale). Darüber hinaus führt die Personenerkennungseinheit 214 eine Clusteranalyse mehrerer sich bewegende Objekte anhand dieser Merkmale durch. Nicht nur ein Mensch, sondern auch ein Haustier wie beispielsweise ein Hund oder eine Katze kann ein Ziel der Analyse als bewegliches Objekt sein.
  • Beispielsweise führt der Roboter 100 regelmäßig eine Bilderfassung aus, und die Personenerkennungseinheit 214 erkennt ein sich bewegendes Objekt aus den Bildern und extrahiert Merkmale des sich bewegenden Objekts. Wenn ein sich bewegendes Objekt erfasst wird, werden körperliche Merkmale und Verhaltensmerkmale auch vom Geruchssensor, dem integrierten Mikrofon mit hoher Richtwirkung, dem Temperatursensor und dergleichen extrahiert. Wenn beispielsweise ein sich bewegendes Objekt in einem Bild erscheint, werden verschiedene Merkmale extrahiert, wie beispielsweise ein Bart, aktiv sein am frühen Morgen, das Tragen von roter Kleidung, das Riechen von Parfüm, eine laute Stimme, das Tragen einer Brille, das Tragen eines Rockes, das Vorhandensein von grauen Haaren, groß sein, füllig sein, sonnengebräunt sein oder sich auf einem Sofa befinden.
  • Wenn ein sich bewegendes Objekt (Benutzer) mit Bart oft am frühen Morgen aktiv ist (steht früh auf) und selten rote Kleidung trägt, wird ein erstes Profil erstellt, das ein Cluster (Benutzer) ist, das früh aufsteht, einen Bart hat und nicht oft rote Kleidung trägt. Währenddessen wird ein zweites Profil erstellt, das ein Cluster (Benutzer) ist, das eine Brille trägt und einen Rock trägt, aber definitiv keinen Bart hat, wenn ein sich bewegendes Objekt mit Brille oft einen Rock trägt, das sich bewegende Objekt aber keinen Bart hat.
  • Obwohl es sich bei dem vorstehend genannten Beispiel um ein einfaches Beispiel handelt, werden das erste Profil, das einem Vater entspricht, und das zweite Profil, das einer Mutter entspricht, nach dem vordem beschriebenen Verfahren gebildet, und der Roboter 100 erkennt, dass es in diesem Haus mindestens zwei Benutzer (Eigentümer) gibt.
  • Man beachte, dass der Roboter 100 nicht erkennen muss, dass das erste Profil der „Vater“ ist. In allen Fällen reicht es aus, dass der Roboter 100 eine Figur erkennen kann, die „ein Cluster mit Bart ist, oft früh aufsteht und selten rote Kleidung trägt“.
  • In 6 wird das Clustern mehrerer Benutzer, nämlich Papa (01), Mama (02), ein Kleinkind (03), eine Katze (04), eine Schwiegermutter (05), Mamas Freundin (06) und ein Kleinkind (07), mithilfe dem vordem beschriebenen Verfahren ausgeführt. In 6 wird einem Cluster (Benutzer) eine Bezeichnung zugewiesen, wie in 01 bis 07.
  • Es wird angenommen, dass der Roboter 100 ein sich bewegendes Objekt (Benutzer) in einem Zustand, in dem diese Art der Clusteranalyse abgeschlossen ist, neu erkennt.
  • Zu diesem Zeitpunkt extrahiert die Personenerkennungseinheit 214 des Servers 200 Merkmale von Messinformationen eines Bildes oder dergleichen, die vom Roboter 100 erhalten wurden, und bestimmt, welchem Cluster ein sich bewegendes Objekt in der Nähe des Roboters 100 entspricht. Wenn beispielsweise ein sich bewegendes Objekt mit einem Bart erfasst wird, ist die Wahrscheinlichkeit hoch, dass das sich bewegende Objekt Papa (01) ist. Wenn das sich bewegende Objekt früh am Morgen aktiv ist, ist es noch sicherer, dass das sich bewegende Objekt Papa (01) entspricht. Wenn währenddessen ein sich bewegendes Objekt erfasst wird, das eine Brille trägt, besteht die Möglichkeit, dass das sich bewegende Objekt Mama (02) ist. Wenn das bewegliche Objekt einen Bart hat, ist das bewegliche Objekt weder Mama (02) noch Papa (01), weswegen die Personenerkennungseinheit 214 bestimmt, dass das bewegliche Objekt eine neue Person ist, die nicht clusteranalysiert wurde.
  • Die Bildung eines Clusters durch Merkmalsextraktion (Clusteranalyse) und die Anwendung auf eine clusterbegleitende Merkmalsextraktion können gleichzeitig ausgeführt werden.
  • Die Vertrautheit mit einem sich bewegenden Objekt (Benutzer) ändert sich entsprechend der Art der Behandlung des Roboters 100 durch den Benutzer.
  • Die Vertrautheitsverwaltungseinheit 220 erhöht oder verringert die Vertrautheit gegenüber jedem geclusterten Benutzer. Die Vertrautheit ändert sich hauptsächlich entsprechend der (1) Erfassung (visuelle Erkennung), dem (2) Körperkontakt und dem (3) Sprechen.
  • Vertrautheit wird beschrieben als etwas, das sich in einem Bereich von - 100 für eine niedrigste Vertrautheit, d. h. ein Objekt der Vorsicht, bis +100 für eine höchste Vertrautheit, das heißt Sicherheit, ändert. Das Verhalten des Roboters 100 gegenüber einem sich bewegenden Objekt ändert sich entsprechend der Vertrautheit, was im Folgenden beschrieben wird. Zunächst wird ein Verfahren zum Ändern der Vertrautheit beschrieben.
  • Erfassung
  • Wenn das Kleinkind (03) in einem vom Roboter 100 aufgenommenen Bild erkannt wird, wird das Kleinkind (03) vom Roboter 100 „visuell erkannt“. Genauer gesagt wird bestimmt, dass eine visuelle Erkennung vorliegt, wenn basierend auf den aus dem aufgenommenen Bild erhaltenen charakteristischen Informationen und anderen vom Geruchssensor und dergleichen beim Aufnehmen erhaltenen charakteristischen Informationen bestimmt wird, dass die Merkmale des erfassten sich bewegenden Objekts mit dem Cluster (Profil) des Kleinkindes (03) übereinstimmen. Wenn bestimmt wird, dass eine visuelle Erkennung vorliegt, erhöht die Vertrautheitsverwaltungseinheit 220 die Vertrautheit des Kleinkindes (03). Je häufiger ein Benutzer erkannt wird, desto mehr neigt die Vertrautheit dazu, zuzunehmen.
  • Gemäß dieser Art von Steuerungsverfahren ahmt der Roboter 100 ein tierähnliches Verhalten nach, um ein Gefühl der Nähe zu einer häufig angetroffenen Person zu entwickeln.
  • Die Vertrautheit ist nicht auf eine einfache Erkennung beschränkt, sondern kann auch bei „Blickkontakt“ zunehmen. Die Erkennungseinheit 156 des Roboters 100 kann ein Gesichtsbild eines gegenüber befindlichen Benutzers erkennen, eine Blickrichtung aus dem Gesichtsbild erkennen und erkennen, dass „Blickkontakt bestand“, wenn die Zeit, während der die Blickrichtung auf den Roboter 100 gerichtet ist, eine vorbestimmte Zeit oder länger ist.
  • Körperkontakt
  • Wenn der Roboter 100 einen Benutzer erkennt und eine Berührung (Körperkontakt) vom Benutzer erfasst, wird bestimmt, dass der Benutzer Interesse an dem Roboter 100 gezeigt hat, und die Vertrautheit nimmt zu. Wenn beispielsweise der Roboter 100 von Mama (02) berührt wird, erhöht die Vertrautheitsverwaltungseinheit 220 die Vertrautheit von Mama (02). Der Roboter 100 kann eine Berührung des Roboters 100 erfassen, indem eine äußere Hülle mit einem piezoelektrischen Gewebe abgedeckt wird. Eine Berührung kann auch durch die Körpertemperatur des Benutzers erfasst werden, die vom Temperatursensor erfasst wird. Wenn der Roboter 100 eine Umarmung erfasst, kann die Vertrautheit erheblich erhöht werden, basierend darauf, dass eine starke Zuneigung gegenüber dem Roboter 100 gezeigt wurde.
  • Wenn der Roboter 100 indes eine gewalttätige Handlung wie getreten werden, geschlagen werden oder das Ergreifen des Horns 112 erkennt, verringert die Vertrautheitsverwaltungseinheit 220 die Vertrautheit. Wenn beispielsweise der Roboter 100 vom Kleinkind (03) geworfen wird, reduziert die Vertrautheitsverwaltungseinheit 220 die Vertrautheit bezüglich des Kleinkindes (03) erheblich.
  • Gemäß dieser Art von Steuerungsverfahren ahmt der Roboter 100 ein tierähnliches Verhalten nach, um ein Gefühl der Nähe zu einer Person zu entwickeln, die den Roboter 100 sanft berührt, aber eine gewalttätige Person nicht zu mögen.
  • Sprechen
  • Die Vertrautheit ändert sich ebenfalls, wenn der Roboter 100 eine an den Roboter 100 gerichtete Zusprache erfasst. Beispielsweise nimmt die Vertrautheit zu, wenn der Roboter 100 den Namen des Roboters 100 oder ein liebevoller Begriff in einem vorbestimmten Lautstärkebereich erfasst. Typische terminologische Muster wie beispielsweise „du bist süß“, „du bist lustig“ oder „komm her“ können im Voraus als liebevolle Bezeichnungen registriert werden, und ob ein Begriff ein liebevoller Begriff ist oder nicht, kann mithilfe der Spracherkennung bestimmt werden. Währenddessen kann die Vertrautheit verringert sein, wenn der Roboter 100 mit einer hohen Lautstärke angesprochen wird, die einen normalen Lautstärkebereich überschreitet. Beispielsweise ist die Vertrautheit verringert, wenn der Roboter 100 mit lauter Stimme geschimpft wird oder wenn er überrascht wird.
  • Außerdem kann die Vertrautheit verringert sein, wenn ein beleidigender Begriff an den Roboter 100 gerichtet wird. Typische terminologische Muster wie „hör auf“, „bleib weg“, „geh weg“ oder „Idiot“ können im Voraus als beleidigende Begriffe registriert werden, und ob ein Begriff ein beleidigender Begriff ist oder nicht, kann mithilfe der Spracherkennung bestimmt werden.
  • Der Name des Roboters 100 kann vorab von einem Benutzer registriert werden. Alternativ kann der Roboter 100 einen Begriff, der mit einer bestimmten Häufigkeit unter verschiedenen, an den Roboter 100 gerichteten Begriffen verwendet wird, als den Namen des Roboters 100 erkennen. In diesem Fall können allgemein häufig verwendete Begriffe wie „Hey“ und „komm her“ von den Kandidaten für die Namenserkennung entfernt sein.
  • Nach dem vordem beschriebenen Steuerungsverfahren legt der Roboter 100 eine hohe Vertrautheit fest für eine häufig angetroffene Person, eine Person, die den Roboter 100 häufig berührt, und eine Person, die häufig mit dem Roboter 100 spricht. Währenddessen nimmt die Vertrautheit für eine selten gesehene Person ab, eine Person, die den Roboter 100 nicht oft berührt, eine gewalttätige Person und eine Person, die mit lauter Stimme schimpft. Der Roboter 100 ändert die Vertrautheit jedes Benutzers auf der Grundlage verschiedener Elemente der Informationen über die Außenumgebung, die von den Sensoren erfasst werden (visuell, taktil und akustisch).
  • Die Vertrautheitsverwaltungseinheit 220 verringert im Laufe der Zeit die Vertrautheit. Beispielsweise kann die Vertrautheitsverwaltungseinheit 220 die Vertrautheit aller Benutzer alle 10 Minuten um jeweils 1 verringern. Wenn sich ein Benutzer nicht mehr mit dem Roboter 100 beschäftigt oder, anders ausgedrückt, wenn ein Benutzer den Roboter 100 nicht mehr freundlich behandelt, kann der Benutzer keine enge Beziehung mit dem Roboter 100 unterhalten.
  • Eine Veränderungsrate der Vertrautheit muss nicht konstant sein. Ein Bereich, der dazu neigt, zuzunehmen oder abzunehmen (ein hochempfindlicher Bereich), und ein Bereich, die sich wahrscheinlich nicht ändern wird (ein niedrigempfindlicher Bereich) kann basierend auf einer beliebigen Funktion, wie beispielsweise einer Sigmoidfunktion, eingestellt werden. Die Festlegung kann beispielsweise auch so sein, dass die Vertrautheit von 0 bis 50 vergleichsweise eher steigt, aber die Vertrautheit von 50 bis 80 wahrscheinlich nicht steigt, sondern wahrscheinlich fällt, und die Vertrautheit von 80 oder mehr wahrscheinlich nicht steigt, aber wahrscheinlich auch nicht fällt. Gemäß dieser Art von Festlegung kann eine „Beziehung des starken Vertrauens, die wahrscheinlich nicht zerstört werden kann“ dargestellt werden, wenn die Vertrautheit 80 übersteigt.
  • Eine Zunahmerate und eine Abnahmerate der Vertrautheit müssen nicht das gleiche Ausmaß haben. Beispielsweise kann die Vertrautheit so eingestellt werden, dass ein Steigen und Fallen unwahrscheinlich sind.
  • Zusätzlich zur Vertrautheit wird für jeden Benutzer (Cluster) auch die „Bedeutung“ festgelegt. Die Bedeutung ist ein Parameter, der eine besondere Relevanz unter den Benutzern angibt, wie beispielsweise ein Besitzer. In mindestens einer Ausführungsform ist die Bedeutung in einem Bereich von 0 bis 1 normiert.
  • Eine Bedeutung = 1 kennzeichnet ein Familienmitglied (Besitzer) und 0 kennzeichnet einen Fremden. Außerdem wird ein Zwischenwert von 0,5 festgelegt, wenn eine Person kein Fremder ist, aber nicht als Familienmitglied bezeichnet werden kann, beispielsweise die Schwiegermutter (05), die getrennt lebt. Bedeutung ist ein Parameter, der unabhängig von der Vertrautheit einen Leitfaden für den Roboter 100 bildet, um eine Existenz zu erkennen, die respektiert werden sollte. Benutzer sind entsprechend der Bedeutung in eine spezielle Gruppe (Gruppe der Besitzer) und eine allgemeine Gruppe (Fremdgruppe) eingeteilt.
  • Ein Benutzer kann die Bedeutung durch Eingabe festlegen. Wenn zum Beispiel die Bedeutung = 1 für das Cluster gesetzt ist, das „eine Person mit Bart ist, die oft früh am Morgen aktiv ist“, wird Papa (01) danach als der speziellen Gruppe zugehörig behandelt. Die Vertrautheitsverwaltungseinheit 220 ändert die Vertrautheit mithilfe unterschiedlicher Algorithmen für die spezielle Gruppe und die allgemeine Gruppe.
  • Die Vertrautheitsverwaltungseinheit 220 legt die Abnahmerate pro Zeiteinheit der Vertrautheit für einen Benutzer in der speziellen Gruppe als niedrig fest. Außerdem kann die Zunahmerate der Vertrautheit beim Erhalten einer angenehmen Handlung, wie beispielsweise Sprechen oder eine Umarmung, als hoch festgelegt werden, oder die Steuerung kann dergestalt sein, dass die Vertrautheit nicht auf oder unter einen bestimmten Wert sinkt.
  • Währenddessen stellt die Vertrautheitsverwaltungseinheit 220 die Abnahmerate pro Zeiteinheit der Vertrautheit für einen Benutzer in der allgemeinen Gruppe als hoch ein. Außerdem kann die Vertrautheit beim Erhalten einer angenehmen Handlung, wie beispielsweise Körperkontakt, so festgelegt werden, dass ein Steigen unwahrscheinlich ist, oder die Steuerung kann dergestalt sein, dass die Vertrautheit nicht auf oder über einen bestimmten Wert steigt. Auf diese Weise kann bewirkt werden, dass die Änderungsrate der Vertrautheit mit dem Zeitablauf oder die Begleitung einer angenehmen oder unangenehmen Handlung zwischen der speziellen Gruppe und der allgemeinen Gruppe unterschiedlich ist.
  • In 6 ist die Bedeutung der Schwiegermutter (05) auf 0,5 festgelegt, was eine größere Bedeutung darstellt als die eines Fremden, aber weniger als die eines Familienmitglieds. In diesem Fall kann die Abnahmerate der Vertrautheit pro Zeiteinheit auf eine dazwischenliegende Festlegung festgelegt werden, die größer als die der speziellen Gruppe und kleiner als die der allgemeinen Gruppe ist.
  • Gemäß dieser Art von Steuerungsverfahren kann ein Benutzer mit hoher Bedeutung leicht die Vertrautheit aufrechterhalten, wodurch eine „Familienbindung“ dargestellt werden kann. Zum Beispiel kann die Steuerung dergestalt sein, dass eine Abnahme der Vertrautheit unwahrscheinlich ist, auch im Fall eines Papas (01), der oft von zu Hause weg auf einer Geschäftsreise oder dergleichen ist, und die Vertrautheit wiederhergestellt wird, wenn der Roboter 100 zum ersten Mal nach einer langen Zeit vom Papa (01) umarmt wird. Außerdem kann die Steuerung auch dergestalt sein, dass eine starke Abnahme der Vertrautheit unwahrscheinlich ist, selbst wenn der Roboter 100 von dem Kleinkind (03), das ein Familienmitglied ist, grob behandelt wird, aber die Vertrautheit stark abnimmt, wenn der Roboter 100 von dem gesonderten Kleinkind (07), das kein Familienmitglied ist, grob behandelt wird. Auf diese Weise können differenzierte Reaktionen realisiert werden, sodass sich eine Reaktion entsprechend der Bedeutung ändert, auch wenn die Behandlung gleich ist.
  • In 6 ist die Vertrautheit des Papas (01) 70. Obwohl es nur wenige Möglichkeiten gibt, den Papa (01) aufgrund von Arbeit und Geschäftsreisen zu erfassen, kann eine hohe Vertrautheit festgelegt werden, da Papa (01) häufig eine angenehme Handlung wie eine Umarmung vornimmt. Die Mama (02) ist leicht zu erfassen, da sie häufig zu Hause ist, und die Vertrautheit der Mama (02) kann 80 sein, weil Mama (02) begeistert mit dem Roboter 100 spricht. Das Kleinkind (03) ist ein Kind von Papa (01) und Mama (02). Obwohl es viele Möglichkeiten zur Erfassung und eine große Menge an Beteiligung gibt, kann das Kleinkind (03) manchmal eine gewalttätige Handlung vornehmen. Aus diesem Grund ist die Vertrautheit mit dem Kleinkind (03) 63. Außerdem hält die Familie die Katze (04). Die Katze (04) spielt häufig mit dem Roboter 100 und kann keine gewalttätige Handlung durchführen, weshalb die Vertrautheit 90 ist.
  • Gemäß dem Vorstehenden kann der Roboter 100 durch die Verhaltensweise eine große Vorliebe für die Katze (04) und eine Vorliebe für die Mama (02), aber eine leichte Vorsicht vor dem Kleinkind (03) ausdrücken.
  • Währenddessen ist die Vertrautheit der Schwiegermutter (05), die wenige Gelegenheiten zum Erfassen bietet, 47. Außerdem ist die Vertrautheit des gewalttätigen Kleinkindes (07) aus der Nachbarschaft, das selten angetroffen wird, -30. Mamas Freundin (06) ist trotz ihrer Freundlichkeit kein Familienmitglied (Bedeutung 0) und wird selten angetroffen, weswegen die Vertrautheit auf 30 begrenzt ist.
  • Gemäß dem Vorstehenden kann der Roboter 100 durch die Verhaltensweise ausdrücken, das an die Schwiegermutter (05) und Mamas Freundin (06) gewöhnt ist, aber das kleine Kind (07) hasst, das gelegentlich kommt.
  • Auf diese Weise ändert sich die Vertrautheit des Roboters 100 in Echtzeit entsprechend der Bedeutung eines Benutzers und der Beziehung zwischen dem Roboter 100 und dem Benutzer. Der Roboter 100 kann ein tierähnliches Gefühl der Zuneigung zum Ausdruck bringen, indem er eine Person bevorzugt, die in enger Beziehung mit dem Roboter 100 steht, während er ein Familienmitglied als wichtig behandelt. Mit anderen Worten, der Roboter 100 kann durch die Verhaltensweise „Schüchternheit“ ausdrücken, indem er vorsichtig gegenüber einer gewalttätigen Person oder einer Person ist, die der Roboter 100 nicht gut kennt.
  • 7 ist ein Flussdiagramm, das ein Verhaltensmuster entsprechend der Vertrautheit des Roboters 100 zeigt.
  • Wie bereits beschrieben, führt der eigentliche Roboter 100 autonom eine komplexe Handlungsauswahl entsprechend einer Handlungskarte aus. Der Roboter 100 handelt, während er von mehreren Handlungskarten beeinflusst ist, die auf verschiedenen Parametern wie beispielsweise Einsamkeit, Langeweile und Neugierde basieren. 7 zeigt schematisch eine Handlungsauswahl des Roboters 100, die mit der Vertrautheit gegenüber einem Benutzer einhergeht. Wenn die Wirkung der Handlungskarten beseitigt ist oder in einem internen Zustand, bei dem die Wirkung der Handlungskarten gering ist, versucht der Roboter 100 im Wesentlichen, sich einer Person mit hoher Vertrautheit zu nähern, und versucht, sich von einer Person mit niedriger Vertrautheit zu entfernen.
  • Im Folgenden wird eine Beschreibung unter der Annahme gegeben, dass ein Schwellenwert T1 < T2 < T3. Außerdem wird die Beschreibung unter der Annahme gegeben, dass die Clusteranalyse in ausreichendem Maße durchgeführt wurde und dass mehrere Benutzer (Cluster) identifiziert wurden.
  • Zunächst erkennt die Erkennungseinheit 156 des Roboters 100 einen Benutzer mithilfe des internen Sensors 128 und dergleichen, und die Personenerkennungseinheit 214 bestimmt, welchem Cluster der Benutzer entspricht (S10). Wenn die Vertrautheit des Benutzers der Schwellenwert T2 (ein mittlerer Schwellenwert) oder größer (Y in S12) ist, legt die Bewegungsbestimmungseinheit 138 eine sich dem Benutzer annähernde Richtung fest und die Bewegungsantriebseinheit 144 führt eine annähernde Handlung (S14) aus.
  • Wenn darüber hinaus die Vertrautheit des Benutzers der Schwellenwert T3 (ein oberer Schwellenwert) oder größer (Y in S16) ist, weist die Handlungsbestimmungseinheit 140 die Handlungsantriebseinheit 146 an, wodurch eine liebevolle Geste ausgeführt wird (S18). Eine liebevolle Geste ist eine Geste, die einer im Voraus festgelegten Person Wohlwollen andeutet. Beispielsweise kann der Roboter 100 einen sitzenden Zustand einnehmen und eine Geste des Anhebens beider Arme 106 ausführen, als ob er um eine Umarmung bittet. Außerdem kann der Roboter 100 eine rotierende Handlung um den Benutzer herum ausführen oder kann einen eigenartigen piepsenden „Ruf“ aus dem integrierten Lautsprecher aussenden. Alternativ kann der Roboter 100 versuchen, die Aufmerksamkeit des Benutzers auf den Roboter 100 zu lenken, indem er enthusiastisch leicht gegen den Benutzer stößt.
  • Wenn die Vertrautheit kleiner als der Schwellenwert T3 (N in S16) ist, wird keine liebevolle Geste ausgeführt.
  • Wenn indes die Vertrautheit kleiner als der Schwellenwert T2 (der mittlere Schwellenwert) (N in S12) ist, und außerdem die Vertrautheit kleiner als der Schwellenwert T1 (ein unterer Schwellenwert) (Y in S20) ist, legt die Bewegungsbestimmungseinheit 138 als Bewegungsrichtung eine Richtung vom Benutzer weg fest und die Bewegungsantriebseinheit 144 führt eine Rückzugshandlung (S22) aus.
  • Wenn die Vertrautheit des Clusters kleiner als der Schwellenwert T2 (der mittlere Schwellenwert) (N in S12), aber gleich oder größer als der Schwellenwert T1 (der untere Schwellenwert) (N in S20) ist, wird keine Rückzugshandlung ausgeführt.
  • Zusammenfassend lässt sich sagen, dass die Handlungen des Roboters 100 nachstehend entsprechend der Vertrautheit eingeteilt sind.
    1. 1. Ein Cluster mit extrem hoher Vertrautheit (Vertrautheit mit dem Schwellenwert T3 oder höher) Der Roboter 100 drückt ein Gefühl der Zuneigung stark aus, indem er eine sich annähernde Handlung ausführt und eine liebevolle Geste ausführt.
    2. 2. Ein Cluster mit vergleichsweise hoher Vertrautheit (Vertrautheit mit dem Schwellenwert T2 oder höher, aber kleiner als T3) Der Roboter 100 führt nur eine annähernde Handlung aus.
    3. 3. Ein Cluster mit vergleichsweise niedriger Vertrautheit (Vertrautheit mit dem Schwellenwert T1 oder höher, aber kleiner als der Schwellenwert T2) Der Roboter 100 führt keine besondere Handlung aus.
    4. 4. Ein Cluster mit besonders niedriger Vertrautheit (Vertrautheit ist kleiner als der Schwellenwert T1) Der Roboter 100 führt eine Rückzugshandlung aus.
  • Gemäß dem bisher beschriebenen Steuerungsverfahren nähert sich der Roboter 100 dem Benutzer, wenn er einen Benutzer mit hoher Vertrautheit findet, und entfernt sich umgekehrt vom Benutzer, wenn er einen Benutzer mit niedriger Vertrautheit findet. Gemäß dieser Art von Steuerungsverfahren kann der Roboter 100 durch die Verhaltensweise eine sogenannte „Schüchternheit“ ausdrücken. Wenn ein Besucher (ein Benutzer A mit niedriger Vertrautheit) erscheint, kann sich der Roboter 100 außerdem vom Besucher wegbewegen und auf ein Familienmitglied (ein Benutzer B mit hoher Vertrautheit) zubewegen. In diesem Fall kann der Benutzer B wahrnehmen, dass der Roboter 100 schüchtern ist und sich unwohl fühlt und sich auf den Benutzer B verlässt. Durch diese Art von Verhaltensausdruck werden beim Benutzer B die Freude, auserwählt zu sein und des sich auf ihn Verlassens, sowie ein damit verbundenes Gefühl der Zuneigung hervorgerufen.
  • Wenn indes der Benutzer A, der ein Besucher ist, den Roboter 100 häufig besucht und mit ihm spricht und ihn berührt, steigt die Vertrautheit des Roboters 100 gegenüber dem Benutzer A allmählich an, und der Roboter 100 hört auf, eine Schüchternheitshandlung (eine Rückzugshandlung) gegenüber dem Benutzer A auszuführen. Der Benutzer A kann auch Zuneigung gegenüber dem Roboter 100 empfinden, indem er wahrnimmt, dass sich der Roboter 100 an den Benutzer A gewöhnt hat.
  • Die bisher beschriebene Handlungsauswahl muss nicht unbedingt ständig ausgeführt werden. Wenn beispielsweise ein interner Parameter, der die Neugier des Roboters 100 andeutet, hoch ist, wird einer Handlungskarte Gewicht gegeben, aus der ein Ort ermittelt wird, an dem die Neugierde befriedigt wird, weswegen auch eine Möglichkeit besteht, dass der Roboter 100 keine von Vertrautheit beeinflusste Handlung auswählt. Wenn der in der Halle installierte Außensensor 114 die Heimkehr eines Benutzers erfasst, kann der Roboter 100 mit maximaler Priorität auch eine Handlung zur Begrüßung des Benutzers ausführen.
  • Bisher wurden der Roboter 100 und das Robotersystem 300 einschließlich des Roboters 100 auf der Grundlage einer Ausführungsform beschrieben.
  • Eine Handlungsauswahl, die nicht nachgebildet werden kann, ist schwer vorherzusagen und tierähnlich, und wird durch die Verwendung einer oder mehrerer Handlungskarten dargestellt. Mithilfe dieser Art von Verfahren wird eine tierähnliche Handlungsauswahl nachgeahmt.
  • Es ist oftmals der Fall, dass die Verbundenheit zu einem Haustier aus einem Gefühl des Gebrauchtwerdens und des sich Verlassens vom Haustier entsteht. Dass das Haustier einen Benutzer gerne mag und bezüglich einer anderen Existenz als dem Benutzer schüchtern ist, kann vom Benutzer eine Verbundenheit mit dem Haustier auslösen. Die Verbundenheit eines Benutzers mit dem Roboter 100 kann durch Schüchternheit verstärkt werden, die dazu führen kann, dass ein Mensch eine Verbundenheit mit einem Haustier verspürt, was auch im Roboter 100 realisiert ist.
  • Da die Erfindung nicht auf die bisher beschriebene mindestens eine Ausführungsform oder ein modifiziertes Beispiel beschränkt ist, können Komponenten geändert oder ausgeführt werden, ohne vom Umfang der Offenbarung abzuweichen. Verschiedene Implementierungen können durch mehrere der in der bisher beschriebenen mindestens einen Ausführungsform oder dem modifizierten Beispiel offenbarten Komponenten ausgebildet sein, die gegebenenfalls kombiniert sind. Außerdem können einige Komponenten aus der in der bisher beschriebenen mindestens einen Ausführungsform gezeigten Gesamtheit oder dem modifizierten Beispiel entfernt sein.
  • Obwohl eine Beschreibung gegeben wurde, die davon ausgeht, dass das Robotersystem 300 aus einem Roboter 100, einem Server 200 und mehreren externen Sensoren 114 konfiguriert ist, kann ein Teil der Funktionen des Roboters 100 durch den Server 200 realisiert sein, und ein Teil oder alle Funktionen des Servers 200 können dem Roboter 100 zugeteilt sein. Ein Server 200 kann mehrere Roboter 100 steuern, oder mehrere Server 200 können einen oder mehrere der Roboter 100 in Zusammenarbeit steuern.
  • Eine von dem Roboter 100 und dem Server 200 verschiedene dritte Vorrichtung kann einen Teil der Funktionen verwalten. Eine Sammlung der Funktionen des Roboters 100 und der in 5 beschriebenen Funktionen des Servers 200 kann auch umfassend als eine „Informationsverarbeitungsvorrichtung“ verstanden werden. In mindestens einer Ausführungsform wird ein Verfahren zum Verteilen der mehreren Funktionen, die zur Realisierung der Erfindung bezüglich eines oder mehrerer Hardwareelemente erforderlich sind, unter Berücksichtigung der Verarbeitungsfähigkeit jedes Hardwareelements, der für das Robotersystem 300 erforderlichen Spezifikationen und dergleichen bestimmt.
  • In dieser Ausführungsform wurde beschrieben, dass hauptsächlich die Erkennungseinheit 156 des Roboters 100 einen Benutzer über den internen Sensor 128 erfasst, aber die Erkennungseinheit 212 des Servers 200 kann auch die Existenz eines Benutzers über den externen Sensor 114 erfassen. Der externe Sensor 114 kann auch einen Geruchssensor und ein Mikrofon mit hoher Richtwirkung beinhalten. Insbesondere kann die Erfassungsgenauigkeit erhöht werden, indem der interne Sensor 128 in Kombination mit dem externen Sensor 114 verwendet wird, selbst wenn die Erfassungsgenauigkeit des internen Sensors 128 bezüglich Klang und Geruch unzureichend ist. Außerdem werden Merkmale beim Erfassen eines Benutzers leichter extrahiert, wenn derselbe Benutzer aus einem anderen Winkel von einer im externen Sensor 114 integrierten Kamera erfasst wird, statt nur die integrierte Kamera zu verwenden, die als interner Sensor 128 fungiert.
  • In dieser Ausführungsform wurde beschrieben, dass der Roboter 100 verschiedene Benutzer erfasst, beim Erfassen auch andere Daten wie Geruch, Sprache und Körpertemperatur erfasst, eine Extraktion von Merkmalen aus diesen Datenelementen ausführt und mehrere Benutzer durch Clusteranalyse identifiziert (clustert).
  • Als ein modifiziertes Beispiel kann ein Benutzer die körperlichen Merkmale und die Verhaltensmerkmale jedes Benutzers auf dem Server 200 im Voraus festlegen. Als Merkmale von Papa (01) können beispielsweise Informationen wie Bart haben, früh aufstehen, 170 Zentimeter groß sein und ein Raucher sein als Lehrdaten der Speichereinheit für individuelle Daten 218 des Servers 200 zur Verfügung gestellt werden. Auf der Grundlage dieser Merkmalsinformationen kann der Server 200 die Benutzererfassung mithilfe eines bereits bekannten Verfahrens, wie beispielsweise dem Deep-Learning, ausführen.
  • Als einfacheres Benutzererkennungsmittel kann der Roboter 100 einen Benutzer identifizieren, indem er regelmäßig eine Benutzerkennung von einer mobilen Vorrichtung erhält, wie beispielsweise einer im Besitz des Benutzers befindlichen mobilen Vorrichtung. Auch hinsichtlich eines Haustiers kann eine einfache Identifizierung ausgeführt werden, indem ein Funkfrequenzidentifizierungs(RFID)-Kennzeichen an einem Halsband angebracht wird. Gemäß diesem Steuerungsverfahren kann die Verarbeitungslast des Roboters 100 und des Servers 200 erheblich reduziert werden.
  • Der Roboter 100 kann die Positionskoordinaten des Roboters 100 durch Senden eines Suchsignals und Empfangen eines Antwortsignals von jedem externen Sensor 114 identifizieren. Alternativ kann der externe Sensor 114 ein Suchsignal mit Richtwirkung übertragen, wobei der Roboter 100 die Entfernung und Richtung zum Roboter 100 vom externen Sensor 114 identifizieren kann.
  • Mehrere der Roboter 100 können Informationen miteinander austauschen. Wenn die Vertrautheit eines ersten Roboters 100 bezüglich eines Benutzers A hoch ist, kann der erste Roboter 100 einen zweiten Roboter 100 über die Vertrautheit (einen positiven Eindruck) bezüglich des Benutzers A informieren. Anschließend kann der zweite Roboter 100 anfänglich die Vertrautheit bezüglich des Benutzers A im Voraus auf hoch festlegen, selbst wenn sie sich das erste Mal begegnen.
  • Gemäß dieser Art von Steuerungsverfahren wird der Benutzer A, der vom ersten Roboter 100 gemocht wird, vom zweiten Roboter 100 gemocht, selbst wenn sie sich das erste Mal begegnen, wodurch der Benutzer A ein Gefühl haben kann, „ein vom Roboter 100 gemochter Typ“ zu sein.
  • Wenn die Vertrautheit des ersten Roboters 100 bezüglich eines Benutzers B ebenfalls niedrig ist, kann der erste Roboter 100 den zweiten Roboter 100 über die Vertrautheit (einen schlechten Eindruck) bezüglich des Benutzers B benachrichtigen. Anschließend kann der zweite Roboter 100 die Vertrautheit bezüglich des Benutzers B im Voraus auf niedrig festlegen, selbst wenn sie sich das erste Mal begegnen.
  • Gemäß dieser Art von Steuerungsverfahren wird der Benutzer B, der vom ersten Roboter 100 nicht gemocht wird, vom zweiten Roboter 100 nicht gemocht, selbst wenn sie sich das erste Mal begegnen, wodurch ein Benutzer, der den Roboter 100 schikaniert, auch von einem anderen Roboter 100 nicht gemocht wird. Folglich kann auch eine Steuerung dergestalt realisiert werden, dass sich der Ruf eines Benutzers unter den mehreren Robotern 100 ausbreitet.
  • Die Erkennungseinheit 212 kann aufgrund der Vertrautheit eine Einteilung in einen „gemochten Typ“ und einen „nicht gemochten Typ“ vornehmen. Beispielsweise wird angenommen, dass die Vertrautheit des Roboters 100 gegenüber Papa (01) stark abgenommen hat. Es wird angenommen, dass Papa (01) die Merkmale des Tragens eines Bartes, einer lauten Stimme und des Geruchs von Zigarettenrauch hat. In diesem Fall kann der Roboter 100 ein Vorurteil gegen „Rauchen“ zum Ausdruck bringen, wenn der Roboter 100 den Geruch von Zigarettenrauch bei einem zum ersten Mal getroffenen Benutzer erfasst, indem ein Anfangswert der Vertrautheit bezüglich des Benutzers auf niedriger als normal festgelegt wird. Auf die gleiche Weise kann der Roboter 100 auch einen Anfangswert der Vertrautheit gegenüber einer Person mit einem Bart auf niedrig festlegen. Das heißt, eine assoziative Handlungsauswahl wird dadurch realisiert, dass aufgrund der Abneigung des Roboters 100 gegenüber Papa (01) der Roboter 100 auch keinen Bart mag, der Papa (01) charakterisiert, und weil der Roboter 100 Bärte nicht mag, mag der Roboter 100 auch eine andere Person nicht, die einen Bart hat.
  • Im Gegenzug wird ein Fall betrachtet, in dem die Vertrautheit bezüglich Papa (01), der Raucher ist, extrem hoch ist. In diesem Fall kann der Roboter 100 den Anfangswert der Vertrautheit bezüglich des Benutzers höher als normal festlegen, wenn der Roboter 100 den Geruch von Zigarettenrauch bei einem zum ersten Mal getroffenen Benutzer erfasst. Das heißt, eine assoziative Handlungsauswahl wird dadurch realisiert, dass aufgrund der Zuneigung des Roboters 100 gegenüber Papa (01) der Roboter 100 auch den Geruch von Zigarettenrauch mag, der Papa (01) charakterisiert, und weil der Roboter 100 den Geruch von Zigarettenrauch mag, mag der Roboter 100 Raucher.
  • Darüber hinaus kann sich der Roboter 100 an den Geruch eines vertrauten Benutzers erinnern und eine Handlung durchführen, die den Geruch sucht. Wenn beispielsweise die Vertrautheit bezüglich Papa (01) hoch ist, kann eine Handlungskarte basierend auf dem Geruch so festgelegt werden, dass sich der Roboter 100 zu einem Ort hingezogen fühlt, der genauso riecht wie Papa (01). Die Vertrautheitsverwaltungseinheit 220 kann nicht nur die Vertrautheit eines Benutzers, sondern auch die Vertrautheit einer Geruchskategorie basierend auf der Vertrautheit des Benutzers festlegen. Wenn beispielsweise der Geruch eines Benutzers 1 zu einer Geruchskategorie 1 gehört, kann die Vertrautheitsverwaltungseinheit 220 die Vertrautheit gleich der des Benutzers 1 für die Geruchskategorie 1 festlegen. Außerdem kann der Server 200 den Geruch jedes Teils eines Hauses mithilfe des externen Sensors 114, der den Geruchssensor beinhaltet, kartografieren. Ferner kann die Handlungsauswahl des Roboters 100 durch das Festlegen einer Handlungskarte beeinflusst werden, die einen Punkt, der genauso riecht wie die Geruchskategorie 1, als einen angenehmen Punkt übernimmt. Wenn der Roboter 100 beispielsweise Papa (01), der eine hohe Vertrautheit hat, seit einiger Zeit nicht getroffen hat, wird eine Handlung durchgeführt, sodass der Roboter 100 von einem angenehmen Punkt angezogen wird, der genauso riecht wie Papa (01), indem der Geruchshandlungskarte Gewicht gegeben wird.
  • Auf die gleiche Weise kann ein Punkt in einer gleichen Geruchskategorie wie der Geruch eines Benutzers mit niedriger Vertrautheit als unangenehmer Punkt übernommen werden. Zum Beispiel kann eine Verhaltensweise ausgeführt werden, sodass der Roboter 100 selbst nach dem Heimgehen des gehassten Kleinkindes (07) aus der Nachbarschaft einen unangenehmen Punkt nicht mag, der genauso riecht wie das Kleinkind (07).
  • Die Schwellenwerte T1 bis T3, die Referenzen für die Handlungsauswahl auf der Grundlage der Vertrautheit bilden, können feste Werte oder variable Werte sein. Beispielsweise kann durch die zufällige Änderung der Schwellenwerte ein kapriziöses Verhaltensmuster des Roboters 100 realisiert werden. Wenn der Roboter 100 gelangweilt ist, beispielsweise wenn er allein zu Hause ist und ein Zeitraum, während dem kein Benutzer erfasst wird, gleich oder größer als eine bestimmte Zeit ist, können die Schwellenwerte T1 bis T3 umfassend verringert werden. In diesem Fall werden eine Annäherungshandlung und eine liebevolle Geste auch bezüglich eines Benutzers durchgeführt, dessen Vertrautheit nicht so hoch ist, wodurch die „Einsamkeit“ des Roboters 100 durch die Verhaltensweise ausgedrückt werden kann. Auf die gleiche Weise können die Schwellenwerte verringert werden, wenn ein Raum dunkel oder ruhig ist, und die Schwellenwerte können erhöht werden, wenn die Zufriedenheit aufgrund einer großen Anzahl angenehmer Handlungen zugenommen hat.
  • Ein Benutzer kann die Bedeutung im Bereich von 0 bis 1 frei festlegen, oder die Bedeutung kann automatisch festgelegt werden. Von einem Benutzer mit einer hohen Erfassungsfrequenz, zum Beispiel ein Benutzer, bei dem eine Anzahl von Erfassungen in einem vorbestimmten Zeitraum gleich oder größer als eine vorbestimmte Anzahl ist, wird angenommen, sehr wahrscheinlich ein Familienmitglied zu sein, und die Bedeutung kann auf 1 festgelegt werden. Auf die gleiche Weise wird von einem Benutzer mit einer niedrigen Erfassungsfrequenz angenommen, kein Familienmitglied zu sein, und die Bedeutung kann auf 0 festgelegt werden. Die Bedeutung kann entsprechend der Erfassungsfrequenz zwischen 0 und 1 festgelegt werden.
  • Außerdem kann ein Benutzer, der mit hoher Häufigkeit in einem vorgegebenen Zeitband erkannt wird, in dem die Möglichkeit hoch ist, dass nur Familienmitglieder vorhanden sind, wie beispielsweise ein Zeitband am frühen Morgen (z. B. 6:00 bis 8:00 Uhr) oder ein Zeitband am Abend (z. B. 20:00 bis 22:00 Uhr), als Familienmitglied bestimmt werden. Ferner kann die Vertrautheitsverwaltungseinheit 220 für einen Benutzer, der in dieser Art von Zeitband mit hoher Häufigkeit erfasst wird, eine hohe Bedeutung festlegen. Die Bedeutung kann durch Normierung der Erfassungshäufigkeit zwischen 0 und 1 bestimmt werden.
  • Ein Benutzer, der innerhalb einer vorgegebenen Zeit vom ersten Einschalten des Roboters 100 erfasst wird, kann als Familienmitglied erkannt werden. Die Vertrautheitsverwaltungseinheit 220 kann 1 als die Bedeutung eines innerhalb von zehn Minuten nach dem ersten Einschalten des Roboters 100 erkannten Benutzers festlegen. Gemäß dieser Art von Steuerungsverfahren kann der gleiche Vorteil wie bei einer sogenannten Einprägung realisiert werden.
  • Die Bedeutung kann ein fester Wert oder ein variabler Wert sein. Die Bedeutung kann ein langfristiger Parameter sein, der wahrscheinlich nicht variieren wird, und die Vertrautheit kann ein kurzfristiger Parameter sein, der variieren kann. Die Bedeutung kann nach und nach abnehmen, wenn ein Benutzer während eines längeren Zeitraums nicht erfasst wird, und nach und nach steigen, wenn ein Benutzer häufig erfasst wird. Ferner kann eine Vertrautheit insgesamt durch eine Kombination der beiden Parameter definiert werden, z. B. durch Addieren oder Multiplizieren. Ein Algorithmus, bei dem die Vertrautheit ansteigen und voraussichtlich nicht abnehmen kann, kann angewendet werden, wenn die Bedeutung gleich oder größer als ein vorbestimmter Schwellenwert ist, und ein Algorithmus, bei dem die Vertrautheit abnehmen und voraussichtlich nicht ansteigen kann, kann angewendet werden, wenn die Bedeutung kleiner als der Schwellenwert ist.
  • Gemäß dieser Art von Steuerungsverfahren ist eine Bindung zwischen dem Roboter 100 und einem Benutzer einfach aufrechtzuerhalten, vorausgesetzt, dass der Benutzer ein Familienmitglied ist, auch wenn vorübergehend entfremdet, oder wenn der Roboter 100 einer gewalttätigen Handlung ausgesetzt ist. Dies liegt daran, dass die Bedeutung hoch ist, was bedeutet, dass die Vertrautheit insgesamt wahrscheinlich nicht abnehmen wird. Aber dennoch nimmt bei langfristiger Entfremdung nicht nur die Vertrautheit, sondern auch die Bedeutung ab, die Vertrautheit insgesamt nimmt ab, und sogleich wird auch die Bindung schwächer.
  • Währenddessen nimmt sich der Roboter 100 Zeit, um einen Benutzer zu mögen, der kein Familienmitglied ist. Dies liegt daran, dass die Bedeutung gering ist, was bedeutet, dass die Vertrautheit insgesamt wahrscheinlich nicht ansteigen wird. Aber dennoch steigen die Vertrautheit und die Bedeutung bei langfristiger Beteiligung allmählich an, die Vertrautheit insgesamt nimmt zu, und sogleich kann eine Bindung gebildet werden. Wenn die Bedeutung zunimmt, neigt auch die Vertrautheit anzusteigen, wodurch ein Zustand von „ich habe es anfangs nicht gemocht, aber wir wurden plötzlich freundschaftlich“ realisiert werden kann.
  • Wenn ein Benutzer stirbt oder verschwindet, nachdem eine extrem starke Bindung gebildet wurde, und ein Zustand absoluter Loyalität eingetreten ist, ist der Roboter 100 auch in der Lage, einen kompensatorischen Verhaltensausdruck auszuführen, wobei der Roboter 100 charakteristische Informationen, zum Beispiel einen Geruch des Benutzers sucht, oder einen anderen Benutzer sucht, der körperliche Merkmale mit dem nicht mehr vorhandenen Benutzer gemeinsam hat.
  • Wenn ein vertrautes Familienmitglied zum ersten Mal seit langer Zeit wieder auftaucht, kann der Roboter 100 ein „herzliches Willkommen“ ausdrücken, indem er nach einer Annäherungshandlung irgendeine liebevolle Geste ausführt.
  • Wenn die Nicht-Erkennung eines Benutzers andauert, nimmt die Vertrautheit nach und nach ab. In diesem Fall kann die Kontrolle so erfolgen, dass die Vertrautheit in einer ersten Woche nur geringfügig abnimmt, die Vertrautheit aber stark abnimmt, wenn eine Woche überschritten wird. Gemäß dieser Art von Steuerungsverfahren kann ein „einwöchiges Gedächtnis“, das eine für ein niederes Tier charakteristische Gedächtnisschwäche ist, dargestellt werden. Ein Computer zeichnet sich dadurch aus, dass er in der Lage ist, ein Gedächtnis auf unbestimmte Zeit zu behalten. Durch die Darstellung eines Gedächtnismangels kann ein Merkmal eines Tieres in den Roboter 100 integriert werden.
  • Es kann bewirkt werden, dass ein Anfangswert der Vertrautheit entsprechend der Bedeutung unterschiedlich ist.
  • Es kann bewirkt werden, dass eine Wirkung der gleichen angenehmen Handlung entsprechend der Vertrautheit unterschiedlich ist. Beispielsweise kann die Steuerung so erfolgen, dass die Vertrautheit weiter steigt, wenn der Roboter 100 von einem Benutzer mit hoher Vertrautheit umarmt wird, aber umgekehrt die Vertrautheit abnimmt, wenn der Roboter 100 von einem Benutzer mit niedriger Vertrautheit ungewollt umarmt wird. Die Vertrautheit muss durch einen Benutzer mit niedriger Vertrautheit nach und nach erhöht werden, wobei er oder sie sich eindeutig anerkennen lässt und die Vertrautheit allmählich zunimmt, während er mit dem Roboter 100 spricht und seinen Körper berührt, bevor der Roboter 100 umarmt wird. Gemäß dieser Art von Steuerungsverfahren kann eine Einbindung ähnlich der Aufzucht eines wilden Tiers realisiert werden.
  • In dieser Ausführungsform wurde eine liebevolle Geste beschrieben, die einer Person Wohlwollen andeutet, aber eine vorsichtige Geste kann als eine Geste des Andeutens von Vorsicht gegenüber einer Person definiert werden. Als vorsichtige Gesten gibt es beispielsweise Gesten, einem Benutzer den Rücken zuzudrehen oder zurückzueichen. Beim Antreffen eines Benutzers mit niedriger Vertrautheit kann der Roboter 100 eine vorsichtige Geste ausführen, bevor er eine Rückzugshandlung ausführt.
  • Die Augen 110 des Roboters 100 können eine Anzeige sein, auf der eine Pupillenbild gezeigt wird. Der Roboter 100 kann mit einer „Pupillensteuereinheit“ ausgestattet sein, die eine Position und Größe des Pupillenbildes der Augen 110 ändert.
  • Im Folgenden werden die Bewegungsbestimmungseinheit 138 und die Handlungsbestimmungseinheit 140 gemeinsam als „Vorgangsbestimmungseinheit“ bezeichnet. Beim Erfassen eines sich bewegenden Objekts wie beispielsweise eines Menschen oder eines Haustieres bestimmt der Roboter 100, ob das sich bewegende Objekt ein Ziel einer Schüchternheitshandlung ist. Die Vertrautheit bezüglich des sich bewegenden Objekts, die gleich oder kleiner als ein vorbestimmter Schwellenwert ist, das Ergebnis einer Merkmalsextraktion, dass das sich bewegende Objekt nicht in einen bestehenden Cluster eingeteilt werden kann (das sich bewegende Objekt kann nicht als Mensch identifiziert werden, oder dies ist ein erstes Zusammentreffen) und dergleichen sind als eine Referenz für die Bestimmung denkbar, ob das sich bewegende Objekt ein Ziel einer Schüchternheitshandlung ist. Ein Konstrukteur des Roboters 100 kann eine Bestimmungsreferenz beliebig festlegen.
  • Es ist ausreichend, dass eine Schüchternheitshandlung eine Handlung wie beispielsweise eine Bewegung (Flucht) in eine Richtung weg von einem Benutzer ist, der Ziel einer Schüchternheitshandlung ist (nachfolgend „gemiedener Benutzer“ genannt), wodurch die Möglichkeit des Kontakts zwischen dem Roboter 100 und dem gemiedenen Benutzer verringert wird. Beispielsweise kann die Möglichkeit, dass der Roboter 100 von einem gemiedenen Benutzer kontaktiert wird, dadurch verringert werden, dass der Roboter 100 das Pupillenbild von dem gemiedenen Benutzer abwendet, oder mit anderen Worten, dass der Roboter 100 sich aus der Blickrichtung des gemiedenen Benutzers entfernt. Auf die gleiche Weise sind das Schließen des Pupillenbildes, das Abwenden der Ausrichtung des Halses oder Körpers von dem gemiedenen Benutzer, das Verstecken hinter etwas (nachfolgend beschrieben), das Beugen des Halses beim Umarmen durch einen anderen Benutzer und das Drücken des Kopfteils gegen die Brust des Benutzers und dergleichen denkbar. Wenn der Roboter 100 umarmt wird, kann der Roboter 100 einen sogenannten kurzen Blick ausführen und die Blickrichtung kurzzeitig auf den gemiedenen Benutzer richten. Außerdem kann der Roboter 100 den gemiedenen Benutzer bedrohen, indem er die Arme 106 in einer schlagenden Bewegung auf und ab bewegt. Die Drohung muss nicht wirklich eine Wirkung als Bedrohung entfalten, sondern es genügt, durch Handeln eine Drohabsicht auszudrücken. Im Falle einer Art von Roboter, der eine menschliche Sprache spricht, kann der Roboter einen Sprachumfang reduzieren, wenn ein gemiedener Benutzer erfasst wird.
  • Wie bereits beschrieben, aktualisiert die Vertrautheitsverwaltungseinheit 220 die Vertrautheit bezüglich eines Benutzers mit einer Interaktion wie beispielsweise visuelle Erkennung des Benutzers, Körperkontakt, Sprechen oder dergleichen als Auslöser. Die Erkennungseinheit 156 des Roboters 100 kann Körperkontakt von einem Benutzer mithilfe eines Berührungssensors erkennen, beispielsweise mit einem Kapazitätssensor, der auf einer Körperoberfläche des Roboters 100 installiert ist.
  • Die Routenzusammenstellungseinheit 222 des Servers 200 erzeugt im Voraus einen Fluchtweg, bevor ein Fluchtereignis eintritt. Der Roboter 100, der sich entlang eines Fluchtwegs bewegt, ist auch eine Art „Schüchternheitshandlung“. Die Bewegungsstartposition eines Fluchtweges wird als aktuelle Position des Roboters 100 festgelegt, und die Bewegungsendposition (Ziel) ist eine Position, die einen vorbestimmten Abstand oder mehr vom aktuellen Punkt des Roboters 100 oder dem aktuellen Punkt eines gemiedenen Benutzers entfernt ist, ein Punkt, an dem ein Benutzer mit einer Vertrautheit eines vorbestimmten Schwellenwerts oder mehr vorhanden ist, oder ein Punkt, an dem eine Struktur mit einer vorbestimmten Höhe oder größer vorhanden ist, wie ein Schreibtisch oder ein Stuhl. Ein Fluchtereignis kann ein sich bewegendes Objekt mit einer Vertrautheit eines vorbestimmten Schwellenwerts oder weniger sein (ein gemiedener Benutzer), das erfasst wird, oder kann eine vorbestimmte Anzahl oder mehr von sich bewegenden Objekten sein, die gleichzeitig innerhalb eines vorbestimmten Zeitraums, zum Beispiel innerhalb einer Sekunde, erfasst werden. Gemäß dieser Art von Steuerungsverfahren kann der Roboter 100 veranlasst werden, eine Schüchternheitshandlung auszuführen, wenn eine unbekannte Person oder eine nicht gemochte Person erscheint oder wenn eine große Anzahl von Personen gleichzeitig erscheinen.
  • Wie bereits beschrieben, kann die Kartenverwaltungseinheit 210 sowohl eine statische Karte als auch eine dynamische Karte oder eine der beiden verwalten. Ein „sicherer Punkt“ ist auf der statischen Karte registriert. Der sichere Punkt kann ein Punkt sein, über dem sich ein blockierendes Objekt befindet, beispielsweise unter einem Tisch, oder ein Punkt in einem vorgegebenen Abstand von einer Wand. Wenn während der normalen Bewegung eine Stelle erfasst wird, die mit der obigen Definition übereinstimmt, sendet die Erkennungseinheit 156 des Roboters 100 ein Erfassungssignal an den Server 200. Die Kartenverwaltungseinheit 210 des Servers 200 registriert die aktuelle Position des Roboters 100 zu diesem Zeitpunkt als „sicherer Punkt“ auf der statischen Karte. Ein „sicherer Punkt“ kann auch vorab von einem Benutzer auf der statischen Karte festgelegt werden. Beim Erkennen eines Benutzers (sich bewegendes Objekt), der Ziel einer Schüchternheitshandlung ist, bezieht sich der Roboter 100 auf die dynamische Karte und führt eine Schüchternheitshandlung des Beibehaltens eines Abstands zum gemiedenen Benutzer aus, indem er als Bewegungsziel einen Punkt festlegt, an dem ein Benutzer mit einer Vertrautheit eines vorbestimmten Schwellenwerts oder höher vorhanden ist. Außerdem kann sich der Roboter 100 beim Erfassen eines gemiedenen Benutzers auf die statische Karte beziehen und sich zu einem oder mehreren „sicheren Punkten“ bewegen, zum Beispiel zum nächstgelegenen sicheren Punkt.
  • Für einen sicheren Punkt kann ein Sicherheitsniveau festgelegt werden. Der Roboter 100 kann einen Sicherheitspunkt auswählen, der ein Bewegungsziel sein soll, basierend sowohl auf dem Sicherheitsniveau als auch auf dem Abstand vom aktuellen Punkt des Roboters 100 zum Sicherheitspunkt. Ein Benutzer kann das Sicherheitsniveau auf der statischen Karte festlegen, oder die Kartenverwaltungseinheit 210 kann das Sicherheitsniveau basierend auf einer vorbestimmten Bewertungsfunktion berechnen, die verschiedene Arten von Prüfelementen wie beispielsweise die Anzahl und Größe von blockierenden Objekten und dem Abstand zu den blockierenden Objekten als Variablen aufweist.
  • Wenn mehrere Roboter 100 vorhanden sind, kann ein Roboter 100 einen anderen Roboter 100 über die „Vertrautheit“ benachrichtigen. Beispielsweise wird angenommen, dass der erste Roboter 100 ausreichende Informationen über den Benutzer A hat, während der zweite Roboter 100 keine Informationen über den Benutzer A hat oder kaum irgendwelche Informationen hat. In diesem Fall benachrichtigt der erste Roboter 100 den zweiten Roboter 100 über die Vertrautheit bezüglich des Benutzers A. Der zweite Roboter 100 stellt die Vertrautheit des zweiten Roboters 100 bezüglich des Benutzers A basierend auf der Vertrautheit des ersten Roboters 100 bezüglich des Benutzers A ein. Wenn beispielsweise die Vertrautheit des ersten Roboters 100 bezüglich des Benutzers A „80“ ist und die Vertrautheit des zweiten Roboters 100 bezüglich des Benutzers A „50 (mittelmäßig)“ ist, kann der zweite Roboter 100 die Vertrautheit bezüglich des Benutzers A auf einen Durchschnittswert von „65“ ändern oder die Vertrautheit auf „80“ ändern, die gleiche wie der erste Roboter 100. Gemäß dieser Art von Steuerungsverfahren kann ein Aspekt ausgedrückt werden, bei dem sich der Eindruck des ersten Roboters 100 bezüglich des Benutzers A auf den zweiten Roboter 100 überträgt und eine „vorgefasste Meinung“ des zweiten Roboters 100 bezüglich des Benutzers A gebildet wird.
  • Der erste Roboter 100 und der zweite Roboter 100 können Vertrautheitsinformationen austauschen. Wenn beispielsweise die Vertrautheit des ersten Roboters 100 bezüglich des Benutzers A „80“ ist und die Vertrautheit des zweiten Roboters 100 bezüglich des Benutzers A „-30“ ist, kann der erste Roboter 100 einen vorbestimmten Wert, beispielsweise „10“, subtrahieren, wodurch die Vertrautheit auf „70“ nach unten korrigiert wird, und der zweite Roboter 100 kann einen vorbestimmten Wert, beispielsweise „10“, addieren, wodurch die Vertrautheit bezüglich des Benutzers A auf „-20“ nach oben korrigiert wird. Gemäß dieser Art von Steuerungsverfahren können „Eindrücke“ mehrerer Roboter bezüglich des Benutzers A ausgeglichen werden, wodurch ein Aspekt dergestalt ausgedrückt werden kann, dass ein Gefühl des Roboters 100 entsprechend einer Meinung eines anderen Roboters 100 verändert wird. Zusätzlich zur Vertrautheit sind verschiedene Informationen wie beispielsweise Information zu sicheren Punkten und Information zu Benutzerprofilen als Informationen denkbar, die zwischen mehreren Robotern 100 ausgetauscht werden sollten.
  • Die Erkennungseinheit 212 kann einen Benutzer mit einer Vertrautheit, die höher als der Schwellenwert T3 ist, als „gemochten Typ“ einstufen, und einen Benutzer mit einer Vertrautheit, die niedriger als der Schwellenwert T4 (□ Schwellenwert T3) ist, als „nicht gemochten Typ“ einstufen. Die Vertrautheitsverwaltungseinheit 220 kann Merkmale des gemochten Benutzertyps und des nicht gemochten Benutzertyps extrahieren und die Vertrautheit bezüglich eines dritten Benutzers erhöhen, der Merkmale aufweist, die der gemochte Benutzertyp hat, und die der nicht gemochte Benutzertyp nicht hat. Auf die gleiche Weise kann die Vertrautheitsverwaltungseinheit 220 die Vertrautheit bezüglich eines vierten Benutzers verringern, der Merkmale aufweist, die der nicht gemochte Benutzertyp hat, und die der gemochte Benutzertyp nicht hat.
  • Wenn beispielsweise ein oder mehrere der gemochten Benutzertypen oft rote Kleidung tragen und der nicht gemochte Benutzertyp selten rote Kleidung trägt, kann die Vertrautheitsverwaltungseinheit 220 die Vertrautheit bezüglich eines anderen Benutzers erhöhen, wenn der Benutzer rote Kleidung trägt. Gemäß dieser Art von Steuerungsverfahren kann die Bildung einer „vorgefassten Meinung“ gegenüber einem erstmals angetroffenen Benutzer basierend auf Merkmalen eines gemochten Typs und eines nicht gemochten Typs ausgedrückt werden. Eine vorgefasste Meinung ist auch wirksam beim Ausdrücken der „Individualität“ des Roboters 100. Benutzermerkmale können eine Gewohnheit sein, wie beispielsweise das Kratzen des Kopfes, das Nägelkauen oder das Aufstützen des Kinns auf einer Hand, oder ein Verhaltensmuster wie beispielsweise eine Aufstehenszeit (Verhaltensmerkmale), können körperliche Merkmale sein, wie beispielsweise Augengröße, Hautfarbe, Geruch, Sprachqualität oder Sprachlautstärke, oder können die getragene Kleidung sein.
  • Der Roboter 100 oder der Server 200 kann mit einer Lebensmuster-Sammeleinheit ausgestattet sein, die Lebensmuster eines Benutzers sammelt. Alternativ kann die Kommunikationseinheit 142 des Roboters 100 gegebenenfalls Lebensmuster-Informationen jedes Benutzers erfassen, indem sie auf eine Lebensmuster-Sammeleinheit zugreift, die als externe Datenbank ausgebildet ist. Die Lebensmuster-Sammeleinheit registriert eine Aufstehenszeit, eine Zeit des Verlassens des Hauses, um zur Arbeit oder dergleichen zu gehen, eine Zeit der Heimkehr und eine Zeit des Zubettgehens als die Lebensmuster-Informationen für jeden Benutzer. Da es bei diesen Zeiten normalerweise Schwankungen gibt, können ein Mittelwert und ein Modalwert davon als repräsentative Werte registriert werden. Mehrere Arten von Lebensmuster-Daten können nicht nur für jeden Benutzer, sondern auch für jeden Tag der Woche oder Jahreszeit registriert werden.
  • Ein Lebensmuster kann von einem Benutzer festgelegt werden. Alternativ kann der Roboter 100 eine Zeit des Aufstehens und dergleichen erkennen, indem er das Verhalten eines Benutzers beobachtet. Beispielsweise kann der Roboter 100 den Zeitpunkt, zu dem ein bestimmter Benutzer A aufsteht, ermitteln, indem er einen Zeitpunkt, zu dem der Benutzer A aus einem Schlafzimmer kommt, in der Lebensmuster-Sammeleinheit registriert. Die Erkennungseinheit 156 des Roboters 100 erkennt das Aufstehen des Benutzers A mithilfe der Kamera oder dergleichen, und der Zeitpunkt, zu dem der Benutzer A aufsteht, wird von der Kommunikationseinheit 142 als Lebensmuster registriert, die den Zeitpunkt des Aufstehens in der Datenspeichereinheit 148 oder einer externen Datenbank aufzeichnet.
  • Die Erkennungseinheit 156 kann zu Beginn eines Tages einen Benutzer B, der am frühesten aufsteht, als „Familienmitglied“ erkennen. Die Erkennungseinheit 156 kann auch einen Benutzer, der innerhalb einer vorbestimmten Zeit nach dem Aufstehen von Benutzer B aufsteht, als Familienmitglied erkennen. Ein Benutzer, der in einem vorbestimmten frühen morgendlichen Zeitband aufsteht, und ein Benutzer, der in einem vorbestimmten abendlichen Zeitband nach Hause zurückkehrt, können als Familienmitglieder erkannt werden. Die Erkennungseinheit 156 kann bestimmen, ob ein Benutzer ein Familienmitglied oder ein Gast ist, wobei die Wahrscheinlichkeit, im frühen morgendlichen Zeitband aufzustehen, eine vorbestimmte Wahrscheinlichkeit oder größer als eine Bedingung ist.
  • Die Erkennungseinheit 156 kann einen Benutzer, der innerhalb einer vorbestimmten Zeit von der Einführung des Roboters 100 in dem Haus und dem ersten Einschalten der Stromversorgung erfasst wurde, als Familienmitglied erkennen, oder ein Benutzer kann sich im Voraus als ein Familienmitglied registrieren, indem er oder sie einen vorbestimmten Vorgang am Roboter 100 in einem Zustand ausführt, in dem der Benutzer von der Kamera des Roboters 100 erfasst wird. Wenn beispielsweise ein Benutzer C von der Kamera erfasst wird oder wenn der Benutzer C ein vorbestimmtes Stichwort „Ich bin einer von der Familie“ äußert, kann die Erkennungseinheit 156 die Wörter „Familienmitglied“ dem Benutzer C (genauer gesagt, einem Profil des Benutzers C) hinzufügen. Wenn darüber hinaus der Benutzer C, der ein Familienmitglied ist, einen Benutzer D mit den Worten „er gehört zur Familie“ vorstellt, kann die Erkennungseinheit 156 den Benutzer D als Familienmitglied erkennen. Wenn ein erster Benutzer, der als Familienmitglied anerkannt ist, den Roboter 100 informiert, dass ein zweiter Benutzer auch ein Familienmitglied ist, in einem Zustand, in dem der erste Benutzer und der zweite Benutzer erfasst werden, kann auf diese Weise die Erkennungseinheit 156 den zweiten Benutzer als Familienmitglied erkennen.
  • Eine Schüchternheitshandlung kann eine Handlung zum Vermeiden von Kontakt mit einem gemiedenen Benutzer sein. Die Vermeidungshandlung kann den Rückzug hinter ein „blockierendes Objekt“ wie eine Sache oder eine Person beinhalten. Wenn beispielsweise ein gemiedener Benutzer D und ein Benutzer E mit hoher Vertrautheit vorhanden sind, kann die Bewegungsbestimmungseinheit 138 (oder die Routenzusammenstellungseinheit 222) die Bewegungsrichtung des Roboters 100 so bestimmen, dass der Benutzer E zwischen dem Punkt, an dem sich der Roboter 100 befindet, und dem Punkt, an dem sich der Benutzer D befindet, positioniert ist, oder, anders ausgedrückt, zu einer Position, an der der Roboter 100 durch den Benutzer E vor dem Benutzer D verborgen ist.
  • Ein blockierendes Objekt kann ein Objekt mit einer vorbestimmten Höhe oder größer sein, wie beispielsweise ein Schreibtisch, eine Wand oder ein Stuhl, oder kann ein Benutzer mit einer Vertrautheit eines vorbestimmten Schwellenwerts oder größer sein, ein Benutzer, der als Familienmitglied anerkannt ist, oder ein anderer Benutzer E, dessen Vertrautheit zumindest höher als die des bereits beschriebenen Benutzers D ist. Wenn es zwei gemiedene Benutzer gibt, kann die Vorgangsbestimmungseinheit der Vermeidung des gemiedenen Benutzers mit der niedrigeren Vertrautheit den Vorrang geben.
  • Der Roboter 100, der sich nicht wirklich vor dem Benutzer D verstecken muss, kann eine Vermeidungshandlung ausführen, die als „Absicht des Versteckens“ angesehen wird. Beispielsweise kann der Benutzer D in der Lage sein, visuell zu erkennen, dass sich der Roboter 100 hinter dem Stuhl befindet, selbst wenn sich der Roboter 100 hinter einem Stuhl versteckt. Der Roboter 100 kann sich vom Benutzer D wegbewegen, bis der Benutzer D nicht mehr von der montierten Kamera erfasst wird. Der Roboter 100 kann sich so bewegen, dass sich der Benutzer D im toten Winkel der montierten Kamera befindet. Dass der Benutzer D nicht von der Kamera des Roboters 100 erfasst wird, bedeutet nicht unbedingt, dass der Roboter 100 für den Benutzer D nicht sichtbar ist. In diesem Fall kann ein tierähnliches Verhalten wie „seinen Kopf in den Boden zu stecken und sein Hinterteil in die Luft“ ausgedrückt werden.
  • Wenn ein sich bewegendes Objekt, das Ziel einer Schüchternheitshandlung ist, während eines ersten Vorgangs erfasst wird, kann die Vorgangsbestimmungseinheit den ersten Vorgang abbrechen. Nach dem Abbrechen des ersten Vorgangs kann die Vorgangsbestimmungseinheit den Antriebsmechanismus 120 anweisen, eine Schüchternheitshandlung auszuführen. Beim Erfassen der Heimkehr von jemandem über eine Gegensprechanlage oder dergleichen bewegt sich der Roboter 100 beispielsweise in den Flur, um die Person zu begrüßen. Wenn die heimkehrende Person jedoch ein gemiedener Benutzer ist, kann der Roboter 100 die Begrüßung abbrechen und sich in ein Wohnzimmer oder dergleichen bewegen (eine Vermeidungshandlung). Verschiedene Verhaltensmuster, wie beispielsweise das Spielen durch Umhergehen am gleichen Ort, das Bewegen zu einem kühlen Ort und das Tanzen, sind als eine erste Handlung vorgesehen.
  • Der Server 200 oder der Roboter 100 kann eine Emotionsverwaltungseinheit haben. Die Emotionsverwaltungseinheit verwaltet verschiedene Emotionsparameter, die Emotionen (Einsamkeit, Neugier, den Wunsch nach Anerkennung und dergleichen) des Roboters 100 angeben. Diese Emotionsparameter schwanken ständig. Die Bedeutung der mehreren Handlungskarten ändert sich entsprechend den Emotionsparametern, ein Bewegungszielpunkt des Roboters 100 ändert sich entsprechend den Handlungskarten, und die Emotionsparameter ändern sich entsprechend der Bewegung des Roboters 100 und dem Lauf der Zeit.
  • Wenn beispielsweise der Emotionsparameter, der Einsamkeit angibt, hoch ist, legt die Emotionsverwaltungseinheit den Gewichtungskoeffizienten der Handlungskarte, die Orte bewertet, an denen sich der Roboter 100 wohlfühlt, auf einen hohen Wert fest. Wenn der Roboter 100 einen Punkt auf der Handlungskarte erreicht, an dem Einsamkeit behoben werden kann, verringert die Emotionsverwaltungseinheit den Emotionsparameter, der Einsamkeit angibt. Außerdem ändert sich jede Art von Emotionsparameter entsprechend einer im Folgenden zu beschreibenden Reaktionshandlung. Beispielsweise nimmt der Emotionsparameter, der die Einsamkeit angibt, ab, wenn der Roboter 100 von einem Besitzer „umarmt“ wird, und der Emotionsparameter, der die Einsamkeit angibt, nimmt nach und nach zu, wenn der Roboter 100 während einer längeren Zeit einen Besitzer nicht visuell erkennt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2000323219 A [0006]

Claims (19)

  1. Autonom handelnder Roboter, umfassend: eine Bewegungsbestimmungseinheit, die eine Bewegungsrichtung bestimmt; einen Antriebsmechanismus, der eine durch die Bewegungsbestimmungseinheit spezifizierte Bewegung ausführt; und eine Vertrautheitsverwaltungseinheit, die die Vertrautheit bezüglich eines sich bewegenden Objekts aktualisiert, wobei die Bewegungsbestimmungseinheit beim Erfassen eines ersten sich bewegenden Objekts, für das eine Vertrautheit festgelegt ist, die niedriger als ein erster Schwellenwert ist, als einen Bewegungszielpunkt eine Richtung weg von dem ersten sich bewegenden Objekt bestimmt.
  2. Autonom handelnder Roboter nach Anspruch 1, wobei die Bewegungsbestimmungseinheit beim Erfassen eines sich bewegenden Objekts, für das eine Vertrautheit festgelegt ist, die höher als ein zweiter Schwellenwert ist, als eine Bewegungsrichtung eine sich dem zweiten bewegenden Objekt annähernde Richtung bestimmt.
  3. Autonom handelnder Roboter nach einem der Ansprüche 1 oder 2, wobei die Vertrautheitsverwaltungseinheit die Vertrautheit bezüglich eines sich bewegenden Objekts entsprechend einer Frequenz, mit der das sich bewegende Objekt erfasst wird, ändert.
  4. Autonom handelnder Roboter nach einem der Ansprüche 1 bis 3, wobei die Vertrautheitsverwaltungseinheit die Vertrautheit bezüglich eines sich bewegenden Objekts ändert, wenn ein physischer Kontakt mit dem sich bewegenden Objekt erfasst wird.
  5. Autonom handelnder Roboter nach Anspruch 4, wobei die Vertrautheitsverwaltungseinheit die Vertrautheit bezüglich eines sich bewegenden Objekts ändert, wenn ein Anheben durch eine Person erfasst wird, die das sich bewegende Objekt ist.
  6. Autonom handelnder Roboter nach einem der Ansprüche 1 bis 5, wobei die Bewegungsbestimmungseinheit beim Erfassen sowohl des ersten sich bewegenden Objekts als auch eines dritten sich bewegenden Objekts, dessen Vertrautheit höher als die des ersten sich bewegenden Objekts ist, eine Richtung vom ersten sich bewegenden Objekt zum dritten sich bewegenden Objekt als eine Bewegungsrichtung bestimmt.
  7. Autonom handelnder Roboter nach einem der Ansprüche 1 bis 6, ferner umfassend eine Geruchseinheit, die einen Geruch erfasst und einen Geruch klassifiziert, wobei die Vertrautheitsverwaltungseinheit eine Kategorie eines Geruchs eines sich bewegenden Objekts mit der Vertrautheit des sich bewegenden Objekts korreliert, und die Bewegungsbestimmungseinheit bei der Erfassung eines angenehmen Punkts, der zur gleichen Geruchskategorie gehört wie eine Geruchskategorie, die mit einem sich bewegenden Objekt korreliert ist, dessen Vertrautheit höher als ein dritter Schwellenwert ist, eine Richtung zum angenehmen Punkt als eine Bewegungsrichtung festlegt.
  8. Autonom handelnder Roboter nach einem der Ansprüche 1 bis 7, wobei die Vertrautheitsverwaltungseinheit die Vertrautheit unter Verwendung unterschiedlicher Algorithmen für jedes sich bewegende Objekt, das zu einer speziellen Gruppe gehört, und ein sich bewegendes Objekt, das zu einer allgemeinen Gruppe gehört, aktualisiert.
  9. Autonom handelnder Roboter nach einem der Ansprüche 1 bis 8, wobei die Bewegungsbestimmungseinheit eine Bewegungsrichtung gemäß einem im Voraus generierten Fluchtweg bestimmt, wenn ein sich bewegendes Objekt erfasst wird, dessen Vertrautheit niedriger als ein vorbestimmter Schwellenwert ist.
  10. Autonom handelnder Roboter, umfassend: eine Bewegungsbestimmungseinheit, die eine Bewegungsrichtung bestimmt; einen Antriebsmechanismus, der eine durch die Bewegungsbestimmungseinheit spezifizierte Bewegung ausführt; und eine Vertrautheitsverwaltungseinheit, die die Vertrautheit bezüglich eines sich bewegenden Objekts aktualisiert, wobei die Bewegungsbestimmungseinheit beim Erfassen eines ersten sich bewegenden Objekts, für das eine Vertrautheit festgelegt ist, die höher als ein erster Schwellenwert ist, als einen Bewegungszielpunkt eine sich dem bewegenden Objekt annähernde Richtung bestimmt.
  11. Autonom handelnder Roboter nach Anspruch 10, ferner umfassend eine Handlungsbestimmungseinheit, die eine beliebige Geste aus mehreren Arten von Gesten auswählt, wobei die Handlungsbestimmungseinheit ferner eine liebevolle Geste auswählt, die als eine Geste definiert ist, die einer Person Wohlwollen für das sich bewegende Objekt anzeigt.
  12. Autonom handelnder Roboter, umfassend: eine erkennende Einheit, die ein sich bewegendes Objekt erfasst und basierend auf einer vorbestimmten Bestimmungsreferenz bestimmt, ob das sich bewegende Objekt ein Ziel einer Schüchternheitshandlung ist; eine Vorgangsbestimmungseinheit, die eine Schüchternheitshandlung auswählt, wenn das sich bewegende Objekt ein Ziel der Schüchternheitshandlung ist; und einen Antriebsmechanismus, der die ausgewählte Schüchternheitshandlung ausführt.
  13. Autonom handelnder Roboter nach Anspruch 12, wobei die Vorgangsbestimmungseinheit beim Erfassen eines sich bewegenden Objekts, das ein Ziel einer Schüchternheitshandlung ist, während ein erster Vorgang ausgeführt wird, den ersten Vorgang unterbricht und den Antriebsmechanismus anweist, die Schüchternheitshandlung auszuführen.
  14. Autonom handelnder Roboter nach Anspruch 12 oder 13, ferner umfassend eine Vertrautheitsverwaltungseinheit, die die Vertrautheit bezüglich eines sich bewegenden Objekts basierend auf einer Interaktion mit dem sich bewegenden Objekt aktualisiert, wobei die Vorgangsbestimmungseinheit die Schüchternheitshandlung auswählt, wenn die Vertrautheit bezüglich des sich bewegenden Objekts kleiner als ein vorbestimmter Schwellenwert ist.
  15. Autonom handelnder Roboter nach einem der Ansprüche 12 bis 14, wobei die Vorgangsbestimmungseinheit beim Erfassen eines sich bewegenden Objekts, das ein Ziel einer Schüchternheitshandlung ist, als Schüchternheitshandlung eine Handlung auswählt, die dem sich bewegenden Objekt ausweicht.
  16. Autonom handelnder Roboter nach Anspruch 15, wobei die Vorgangsbestimmungseinheit eine Ausweichrichtung in Richtung einer Position so festlegt, dass ein sich bewegendes Objekt, das ein Ziel der Schüchternheitshandlung ist, als Schüchternheitshandlung in einen toten Winkel des Roboters eintritt.
  17. Roboterhandlungssteuerungsprogramm, das einen Computer ausführt zum Ausführen einer Funktion zum Bestimmen einer Bewegungsrichtung des Roboters; einer Funktion zum Aktualisieren einer Vertrautheit des Roboters bezüglich eins sich bewegenden Objekts, einer Funktion zum Bestimmen einer Richtung weg von dem ersten sich bewegenden Objekt als einen Bewegungszielpunkt, wenn ein erstes sich bewegendes Objekt erfasst wird, für das eine Vertrautheit festgelegt ist, die niedriger als ein erster Schwellenwert ist.
  18. Roboterhandlungssteuerungsprogramm, das einen Computer ausführt zum Ausführen einer Funktion zum Bestimmen einer Bewegungsrichtung des Roboters, einer Funktion zum Aktualisieren einer Vertrautheit des Roboters bezüglich eins sich bewegenden Objekts, einer Funktion zum Bestimmen einer sich dem bewegenden Objekt annähernde Richtung als einen Bewegungszielpunkt, wenn ein sich bewegendes Objekt erfasst wird, für das eine Vertrautheit festgelegt ist, die höher als ein vorbestimmter Schwellenwert ist.
  19. Roboterhandlungssteuerungsprogramm, das einen Computer ausführt zum Ausführen einer Funktion zum Erfassen eines sich bewegenden Objekts und basierend auf einer vorbestimmten Bestimmungsreferenz zu bestimmen, ob das sich bewegende Objekt ein Ziel einer Schüchternheitshandlung ist, einer Funktion zum Auswählen einer Schüchternheitshandlung, wenn das sich bewegende Objekt ein Ziel der Schüchternheitshandlung ist, und einer Funktion zum Ausführen des Computers zum Ausführen der ausgewählten Schüchternheitshandlung.
DE112017001874.9T 2016-04-08 2017-03-16 Autonom handelnder Roboter mit Schüchternheit Pending DE112017001874T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016-078051 2016-04-08
JP2016078051 2016-04-08
PCT/JP2017/010612 WO2017175559A1 (ja) 2016-04-08 2017-03-16 人見知りする自律行動型ロボット

Publications (1)

Publication Number Publication Date
DE112017001874T5 true DE112017001874T5 (de) 2018-12-27

Family

ID=60001024

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017001874.9T Pending DE112017001874T5 (de) 2016-04-08 2017-03-16 Autonom handelnder Roboter mit Schüchternheit

Country Status (6)

Country Link
US (1) US11192257B2 (de)
JP (2) JP6402320B2 (de)
CN (1) CN109070330B (de)
DE (1) DE112017001874T5 (de)
GB (1) GB2563786B (de)
WO (1) WO2017175559A1 (de)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10427305B2 (en) * 2016-07-21 2019-10-01 Autodesk, Inc. Robotic camera control via motion capture
JP6515899B2 (ja) * 2016-10-04 2019-05-22 トヨタ自動車株式会社 音声対話装置及びその制御方法
JPWO2019088160A1 (ja) * 2017-11-01 2020-11-12 Groove X株式会社 反射行動を実行可能な自律行動型ロボット
US11453123B2 (en) * 2017-12-27 2022-09-27 Stmicroelectronics, Inc. Robotic device with time-of-flight proximity sensing system
JP6989395B2 (ja) * 2018-01-10 2022-01-05 パナソニック株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット
JP7102169B2 (ja) * 2018-02-28 2022-07-19 パナソニックホールディングス株式会社 装置、ロボット、方法、及びプログラム
EP3795225A4 (de) * 2018-05-15 2022-03-30 Sony Group Corporation Steuerungsvorrichtung, steuerungsverfahren und programm
JP7326707B2 (ja) * 2018-06-21 2023-08-16 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
JP7133840B2 (ja) * 2018-09-03 2022-09-09 株式会社国際電気通信基礎技術研究所 ロボット、ロボット制御プログラムおよびロボット制御方法
US20220088788A1 (en) * 2019-02-15 2022-03-24 Sony Group Corporation Moving body, moving method
JP7273566B2 (ja) * 2019-03-19 2023-05-15 パナソニックホールディングス株式会社 ロボット、ロボットの制御方法及びプログラム
US20220288791A1 (en) * 2019-04-16 2022-09-15 Sony Group Corporation Information processing device, information processing method, and program
DE102019213032A1 (de) * 2019-08-29 2021-03-04 navel robotics GmbH Roboter mit einer verhaltenssteuerungseinheit und verfahren zur verhaltenssteuerung eines roboters
JP7392377B2 (ja) * 2019-10-10 2023-12-06 沖電気工業株式会社 機器、情報処理方法、プログラム、情報処理システムおよび情報処理システムの方法
JP7323475B2 (ja) * 2020-02-19 2023-08-08 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および行動モード設定方法
JP7456211B2 (ja) * 2020-03-13 2024-03-27 オムロン株式会社 移動支援装置、移動支援方法、及びプログラム
CN112497217B (zh) * 2020-12-02 2022-12-13 深圳市香蕉智能科技有限公司 一种机器人的交互方法、装置、终端设备及可读存储介质
CN112494956A (zh) * 2020-12-15 2021-03-16 四川长虹电器股份有限公司 一种将物品转换成宠物的拟化方法和宠物拟化***
JP2024076459A (ja) * 2022-11-25 2024-06-06 カシオ計算機株式会社 動作制御装置、動作制御方法、及び、プログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000323219A (ja) 1999-05-10 2000-11-24 Sony Corp 接続装置及びロボットシステム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11126017A (ja) * 1997-08-22 1999-05-11 Sony Corp 記憶媒体、ロボット、情報処理装置、並びに電子ペットシステム
WO2000067962A1 (fr) * 1999-05-10 2000-11-16 Sony Corporation Robot
US6519506B2 (en) * 1999-05-10 2003-02-11 Sony Corporation Robot and control method for controlling the robot's emotions
WO2000067959A1 (fr) 1999-05-10 2000-11-16 Sony Corporation Dispositif robotique et procede de commande associe
JP2000326274A (ja) * 1999-05-24 2000-11-28 Nec Corp 自律行動ロボット
US6539284B2 (en) * 2000-07-25 2003-03-25 Axonn Robotics, Llc Socially interactive autonomous robot
JP2002127059A (ja) 2000-10-20 2002-05-08 Sony Corp 行動制御装置および方法、ペットロボットおよび制御方法、ロボット制御システム、並びに記録媒体
JP2002137182A (ja) * 2000-10-31 2002-05-14 Yamaha Motor Co Ltd 動作内容決定装置
JP2002307354A (ja) 2000-11-07 2002-10-23 Sega Toys:Kk 電子玩具
JP2003311028A (ja) 2002-04-26 2003-11-05 Matsushita Electric Ind Co Ltd ペットロボット装置
US20060293786A1 (en) 2003-08-21 2006-12-28 Tmsuk Co., Ltd. Robot system and remote operation system of robot
KR100654676B1 (ko) * 2005-03-07 2006-12-08 삼성광주전자 주식회사 로봇청소기
EP2281667B1 (de) 2005-09-30 2013-04-17 iRobot Corporation Gesellschaftsroboter für persönliche Interaktion
JP4682217B2 (ja) * 2007-03-07 2011-05-11 パナソニック株式会社 行動制御装置、方法、プログラム
KR100953407B1 (ko) * 2008-04-24 2010-04-19 한국과학기술원 로봇의 호감도 형성장치 및 그 방법
JP2009072910A (ja) * 2008-12-22 2009-04-09 Nec Corp ロボット装置及びその制御方法
JP5429462B2 (ja) * 2009-06-19 2014-02-26 株式会社国際電気通信基礎技術研究所 コミュニケーションロボット
CN102770820B (zh) * 2009-12-22 2015-11-25 Atonarp株式会社 机器人以及控制机器人的方法
WO2012172721A1 (ja) 2011-06-14 2012-12-20 パナソニック株式会社 ロボット装置、ロボット制御方法、及びロボット制御プログラム
CN102902271A (zh) * 2012-10-23 2013-01-30 上海大学 基于双目视觉的机器人目标识别与抓取***及方法
JP6151856B2 (ja) * 2014-05-06 2017-06-21 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 表面上での投射物のヒットを検出するための装置、輸送体、施設、および方法
CN107530882B (zh) * 2015-04-22 2021-08-10 索尼公司 移动体控制***、控制方法以及存储介质
US9776323B2 (en) * 2016-01-06 2017-10-03 Disney Enterprises, Inc. Trained human-intention classifier for safe and efficient robot navigation
WO2017169826A1 (ja) 2016-03-28 2017-10-05 Groove X株式会社 お出迎え行動する自律行動型ロボット

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000323219A (ja) 1999-05-10 2000-11-24 Sony Corp 接続装置及びロボットシステム

Also Published As

Publication number Publication date
US20190030723A1 (en) 2019-01-31
US11192257B2 (en) 2021-12-07
JP2019005591A (ja) 2019-01-17
CN109070330B (zh) 2022-07-15
JP6402320B2 (ja) 2018-10-10
GB2563786B (en) 2021-08-04
WO2017175559A1 (ja) 2017-10-12
GB2563786A (en) 2018-12-26
JPWO2017175559A1 (ja) 2018-04-12
CN109070330A (zh) 2018-12-21

Similar Documents

Publication Publication Date Title
DE112017001874T5 (de) Autonom handelnder Roboter mit Schüchternheit
DE112017003497B4 (de) Selbständig agierender Roboter mit gesteuerter Aktivitätsmenge
DE112017002606B4 (de) Autonom handelnder Roboter, der Kleidung trägt
DE112017003480B4 (de) Autonom handelnder Roboter
DE112017001573B4 (de) Autonom agierender Roboter, der eine Begrüssungsaktion durchführt
DE112017003651T5 (de) Autonom agierender Roboter, der Körperkontakt versteht
DE112017002589T5 (de) Autonom handelnder Roboter und Computerprogramm
DE112017004363T5 (de) Autonom agierender roboter, der die richtung einer geräuschquelle erkennt
DE112017005954T5 (de) Autonom agierender Roboter, der die Pupille verändert
DE112017002960T5 (de) Autonom handelnder roboter, der kühle sucht
DE112018005034T5 (de) Autonom handelnder Roboter, der den Begleiter anblickt
DE112017004512T5 (de) Autonom agierender Roboter, der einen natürlichen Abstand hält
DE112017004414T5 (de) Autonom handelnder roboter, server und verhaltenssteuerungsprogramm
DE112017004554B4 (de) Autonom handelnder Roboter, der einen Gast akzeptiert
JP6671577B2 (ja) 人を識別する自律行動型ロボット
DE112018001944T5 (de) Roboter, auf dem Außenhaut befestigt ist
DE112018001700T5 (de) Für Robotergelenk geeignete Gelenkstruktur
JP2018192559A (ja) 曲面形状のボディに対するタッチを検出する自律行動型ロボット
Jenkins “The carnage in the woods”: Queerness and Interspecies Violence in Cormac McCarthy's Border Trilogy

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication