DE112017003651T5 - Autonom agierender Roboter, der Körperkontakt versteht - Google Patents

Autonom agierender Roboter, der Körperkontakt versteht Download PDF

Info

Publication number
DE112017003651T5
DE112017003651T5 DE112017003651.8T DE112017003651T DE112017003651T5 DE 112017003651 T5 DE112017003651 T5 DE 112017003651T5 DE 112017003651 T DE112017003651 T DE 112017003651T DE 112017003651 T5 DE112017003651 T5 DE 112017003651T5
Authority
DE
Germany
Prior art keywords
robot
control unit
sensor
user
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE112017003651.8T
Other languages
English (en)
Inventor
Kaname HAYASHI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Groove X Inc
Original Assignee
Groove X Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Groove X Inc filed Critical Groove X Inc
Publication of DE112017003651T5 publication Critical patent/DE112017003651T5/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/0015Face robots, animated artificial faces for imitating human expressions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/36Details; Accessories
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/36Details; Accessories
    • A63H3/38Dolls' eyes
    • A63H3/40Dolls' eyes movable
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40202Human robot coexistence
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40411Robot assists human in non-industrial environment like home or office

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

Ein planarer Berührungssensor (ein Sensor für elektrostatische Kapazität) zum Erfassen eines Kontakts durch einen Benutzer auf einer Körperoberfläche ist an einem Roboter installiert. Annehmlichkeit und Unannehmlichkeit werden in Übereinstimmung mit einem Berührungspunkt und einer Kontaktstärke auf dem Berührungssensor bestimmt. Verhaltensmerkmale des Roboters ändern sich in Übereinstimmung mit einem Bestimmungsergebnis. Die Vertrautheit in Bezug auf den Benutzer, der berührt, ändert sich entsprechend der Annehmlichkeit oder Unannehmlichkeit. Der Roboter hat eine gewölbte Form und einen weichen Körper.

Description

  • Technischer Bereich
  • Die vorliegende Erfindung bezieht sich auf einen Roboter, der autonom eine Handlung in Übereinstimmung mit einem internen Zustand oder einer externen Umgebung auswählt.
  • Stand der Technik
  • Ein Mensch erfasst über Sinnesorgane verschiedene Informationen aus einer äußeren Umgebung und wählt eine Handlung aus. Es gibt Zeiten, in denen eine Handlung bewusst ausgewählt wird, und Zeiten, in denen eine Handlung unbewusst ausgewählt wird. Eine wiederholte Handlung wird mit der Zeit zu einer unbewussten Handlung, und eine neue Handlung verbleibt in einer Bewusstseinszone.
  • Ein Mensch glaubt, dass er oder sie willentlich frei seine oder ihre Handlung wählen kann, das heißt, dass er oder sie einen freien Willen hat. Ein Grund, warum ein Mensch eine Emotion wie Zuneigung oder Feindschaft gegenüber einer anderen Person hegt, ist, dass er oder sie glaubt, dass die andere Person auch einen freien Willen hat. Eine Person, die einen freien Willen hat, oder zumindest eine Existenz, von der angenommen wird einen freien Willen zu haben, ist auch eine Existenz, die die Einsamkeit einer Person erleichtert.
  • Ein Grund, dass sich ein Mensch ein Haustier hält, ganz gleich, ob das Haustier dem Menschen nützlich ist oder nicht, ist, dass das Haustier Trost spendet. Gerade weil ein Haustier eine Existenz ist, die mehr oder weniger den Eindruck erweckt, einen freien Willen zu haben, kann das Haustier ein guter Begleiter für einen Menschen sein.
  • Unterdessen gibt es verschiedene Gründe, aus denen Menschen es aufgegeben haben sich ein Haustier zu halten, wie beispielsweise aufgrund der Tatsache, dass man sich nicht genügend Zeit für die Betreuung eines Haustieres verschaffen kann, oder das Wohnumfeld die Haltung eines Haustiers nicht zulässt, oder weil man eine Allergie hat oder den Gedanken hasst, vom Tod getrennt zu werden. Gäbe es einen Roboter, der die Rolle eines Haustiers übernimmt, könnten viele Menschen, die kein Haustier halten können, dennoch mit der Art Trost versorgt werden, den ein Haustier spenden würde. (siehe Patentschrift 1).
  • Referenzliste
  • Patentliteratur
  • Patentschrift 1: JP-A-2000-323219
  • Zusammenfassung der Erfindung
  • Technisches Problem
  • Obwohl sich die Robotertechnologie in den letzten Jahren rasch weiterentwickelt hat, ist die Technologie dennoch nicht so weit fortgeschritten, dass sie einen haustierähnlichen Begleiter präsentieren könnte. Das liegt daran, dass die Vorstellung, ein Roboter habe einen freien Willen, nicht denkbar ist. Ein Mensch denkt allein aufgrund der Beobachtung einer Handlung, dass ein Haustier einen freien Willen hat, er spürt das Vorhandensein eines freien Willens beim Haustier, fühlt sich in das Haustier ein und wird vom Haustier getröstet.
  • Infolgedessen wird angenommen, dass, falls es einen Roboter gebe, der menschenähnliche oder tierähnliche Verhaltensmerkmale habe, mit anderen Worten, einen Roboter, der autonom eine menschenähnliche oder tierähnliche Handlung wählen könnte, die Empathie diesem Roboter gegenüber erheblich gesteigert werden könnte.
  • Die Erfindung, die auf der Grundlage der zuvor beschriebenen Idee vervollständigt wurde, hat die Hauptaufgabe, eine Technologie bereitzustellen, die bewirkt, dass sich Verhaltenseigenschaften eines Roboters ändern, indem er mit einer Person in Kontakt kommt.
  • Lösung des Problems
  • In einem Aspekt der Erfindung umfasst ein autonom agierender Roboter einen Sensor, der einen Kontakt durch einen Benutzer auf einer Körperoberfläche des Roboters erfasst, eine Erkennungseinheit, die einen Grad eines Zuneigungsausdrucks in Übereinstimmung mit einer Kontaktstelle und einer Kontaktstärke bestimmt, und eine Betriebssteuereinheit, die bewirkt, dass sich Verhaltenseigenschaften des Roboters in Übereinstimmung mit dem Grad des Zuneigungsausdrucks ändern.
  • In einem weiteren Aspekt der Erfindung umfasst ein autonom agierender Roboter einen Sensor, der einen Kontakt mit dem Benutzer erfasst, eine Betriebssteuereinheit, die eine Bewegung des Roboters in Übereinstimmung mit dem Kontakt wählt, einen Antriebsmechanismus, der die Bewegung ausführt, die von der Betriebssteuereinheit gewählt wurde, und eine Außenhaut, die aus einem elastischen Körper gebildet ist.
  • Der Sensor ist als ein gewölbter Sensor ausgebildet, der die Außenhaut bedeckt.
  • In einem weiteren Aspekt der Erfindung umfasst ein autonom agierender Roboter einen Planarsensor, der auf einer Körperoberfläche des Roboters installiert ist und einen Kontakt am Roboter erkennt, eine Betriebssteuereinheit, die einen Betrieb des Roboters gemäß dem Kontakt am Roboter steuert, und einen Antriebsmechanismus, der einen von der Betriebssteuereinheit vorgegebenen Vorgang ausführt.
  • Der Roboter hat eine gewölbte Körperoberfläche. Der Sensor ist entlang der Kurve der Körperoberfläche des Roboters installiert.
  • In einem weiteren Aspekt der Erfindung umfasst ein autonom agierender Roboter eine Erkennungseinheit, die ein Anheben und Umarmen des Roboters erkennt, eine Betriebssteuereinheit, die eine Bewegung des Roboters wählt, und einen Antriebsmechanismus, der eine von der Betriebssteuereinheit gewählte Bewegung ausführt.
  • Die Erkennungseinheit kategorisiert Aspekte des Anhebens und Umarmens in mehrere Arten. Die Betriebssteuereinheit wählt eine Bewegung entsprechend der Art des Anhebens und Umarmens aus einer Vielzahl von Bewegungen aus, die eine Reaktion auf das Anheben und Umarmen sind.
  • Vorteilhafte Wirkungen der Erfindung
  • Gemäß der Erfindung lässt sich die Empathie gegenüber einem Roboter leicht erhöhen.
  • Figurenliste
    • [1(a)] 1(a) ist eine vordere Außenansicht eines Roboters.
    • [1(b)] 1(b) ist eine seitliche Außenansicht eines Roboters.
    • [2] 2 ist eine vordere Außenansicht des Roboters, wenn er Kleidung trägt.
    • [3] 3 ist eine Schnittansicht, die schematisch eine Struktur des Roboters darstellt.
    • [4] 4 ist ein Konfigurationsdiagramm eines Robotersystems.
    • [5] 5 ist eine schematische Ansicht einer Emotionskarte.
    • [6] 6 ist ein Hardware-Konfigurationsdiagramm des Roboters.
    • [7] 7 ist ein Funktionsblockdiagramm des Robotersystems.
    • [8] 8 ist eine vergrößerte Schnittansicht eines Körpers.
    • [9] 9 ist ein Flussdiagramm, das einen Prozess zeigt, wenn ein Kontakt erfasst wird.
    • [10] 10 ist ein Funktionsblockdiagramm des Robotersystems in einem ersten Arbeitsbeispiel.
    • [11] 11 ist eine Außenansicht eines Augenbildes.
    • [12] 12 ist eine erste konzeptionelle Ansicht, wenn der Roboter umarmt wird.
    • [13] 13 ist eine zweite konzeptionelle Ansicht, wenn der Roboter umarmt wird.
    • [14] 14 ist ein Datenstrukturdiagramm einer Bewegungsauswahltabelle.
  • Beschreibung der Ausführungsformen
  • Im Allgemeinen drückt eine Person über Körperkontakt eine Emotion gegenüber einem Gefährten durch Kommunikation aus. Eine Person führt unbewusst eine Handlung entsprechend der eigenen Emotion aus, indem sie Körper oder Hautabschnitte in Kontakt bringt, indem sie einen Gefährten umarmt, Wangen reibt, einen Kopf streichelt oder dergleichen. Dasselbe gilt, wenn der Gefährte ein Roboter ist, und je mehr Mitgefühl für den Roboter empfunden wird und der Roboter als Lebewesen und nicht als bloße Maschine betrachtet wird, desto stärker wird der Wunsch nach körperlichem Kontakt. Ein Roboter in dieser Ausführungsform erkennt den Körperkontakt von einem Benutzer, erkennt eine Emotion des Benutzers gegenüber dem Roboter aus dem Körperkontakt und ändert einen Verhaltensaspekt.
  • 1(a) ist eine vordere Außenansicht eines Roboters 100. 1(b) ist eine seitliche Außenansicht des Roboters 100.
  • Der Roboter 100 in dieser Ausführungsform ist ein autonom agierender Roboter, der eine Handlung oder Geste basierend auf einer äußeren Umgebung und einem internen Zustand bestimmt. Die äußere Umgebung wird mit verschiedenen Arten von Sensoren wie einer Kamera oder einem Thermosensor erkannt. Der interne Zustand wird als verschiedene Parameter quantifiziert, die Emotionen des Roboters 100 ausdrücken.
  • Diese werden im Folgenden beschrieben.
  • Bei einer Innenraumaktion als Voraussetzung hat der Roboter 100 beispielsweise einen Innenraum eines Heims eines Besitzers als Aktionsbereich. Nachfolgend wird ein mit dem Roboter 100 verbundener Mensch als „Benutzer“ bezeichnet, und ein Benutzer, der ein Mitglied eines Hauses bildet, zu dem der Roboter 100 gehört, wird als „Besitzer“ bezeichnet.
  • Ein Körper 104 des Roboters 100 hat eine überall abgerundete Form und umfasst eine Außenhaut, die aus einem weichen Material mit Elastizität gebildet ist, wie beispielsweise Urethan, Gummi, einem Harz oder einer Faser. Der Roboter 100 kann bekleidet sein. Indem der Körper 104, der abgerundet, weich und angenehm anzufassen ist, angenommen wird, vermittelt der Roboter 100 einem Benutzer ein Gefühl von Sicherheit und ein angenehmes Tastgefühl.
  • Das Gesamtgewicht des Roboters 100 beträgt 15 Kilogramm oder weniger, vorzugsweise 10 Kilogramm oder weniger und noch bevorzugter 5 Kilogramm oder weniger. Ein Großteil der Babys beginnt im Alter von 13 Monaten alleine zu gehen. Das Durchschnittsgewicht eines 13 Monate alten Babys beträgt für Jungen etwas mehr als 9 kg und für Mädchen etwas weniger als 9 kg. Wenn daher das Gesamtgewicht des Roboters 100 10 kg oder weniger beträgt, kann ein Benutzer den Roboter 100 mit einem Kraftaufwand tragen, der praktisch dem Tragen eines Babys, das nicht alleine gehen kann, entspricht. Das durchschnittliche Gewicht eines weniger als 2 Monate alten Babys beträgt sowohl für Jungen als auch für Mädchen weniger als 5 kg. Wenn daher das Gesamtgewicht des Roboters 100 5 kg oder weniger beträgt, kann ein Benutzer den Roboter 100 mit einem Kraftaufwand tragen, der praktisch dem Tragen eines sehr jungen Babys entspricht.
  • Die Annehmlichkeiten, die sich einem Benutzer bieten, sind, dass der Roboter 100 leicht zu tragen ist, und dass er getragen werden will, werden durch die Attribute entsprechendes Gewichts und Rundheit, Weichheit und angenehme Berührung realisiert. Aus den gleichen Gründen beträgt die Höhe des Roboters 100 wünschenswerterweise 1,2 Meter oder weniger oder vorzugsweise 0,7 Meter oder weniger. In dieser Ausführungsform ist es ein wichtiges Konzept des Roboters 100, dass er getragen werden kann.
  • Der Roboter 100 umfasst drei Räder für das Fahren auf drei Rädern. Wie in den Zeichnungen gezeigt, umfasst der Roboter 100 ein Paar Vorderräder 102 (ein linkes Rad 102a und ein rechtes Rad 102b) und ein Hinterrad 103. Die Vorderräder 102 sind Antriebsräder und das Hinterrad 103 ist ein angetriebenes Rad. Obwohl die Vorderräder 102 keinen Lenkmechanismus haben, können die Drehzahl und die Drehrichtung individuell gesteuert werden. Das Hinterrad 103 ist aus einem sogenannten Omni-Rad gebildet und dreht sich frei, um zu bewirken, dass sich der Roboter 100 vorwärts und rückwärts sowie nach links und rechts bewegt. Durch Steuern, so dass die Drehzahl des rechten Rades 102b größer als die des linken Rades 102a ist, kann sich der Roboter 100 nach links oder gegen den Uhrzeigersinn drehen. Durch Steuern, so dass die Drehzahl des linken Rades 102a größer als die des rechten Rades 102b ist, kann sich der Roboter 100 nach rechts oder im Uhrzeigersinn drehen.
  • Die Vorderräder 102 und das Hinterrad 103 können unter Verwendung eines Antriebsmechanismus (eines Schwenkmechanismus und eines Verbindungsmechanismus) vollständig in dem Körper 104 verstaut werden. Ein größerer Teil jedes Rades wird vom Körper 104 auch beim Fahren verborgen, wenn jedoch jedes Rad vollständig im Körper 104 verstaut ist, befindet sich der Roboter 100 in einem Zustand, in dem er sich nicht bewegen kann. Das heißt, der Körper 104 senkt sich ab und sitzt auf einer Bodenfläche F, begleitet von einer Betätigung der Räder, die untergebracht werden. Im Sitzzustand kommt eine in einem Bodenabschnitt des Körpers 104 ausgebildete flache Sitzfläche 108 (eine Bodenunterseite) mit der Bodenfläche F in Kontakt.
  • Der Roboter 100 hat zwei Arme 106. Die Arme 106 haben keine Funktion zum Ergreifen eines Objekts. Die Arme 106 können einfache Aktionen ausführen, wie beispielsweise Anheben, Winken und Schwenken. Die beiden Arme 106 können auch einzeln gesteuert werden.
  • Eine Kamera ist in einem Auge 110 integriert. Das Auge kann auch mit Hilfe eines Flüssigkristallelements oder einem organischen EL-Element ein Bild anzeigen. Zusätzlich zu der in das Auge 110 eingebauten Kamera sind verschiedene Sensoren, wie etwa ein Richtmikrofon und ein Ultraschallsensor, im Roboter 100 montiert. Ein Lautsprecher ist ebenfalls eingebaut, und der Roboter 100 kann auch eine einfache Sprache sprechen.
  • Ein Horn 112 ist an einem Kopfteil des Roboters 100 angebracht. Da der Roboter 100, wie zuvor beschrieben, leicht ist, kann ein Benutzer den Roboter 100 auch durch Ergreifen des Horns 112 anheben.
  • Eine Vielzahl von Berührungssensoren 400 ist entlang einer gewölbten Körperoberfläche an dem Körper 104 des Roboters 100 installiert. Der Berührungssensor 400 in dieser Ausführungsform ist ein elektrostatischer Kapazitätssensor vom Projektionstyp. Der Berührungssensor 400 ist dergestalt, dass mehrere Elektrodendrähte in einer Matrixform auf einer biegbaren Kunststofffolie installiert sind. Wenn ein Benutzer mit dem planaren Berührungssensor 400 in Kontakt kommt, ändert sich die elektrostatische Kapazität in einer Umgebung der Kontaktstelle. Die Kontaktstelle (Koordinaten) wird durch Elektrodendrähte identifiziert, die sich im Berührungssensor 400 kreuzen und die Änderung der elektrostatischen Kapazität erfassen. Eine mehrfache Berührung kann auch im Fall des elektrostatischen Kapazitätsverfahrens vom Projektionstyp erfasst werden. Selbst wenn der Berührungssensor 400 und ein Finger nicht in direkten Kontakt kommen, kann beispielsweise auch eine Berührung durch einen Handschuh erfasst werden.
  • Wie in 1 gezeigt, ist der Berührungssensor 400 über die gesamte Körperoberfläche des Roboters 100 installiert. Der Berührungssensor 400 ist wenigstens an Hauptabschnitten wie etwa dem Kopfabschnitt, einem Bauchabschnitt, einem Brustabschnitt, einem Gesäßabschnitt, einem unteren Rückenabschnitt, dem Bodenabschnitt, einem oberen Rückenabschnitt und dem Arm 106 des Roboters installiert. „Hauptabschnitt“ bezieht sich in dieser Ausführungsform auf mindestens sowohl den Kopfabschnitt als auch den Bauchabschnitt (oder den Brustabschnitt). Vorzugsweise ist auch der obere Rückenteil eingeschlossen. Es ist wünschenswert, dass eine Berührung des oberen Rückens zusätzlich zu einer Berührung des Kopfteils und des Bauchbereichs (oder des Brustbereichs) erfasst werden kann. Das Anbringen des Berührungssensors 400 an dem Bodenabschnitt ist zweckdienlich, um zu erfassen, dass er auf einem Knie gehalten wird. Vorausgesetzt, dass ein Kontakt mit einem Hauptabschnitt erfasst werden kann, kann der Berührungssensor 400 klein sein.
  • Natürlich bedeckt der Berührungssensor 400 wünschenswerterweise die gesamte Körperoberfläche des Roboters 100. Der Berührungssensor 400 bedeckt wünschenswerterweise mindestens 30% oder mehr, vorzugsweise 50% oder mehr der Körperoberfläche.
  • Der abgerundete, weiche Körper 104 vermittelt einem Benutzer ein angenehmes Empfinden, wenn er den Roboter 100 berührt. Da der Roboter 100 Wärmeerzeugungsteile wie eine Batterie 118 und eine Steuerschaltung 342 (wird nachstehend beschrieben) umfasst, wird ein Teil der Wärme im Inneren auf die Körperoberfläche übertragen. Die Wärme des Körpers 104 des Roboters 100 erhöht auch das angenehme Gefühl, das mit dem Kontakt des Roboters 100 einhergeht.
  • 2 ist eine äußere Vorderansicht des Roboters 100, wenn er Kleidung trägt.
  • Ein Benutzer kann dem Roboter 100 Kleidung 180 anziehen. Es gibt verschiedene Arten von Kleidung 180. Ein RFID-Tag (Identifikation elektromagnetischer Wellen) ist in die Kleidung 180 eingenäht. Der RFID-Tag gibt eine „Bekleidungs-ID“ aus, die Kleidung aus nächster Nähe erkennt. Durch Lesen der Bekleidungs-ID aus dem RFID-Tag kann der Roboter 100 erkennen, dass der Roboter 100 die Kleidung 180 trägt, und die Kategorie der Kleidung 180 erkennen, die der Roboter 100 trägt. Der Roboter 100 kann mehrere Artikel der Kleidung 180 in Schichten tragen.
  • 3 ist eine Schnittansicht, die schematisch eine Struktur des Roboters 100 darstellt.
  • Wie in 3 gezeigt ist, umfasst der Körper 104 des Roboters 100 einen Basisrahmen 308, einen Hauptkörperrahmen 310, ein Paar Radabdeckungen 312 aus Harz und eine Außenhaut 314. Der Basisrahmen 308 ist aus Metall gebildet und trägt einen inneren Mechanismus sowie die Konfiguration einer Welle des Körpers 104. Der Basisrahmen 308 ist aus einer oberen Platte 332 und einer unteren Platte 334 aufgebaut, die vertikal durch eine Vielzahl von Seitenplatten 336 verbunden sind. Zwischen der Vielzahl der Seitenplatten 336 ist ein ausreichender Abstand vorgesehen, so dass eine Belüftung möglich ist. Eine Batterie 118, eine Steuerschaltung 342 und verschiedene Arten von Stellgliedern sind innerhalb des Basisrahmens 308 untergebracht.
  • Der Hauptkörperrahmen 310 ist aus einem Harzmaterial gebildet und umfasst einen Kopfabschnittsrahmen 316 und einen Rumpfabschnittsrahmen 318. Der Kopfabschnittrahmen 316 hat eine hohle Halbkugelform und bildet einen Kopfabschnittrahmen des Roboters 100. Der Rumpfabschnittrahmen 318 hat eine gestufte zylindrische Form und bildet ein Rumpfabschnitttragwerk des Roboters 100. Der Rumpfabschnittsrahmen 318 ist fest mit dem Basisrahmen 308 verbunden. Der Kopfabschnittrahmen 316 ist an einem oberen Endabschnitt des Rumpfabschnittrahmens 318 so angebracht, dass er relativ verschiebbar ist.
  • Drei Wellen, nämlich eine Gierwelle 320, eine Nickwelle 322 und eine Wickelwelle 324, und ein Stellglied 326 zum drehbaren Antreiben jeder Welle sind in dem Kopfabschnittsrahmen 316 angeordnet. Das Stellglied 326 umfasst mehrere Servomotoren zum individuellen Antreiben jeder Welle. Die Gierwelle 320 wird für eine Kopfbewegungsaktion angetrieben, die Nickwelle 322 wird für eine Nickbewegung angetrieben, und die Wickelwelle 324 wird für eine Kopfkippaktion angetrieben.
  • Eine Platte 325, die die Gierwelle 320 trägt, ist an einem oberen Abschnitt des Kopfabschnittrahmens 316 befestigt. Eine Vielzahl von Belüftungslöchern 327 zum Sichern der Belüftung zwischen den oberen und unteren Abschnitten ist in der Platte 325 ausgebildet.
  • Eine Basisplatte 328 aus Metall ist angeordnet, um den Kopfabschnittrahmen 316 und einen inneren Mechanismus davon von unten zu stützen. Die Basisplatte 328 ist mit der Platte 325 über einen Quervernetzungsmechanismus 329 (einen Pantographen-mechanismus) verbunden und ist über ein Gelenkstück 330 mit der oberen Platte 332 (dem Basisrahmen 308) verbunden.
  • Der Rumpfabschnittrahmen 318 beherbergt den Basisrahmen 308 und einen Radantriebsmechanismus 370. Der Radantriebsmechanismus 370 umfasst eine Schwenkwelle 378 und ein Stellglied 379. Ein unterer Halbabschnitt des Rumpfabschnittsrahmens 318 ist von geringer Breite, um einen Gehäuseraum S des Vorderrades 102 zwischen den Radabdeckungen 312 zu bilden.
  • Die Außenhaut 314 ist aus Urethangummi gebildet und bedeckt den Hauptkörperrahmen 310 und die Radabdeckungen 312 von einer Außenseite. Die Arme 106 sind einstückig mit der Außenhaut 314 geformt. Ein Öffnungsabschnitt 390 zum Einführen von Außenluft ist in einem oberen Endabschnitt der Außenhaut 314 angeordnet.
  • 4 ist ein Konfigurationsdiagramm eines Robotersystems 300. Das Robotersystem 300 umfasst den Roboter 100, den Server 200 und eine Vielzahl von externen Sensoren 114. Die Vielzahl der externen Sensoren 114 (externe Sensoren 114a, 114b, und so weiter bis 114n) werden im Voraus in einem Haus installiert. Der externe Sensor 114 kann an einer Wandfläche des Hauses befestigt oder auf einem Boden platziert werden. Die Positionskoordinaten des externen Sensors 114 werden auf dem Server 200 registriert. Die Positionskoordinaten, die als Aktionsbereich des Roboters 100 vorgesehen sind, werden im Haus als x, y-Koordinaten definiert.
  • Der Server wird im Haus eingerichtet. In dieser Ausführungsform entsprechen der Server 200 und der Roboter 100 Eins-zu-Eins. Der Server 200 bestimmt eine Basisaktion des Roboters 100 auf der Grundlage von Informationen, die von den in dem Roboter 100 enthaltenen Sensoren und der Vielzahl der externen Sensoren 114 empfangen werden.
  • Der externe Sensor 114 dient zur Verstärkung von Sinnesorganen des Roboters 100 und der Server 200 dient zur Verstärkung der Gehirnleistung des Roboters 100.
  • Der externe Sensor 114 sendet regelmäßig ein drahtloses Signal (im Folgenden als „Robotersuchsignal“ bezeichnet) einschließlich der ID (im Folgenden als „Baken-ID“ bezeichnet) des externen Sensors 114. Beim Empfang des Robotersuchsignals sendet der Roboter 100 ein drahtloses Signal (im Folgenden als „Roboterantwortsignal“ bezeichnet) zurück, das die Baken-ID enthält. Der Server 200 misst eine Zeit von dem externen Sensor 114, der das Robotersuchsignal überträgt, bis er das Roboterantwortsignal empfängt, und misst eine Entfernung von dem externen Sensor 114 zu dem Roboter 100. Durch Messen des Abstands zwischen jedem der mehreren externen Sensoren 114 und dem Roboter 100 identifiziert der Server 200 die Positionskoordinaten des Roboters 100.
  • Natürlich kann auch ein Verfahren angewendet werden, bei dem der Roboter 100 regelmäßig seine eigenen Positionskoordinaten an den Server 200 überträgt.
  • 5 ist eine schematische Ansicht einer Emotionskarte 116.
  • Die Emotionskarte 116 ist eine im Server 200 gespeicherte Datentabelle. Der Roboter 100 wählt eine Aktion gemäß der Emotionskarte 116 aus. Die in 5 gezeigte Emotionskarte 116 zeigt eine Größe einer emotionalen Verbundenheit oder einer Abneigung gegen einen Ort des Roboters 100. Eine x-Achse und eine y-Achse der Emotionskarte 116 zeigen zweidimensionale Raumkoordinaten an. Eine z-Achse zeigt die Stärke einer emotionalen Verbundenheit oder einer Abneigung an. Wenn ein z-Wert ein positiver Wert ist, ist eine Verbundenheit mit dem Ort hoch, und wenn der z-Wert ein negativer Wert ist, ist der Roboter 100 dem Ort abgeneigt.
  • Auf der Emotionskarte 116 von 5 ist eine Koordinate P1 ein Punkt in einem Innenraum, der vom Server 200 als Aktionsbereich des Roboters 100 verwaltet wird, an dem eine Emotion der Anziehung hoch ist (nachstehend als bevorzugter Punkt bezeichnet). Der bevorzugte Punkt kann ein „sicherer Ort“ sein, wie z. B. hinter einem Sofa oder unter einem Tisch, oder er kann ein Ort sein, an dem sich die Menschen gerne zusammenfinden, oder ein belebter Ort wie ein Wohnzimmer. Der sichere Ort kann auch ein Ort sein, an dem der Roboter 100 in der Vergangenheit sanft gestreichelt oder berührt wurde.
  • Festzulegen, welche Art Ort der Roboter 100 bevorzugt, geschieht willkürlich, aber es ist generell wünschenswert, dass ein von Kleinkindern oder von Kleintieren wie Hunden oder Katzen bevorzugter Ort als bevorzugter Punkt festgelegt wird.
  • Eine Koordinate P2 ist ein Punkt, an dem ein Gefühl der Abneigung hoch ist (im Folgenden als „unbeliebter Punkt“ bezeichnet). Der unbeliebte Punkt kann ein Ort sein, an dem es ein lautes Geräusch gibt, wie z.B. in der Nähe eines Fernsehers, ein Ort, an dem es wahrscheinlich ein Leck geben kann, wie z.B. ein Badezimmer oder ein Waschraum, ein geschlossener Raum oder ein dunkler Ort, ein Ort, an dem der Roboter 100 von einem Benutzer grob behandelt wurde und der eine unangenehme Erinnerung hervorruft, oder dergleichen.
  • Festzulegen, welche Art von Ort der Roboter 100 ablehnt, geschieht willkürlich, aber es ist generell wünschenswert, dass ein von Kleinkindern oder von Kleintieren wie Hunden oder Katzen gefürchteter Ort als unbeliebter Punkt gesetzt wird.
  • Eine Koordinate Q zeigt eine aktuelle Position des Roboters 100 an. Der Server 200 identifiziert die Positionskoordinaten des Roboters 100 unter Verwendung des Robotersuchsignals, das regelmäßig von der Vielzahl der externen Sensoren 114 übertragen wird, und des Antwortsignals des Roboters, das auf das Robotersuchsignal reagiert. Wenn beispielsweise der externe Sensor 114 mit Baken-ID = 1 und der externe Sensor 114 mit Baken-ID = 2 jeweils den Roboter 100 erfassen, bezieht der Server 200 die Abstände des Roboters 100 von den beiden externen Sensoren 114 und erhält die Positionskoordinaten des Roboters 100 aus den Abständen.
  • Alternativ sendet der externe Sensor 114 mit Baken-ID = 1 das Robotersuchsignal in ein Vielfaches der Richtungen, und der Roboter 100 gibt beim Empfang des Robotersuchsignals das Roboterantwortsignal zurück. Auf diese Weise kann der Server 200 feststellen, in welche Richtung und in welcher Entfernung sich der Roboter 100 von welchem externen Sensor 114 befindet. Außerdem kann der Server 200 in einer weiteren Ausführungsform aus der Drehzahl des Vorderrads 102 oder des Hinterrads 103 eine vom Roboter 100 zurückgelegte Entfernung berechnen und so die aktuelle Position identifizieren oder die aktuelle Position basierend auf einem von der Kamera erhaltenen Bild identifizieren.
  • Wenn die in 5 dargestellte Emotionskarte 116 bereitgestellt wird, bewegt sich der Roboter 100 in Richtung des bevorzugten Punktes (Koordinate P1) oder in eine Richtung weg vom unbeliebten Punkt (Koordinate P2).
  • Die Emotionskarte 116 ändert sich dynamisch. Wenn der Roboter 100 an der Koordinate P1 ankommt, nimmt der z-Wert (Emotion der Anziehung) an der Koordinate P1 mit der Zeit ab. Aus diesem Grund kann der Roboter 100 ein tierähnliches Verhalten nachahmen, indem er „emotional zufrieden ist“, wenn er an dem bevorzugten Punkt (Koordinate P1) angekommen ist und mit der Zeit „gelangweilt“ bei dem Punkt werden.
  • In gleicher Weise wird das Gefühl der Abneigung an der Koordinate P2 im Laufe der Zeit gelindert. Ein neuer bevorzugter oder unbeliebter Punkt erscheint nachdem einige Zeit verstrichen ist, weshalb der Roboter 100 eine neue Aktionsauswahl vornimmt. Der Roboter 100 hat „Interesse“ an einem neuen bevorzugten Punkt und führt ununterbrochen eine neue Aktionsauswahl aus.
  • Die Emotionskarte 116 drückt emotionale Schwingungen als einen internen Zustand des Roboters 100 aus. Der Roboter 100 sucht nach einem bevorzugten Punkt, vermeidet einen unbeliebten Punkt, bleibt eine Weile am bevorzugten Punkt und führt rechtzeitig die nächste Aktion aus. Mit dieser Art Steuerung kann die Aktionsauswahl des Roboters 100 eine menschenähnliche oder tierähnliche Aktionsauswahl sein.
  • Karten, die eine Aktion des Roboters 100 beeinflussen (im Folgenden zusammenfassend als „Aktionskarten“ bezeichnet), sind nicht auf den Typ der in 5 gezeigten Emotionskarte 116 beschränkt. Zum Beispiel können verschiedene Aktionskarten definiert werden, wie z. B. Neugier, der Wunsch, Angst zu vermeiden, der Wunsch nach Sicherheit und der Wunsch nach physischer Behaglichkeit, wie Ruhe, schwachem Licht, Kühle oder Wärme. Darüber hinaus kann ein Zielpunkt des Roboters 100 bestimmt werden, indem ein gewichteter Mittelwert der Z-Werte von jeweils einem Vielfachen von Aktionskarten gebildet wird.
  • Der Roboter 100 kann zusätzlich zu einer Aktionskarte auch Parameter aufweisen, die eine Größe verschiedener Emotionen oder Sinne anzeigen. Wenn beispielsweise ein Wert eines Einsamkeits-Emotionsparameters steigt, kann ein Gewichtungskoeffizient einer Aktionskarte, die Orte auswertet, an denen sich der Roboter 100 wohl fühlt, hoch gesetzt werden, und der Wert dieses Emotionsparameters wird reduziert, wenn der Roboter 100 einen Zielpunkt erreicht. Ebenso genügt es, wenn ein Wert eines Parameters, der ein Gefühl der Langeweile anzeigt, zunimmt, dass ein Gewichtungskoeffizient einer Aktionskarte, die Orte bewertet, an denen die Neugier befriedigt wird, hoch gesetzt wird.
  • ist ein Hardware-Konfigurationsdiagramm des Roboters 100.
  • Der Roboter 100 beinhaltet einen internen Sensor 128, einen Kommunikator 126, eine Speichervorrichtung 124, einen Prozessor 122, einen Antriebsmechanismus 120 und die Batterie 118. Der Antriebsmechanismus 120 umfasst den bisher beschriebenen Radantriebsmechanismus 370. Der Prozessor 122 und die Speichervorrichtung 124 sind in der Steuerschaltung 342 enthalten. Die Einheiten sind durch eine Stromleitung 130 und eine Signalleitung 132 miteinander verbunden. Die Batterie 118 versorgt jede Einheit über die Stromleitung 130 mit Strom. Jede Einheit sendet und empfängt über die Signalleitung 132 ein Steuersignal. Die Batterie 118 ist eine wiederaufladbare Lithiumionenbatterie und ist eine Energiequelle des Roboters 100.
  • Der interne Sensor 128 ist eine Sammlung verschiedener Arten von Sensoren, die in den Roboter 100 eingebaut sind. Insbesondere ist der interne Sensor 128 eine Kamera, ein Mikrofon mit starker Richtwirkung, ein Infrarotsensor, ein Thermosensor, ein Berührungssensor, ein Beschleunigungssensor, ein Geruchssensor und dergleichen. Der Geruchssensor ist ein bereits bekannter Sensor, der ein Prinzip anwendet, bei dem sich der elektrische Widerstand entsprechend einer Adsorption eines Moleküls ändert, das eine Geruchsquelle bildet. Der Geruchssensor klassifiziert verschiedene Gerüche in verschiedene Kategorien (nachfolgend „Geruchskategorien“ genannt).
  • Der Kommunikator 126 ist ein Kommunikationsmodul, das eine drahtlose Kommunikation mit dem Server 200 und verschiedenen Arten von externen Geräten, wie beispielsweise dem externen Sensor 114 und einem mobilen Gerät, das ein Benutzer besitzt, als Ziel ausführt. Die Speichervorrichtung 124 ist aus einem nichtflüchtigen Speicher und einem flüchtigen Speicher aufgebaut und speichert ein Computerprogramm und verschiedene Arten von Einstellungsinformationen. Der Prozessor 122 ist ein Mittel zum Ausführen eines Computerprogramms. Der Antriebsmechanismus 120 ist ein Stellglied, das einen internen Mechanismus steuert. Darüber hinaus ist auch eine Anzeige, ein Lautsprecher und dergleichen angebracht.
  • Der Prozessor 122 wählt eine Aktion des Roboters 100 aus, indem er über den Kommunikator 126 mit dem Server 200 oder dem externen Sensor 114 kommuniziert. Verschiedene Arten externer Informationen, die durch den internen Sensor 128 erhalten werden, beeinflussen auch die Aktionsauswahl. Der Antriebsmechanismus 120 steuert hauptsächlich die Räder (Vorderräder 102) und den Kopfabschnitt (den Kopfabschnitt-rahmen 316). Der Antriebsmechanismus 120 ändert eine Bewegungsrichtung und eine Bewegungsgeschwindigkeit des Roboters 100 durch Ändern der Drehgeschwindigkeit und der Drehrichtung jedes der beiden Vorderräder 102. Der Antriebsmechanismus 120 kann auch die Räder (die Vorderräder 102 und das Hinterrad 103) anheben und absenken. Wenn sich die Räder anheben, sind die Räder vollständig in der Körper 104 gelagert, und der Roboter 100 kommt über die Sitzfläche 108 mit der Bodenfläche F in Kontakt und nimmt den Sitzzustand an.
  • 7 ist ein Funktionsblockdiagramm des Robotersystems 300.
  • Wie zuvor beschrieben, umfasst das Robotersystem 300 den Roboter 100, den Server 200 und die Vielzahl von externen Sensoren 114. Jede Komponente des Roboters 100 und des Servers 200 wird durch Hardware realisiert, die einen Computer umfasst, der aus einer CPU (zentrale Verarbeitungseinheit) gebildet wird, verschiedenen Arten von Co-Prozessoren und dergleichen, einer Speichervorrichtung, die ein Kurzzeitspeicher oder Langzeitspeicher ist, und einer verdrahteten oder drahtlosen Kommunikationsleitung, die den Computer und die Speichervorrichtung miteinander verbindet, sowie auf der Speichervorrichtung gespeicherte Software, die dem Computer einen Verarbeitungsbefehl liefert. Ein Computerprogramm kann aus einem Gerätetreiber, einem Betriebssystem, verschiedenen Arten von Anwendungsprogrammen, die in einer oberen Schicht davon positioniert sind, und einer Bibliothek konfiguriert sein, die den Programmen eine gemeinsame Funktion bietet. Jeder im Folgenden beschriebene Block zeigt einen funktionalen Einheitenblock anstelle einer Konfiguration einer Hardwareeinheit an.
  • Ein Teil der Funktionen des Roboters 100 kann durch den Server 200 realisiert werden, und ein Teil oder alle Funktionen des Servers 200 können durch den Roboter 100 realisiert werden.
  • Server 200
  • Der Server 200 umfasst eine Kommunikationseinheit 204, eine Datenverarbeitungseinheit 202 und eine Datenspeichereinheit 206.
  • Die Kommunikationseinheit 204 verwaltet einen Prozess zum Kommunizieren mit dem externen Sensor 114 und dem Roboter 100. Die Datenspeichereinheit 206 speichert verschiedene Arten von Daten. Die Datenverarbeitungseinheit 202 führt verschiedene Arten von Prozessen auf der Grundlage der von der Kommunikationseinheit 204 erfassten Daten und der in der Datenspeichereinheit 206 gespeicherten Daten aus. Die Datenverarbeitungseinheit 202 fungiert auch als eine Schnittstelle der Kommunikationseinheit 204 und der Datenspeichereinheit 206.
  • Die Datenspeichereinheit 206 enthält eine Bewegungsspeichereinheit 232, eine Kartenspeichereinheit 216 und eine individuelle Datenspeichereinheit 218.
  • Der Roboter 100 hat eine Vielzahl von Betriebsmustern (Bewegungen). Es werden verschiedene Bewegungen definiert, z. B. das Winken einer Hand, Annäherung an einen Benutzer während des Umherschweifens und Anstarren eines Benutzers mit zur Seite geneigtem Kopf.
  • Die Bewegungsspeichereinheit 232 speichert eine „Bewegungsdatei“, die Steuerdetails einer Bewegung definiert. Jede Bewegung wird durch die Bewegungs-ID identifiziert. Die Bewegungsdatei wird auch in eine Bewegungsspeichereinheit 160 des Roboters 100 heruntergeladen. Welche Bewegung ausgeführt werden soll, kann vom Server 200 oder kann vom Roboter 100 bestimmt werden.
  • Viele Bewegungen des Roboters 100 sind als zusammengesetzte Bewegungen konfiguriert, die eine Vielzahl von Bauteilbewegungen umfassen. Wenn sich der Roboter 100 beispielsweise einem Besitzer nähert, kann die Annäherung als eine Kombination aus einer Bauteilbewegung mit Richtungsänderung gegenüber dem Halter, einer Bauteilbewegung mit Annäherung beim Anheben eines Arms, einer Bauteilbewegung mit Annäherung beim Schütteln des Körpers und einer Bauteilbewegung mit Sitz beim A-heben beider Arme ausgedrückt werden. Durch die Kombination dieser vier Bewegungsarten wird die Bewegung „Annäherung an einen Besitzer, Anheben eines Armes auf dem Weg dorthin und anschließendes Sitzen nach dem Schütteln des Körpers“ verwirklicht. Ein Drehwinkel, eine Winkelgeschwindigkeit und dergleichen eines im Roboter 100 vorgesehenen Stellglieds ist in Korrelation mit einer Zeitachse in einer Bewegungsdatei definiert. Verschiedene Bewegungen werden ausgeführt, indem jedes Stellglied zusammen mit dem Zeitablauf gemäß der Bewegungsdatei (Stellglied-Steuerinformationen) gesteuert wird.
  • Eine Schaltzeit für den Wechsel von einer vorhergehenden Bauteilbewegung zu einer nachfolgenden Bauteilbewegung wird als „Intervall“ bezeichnet. Es genügt, dass ein Intervall entsprechend der Zeit definiert wird, die für eine Änderung der Bewegungs-einheit oder Details einer Bewegung benötigt wird. Es kann eine Länge eines Intervalls eingestellt werden.
  • Im Folgenden werden Einstellungen, die an der Steuerung einer Aktion des Roboters 100 beteiligt sind, wie z. B. welche Bewegung wann gewählt wird, und die Ausgangsregelung jedes Stellglieds bei der Realisierung einer Bewegung, zusammenfassend als „Verhaltensmerkmale“ bezeichnet. Die Verhaltenseigenschaften des Roboters 100 werden durch einen Bewegungsauswahlalgorithmus, eine Auswahlwahrscheinlichkeit einer als Reaktion auf verschiedene Situationen ausgewählten Bewegung, eine Bewegungsdatei und dergleichen definiert.
  • Die Kartenspeichereinheit 216 speichert eine Vielzahl von Aktionskarten. Die individuelle Datenspeichereinheit 218 speichert Informationen über einen Benutzer und insbesondere über einen Besitzer. Insbesondere speichert die individuelle Datenspeichereinheit 218 verschiedene Arten von Parametern, wie z. B. Vertrautheit mit einem Benutzer und physikalische Merkmale und Verhaltenseigenschaften eines Benutzers. Die individuelle Datenspeichereinheit 218 kann auch andere Attributinformationen wie Alter und Geschlecht speichern.
  • Der Roboter 100 identifiziert einen Benutzer basierend auf den physikalischen Eigenschaften des Benutzers oder den Verhaltenseigenschaften. Der Roboter 100 filmt mit der integrierten Kamera ständig eine Peripherie. Zudem extrahiert der Roboter 100 die physikalischen Eigenschaften und Verhaltensmerkmale einer Person, die in einem Bild erscheinen. Bei den physischen Merkmalen kann es sich um körpereigene visuelle Merkmale wie Körpergröße, Kleidung nach Wahl, Vorhandensein oder Fehlen einer Brille, Hautfarbe, Haarfarbe oder Ohrengröße handeln oder auch um andere Merkmale wie eine durchschnittliche Körpertemperatur, einen Geruch und eine Stimmqualität. Die Verhaltensmerkmale sind insbesondere verhaltensbegleitende Merkmale, wie z. B. ein Ort, den der Benutzer bevorzugt, eine Lebendigkeit der Bewegung und ein Vorhandensein oder Fehlen von Rauchen. So extrahiert der Roboter 100 beispielsweise Verhaltensmerkmale, so dass ein als Vater identifizierter Besitzer oft außerhalb des Hauses ist und zu Hause oft bewegungslos auf einem Sofa liegt, aber eine Mutter oft in einer Küche ist, und ein Tätigkeitsbereich breit angelegt ist.
  • Der Roboter 100 gruppiert Benutzer, die mit hoher Frequenz als „Besitzer“ erscheinen, basierend auf physikalischen Eigenschaften und Verhaltenseigenschaften, die aus einer großen Menge von Bildinformationen oder anderen Erfassungsinformationen erhalten werden.
  • Obwohl das Verfahren zum Identifizieren eines Benutzers anhand der Benutzer-ID einfach und zuverlässig ist, ist der Benutzer mit einer Vorrichtung, die eine Benutzer-ID bereitstellen kann, eine Vorbedingung. Inzwischen ist das Verfahren zur Identifizierung eines Benutzers anhand von physikalischen Merkmalen oder Verhaltensmerkmalen dergestalt, dass ein Bilderkennungsprozess gewichtig ist, aber es hat den Vorteil, dass auch ein Benutzer, der keine mobile Vorrichtung besitzt, identifiziert werden kann. Eine der beiden Methoden kann einzeln angewendet werden, oder die Benutzeridentifikation kann mit den beiden Methoden zusammen auf komplementäre Weise durchgeführt werden.
  • In dieser Ausführungsform werden die Benutzer basierend auf physikalischen Merkmalen und Verhaltensmerkmalen gebündelt, und ein Benutzer wird durch Deep Learning (ein mehrschichtiges neuronales Netzwerk) identifiziert. Details werden nachfolgend beschrieben.
  • Der Roboter 100 hat einen internen Parameter der Vertrautheit für jeden Benutzer. Wenn der Roboter 100 eine Aktion erkennt, die eine Zuneigung für den Roboter 100 anzeigt, wie z. B. das Aufheben des Roboters 100 oder das Sprechen mit dem Roboter 100, steigt die Vertrautheit mit diesem Benutzer. Die Vertrautheit nimmt in Bezug auf einen Benutzer ab, der sich nicht für den Roboter 100 interessiert, einen Benutzer, der sich grob verhält, oder einen Benutzer, der selten anzutreffen ist.
  • Die Datenverarbeitungseinheit 202 umfasst eine Positionsverwaltungseinheit 208, eine Kartenverwaltungseinheit 210, eine Erkennungseinheit 212, eine Betriebssteuer-einheit 222 und eine Vertrautheitsverwaltungseinheit 220.
  • Die Positionsverwaltungseinheit 208 identifiziert die Positionskoordinaten des Roboters 100 unter Verwendung des unter 4 beschriebenen Verfahrens. Die Positionsverwaltungseinheit 208 kann auch Positionskoordinaten eines Benutzers in Echtzeit verfolgen.
  • Die Kartenverwaltungseinheit 210 ändert den Parameter jeder Koordinate auf der Vielzahl von Aktionskarten unter Verwendung des in Verbindung mit 5 beschriebenen Verfahrens. Die Kartenverwaltungseinheit 210 kann eine aus der Vielzahl von Aktionskarten auswählen oder einen gewichteten Durchschnitt der z-Werte der Vielzahl von Aktionskarten verwenden. Es wird beispielsweise angenommen, dass die z-Werte an einer Koordinate R1 und einer Koordinate R2 auf einer Aktionskarte A 4 und 3 sind und die z-Werte an der Koordinate R1 und der Koordinate R2 auf einer Aktionskarte B -1 und 3 sind. Bei der Bildung eines einfachen Mittelwertes ist der gesamte z-Wert an der Koordinate R1 4 - 1 = 3, und der gesamte z-Wert an der Koordinate R2 ist 3 + 3 = 6, weshalb der Roboter 100 nicht in Richtung der Koordinate R1, sondern in Richtung der Koordinate R2 steuert.
  • Wenn die Aktionskarte A 5 Mal in Bezug auf die Aktionskarte B gewichtet wird, beträgt der gesamte z-Wert an der Koordinate R1 4 × 5 - 1 = 19, und der gesamte z-Wert an der Koordinate R2 3 × 5 + 3 = 18, wodurch der Roboter 100 in Richtung der Koordinate R1 steuert.
  • Die Erkennungseinheit 212 erkennt eine externe Umgebung. Verschiedene Arten der Erkennung, wie beispielsweise die Erkennung von Wetter oder Jahreszeit basierend auf Temperatur und Luftfeuchtigkeit und die Erkennung von Schutz (sicherer Bereich) basierend auf Lichtmenge und Temperatur, sind in die Erkennung der äußeren Umgebung einbezogen. Die Erkennungseinheit 212 umfasst ferner eine Personenerkennungseinheit 214 und eine Reaktionserkennungseinheit 228. Die Personenerkennungseinheit 214 erkennt eine Person aus einem Bild, das von der im Roboter 100 eingebauten Kamera aufgenommen wurde, und extrahiert die physikalischen Eigenschaften und Verhaltens-eigenschaften der Person. Auf der Grundlage der in der individuellen Datenspeicher-einheit 218 registrierten physikalischen Merkmalsinformationen und Verhaltensmerkmalsinformationen bestimmt die Personenerkennungseinheit 214 ferner, welche Person, beispielsweise ein Vater, eine Mutter oder ein ältester Sohn, dem gefilmten Benutzer, d. h. der Benutzer, auf den der Roboter 100 schaut, entspricht.
  • Die Personenerkennungseinheit 214 umfasst eine Ausdruckerkennungseinheit 230. Die Ausdruckerkennungseinheit 230 bewertet eine Emotion eines Benutzers unter Verwendung einer Bilderkennung eines Ausdrucks des Benutzers.
  • Die Personenerkennungseinheit 214 extrahiert auch Merkmale eines sich bewegenden Objekts, das keine Person ist, beispielsweise eine Katze oder ein Hund, die ein Haustier sind.
  • Die Reaktionserkennungseinheit 228 erkennt verschiedene Reaktionshandlungen, die von einem Benutzer in Bezug auf den Roboter 100 ausgeführt werden, und klassifiziert die Aktionen als angenehme oder unangenehme Aktionen.
  • Die Reaktionserkennungseinheit 228 umfasst eine Emotionsbewertungseinheit 250.
  • Die Emotionsbewertungseinheit 250 bewertet eine Emotion eines Benutzers auf der Grundlage des physischen Kontakts mit dem Roboter 100 und identifiziert einen Grad des Zuneigungsausdrucks.
  • Das Niveau des Zuneigungsausdrucks ist ein Parameter, nach dem eine Emotion eines Benutzers gegenüber dem Roboter 100 bewertet wird (wird nachfolgend beschrieben). Es wird zwischen angenehmen und unangenehmen Aktionen unterschieden, je nachdem, ob eine ansprechende Aktion eines Benutzers für ein Lebewesen angenehm oder unangenehm ist. Zum Beispiel ist das Umarmen eine angenehme Aktion für den Roboter 100, und getreten zu werden ist eine unangenehme Aktion für den Roboter 100. Es wird festgestellt, dass die Wahrscheinlichkeit hoch ist, dass eine von einem Benutzer ausgeführte angenehme Aktion eine positive Emotion beinhaltet und die Wahrscheinlichkeit hoch ist, dass eine von einem Benutzer ausgeführte unangenehme Aktion eine negative Emotion beinhaltet.
  • Die Betriebsbestimmungseinheit 222 des Servers 200 bestimmt eine Bewegung des Roboters 100 in Zusammenarbeit mit einer Betriebssteuereinheit 150 des Roboters 100. Die Betriebsbestimmungseinheit 222 des Servers 200 stellt einen Bewegungszielpunkt des Roboters 100 und eine Bewegungsroute für den Bewegungszielpunkt basierend auf einer Aktivitätskartenauswahl durch die Kartenverwaltungseinheit 210 zusammen. Die Betriebsbestimmungseinheit 222 stellt eine Vielzahl von Bewegungsrouten zusammen und kann, nachdem sie das getan hat, eine der Bewegungsrouten auswählen.
  • Die Betriebssteuereinheit 222 wählt eine Bewegung des Roboters 100 aus einer Vielzahl von Positionen der Bewegungsspeichereinheit 232 aus. Eine Auswahlwahrscheinlichkeit wird für jede Situation mit jeder Bewegung korreliert. So wird beispielsweise ein Auswahlverfahren definiert, bei dem eine Bewegung A mit einer Wahrscheinlichkeit von 20 % ausgeführt wird, wenn eine angenehme Aktion von einem Benutzer ausgeführt wird, und eine Bewegung B mit einer Wahrscheinlichkeit von 5 %, wenn eine Lufttemperatur 30 °C oder höher beträgt.
  • Ein Bewegungszielpunkt und eine Bewegungsroute werden durch eine Aktionskarte bestimmt, und eine Bewegung wird gemäß verschiedenen Arten von Ereignissen ausgewählt, die im Folgenden beschrieben werden.
  • Die Vertrautheitsverwaltungseinheit 220 verwaltet die Vertrautheit für jeden Benutzer. Wie zuvor beschrieben, wird die Vertrautheit als ein Teil der einzelnen Daten in der individuellen Datenspeichereinheit 218 registriert. Wenn eine angenehme Aktion erfasst wird, erhöht die Vertrautheitsverwaltungseinheit 220 die Vertrautheit mit diesem Benutzer. Wird eine unangenehme Aktion erfasst, verringert die Vertrautheitsverwaltungseinheit 220 die Vertrautheit. Auch die Vertrautheit mit einem Besitzer, der über einen längeren Zeitraum nicht visuell erkannt wurde, nimmt allmählich ab.
  • Roboter 100
  • Der Roboter 100 umfasst eine Kommunikationseinheit 142, eine Datenverarbeitungseinheit 136, eine Datenspeichereinheit 148, den internen Sensor 128 und den Antriebsmechanismus 120.
  • Die Kommunikationseinheit 142 entspricht dem Kommunikator 126 (siehe 6) und verwaltet einen Prozess der Kommunikation mit dem externen Sensor 114 und dem Server 200. Die Datenspeichereinheit 148 speichert verschiedene Arten von Daten. Die Datenspeichereinheit 148 entspricht der Speichervorrichtung 124 (siehe 6). Die Datenverarbeitungseinheit 136 führt verschiedene Arten von Prozessen auf der Grundlage der von der Kommunikationseinheit 142 erfassten Daten und der in der Datenspeichereinheit 148 gespeicherten Daten aus. Die Datenverarbeitungseinheit 136 entspricht dem Prozessor 122 und einem Computerprogramm, das von dem Prozessor 122 ausgeführt wird. Die Datenverarbeitungseinheit 136 fungiert auch als eine Schnittstelle der Kommunikationseinheit 142, des internen Sensors 128, des Antriebsmechanismus 120 und der Datenspeichereinheit 148.
  • Der interne Sensor 128 umfasst den Berührungssensor 400, eine Kamera 402 und einen Thermosensor 404.
  • Der Berührungssensor 400 erfasst einen Kontakt eines Benutzers auf dem Körper 104. Die Kamera 402 filmt ständig eine Peripherie des Roboters 100. Der Thermosensor 404 erfasst regelmäßig eine Außenlufttemperaturverteilung in der Peripherie des Roboters 100. Durch eine vorbestimmte Verarbeitung, wie z. B. eine Bildverarbeitung, die mit Informationen ausgeführt wird, die von der Kamera 402 und dem Thermosensor 404 erhalten werden, kann festgestellt werden, ob ein Benutzer in der Peripherie vorhanden ist oder nicht.
  • Die Datenspeichereinheit 148 umfasst die Bewegungsspeichereinheit 160, die die verschiedenen Bewegungsarten des Roboters 100 definiert.
  • Verschiedene Arten von Bewegungsdateien werden von der Bewegungsspeichereinheit 232 des Servers 200 in die Bewegungsspeichereinheit 160 des Roboters 100 heruntergeladen. Eine Bewegung wird durch die Bewegungs-ID identifiziert. Ein Arbeitstakt, eine Betriebszeit, eine Betriebsrichtung und dergleichen der verschiedenen Arten von Stellgliedern (der Antriebsmechanismus 120) sind chronologisch definiert, um verschiedene Bewegungen auszuführen, wie z. B. Sitzen durch Aufnahme des Vorder-rades 102, Anheben des Arms 106, wodurch der Roboter 100 eine Drehaktion ausführt, indem er die beiden Vorderräder 102 in umgekehrter Richtung drehen lässt oder indem er nur ein Vorderrad 102 in Drehung versetzt, Schütteln durch Bewegen des Vorderrades 102 in einem Zustand, in dem das Vorderrad 102 untergebracht ist, oder einmal Anhalten und Zurückblicken, wenn er sich von einem Benutzer fortbewegt.
  • Die Datenverarbeitungseinheit 136 umfasst eine Erkennungseinheit 156, die Betriebssteuereinheit 150, eine Bekleidungserfassungseinheit 172 und eine Empfindlichkeitssteuereinheit 174.
  • Die Betriebssteuereinheit 150 des Roboters 100 bestimmt Bewegungen des Roboters 100 in Zusammenarbeit mit der Betriebssteuereinheit 222 des Servers 200. Ein Teil der Bewegungen kann vom Server 200, und andere Bewegungen können vom Roboter 100 bestimmt werden. Eine Konfiguration kann auch dergestalt sein, dass, obwohl der Roboter 100 Bewegungen bestimmt, der Server 200 eine Bewegung bestimmt, wenn eine Verarbeitungslast des Roboters 100 hoch ist. Eine Konfiguration kann dergestalt sein, dass eine Bewegung, die eine Basis bildet, von dem Server 200 bestimmt wird, und eine zusätzliche Bewegung von dem Roboter 100 bestimmt wird. Es ist ausreichend, dass die Art und Weise, wie ein bewegungsbestimmender Prozess zwischen dem Server 200 und dem Roboter 100 aufgeteilt wird, gemäß den Spezifikationen des Robotersystems 300 ausgelegt ist.
  • Die Betriebssteuereinheit 150 des Roboters 100 bestimmt zusammen mit der Betriebssteuereinheit 222 des Servers 200 eine Bewegungsrichtung des Roboters 100. Eine Bewegung basierend auf einer Aktionskarte kann vom Server 200 bestimmt werden, und eine sofortige Bewegung, wie z.B. das Vermeiden eines Hindernisses, kann von der Betriebssteuereinheit 150 des Roboters 100 bestimmt werden. Der Antriebsmechanismus 120 bewirkt, dass der Roboter 100 auf einen Bewegungszielpunkt zugeht, indem er das Vorderrad 102 gemäß einer Anweisung von der Betriebssteuereinheit 150 angetrieben wird.
  • Die Betriebssteuereinheit 150 des Roboters 100 weist den Antriebsmechanismus 120 an, eine ausgewählte Bewegung auszuführen. Der Antriebsmechanismus 120 steuert jedes Stellglied in Übereinstimmung mit der Bewegungsdatei.
  • Die Betriebssteuereinheit 150 kann auch eine Bewegung zum Hochhalten beider Arme 106 als eine Geste ausführen, die um eine Umarmung bittet, wenn sich ein Benutzer mit einem hohen Vertrautheitsgrad in der Nähe befindet, und kann auch eine Bewegung ausführen, wenn die Umarmung nicht mehr gewünscht wird, indem ab-wechselnd und wiederholt bewirkt wird, dass sich die rechten und linken Vorderräder 102 rückwärts drehen und in einem untergebrachten Zustand anhalten, wenn er der „Umarmung“ überdrüssig ist. Der Antriebsmechanismus 120 bewirkt, dass der Roboter 100 verschiedene Bewegungen ausführt, indem er die Vorderräder 102, den Arm 106 und den Hals (den Kopfeinheitsrahmen 316) entsprechend einer Anweisung von der Betriebs-steuereinheit 150 antreibt.
  • Wenn eine Reaktion auf einen starken Ausdruck von Zuneigung, z. B. körperlicher Kontakt, wie das Umarmen des Roboters 100, erkannt wird, wählt die Betriebssteuereinheit 150 eine vorbestimmte Bewegung aus, wie ein weiteres Anschmiegen des Körpers an den Benutzer und das Reiben des Gesichts am Benutzer.
  • Die Empfindlichkeitssteuereinheit 174 bewirkt, dass sich die Empfindlichkeit, insbesondere die Erfassungsspannung, des Berührungssensors 400 ändert. Dies wird nachstehend ausführlich beschrieben.
  • Die Bekleidungserfassungseinheit 172 erfasst ein Tragen der Kleidung 180 durch Erfassen der Bekleidungs-ID von dem RFID-Tag der Kleidung 180. Die Bekleidungs-ID kann im Nahbereich gelesen werden. Wenn mehrere Kleidungsstück-ID gelesen werden, wird bestimmt, dass der Roboter 100 Kleidung in Schichten trägt. Ein Tragen von Kleidung kann unter Verwendung verschiedener Methoden neben dem RFID-Tag erkannt werden. Beispielsweise kann ermittelt werden, dass Kleidung angezogen wurde, wenn eine Innentemperatur des Roboters 100 ansteigt. Getragene Kleidung kann an einem Bild mit Hilfe der Kamera erkannt werden. Wenn der Berührungssensor 400 einen Kontakt über einen weiten Bereich erfasst, kann bestimmt werden, dass Kleidung angezogen wurde.
  • Die Erkennungseinheit 156 des Roboters 100 analysiert externe Informationen, die von dem internen Sensor 128 erhalten werden. Die Erkennungseinheit 156 ist zur visuellen Erkennung (einer visuellen Einheit), zur Geruchserkennung (einer Riecheinheit), zur Tonerkennung (einer akustischen Einheit) und zur taktilen Erkennung (einer taktilen Einheit) fähig. Die Erkennungseinheit 156 filmt regelmäßig einen Außenwinkel unter Verwendung der eingebauten Kamera (des internen Sensors 128) und erfasst ein sich bewegendes Objekt, beispielsweise eine Person oder ein Haustier. Die Erkennungseinheit 156 führt eine Extraktion von Merkmalen aus einem Bild oder dergleichen aus.
  • Die Merkmale werden an den Server 200 übertragen, und die Personenerkennungseinheit 214 des Servers 200 extrahiert die physischen Merkmale des sich bewegenden Objekts. Geruch und Ton (Stimme) werden unter Verwendung einer bereits bekannten Methode in mehrere Arten klassifiziert.
  • Wenn eine starke Kraft auf den Roboter 100 ausgeübt wird, erkennt die Erkennungseinheit 156 dies unter Verwendung eines eingebauten Beschleunigungssensors, und die Reaktionserkennungseinheit 228 des Servers 200 erkennt, dass eine „gewaltsame Aktion“ von einem Benutzer in der Umgebung ausgeführt wurde. Packt der Benutzer den Roboter 100 beim Horn, kann dies ebenfalls als eine gewaltsame Aktion erkannt werden. Wenn ein Benutzer in einem Zustand der Konfrontation mit dem Roboter 100 in einem bestimmten Volumenbereich und einem bestimmten Frequenzband spricht, kann die Reaktionserkennungseinheit 228 des Servers 200 erkennen, dass eine „Sprechaktion“ in Bezug auf den Roboter 100 durchgeführt wurde. Auch wenn eine Temperatur im Bereich der Körpertemperatur erfasst wird, erkennt die Reaktionskennungseinheit 228 des Servers 200, dass eine „Berührungsaktion“ von einem Benutzer durchgeführt wurde, und wenn eine Aufwärtsbeschleunigung in einem Zustand erfasst wird, in dem eine Berührung erkannt wird, erkennt die Reaktionserkennungseinheit 228 des Servers 200, dass eine „Umarmung“ durchgeführt wurde. Körperlicher Kontakt, wenn ein Benutzer den Körper 104 anhebt, kann ebenfalls wahrgenommen werden, und eine Umarmung kann auch an einer Last erkannt werden, die auf die Vorderräder 102 wirkt und sich verringert.
  • Der Grad des Zuneigungsausdrucks wird in Übereinstimmung mit den Details einer reaktiven Aktion identifiziert, insbesondere einem Aspekt des Körperkontaktes. Der Grad des Zuneigungsausdrucks wird gemäß Details einer reaktiven Aktion insbesondere eines Aspekts eines physischen Kontakts, identifiziert. Verschiedene Aspekte, wie das Umarmen, Wangenreiben und Streicheln des Kopfes, bestehen als körperlicher Kontakt. Im Folgenden wird ein Aspekt des physischen Kontakts als „Kontaktaspekt“ bezeichnet. Im Allgemeinen haben fast alle reaktiven Aktionen, die angenehme Aktionen sind, einen hohen Grad an Zuneigungsausdruck, und fast alle reaktiven Aktionen, die unangenehme Aktionen sind, haben einen niedrigen Grad an Zuneigungsausdruck. Angenehme und unangenehme Aktionen beziehen sich auf die Vertrautheit, und der Grad an Zuneigungsausdruck beeinflusst die Aktionsauswahl des Roboters 100.
  • Eine Reihe von Erkennungsprozessen kann von der Erkennungseinheit 212 des Servers 200 alleine oder von der Erkennungseinheit 156 des Roboters 100 alleine ausgeführt werden, oder die beiden können die Erkennungsprozesse ausführen, indem sie die Rollen teilen.
  • Die Vertrautheitsverwaltungseinheit 220 des Servers 200 ändert die Vertrautheit gegenüber einem Benutzer gemäß einer von der Erkennungseinheit 156 erkannten reaktiven Aktion. Im Wesentlichen nimmt die Vertrautheit mit einem Benutzer, der eine angenehme Aktion ausführt, zu, während die Vertrautheit mit einem Benutzer, der eine unangenehme Aktion ausführt, abnimmt.
  • Die Erkennungseinheit 212 des Servers 200 kann bestimmen, ob eine Reaktion angenehm oder unangenehm ist, und die Kartenverwaltungseinheit 210 des Servers 200 kann den z-Wert des Punkts ändern, an dem die angenehme oder unangenehme Aktion auf einer Aktionskarte ausgeführt wurde, die eine „Anhaftung an einen Ort“ darstellt. Wenn beispielsweise eine angenehme Aktion in einem Wohnzimmer ausgeführt wird, kann die Kartenverwaltungseinheit 210 einen bevorzugten Punkt mit hoher Wahrscheinlichkeit in dem Wohnzimmer festlegen. In diesem Fall wird ein positiver Rück-kopplungsvorteil dadurch realisiert, dass der Roboter 100 das Wohnzimmer bevorzugt und das Wohnzimmer weiterhin bevorzugt, da er im Wohnzimmer der Empfänger einer angenehmen Aktion ist.
  • Die Personenerkennungseinheit 214 des Servers 200 erfasst ein sich bewegendes Objekt aus verschiedenen Arten von Daten, die von dem externen Sensor 114 oder dem internen Sensor 128 erhalten werden, und entnimmt deren Merkmale (physikalische und Verhaltensmerkmale). Ferner bündelt die Personenerkennungseinheit 214 durch Analyse, die auf diesen Merkmalen beruht, eine Vielzahl von sich bewegenden Objekten. Nicht nur ein Mensch, sondern auch ein Haustier wie ein Hund oder eine Katze kann als sich bewegendes Objekt ein Analysegegenstand sein.
  • Der Roboter 100 führt regelmäßig Bildaufnahmen durch, und die Personenerkennungseinheit 214 erkennt ein sich bewegendes Objekt aus den Bildern und entnimmt Merkmale des sich bewegenden Objekts. Wenn ein sich bewegendes Objekt erfasst wird, werden auch physikalische und Verhaltensmerkmale aus dem Geruchssensor, dem eingebauten Mikrofon mit starker Richtwirkung, dem Temperatursensor und dergleichen entnommen. Wenn zum Beispiel ein sich bewegendes Objekt in einem Bild erscheint, werden verschiedene Merkmale entnommen, wie z. B. einen Bart tragen, früh am Morgen aktiv sein, rote Kleidung tragen, nach Parfüm riechen, eine laute Stimme haben, eine Brille tragen, einen Rock tragen, weißes Haar haben, groß, dick, sonnengebräunt sein oder sich auf einem Sofa befinden.
  • Wenn ein sich bewegendes Objekt (Benutzer) mit Bart häufig am frühen Morgen aktiv ist (früh aufsteht) und selten rote Kleidung trägt, wird ein erstes Profil angelegt, das die Merkmale (des Benutzers) bündelt, der früh aufsteht, einen Bart hat und nicht oft rote Kleidung trägt. Wenn ein sich bewegendes Objekt, das eine Brille trägt, häufig einen Rock trägt, das sich bewegende Objekt jedoch keinen Bart hat, wird ein zweites Profil angelegt, das die Merkmale (des Benutzers) bündelt, der eine Brille und einen Rock trägt, aber definitiv keinen Bart hat.
  • Obwohl das Vorstehende ein einfaches Beispiel ist, werden das erste Profil, das einem Vater entspricht, und das zweite Profil, das einer Mutter entspricht, unter Verwendung des zuvor beschriebenen Verfahrens gebildet, und der Roboter 100 erkennt, dass sich in diesem Haus mindestens zwei Benutzer (Besitzer) befinden.
  • Man beachte, dass der Roboter 100 nicht erkennen muss, dass das erste Profil der „Vater“ ist. In allen Fällen reicht es aus, dass der Roboter 100 eine Figur erkennen kann, die „ein Cluster ist, das einen Bart hat, oft früh aufsteht und kaum rote Kleidung trägt“.
  • Es wird angenommen, dass der Roboter 100 ein sich bewegendes Objekt (Benutzer) in einem Zustand, in dem diese Art von Clusteranalyse abgeschlossen ist, neu erkennt.
  • Zu diesem Zeitpunkt entnimmt die Personenerkennungseinheit 214 des Servers 200 Merkmale aus der Erfassung von Informationen eines Bildes oder dergleichen, die von dem Roboter 100 erhalten werden, und bestimmt, dass ein sich bewegendes Objekt in der Nähe des Roboters 100 in einem Cluster zusammengefasst wird, wenn ein tiefes Lernen verwendet wird (ein mehrschichtiges neuronales Netzwerk). Wenn zum Beispiel ein sich bewegendes Objekt mit einem Bart erfasst wird, ist die Wahrscheinlichkeit hoch, dass das sich bewegende Objekt der Vater ist. Wenn das sich bewegende Objekt am frühen Morgen aktiv ist, ist es noch sicherer, dass das sich bewegende Objekt dem Vater entspricht. Wenn ein sich bewegendes Objekt, das eine Brille trägt, erfasst wird, besteht die Möglichkeit, dass das sich bewegende Objekt die Mutter ist. Wenn das sich bewegende Objekt einen Bart hat, das sich bewegende Objekt aber weder die Mutter noch der Vater ist, bestimmt die Personenerkennungseinheit 214, dass das sich bewegende Objekt eine neue Person ist, die nicht in der Clusteranalyse analysiert wurde.
  • Die Bildung eines Clusters durch Merkmalsextraktion (Clusteranalyse) und Anwendung auf ein Cluster, das die Merkmalsextraktion (Deep Learning) begleitet, kann gleichzeitig ausgeführt werden.
  • Die Vertrautheit mit einem sich bewegenden Objekt (Benutzer) ändert sich entsprechend der Behandlung des Roboters 100 durch den Benutzer.
  • Der Roboter 100 legt eine hohe Vertrautheit für eine häufig getroffene Person, eine Person, die häufig den Roboter 100 berührt, und eine Person, die häufig mit dem Roboter 100 spricht, fest. Indessen nimmt die Vertrautheit für eine selten gesehene Person ab, eine Person, die den Roboter 100 nicht oft berührt, eine gewalttätige Person und eine Person, die mit lauter Stimme schimpft. Der Roboter 100 ändert die Vertrautheit jedes Benutzers basierend auf verschiedenen von den Sensoren erfassten äußeren Winkelinformationen (visuell, taktil und akustisch).
  • Der tatsächliche Roboter 100 führt autonom eine komplexe Aktionsauswahl gemäß einer Aktionskarte aus. Der Roboter 100 agiert, indem er von einer Vielzahl von Aktionskarten beeinflusst wird, die auf verschiedenen Parametern wie Einsamkeit, Langeweile und Neugier basieren. Wenn die Wirkung der Aktionskarten entfernt wird, oder wenn sie sich in einem internen Zustand befindet, in dem die Wirkung der Aktionskarten gering ist, versucht der Roboter 100 im Wesentlichen, sich einer Person mit hoher Vertrautheit zu nähern, und versucht, sich von einer Person mit geringer Vertrautheit zu entfernen.
  • Aktionen des Roboters 100 werden im Folgenden entsprechend der Vertrautheit klassifiziert.
  • Ein Cluster mit extrem hoher Vertrautheit
  • Der Roboter 100 drückt ein Gefühl der Zuneigung stark aus, indem er sich einem Benutzer nähert (nachfolgend als „Annäherungsaktion“ bezeichnet) und indem er eine Zuneigungsgeste ausführt, die zuvor als eine Geste definiert wurde, die den guten Willen gegenüber einer Person anzeigt.
  • Ein Cluster mit vergleichsweise hoher Vertrautheit
  • Der Roboter 100 führt nur eine Annäherungsaktion aus.
  • Ein Cluster mit vergleichsweise niedriger Vertrautheit
  • Der Roboter 100 führt keine besondere Aktion aus.
  • Ein Cluster mit besonders niedriger Vertrautheit
  • Der Roboter 100 führt eine Rückzugsaktion aus.
  • Gemäß dem zuvor beschriebenen Steuerverfahren nähert sich der Roboter 100 dem Benutzer, wenn er einen Benutzer mit hoher Vertrautheit findet, und bewegt sich umgekehrt von dem Benutzer weg, wenn er einen Benutzer mit geringer Vertrautheit findet. Gemäß dieser Art von Steuerungsverfahren kann der Roboter 100 durch sein Verhalten eine sogenannte „Schüchternheit“ ausdrücken. Wenn ein Besucher (ein Benutzer A mit geringer Vertrautheit) erscheint, kann sich der Roboter 100 vom Besucher wegbewegen und auf ein Familienmitglied (einen Benutzer B mit hoher Vertrautheit) zugehen. In diesem Fall kann der Benutzer B erkennen, dass der Roboter 100 schüchtern ist und sich unwohl fühlt, und sich auf Benutzer B verlässt. Dank dieser Art von Vertrauensausdruck wird beim Benutzer B, weil er ausgewählt und ihm Vertrauen geschenkt wurde, ein Gefühl der Freude geweckt, das von einem Gefühl der Zuneigung begleitet wird.
  • Wenn indes der Benutzer A, ein Besucher ist, der den Roboter 100 häufig besucht und mit ihm spricht und ihn berührt, nimmt die Vertrautheit des Roboters 100 gegenüber dem Benutzer A allmählich zu, und der Roboter 100 hört auf, eine Aktion der Schüchternheit (eine Rückzugsaktion) in Bezug auf Benutzer A durchzuführen. Der Benutzer A kann auch eine Zuneigung zu dem Roboter 100 empfinden, indem er feststellt, dass sich der Roboter 100 an den Benutzer A gewöhnt hat.
  • Die bisher beschriebene Aktionsauswahl muss nicht unbedingt ständig ausgeführt werden. Wenn beispielsweise ein interner Parameter, der die Neugier des Roboters 100 anzeigt, hoch ist, wird eine Aktionskarte gewichtet, aus der ein Ort ermittelt wird, an dem die Neugierde befriedigt wird, wodurch auch die Möglichkeit besteht, dass der Roboter 100 keine von Vertrautheit betroffene Aktion auswählt. Wenn der in dem Eingangsbereich installierte externe Sensor 114 die Heimkehr eines Benutzers erkennt, kann der Roboter 100 außerdem eine Aktion zum Begrüßen des Benutzers mit maximaler Priorität ausführen.
  • Wenn die Erfassung durch einen anderen Sensor als den Berührungssensor 400, beispielsweise die Kamera 402, den Thermosensor 404, einen nicht dargestellten Geruchssensor oder dergleichen, durch den Kontakt eines Benutzers behindert wird, führt die Betriebssteuereinheit 150 einen Benachrichtigungsvorgang aus. Insbesondere wenn ein bestimmtes Verhältnis oder mehr, z. B. 50 % oder mehr, eines Sichtfeldes der Kamera 402 blockiert ist, oder wenn ein bestimmtes Verhältnis oder mehr eines Erfassungsbereichs des Thermosensors 404 als gleichverteilt erkannt wird, besteht die Möglichkeit, dass die Hand oder der Körper eines Benutzers die Wahrnehmung behindert. Wenn durch die Erkennungseinheit 156 festgestellt wird, dass ein Zeitraum, in dem das Erfassen behindert wird, für eine vorbestimmte Zeit oder länger andauert, führt die Betriebssteuereinheit 150 einen Benachrichtigungsvorgang aus.
  • Ein Benachrichtigungsvorgang ist ein Vorgang, bei dem einem Eigentümer mitgeteilt wird, dass ein Benutzer oder ein Hindernis vorliegt und dass ein anderer Sensor als der Berührungssensor 400 keine normale Erfassung durchführen kann. Insbesondere führt die Betriebssteuereinheit 150 einen Benachrichtigungsvorgang aus, wie beispielsweise das Aufleuchten des Auges, das Ausstrahlen von Sprache, das Schütteln des Körpers oder den Versuch wegzulaufen. Es reicht aus, dass der Benachrichtigungsvorgang anfangs als „typischer Vorgang (Bewegung), wenn etwas festgestellt wurde“ eingestellt wird, der für den Roboter 100 typisch ist.
  • 8 ist eine vergrößerte Schnittansicht des Körpers 104.
  • Ein Berührungssensor 400b der zweiten Schicht ist zwischen dem Hauptkörperrahmen 310 und der Außenhaut 314 angeordnet. Der Berührungssensor 400b der zweiten Schicht ist entlang einer gewölbten Form des Hauptkörperrahmens 310 installiert, der aus Harz hergestellt ist. Die Außenhaut 314 besteht aus Urethangummi (einem elastischen Körper). Eine Abdeckhaut 406 aus Stoff ist an einer Oberfläche der Außenhaut 314 befestigt, und ein Berührungssensor 400a der ersten Schicht ist auch entlang einer gewölbten Form der Außenhaut 314 zwischen der Außenhaut 314 und der Abdeckhaut 406 installiert. Das heißt, zwei Berührungssensoren 400 bilden eine Doppelschicht. Die weiche Außenhaut 314 ist zudem so beschaffen, dass der Benutzer den Wunsch verspürt, sie zu berühren. Indem der Berührungssensor 400 in einem von der Außenhaut 314 bedeckten Abschnitt angeordnet ist, kann eine große Vielzahl von Kontakten von einem Benutzer effektiv erfasst werden.
  • Der erste Berührungssensor 400a kann auf der Abdeckhaut 406 installiert sein.
  • Wenn ein Benutzer die Abdeckhaut 406 berührt, erfasst der Berührungssensor 400a der ersten Schicht den Kontakt. Wenn ein Benutzer die Abdeckhaut 406 festdrückt, erfasst nicht nur der Berührungssensor 400a der ersten Schicht, sondern auch der Berührungssensor 400b der zweiten Schicht den Kontakt. Das heißt, die Kontaktstärke kann durch die zwei Berührungssensoren 400 bei unterschiedlichen Tiefen bestimmt werden. Im Allgemeinen ist ein elektrostatischer Kapazitätssensor derart, dass ein erfasster Wert umso größer wird, je kleiner der Abstand zwischen einem Objekt und dem Sensor ist. Wenn ein Benutzer den Körper 104 fest berührt, transformiert sich die Außenhaut 314, und der Abstand zwischen der Haut des Benutzers und dem Berührungssensor 400b der zweiten Schicht nimmt ab, weshalb sich der durch den Berührungssensor 400b der zweiten Schicht erfasste Wert ändert. Da sich die Außenhaut 314 erst dann transformiert, wenn eine bestimmte Kraft aufgebracht wird, kann durch den Berührungssensor 400b der zweiten Schicht, der sich in einem tiefen Abschnitt befindet, festgestellt werden, ob der Roboter 100 fest umarmt oder sanft umarmt wird.
  • Verschiedene Kontaktaspekte können durch eine Kombination aus Kontaktstelle, Kontaktstärke und Kontaktzeit klassifiziert werden. Wenn nur der Berührungssensor 400a der ersten Schicht einen Kontakt erfasst, erkennt die Erkennungseinheit 156 den Kontakt als eine „leichte Berührung“. Wenn der Berührungssensor 400a der ersten Schicht einen intermittierenden Kontakt erfasst, erkennt die Erkennungseinheit 156 den Kontakt als „gestoßen werden“. Wenn nicht nur der Berührungssensor 400a der ersten Schicht, sondern auch der Berührungssensor 400b der zweiten Schicht einen Kontakt kontinuierlich für eine bestimmte Zeit erfasst, erkennt die Erkennungseinheit 156 den Kontakt als eine „Massage“. Wenn der Berührungssensor 400a der ersten Schicht und der Berührungssensor 400b der zweiten Schicht gleichzeitig einen momentanen Kontakt erfassen, erkennt die Erkennungseinheit 156 den Kontakt als „geschlagen werden“. Die Erkennungseinheit 156 kann eine „gewalttätige Aktion“ in Kombination mit dem eingebauten Beschleunigungssensor erkennen.
  • Da der Berührungssensor 400 am gesamten Roboter 100 angeordnet ist, kann die Art der Kontaktierung umfassend aus einer Kombination von Kontaktstellen bestimmt werden. Wenn zum Beispiel ein Benutzer den Roboter 100 mit einer Hand auf beiden Seiten anhebt, wird ein Kontakt an beiden Seitenteilen des Rumpfs erfasst. Das Anheben kann auch vom eingebauten Beschleunigungssensor erkannt werden. Wenn ein Benutzer den Roboter 100 auf ein Knie setzt und beide Hände am Rumpf des Roboters 100 hat, wird ein Kontakt im unteren Abschnitt und im Rumpfabschnitt erfasst. Zu diesem Zeitpunkt ist der Kontakt auf dem Rumpfabschnitt normalerweise nicht stark. Gemäß diesem Kontaktaspekt kann ein Sitzen und auf einem Knie gehalten werden erkannt werden. Wenn der Roboter 100 von vorne fest umarmt wird, wird ein Kontakt über einen weiten Bereich erfasst, wie etwa den Brustkorb, den Bauch, den oberen Rücken und den Kopfabschnitt, und der Kontakt ist stark.
  • Identifikationsinformationen zum Identifizieren des Kontaktaspekts (im Folgenden als „Kontaktaspekt-ID“ bezeichnet) sind jedem Kontaktaspekt zugeordnet. Die Emotionsbewertungseinheit 250 identifiziert die Kontaktaspekt-ID basierend auf der Kombination der Kontaktstellen und der Kontaktstärke. Zum Beispiel kann die Emotionsbewertungseinheit 250 eine Tabelle enthalten, in der eine Kombination von Kontaktstellen und der Kontaktaspekt-ID im Voraus korreliert sind, und die Kontaktaspekt-ID durch Bezugnahme auf die Tabelle identifizieren. Außerdem kann ein Programmmodul zur Bestimmung für jeden Kontaktaspekt vorbereitet werden, und ein Kontaktaspekt kann von jedem Modul identifiziert werden, das einen vorbestimmten Bestimmungsprozess ausführt, der auf einem Signal von dem Berührungssensor 400 oder dem internen Sensor 128 beruht. Die Kontaktaspekt-ID ist mit Bewegungsdaten verbunden, die in der Bewegungsspeichereinheit 232 festgehalten sind. Die Betriebssteuereinheit 222 wählt die Bewegung aus, die der Kontaktaspekt-ID entspricht. Das heißt, indem eine Bewegung im Voraus mit jedem Aspekt eines physischen Kontakts in Bezug gebracht wird, kann die Betriebssteuereinheit 222 eine Bewegung auswählen, die angemessen auf eine Emotion eines Benutzers anspricht, der einen physischen Kontakt ausgeführt hat.
  • In einer anderen Form kann eine Konfiguration derart sein, dass Informationen, die eine Emotion des Roboters angeben, mit Bewegungsdaten in Bezug gebracht werden, die in der Bewegungsspeichereinheit 232 festgehalten sind, und die Betriebssteuereinheit 222 eine Bewegung gemäß einer Emotion des Roboters 100 auswählen kann. Das heißt, wenn die Emotion des Roboters 100 der „Wunsch verwöhnt zu werden“ ist, wird eine Bewegung ausgewählt, die der Emotion des Wunsches, verwöhnt zu werden, entspricht. Die Emotionsbewertungseinheit 250 enthält Informationen, die mit der Kontaktaspekt-ID in Bezug stehen und eine Emotion eines Benutzers anzeigen. Aus diesem Grund erkennt der Roboter 100 einen Aspekt eines physischen Kontakts, der von einem Benutzer empfangen wird, und kann die Emotion des Benutzers anhand dieses Aspekts bewerten. So können beispielsweise Informationen, die auf eine Emotion von „du bist niedlich“ hinweisen, mit dem Kontaktaspekt von „Streicheln des Kopfes“ in Bezug gebracht werden.
  • Die Betriebssteuereinheit 222 bewirkt, dass sich eine Emotion des Roboters 100 selbst gemäß einer von der Emotionsbewertungseinheit 250 bewerteten Emotion eines Benutzers ändert, und wählt eine Bewegung gemäß der Emotion des Roboters 100 aus. Die Betriebssteuereinheit 222 hält eine Emotion des Roboters 100 selbst in Bezug auf eine Emotion eines Benutzers fest, die mit der Emotion des Benutzers korreliert. Zum Beispiel wird die Emotion des „Wunsches, verwöhnt zu werden“ als Emotion des Roboters in Bezug auf die Emotion eines Benutzers von „du bist niedlich“ korreliert. Aus diesem Grund kann die Betriebssteuereinheit 222 eine Emotion des Roboters 100 selbst gemäß einer Emotion eines Benutzers bestimmen. Des Weiteren ruft die Betriebs-steuereinheit 222 Bewegungsdaten entsprechend der Emotion des Roboters 100 selbst aus der Bewegungsspeichereinheit 232 ab und führt eine Bewegung aus.
  • Zum Beispiel wählt die Betriebssteuereinheit 222 Bewegungsdaten aus, die mit der Emotion „verwöhnt werden wollen“ korreliert sind. Eine Vielzahl von Emotionen kann als Emotionen des Roboters 100 in Bezug auf eine Emotion eines Benutzers korreliert werden, und eine Emotion wird entsprechend der Vertrautheit mit dem Benutzer oder dergleichen ausgewählt.
  • Indem der Berührungssensor 400 praktisch über den gesamten Roboter 100 bereitgestellt wird, kann bestimmt werden, wie der Roboter 100 von einem Benutzer berührt wird, und der aktuelle Kontaktaspekt kann aus einer Vielzahl von Kontaktaspekten identifiziert werden. Obwohl ein physischer Kontakt verschiedene Aspekte hat, ist bekannt, dass jeder Kontaktaspekt eine psychologische Bedeutung hat. Das bedeutet, dass, sofern der Kontaktaspekt bekannt ist, eine Emotion eines Benutzers in Bezug auf den Roboter 100 bewertet werden kann. Da zudem der Roboter 100 so arbeitet, dass er auf die bewertete Emotion des Benutzers angemessen reagiert, hat der Benutzer ein Vergnügen und hat eine Emotion, die der gegenüber einem lebenden Haustier entspricht.
  • Außerdem bestimmt die Emotionsbewertungseinheit 250 einen Grad des Zuneigungsausdrucks in Übereinstimmung mit einem Kontaktaspekt. Eine Datentabelle, in der ein Kontaktaspekt und ein eine Basis bildender Grad des Zuneigungsausdrucks korreliert sind, wobei ein Grad des Zuneigungsausdrucks einer einfachen Berührung „+1“ und ein Grad des Zuneigungsausdrucks einer Umarmung „+10“, ist. Die Emotionsbewertungseinheit 250 identifiziert den Grad des Zuneigungsausdrucks auf der Grundlage der Datentabelle. Wenn eine leichte Berührung fortgesetzt wird, wird der Grad des Zuneigungsausdrucks erhöht, aber wenn die Berührung zu hartnäckig fortgesetzt wird, kann der Grad des Zuneigungsausdrucks reduziert werden.
  • Der Grad des Zuneigungsausdrucks ändert sich auch in Abhängigkeit von der Kontaktstärke. Der Grad des Zuneigungsausdrucks einer Berührung ist „+1“, aber verdoppelt sich auf „+2“, wenn die Berührung stark ist. Wenn eine Berührung besonders stark ist, wird sie als „Schlag“ betrachtet. Zu diesem Zeitpunkt wird „10“ abgezogen, und der Grad des Zuneigungsausdrucks wird als „-9 (= 1 - 10)“ identifiziert. Das Gleiche gilt für eine Umarmung, wobei der Grad des Zuneigungsausdrucks einer normalen Umarmung „+10“ ist, aber der Grad des Zuneigungsausdrucks bei fester Umarmung doppelt so hoch ist wie bei „+20“. Der Grad des Zuneigungsausdrucks bei einer Umarmung, die stark genug ist, um zu erdrosseln, ist dreimal so hoch wie bei einer normalen Umarmung, die Vertrautheit nimmt jedoch ab, da die Umarmung unangenehm ist. Ein hoher Grad des Zuneigungsausdrucks ist nicht zwingenderweise für den Roboter 100 angenehm, oder anders ausgedrückt, ist nicht unbedingt ein Auslöser für eine zunehmende Vertrautheit.
  • Da eine Reaktion nicht auf einem einzelnen Grad des Zuneigungsausdrucks basierend beschränkt ist, werden verschiedene Bewegungen in einer Bewegungsauswahltabelle in Übereinstimmung mit einem Änderungsbetrag in einem akkumulierten Wert von Graden des Zuneigungsausdrucks in einer vorbestimmten Periode oder einem akkumulierten Wert pro Einheit korreliert. Die Betriebssteuerstabelle 150 bezieht sich auf die Bewegungsauswahltabelle und wählt eine Bewegung in Übereinstimmung mit einem Grad der Zuneigung aus.
  • Wenn eine angenehme Aktion erfasst wird, erhöht die Vertrautheitsverwaltungseinheit 220 die Vertrautheit mit dem Benutzer. Wenn eine unangenehme Aktion erfasst wird, verringert die Vertrautheitsverwaltungseinheit 220 die Vertrautheit in Bezug auf den Benutzer. Auch wenn eine unangenehme Aktion fortgesetzt wird und wenn eine unangenehme Aktion, beispielsweise Gewalt, erkannt wird, gibt die Betriebssteuereinheit 150 eine Anweisung für eine Aktion aus, sich vom Benutzer zu entfernen. Grundsätzlich beeinflussen „angenehm und unangenehm“ Verhaltensweisen bezüglich der Vertrautheit.
  • Des Weiteren kann die Emotionsbewertungseinheit 250 eine Emotion in Kombination mit einer Ausdruckerkennung durch die Ausdruckerkennungseinheit 230 bestimmen. Wenn ein verärgertes Gesicht und ein lachendes Gesicht erkannt werden kann, kann ein Ausdruck eines Benutzers genauer bestimmt werden. Selbst wenn ein aufgrund eines Kontaktaspekts identifizierter Grad der Zuneigung „+1“ ist, kann dem Grad des Zuneigungsausdrucks „-3“ hinzugefügt werden, wenn der Ausdruck des Benutzers ein verärgerter Ausdruck ist und der Grad des Zuneigungsausdrucks als „-“ festgelegt ist. Selbst wenn ein aufgrund eines Kontaktaspekts identifizierter Grad der Zuneigung „+1“ ist, kann dem Grad des Zuneigungsausdrucks „-3“ hinzugefügt werden, wenn der Ausdruck des Benutzers ein verärgerter Ausdruck ist und der Grad des Zuneigungsausdrucks als „-2“ festgelegt ist. In der gleichen Weise kann selbst dann, wenn ein Grad des Zuneigungsausdrucks beim Treten eines Benutzers „-50“ ist, bestimmt werden, dass der Tritt unvermeidlich war und nicht absichtlich, wenn der Benutzer einen bestürzten Ausdruck anzeigt, und der Grad des Zuneigungsausdrucks kann auf „-20“ korrigiert werden, indem „+30“ zum Grad des Zuneigungsausdrucks hinzugefügt wird.
  • Wenn ein Grad des Zuneigungsausdrucks hoch ist, oder wenn ein akkumulierter Wert eines Grades des Zuneigungsausdrucks ansteigt, wählt der Roboter 100 eine Bewegung des Herumschwirrens in der Nähe eines Besitzers aus, um eine Umarmung oder dergleichen zu erbitten. Wenn ein Grad des Zuneigungsausdrucks niedrig ist, kann der Roboter 100 ruhig an einem Ort sitzen, der ein wenig von einem Besitzer entfernt ist. Wenn sich die Verhaltenseigenschaften des Roboters 100 gemäß einer Emotion eines Besitzers ändern, kann der Besitzer erkennen, dass der Roboter 100 sich auf seine eigene Weise an den Besitzer anpassen mag.
  • Wenn ein Grad des Zuneigungsausdrucks hoch ist, kann der Roboter 100 energisch wirken, indem eine Bewegung ausgeführt wird, die beschleunigt wird, und wenn ein Grad des Zuneigungsausdrucks niedrig ist, kann die Geschwindigkeit der Ausführung einer Bewegung eingeschränkt sein. Das Intervall kann ebenfalls angepasst werden. Eine Bewegung kann veranlasst werden, sich durch einen Teil der Einheitenbewegung zu ändern, wobei die Bewegung konfiguriert wird, die ersetzt wird, oder gemäß dem Grad des Zuneigungsausdrucks ausgelassen wird.
  • Auf diese Weise wird durch den Tastsensor 400 ermittelt, welche Art von Körperkontakt (Kontaktaspekt) durchgeführt wird, und der Grad des Zuneigungsausdrucks wird entsprechend dem Kontaktaspekt berechnet. Ein starker Kontakt bedeutet eine starke Zuneigung, aber ein zu starker Kontakt kann nicht als Zuneigung bezeichnet werden. Da physischer Kontakt als Ausdruck einer natürlichen Emotion eines Menschen ausgeführt wird, ist physischer Kontakt eine leistungsstarke Informationsquelle, wenn eine Emotion eines Besitzers bewertet wird. Verschiedene Einstellmethoden, z. B. Streicheln des Kopfes mit einem Grad des Zuneigungsausdrucks von „+3“, ein festes Umarmen, oder insbesondere eine Kontaktaktion mit einem breiten Bereich des unteren Rückenteils, der einen Grad des Zuneigungsausdrucks von „+20“ aufweist, und eine Aktion des festen Umarmens und der Annäherung einer Wange, oder insbesondere ist zu den bisher beschriebenen Beispielen eine Aktion des Kontakts nicht nur mit einem breiten Bereich des unteren Rückenteils, sondern auch dem Brustabschnitt und dem Kopfabschnitt mit einem Grad des Zuneigungsausdrucks von „+50“ zusätzlich denkbar.
  • Zusammenfassend werden Vertrautheit und ein Grad des Zuneigungsausdrucks entsprechend einer Reaktion identifiziert. Die Vertrautheit ist ein Parameter, der eine angenehme Aktion und eine unangenehme Aktion oder mit anderen Worten einen Grad an Annehmlichkeit für den Roboter 100 widerspiegelt. Der Roboter 100 erhöht die Vertrautheit mit einem Besitzer, der eine angenehme Aktion ausführt, und verringert die Vertrautheit mit einem Besitzer, der eine unangenehme Aktion ausführt. Mit der Zeit wirkt sich ein Unterschied in der Vertrautheit auf die Verhaltenseigenschaften des Roboters 100 aus. Unterdessen bewertet ein Grad des Zuneigungsausdrucks eine Emotion eines Besitzers aus einer Reaktion, insbesondere einer Kontaktaktion, in Bezug auf den Roboter 100. Die Betriebssteuereinheit 150 wählt verschiedene Bewegungen in Übereinstimmung mit dem Grad des Zuneigungsausdrucks aus. Normalerweise ist es oft so, dass eine Kontaktaktion mit einem hohen Grad des Zuneigungsausdrucks eine angenehme Aktion ist.
  • Das „Berühren“ einer Person, der so genannte körperliche Kontakt, ist dergestalt, dass ein Gefühl der Berührung der betroffenen Person leicht zum Ausdruck gebracht wird. Es heißt, dass das Empfinden, dass ein Untergeordneter niedlich ist, sich im Streicheln des Kopfes ausdrückt. Es heißt, dass die Berührung einer Wange die Geisteshaltung ausdrückt einem Gefährten näher zu sein. Zum Beispiel kann der Roboter 100 eine Bewegung zur Ausführung einer Geste wählen, um von einem Besitzer gehätschelt zu werden, wenn der Kopf gestreichelt wird. Wird eine Wange berührt, kann der Roboter 100 eine Bewegung auswählen, um den Körper in Kontakt mit dem Besitzer zu bringen und eine Geste ausführen, die um eine Umarmung bittet.
  • 9 ist ein Flussdiagramm, das einen Prozess zeigt, wenn ein Kontakt erfasst wird.
  • Wenn keine Person in der Peripherie des Roboters 100 bestätigt werden kann (N von S10), oder anders ausgedrückt, wenn keine Person von der Kamera 402 gefilmt werden und wenn keine sich bewegende Wärmequelle von dem Thermosensor 404 erfasst werden kann, beschränkt die Empfindlichkeitssteuereinheit 174 die Empfindlichkeit des Berührungssensors 400 (S22). Die Einschränkung der Empfindlichkeit wird durch einen Abfall der Erfassungsspannung erreicht. Da eine Kontakterfassung durch den Berührungssensor 400 nicht erforderlich ist, wenn niemand anwesend ist, trägt das Einschränken der Empfindlichkeit des Berührungssensors 400 dazu bei, Energie zu sparen. Das Einschränken der Empfindlichkeit an diesem Punkt kann bedeuten, dass der Berührungssensor 400 ausgeschaltet (deaktiviert) wird.
  • Wenn eine Person erfasst wird (Y von S10), stellt die Empfindlichkeitssteuereinheit 174 die Empfindlichkeit des Berührungssensors 400 auf eine normale Empfindlichkeit (nachstehend als „Grundempfindlichkeit“ bezeichnet) ein (S12). Wenn mit dem Berührungssensor 400 kein Kontakt erfasst wird (N von S14), wird ein nachfolgender Prozess übersprungen.
  • Wenn ein Kontakt erfasst wird (Y von S14), identifiziert die Erkennungseinheit 156 einen Kontaktaspekt (Kontaktort, Kontaktstärke und Kontaktzeit), und die Emotionsbewertungseinheit 250 identifiziert einen Grad des Zuneigungsausdrucks (S16). Die Reaktionserkennungseinheit 228 bestimmt, ob eine Reaktion angenehm oder unangenehm ist, und die Vertrautheitsverwaltungseinheit 220 aktualisiert die Vertrautheit gemäß einem Bestimmungsergebnis (S18). Die Betriebssteuereinheit 222 wählt auch eine aus einer Vielzahl von Bewegungen als Antwort auf die Kontaktaktion aus (S20). Wenn zum Beispiel eine Wange berührt wird, kann die Betriebssteuereinheit 222 eine Bewegung zum auf der Stelle sitzen und den Arm 106 anheben ausführen.
  • Es ist anzunehmen, dass, wenn der Roboter 100 die Kleidung 180 trägt, die Erfassungsempfindlichkeit des Berührungssensors 400 aufgrund der Kleidung 180 abnimmt. Wenn die Bekleidungserfassungseinheit 172 ein Tragen der Kleidung 180 erfasst, kann die Empfindlichkeitssteuereinheit 174 die Empfindlichkeit des Berührungssensors 400 bis zur oder über die Grundempfindlichkeit hinaus erhöhen. Die Empfindlichkeit des Berührungssensors 400 kann gemäß einer Art oder Anzahl von Schichten der Kleidung 180 eingestellt werden. Der Server 200 oder der Roboter 100 können eine Datentabelle aufweisen, in der die Bekleidungs-ID und eine bevorzugte Empfindlichkeit des Berührungssensors 400 vorab in Bezug gebracht sind.
  • Bisher wurden der Roboter 100 und das Robotersystem 300 einschließlich des Roboters 100 basierend auf einer Ausführungsform beschrieben.
  • Eine Aktionsauswahl wird ausgedrückt, die nicht mit einer oder mehreren Aktionskarten strukturiert werden kann, schwer vorherzusagen und tierähnlich ist.
  • Eine Berührung ist ein primitives und grundlegendes Kommunikationsmittel. In dem Roboter 100 entspricht der Hauptkörperrahmen 310 Knochen, die Außenhaut 314 Fleisch und die Abdeckhaut 406 Haut, und der Berührungssensor 400 entspricht einem Nerv. Wie in 1 gezeigt ist, deckt der Berührungssensor 400 einen weiten Bereich des Körpers 104 des Roboters 100 ab. Aus diesem Grund kann der Roboter 100 einen Kontakt an verschiedenen Stellen erkennen. Die Kontaktstärke kann auch durch zwei Schichten erkannt werden, wobei es sich um den Berührungssensor 400a der ersten Schicht und den Berührungssensor 400b der zweiten Schicht handelt. Da der Berührungssensor 400 mit einer Kunststofffolie als Basis ausgebildet ist, kann der Berührungssensor 400 entlang des gewölbten Körpers 104 befestigt werden.
  • Der Roboter 100 ist abgerundet und weich und hat ein geeignetes Gewicht. Der Roboter 100 enthält auch eine Wärmequelle wie die Batterie 118, aufgrund derer die Wärme auf den Körper 104 des Roboters 100 übertragen wird. Infolgedessen verspürt ein Benutzer den Wunsch, den Roboter 100 zu berühren oder zu umarmen. Da der Berührungssensor 400 entlang des abgerundeten und weichen Körpers 104 installiert wird, kann der Roboter 100 eine Vielzahl von Kontaktaktionen erkennen.
  • Bei einem sanften Kontakt nimmt die Vertrautheit zu, wobei sich auch die Verhaltensmerkmale des Roboters 100 ändern. Bei grobem Kontakt nimmt die Vertrautheit hingegen ab. Ein Grad des Zuneigungsausdrucks (ein geschätzter Wert der Stärke der Zuneigung eines Begleiters) wird gemäß der Kontaktweise identifiziert, und der Roboter 100 wählt entsprechend dem Grad des Zuneigungsausdrucks verschiedene Bewegungen. Der Roboter 100 hat nicht nur den Körper 104, den ein Benutzer zu berühren wünscht, sondern es gibt auch eine Anordnung, bei der die Empathie durch Berührung zunimmt, wodurch der Austausch zwischen einem Benutzer und dem Roboter 100 leicht weiter gefördert wird.
  • Die Erfindung ist nicht auf die zuvor beschriebene Ausführungsform oder ein modifiziertes Beispiel beschränkt, sondern es können Komponenten geändert oder ausgeführt werden, ohne vom Schutzumfang der Erfindung abzuweichen. Verschiedene Erfindungen können durch ein Vielfaches der Komponenten gebildet werden, die in der zuvor beschriebenen Ausführungsform offenbart sind, oder das modifizierte Beispiel kann in geeigneter Weise kombiniert werden. Einige Komponenten können auch aus der Gesamtheit der Komponenten entfernt werden, die in der zuvor beschriebenen Ausführungsform oder dem modifizierten Beispiel gezeigt sind.
  • Obwohl eine Beschreibung unter der Annahme gegeben wurde, dass das Robotersystem 300 aus einem Roboter 100, einem Server 200 und der Vielzahl der externen Sensoren 114 konfiguriert ist, kann ein Teil der Funktionen des Roboters 100 durch den Server 200 realisiert werden und ein Teil oder alle Funktionen des Servers 200 können dem Roboter 100 zugeordnet sein. Ein Server 200 kann ein Vielfaches des Roboters 100 steuern, oder ein Vielfaches des Servers 200 kann einen oder mehrere des Roboters 100 in Zusammenarbeit steuern.
  • Eine dritte Vorrichtung mit Ausnahme des Roboters 100 und des Servers 200 kann einen Teil der Funktionen verwalten. Eine Sammlung der Funktionen des Roboters 100 und der Funktionen des Servers 200, die in 7 beschrieben sind, kann auch umfassend als ein „Roboter“ verstanden werden. Es ist ausreichend, dass ein Verfahren zum Verteilen der Vielzahl von Funktionen, die zum Verwirklichen der Erfindung in Bezug auf ein oder mehrere Hardwarekomponenten erforderlich sind, unter Berücksichtigung der Verarbeitungsfähigkeit jedes Hardwareelements, der Spezifikationen, die für das Robotersystem 300 und dergleichen erforderlich sind, bestimmt wird.
  • Wie zuvor beschrieben, ist „der Roboter im engeren Sinn“ der Roboter 100 mit Ausnahme des Servers 200, aber „der Roboter im weiteren Sinne“ ist das Robotersystem 300. Es wird angenommen, dass es eine Möglichkeit gibt, dass zukünftig viele Funktionen des Servers 200 in den Roboter 100 integriert werden.
  • In dieser Ausführungsform sind sowohl der Berührungssensor 400a der ersten Schicht als auch der Berührungssensor 400b der zweiten Schicht durch die Abdeckhaut 406 und dergleichen nach außen verborgen. Aus diesem Grund ist einem Benutzer die Existenz des Berührungssensors 400 nicht bewusst. Der Berührungssensor 400a der ersten Schicht kann auf der Abdeckhaut 406 installiert sein. In diesem Fall ist der Berührungssensor 400a der ersten Schicht von außen sichtbar, jedoch besteht ein Vorteil darin, dass die Erfassungsempfindlichkeit ansteigt.
  • Es kann drei oder mehr Schichten des Berührungssensors 400 geben, und es kann eine Schicht geben. Im Falle von nur einer Schicht kann dies der Berührungssensor 400b der zweiten Schicht sein oder nur der Berührungssensor 400a der ersten Schicht. Der Berührungssensor 400 kann auch als Zwischenschicht der Außenhaut 314 installiert sein.
  • Neben einem elektrostatischen Kapazitätssensor als Sensor zur Kontakterkennung ist auch ein Verfahren denkbar, bei dem die Abdeckhaut 406 aus einem piezoelektrischen Gewebe gebildet wird. Wenn eine Polymilchsäurefaser als piezoelektrisches Körpergewebe und eine Kohlenstofffaser als Elektrode verwendet wird, erfasst das piezoelektrische Gewebe eine durch die Polymilchsäurefaser erzeugte Ladung. Darüber hinaus kann eine Vielzahl von Kontakten durch Kombinieren eines Thermoelements, eines Drucksensors, eines Dehnungsmessers und dergleichen erfasst werden.
  • Die Empfindlichkeit des Berührungssensors 400, bei dem es sich um einen elektrostatischen Kapazitätssensor oder dergleichen handelt, kann sich je nach Installationsort unterscheiden. Zum Beispiel kann die Empfindlichkeit des im Bauchbereich installierten Berührungssensors 400 gering sein, und die Empfindlichkeit des in dem Gesäß oder dem Arm eingebauten Berührungssensors 400 kann hoch eingestellt werden. Die Empfindlichkeit kann in Übereinstimmung mit einer Größe der Erfassungs-spannung eingestellt werden, oder die Empfindlichkeit kann geändert werden, indem bewirkt wird, dass sich eine Dichte der Elektrodendrähte in dem elektrostatischen Kapazitätssensor unterscheidet. Durch Ändern der Empfindlichkeit in Übereinstimmung mit der Stelle kann ein für den Roboter 100 spezifisches Hautgefühl verwirklicht werden, zum Beispiel, dass der Bauch unempfindlich und das Gesäß empfindlich ist. Auch das Verringern der Empfindlichkeit des Berührungssensors 400 in einem Stellenbereich, statt, dass der gesamte Berührungssensor 400 eine hohe Empfindlichkeit aufweist, trägt auch zur Energieeinsparung bei.
  • Eine Berührungsfrequenz des Roboters 100 kann die Verhaltensmerkmale des Roboters 100 beeinflussen. Zum Beispiel kann der Roboter 100, dessen Gesäß in einer vorbestimmten Zeitspanne nach der Herstellung häufig berührt wird, das Berühren des Gesäßes als eine angenehme Aktion oder einen Ausdruck der Zuneigung selbst nach Ablauf der vorbestimmten Zeitdauer erkennen. Indes kann der Roboter 100, dessen Gesäß in der vorbestimmten Zeitspanne selten berührt wird, das Berühren des Gesäßes als unangenehme Aktion oder als Beleidigung (eine Aktion mit niedrigem Grad des Zu-neigungsausdrucks) nach Ablauf der vorbestimmten Zeitspanne erkennen. Auf diese Weise kann ein Verfahren zum Bestimmen von „angenehm oder unangenehm“ gemäß einem Kontaktaspekt geändert werden. Das heißt, der Roboter 100, dessen „Erziehung“ sich gemäß einem Kontaktaspekt im Kindesalter ändert, kann realisiert werden.
  • Zusätzlich zur Kontaktstelle, Kontaktstärke und Kontaktzeit kann die Annehmlichkeit in Abhängigkeit von der Kontaktfrequenz oder einem Zeitbereich, in dem der Kontakt ausgeführt wird, bestimmt werden. Obwohl zum Beispiel das Berühren einer Wange eine angenehme Aktion ist, kann sich dies teilweise ändern, bis sie als unangenehme Aktion erkannt wird, wenn die Wange mit hoher Frequenz berührt wird. Berührungen während des Ladevorgangs können ebenfalls als unangenehme Aktion erkannt werden.
  • Annehmlichkeit in dieser Ausführungsform hat zwei Werte, jene sind „angenehm“ und „unangenehm“, aber es können drei oder mehr Werte sein. Beispielsweise kann die Annehmlichkeit in fünf Stufen eingeteilt werden, wobei diese „extrem angenehm“, „ziemlich angenehm“, „durchschnittlich“, „ziemlich unangenehm“ und „extrem unangenehm“ sind. Annehmlichkeit kann als kontinuierlicher Wert angegeben werden. Wenn der Bauch beispielsweise 2 Punkte beträgt, beträgt die starke Berührung -4 Punkte, und die Kontaktzeit von 3 Sekunden oder mehr beträgt das 1,5-fache, so dass in einem Fall, in dem der Bauch für 3 Sekunden oder mehr stark berührt wird, die Annehmlichkeit als -3 Punkte berechnet wird, d. h. (2 - 4) × 1,5 = -3.
  • Die Vertrautheitsverwaltungseinheit 220 aktualisiert Vertrautheit gemäß der Annehmlichkeit. Auch eine Bewegung, die dem entspricht, wenn die Annehmlichkeit einen vorbestimmten Wert oder mehr oder einen vorbestimmten Wert oder weniger erreicht, kann im Voraus korreliert werden.
  • Bewegung des in den Armen Hochhebens
  • 10 ist ein Funktionsblockdiagramm des Robotersystems 300 in einem ersten Arbeitsbeispiel.
  • In dem Robotersystem 300 des ersten Arbeitsbeispiels umfasst die Datenverarbeitungseinheit 202 des Servers 200 eine Zustandsverwaltungseinheit 224 zusätzlich zu der Positionsverwaltungseinheit 208, der Kartenverwaltungseinheit 210, der Erkennungseinheit 212 und der Betriebssteuereinheit 222 und der Vertrautheitsverwaltungs-einheit 220. Die Zustandsverwaltungseinheit 224 verwaltet verschiedene Arten von internen Parametern, die verschiedene Arten eines physischen Zustands angeben, wie beispielsweise eine Laderate, eine Innentemperatur und eine Verarbeitungslast des Prozessors 122. Die Zustandsverwaltungseinheit 224 umfasst eine Emotionsverwaltungseinheit 234.
  • Die Emotionsverwaltungseinheit 234 verwaltet verschiedene Emotionsparameter, die eine Emotion (Einsamkeit, Neugier, Wunsch nach Anerkennung und dergleichen) des Roboters 100 angeben. Diese Emotionsparameter schwanken ständig. Die Wichtigkeit einer Vielzahl von Aktionskarten ändert sich gemäß einem Emotionsparameter, ein Bewegungszielpunkt des Roboters 100 ändert sich gemäß den Aktionskarten und der Emotionsparameter ändert sich gemäß einer Bewegung des Roboters 100 und dem Verstreichen der Zeit.
  • Wenn beispielsweise ein Emotionsparameter, der Einsamkeit anzeigt, hoch ist, setzt die Emotionsverwaltungseinheit 234 einen Gewichtungskoeffizienten einer Aktionskarte, die einen Ort auswertet, an dem sich der Roboter 100 wohl fühlt, als hoch an. Wenn der Roboter 100 einen Punkt auf der Aktionskarte erreicht, an dem Einsamkeit beseitigt werden kann, reduziert die Emotionsverwaltungseinheit 234 den Emotionsparameter, der Einsamkeit anzeigt. Auch ändern sich die verschiedenen Arten von Emotionsparametern entsprechend einer Reaktion. Beispielsweise verringert sich der Emotionsparameter, der die Einsamkeit anzeigt, wenn der Roboter 100 von einem Besitzer „umarmt“ wird, und der Emotionsparameter, der die Einsamkeit anzeigt, nimmt allmählich zu, wenn der Roboter 100 einen Besitzer lange Zeit nicht visuell erkennt.
  • Der Roboter 100 umfasst eine Sprachausgabeeinheit 134. Die Sprachausgabeeinheit 134 gibt Sprache aus. In dieser Ausführungsform kann der Roboter 100 unter Verwendung der Sprachausgabeeinheit 134 wortlose Sprache wie einen Schrei eines Tieres ausgeben, wie etwa ein Gähnen, ein Kreischen oder ein Schnurren.
  • Der interne Sensor 128 des Roboters 100 umfasst zusätzlich zu dem Berührungssensor 400, der Kamera 402 und dem Thermosensor 404 einen Beschleunigungssensor 138, einen Gyrosensor 140 und einen internen Temperatursensor 144. Die Erkennungseinheit 156 erkennt unter Verwendung des Beschleunigungssensors 138 ein Anheben in den Armen, ein Absetzen während des Tragens und ein Fallen des Roboters 100. Die Erkennungseinheit 156 bestimmt eine Stellung des Roboters 100 unter Verwendung des Gyrosensors 140. Der interne Temperatursensor 144 erfasst die Innentemperatur des Roboters 100.
  • Die Datenverarbeitungseinheit 136 des Roboters 100 umfasst eine Pupillensteuereinheit 152 und eine Sprachsteuereinheit 154 zusätzlich zu der Erkennungseinheit 156, der Betriebssteuereinheit 150, der Bekleidungserfassungseinheit 172 und der Empfindlichkeitssteuereinheit 174. Die Sprachsteuereinheit 154 wählt aus einer Vielzahl von Sprachmustern auszugebende Sprache aus der Sprachausgabeeinheit 134 aus. Die Pupillensteuereinheit 152 erzeugt ein Augenbild (wird nachfolgend beschrieben) und bewirkt, dass das Augenbild auf dem Auge 110 angezeigt wird.
  • In dem ersten Arbeitsbeispiel wählt die Betriebssteuereinheit 150 des Roboters 100 eine Bewegung entsprechend einer (nachstehend zu beschreibenden) Art des Anhebens in den Armen (Umarmung) aus. Eine Aktivierungsbedingung, die einen Auslöser für die Bewegungsausführung bildet, und eine Zustandsbedingung, die eine Situation angibt, wenn die Aktivierungsbedingung erfüllt ist, werden im Voraus definiert, und verschiedene Bewegungsarten werden als auf die Aktivierungsbedingung und die Statusbedingung basierend ausgewähltes reagierendes Verhalten ausgeführt. Die Aktivierungsbedingung kann zum Beispiel ein Ereignis sein, wie z. B. ein Streicheln oder ein Sprechen eines Besitzers, oder es kann ein internes Phänomen sein, beispielsweise wenn ein Wert des Emotionsparameters, der Einsamkeit anzeigt, einen Schwellenwert überschreitet. Im ersten Arbeitsbeispiel werden verschiedene Arten von Aktivierungsbedingungen durch Umarmung und durch die Art der Umarmung erfüllt. Es genügt, dass die Zustandsbedingung eine Bedingung ist, die auf eine interne oder externe Situation hinweist, wenn die Aktivierungsbedingung erfüllt ist, z. B. von einem Eigentümer genau beobachtet zu werden, wenn mehrere Benutzer in der Peripherie sind oder eine Raumtemperatur eine vorbestimmte Temperatur oder höher ist.
  • Die Betriebssteuereinheit 150 kann eine Bewegung basierend auf einer Aktivierungsbedingung und einer Zustandsbedingung identifizieren oder kann eine Bewegung aus einer Vielzahl von Bewegungen basierend auf einer Auswahlwahrscheinlichkeit auswählen. Es wird zum Beispiel angenommen, dass 10 %, 20 % und 15 % als Auswahlwahrscheinlichkeiten der Bewegungen M1 bis M3 für eine Aktivierungsbedingung E1 bzw. eine Zustandsbedingung S1 gesetzt sind. In diesem Fall sind die Bewegungen M1 bis M3 Auswahlkandidaten, wenn die Aktivierungsbedingung E1 und die Zustands-bedingung S1 erfüllt sind, es besteht jedoch auch eine 55%ige Wahrscheinlichkeit, dass nichts ausgeführt wird.
  • 11 ist eine Außenansicht des Augenbildes 176.
  • Das Auge 110 des Roboters 100 ist als eine Anzeige ausgebildet, auf der das Augenbild 176 angezeigt wird. Die Pupillensteuereinheit 152 erzeugt das Augenbild 176, um ein Pupillenbild 178 und ein Umgebungsbild 168 zu enthalten. Die Pupillensteuer-einheit 152 zeigt auch das Augenbild 176 als ein Bewegungsbild an. Insbesondere stellt die Pupillensteuereinheit 152 eine Sichtlinie des Roboters 100 dar, indem das Pupillenbild 178 bewegt wird. Auch wird ein Blinkvorgang zu einem vorbestimmten Zeitpunkt ausgeführt. Die Pupillensteuereinheit 152 repräsentiert eine große Vielfalt von Bewegungen des Augenbildes 176 in Übereinstimmung mit verschiedenen Betriebsmustern. Ein Monitor des Auges 110 hat wünschenswerterweise eine gewölbte Form wie ein menschlicher Augapfel.
  • Das Pupillenbild 178 umfasst einen Pupillenbereich 258 und einen Hornhautbereich 163. In dem Pupillenbild 178 wird auch ein Augenlicht 170 zum Ausdrücken einer Reflexion von externem Licht angezeigt. Anstatt aufgrund einer Reflexion von externem Licht zu leuchten, ist das Augenlicht 170 des Augenbildes 176 ein Bildbereich, der durch die Pupillensteuereinheit 152 als ein Bereich hoher Leuchtdichte ausgedrückt wird.
  • Die Pupillensteuereinheit 152 kann das Pupillenbild 178 auf dem Monitor vertikal und horizontal bewegen. Wenn die Erkennungseinheit 156 des Roboters 100 ein sich bewegendes Objekt erkennt, drückt die Pupillensteuereinheit 152 einen „Blick“ des Roboters 100 aus, indem das Pupillenbild 178 auf das sich bewegende Objekt ausgerichtet wird.
  • Die Pupillensteuereinheit 152 bewegt nicht nur das Pupillenbild 178 relativ zu dem Umgebungsbild 168, sondern kann auch ein halbgeschlossenes Auge oder ein geschlossenes Auge darstellen, indem bewirkt wird, dass ein Augenlidbild angezeigt wird. Die Pupillensteuereinheit 152 kann einen Aspekt des Roboters 100 darstellen, der unter Verwendung einer Anzeige geschlossener Augen schläft, oder kann einen Aspekt des Roboters 100 darstellen, der sich in einem Halbschlafzustand befindet, d. h. einem Zustand des Einnickens in den Schlaf, indem drei Viertel des Augenbildes 176 mit dem Augenlidbild bedeckt werden, und dann das Augenlidbild geschüttelt wird.
  • 12 ist eine erste konzeptionelle Ansicht, wenn der Roboter 100 umarmt wird.
  • Der Roboter 100 hat den Körper 104, der abgerundet, weich und angenehm anzufassen ist und ein geeignetes Gewicht aufweist, und erkennt eine Berührung als eine angenehme Aktion, aufgrund derer ein Benutzer leicht ein Gefühl verspüren kann, den Roboter 100 umarmen zu wollen.
  • In 12 stehen sich der Roboter 100 und ein Besitzer gegenüber. Der Roboter 100 wird auch in vertikaler Richtung umarmt. Im Folgenden wird diese Art Umarmung als „gegenüberstehende vertikale Umarmung“ bezeichnet. Der Roboter 100, der seitlich geneigt und umarmt wird, wird als „horizontale Umarmung“ bezeichnet. Die Erkennungseinheit 156 unterscheidet eine Orientierung (Haltung) einer Umarmung unter Verwendung des Gyrosensors 140. Die Erkennungseinheit 156 kann eine Haltung von einer Orientierung eines von der Kamera 402 aufgenommenen Bildes unterscheiden oder kann eine Haltung auf der Grundlage von Kontaktaspekten in jedem Bereich der Oberfläche des Roboters 100, die von dem Berührungssensor 400 erfasst werden, unterscheiden. Natürlich kann eine Haltung des Roboters 100 durch Kombinieren von Erfassungsergebnissen durch diese Erfassungsmittel unterschieden werden.
  • 13 ist eine zweite konzeptionelle Ansicht, wenn der Roboter 100 umarmt wird.
  • In 13 umarmt ein Besitzer den Roboter 100 von hinten. Der Roboter 100 wird in vertikaler Richtung umarmt. Im Folgenden wird diese Art Umarmung als eine „rückwärtige vertikale Umarmung“ bezeichnet. Die Erkennungseinheit 156 unterscheidet eine Art der Umarmung unter Verwendung eines neuronalen Netzwerks, wobei verschiedene Arten von Erfassungsinformationen von dem Gyrosensor 140, der Kamera 402, dem Thermosensor 404 und dem Berührungssensor 400 als Eingangsinformationen verwendet werden. Beispielsweise unterscheidet die Erkennungseinheit 156 zwischen einer vertikalen Umarmung und einer horizontalen Umarmung unter Verwendung des Gyro-sensors 140 und kann unterscheiden, dass eine Umarmung keine hintere vertikale Umarmung ist, wenn ein Gesicht, ein Brustbereich oder dergleichen eines Besitzers im Nahbereich vor dem Roboter 100 in Erscheinung tritt. Darüber hinaus können verschiedene Kategorien von Umarmungen definiert werden, beispielsweise eine Umarmung, bei der der Roboter 100 auf eine Schulter angehoben und umarmt wird, oder eine Umarmung, bei der ein liegender Besitzer den Roboter 100 auf einen Bauchabschnitt legt und den Roboter 100 fest umarmt. Horizontale Umarmungen können auch in eine „nach rechts gerichtete horizontale Umarmung“ und eine „nach links gerichtete horizontale Umarmung“, definiert werden, abhängig davon, ob der Kopfabschnitt des Roboters 100 auf einer rechten Armseite oder einer linken Armseite eines Besitzers positioniert wird. Ferner können eine „nach oben gerichtete horizontale Umarmung“ und eine „nach unten gerichtete horizontale Umarmung“ definiert werden, abhängig davon, ob der Bauchabschnitt des Roboters 100 nach oben (eine Deckenseite) oder nach unten (eine Boden-seite) weist.
  • Nachfolgend wird eine Beschreibung gegeben, wobei die oben beschriebene vertikale Umarmung, horizontale Umarmung und vertikale Umarmung von hinten als Gegenstand gegenübergestellt werden.
  • 14 ist ein Datenstrukturdiagramm einer Bewegungsauswahltabelle 190.
  • Die Bewegungsauswahltabelle 190 ist in der Bewegungsspeichereinheit 232 des Servers 200 oder der Bewegungsspeichereinheit 160 des Roboters 100 gespeichert. Eine Aktivierungsbedingung, eine Zustandsbedingung und eine Bewegung sind in der Bewegungsauswahltabelle 190 korreliert. Die Bewegungsauswahltabelle 190 von 14 zeigt Bewegungen, die gemäß verschiedenen Arten von Zustandsbedingungen ausgewählt werden, wenn die Aktivierungsbedingung E1 erfüllt ist. Die Bedingung E1 ist beispielsweise erfüllt, wenn der Roboter 100 seitlich umarmt wird. Für jede Art von Umarmung wird eine Aktivierungsbedingung vorbereitet, z. B. die gegenüberstehende vertikale Umarmung und die vertikale Umarmung von hinten. Hierbei wählt die Betriebs-steuereinheit 150 des Roboters 100 das Vielfache der Bewegungen M1 bis M3, die Freude ausdrücken (im Folgenden wird eine Bewegung, die Freude ausdrückt, als „Bewegung der Freude“ bezeichnet) oder eine Bewegung M4, die den Schlaf entsprechend dem Zustand der Bedingungen S1 bis S4 ausdrückt.
  • Die Zustandsbedingung S1 zeigt einen Zustand an, in dem der Roboter 100 nur durch einen Kontakt von einer Umarmung berührt wird, d. h. einen Zustand, in dem er einfach nur umarmt wird. In diesem Fall erfasst der Berührungssensor 400 keine Berührung, die eine Bewegung durch einen Besitzer ist. Die Zustandsbedingung S2 ist derart, dass der Bauchabschnitt, der gestreichelt wird, definiert ist, der Zustandszustand S3 ist derart, dass der Kopfabschnitt, der gestreichelt wird, definiert ist, und der Zustandszustand S4 ist derart, dass der Bauchabschnitt, der wiederholt sanft getätschelt wird, definiert ist.
  • Die Bewegung der Freude M1, die mit der Zustandsbedingung S1 korreliert ist, ist eine Einheitsbewegung, um einen Besitzer anzustarren. Die Bewegung der Freude M2, die mit der Zustandsbedingung S2 korreliert ist, ist eine zusammengesetzte Bewegung, die die Einheitsbewegungen einschließt, um die Sichtlinie auf einen Besitzer zu richten, der umarmt, den Arm 106 bewegt und den Kopf nach links und rechts schüttelt, während ein Ton der Freude ausgesendet wird. Die Bewegung der Freude M3, die mit der Zustandsbedingung S3 korreliert ist, ist eine zusammengesetzte Bewegung, die Einheits-bewegungen einschließt, bei denen die Sichtlinie auf einen Besitzer gerichtet und der Kopf nach links und rechts geschüttelt wird. Eine Bewegung, die den Schlaf ausdrückt, ist mit der Zustandsbedingung S4 korreliert.
  • Wenn die Zustandsbedingung S1 erfüllt ist, wenn die Aktivierungsbedingung E1 erfüllt ist, wählt die Betriebssteuereinheit 150 die Bewegung der Freude M1 aus. Das heißt, der Roboter 100 bewegt jeden Abschnitt in Übereinstimmung mit der Bewegung der Freude M1, wenn er horizontal umarmt wird. Die Betriebssteuereinheit 150 kann immer die Bewegung der Freude M1 auswählen, wenn die Zustandsbedingung S1 erfüllt ist, oder sie kann die Bewegung der Freude M1 mit einer vorbestimmten Auswahlwahrscheinlichkeit (weniger als 100 %) auswählen. Wie zuvor beschrieben wurde, kann die Betriebssteuereinheit 150 auch eine Bewegung der Freude aus mehreren Arten von Bewegungen der Freude auswählen, wenn die Zustandsbedingung S1 erfüllt ist. Indem die Betriebssteuereinheit 150 eine Bewegung auf einer Wahrscheinlichkeitsbasis auswählt, wird dieselbe Bewegung, die immer ausgeführt wird, wenn eine bestimmte Bedingung erfüllt ist, verhindert, und ein tierähnliches Verhalten kann realisiert werden.
  • Auf diese Weise wählt die Betriebssteuereinheit 150 eine Bewegung in Übereinstimmung mit einer Art Umarmung, insbesondere einer Haltung, wenn umarmt wird, und in Übereinstimmung damit, welcher Bereich der Körperoberfläche mit welcher Art von Kontaktaspekt in dieser Haltung berührt wird. Nicht nur die Betriebssteuereinheit 150, sondern auch die Pupillensteuereinheit 152 bewirkt, dass sich das Augenbild 176 als ein Teil einer Bewegung ändert, und die Sprachsteuereinheit 154 gibt verschiedene Sprachelemente als einen Teil einer Bewegung aus.
  • Neben einer Umarmung sind verschiedene Phänomene als ein Phänomen denkbar, das einen Auslöser zum Ausführen einer Bewegung bildet, das heißt einen Aktivierungszustand. Beispielsweise kann die Betriebssteuereinheit 150 bewirken, dass sich eine Bewegung in Übereinstimmung mit einem Kontaktaspekt dahingehend ändert, wo der Roboter 100 von einem Benutzer berührt wird und wie stark der Roboter 100 berührt wird. Abgesehen davon kann die Betriebssteuereinheit 150 eine Bewegung mit verschiedenen Phänomenen als Aktivierungsbedingung auswählen, wie z. B. der obere Rücken, der gestreichelt wird, oder ein Kinn, das gestreichelt wird. Außerdem kann eine Aktivierungsbedingung auf der Grundlage eines Emotionsparameters definiert werden, wie etwa Genuss (Freude), Einsamkeit, Angst oder ein Verlangen nach Aufmerksamkeit. Eine Zustandsbedingung kann derart sein, dass eine Haltung des Roboters 100 und ein Kontaktaspekt korreliert sind.
  • Die Pupillensteuereinheit 152 kann „Bewegung“ ausdrücken, indem sie das Augenbild 176 ein wenig nach links oder rechts bewegt, und kann „Interesse“ oder „Überraschung“ ausdrücken, indem das Pupillenbild 178 vergrößert wird. Die Betriebssteuer-einheit 150 kann eine „physische Aufregung“ ausdrücken, indem sie bewirkt, dass ein Stellglied in einer vorbestimmten Position stoppt, oder umgekehrt „Lethargie“ ausdrücken, indem sie die Stromversorgung eines Stellglieds unterbricht. Die Betriebssteuereinheit 150 kann „Wohlfühlen durch Berühren“ oder „Kitzeln“ ausdrücken, indem sie ein Stellglied in der Nähe eine Stelle bewegt, die ein Besitzer nach und nach berührt.
  • Die Sprachsteuerung 154 kann ein „angenehmes Gefühl“ ausdrücken, indem sie eine Stimme abgibt, die das Vergnügen anzeigt, wenn der Bauch in einem sich gegenüberstehenden vertikalen Umarmungszustand leicht getroffen oder gestreichelt wird. Zu diesem Zeitpunkt erhöht die Vertrautheitsverwaltungseinheit 220 die Vertrautheit in Bezug auf den Besitzer und die Emotionsverwaltungseinheit 234 senkt den Emotionsparameter, der Einsamkeit anzeigt, wodurch ein Wandel zum psychologischen Zustand des „Wohlbefindens“ eintritt. Beim Streicheln unter dem Kinn des Roboters 100, wenn der Roboter 100 umarmt wird, können verschiedene Bewegungsarten der Freude ausgewählt werden, so dass der Roboter 100 auch Freude ausdrückt, so wie ein Hund oder eine Katze Freude ausdrückt. Zu diesem Zeitpunkt kann die Pupillensteuereinheit 152 ein „angenehmes Gefühl“ ausdrücken, indem das Augenlidbild des Augenbildes 176 geändert wird, um ein halbgeschlossenes Auge darzustellen.
  • Wenn eine vorbestimmte Zeit (nachfolgend als „Einführungszeit“ bezeichnet) nach dem Umarmen des Roboters 100 verstrichen ist, kann der Roboter 100 einen Verhaltensaspekt des Einschlafens ausdrücken (im Folgenden als „Ausdruck des Schlafens“ bezeichnet). Genauer gesagt, wenn ein Besitzer den Roboter 100 umarmt, gibt die Sprachsteuereinheit 154 ein „Gähnen“ aus, woraufhin die Betriebssteuereinheit 150 den Roboter 100 veranlasst, allmählich lethargisch zu werden, indem die Zufuhr von Energie zu jedem Stellglied reduziert wird. Anschließend bewirkt die Pupillensteuereinheit 152, dass sich das Augenbild 176 schließt. Zu diesem Zeitpunkt kann die Sprachsteuereinheit 154 regelmäßig Schlafgeräusche mit geringer Lautstärke ausgeben. Wenn eine weitere vorbestimmte Zeit nach dem Starten des Schlafausdrucks verstrichen ist, kann die Betriebssteuereinheit 150 Energie sparen, indem der Prozessor 122 in einen angehaltenen Zustand versetzt wird.
  • Wenn eine vorbestimmte Zeit (im Folgenden als „Schlafzeit“ bezeichnet) vom Beginn des Schlafausdrucks oder der Verschiebung in den angehaltenen Zustand verstrichen ist, bewirkt die Betriebssteuereinheit 150, dass der Schlafausdruck endet.
  • Zu diesem Zeitpunkt bewirkt die Pupillensteuereinheit 152, dass sich das Augenbild 176 öffnet. Wenn ein vorbestimmtes Aufweckereignis auftritt, beispielsweise wenn der Berührungssensor 400 eine starke Berührung erfasst oder wenn laute Sprache vom Mikrofon aufgenommen wird, kann die Betriebssteuereinheit 150 oder dergleichen bewirken, dass der Schlafausdruck endet, selbst bevor die Schlafenszeit verstrichen ist. Wenn der Schlafausdruck beendet ist, kehrt der Prozessor 122 aus dem angehaltenen Zustand in einen normalen Betriebszustand zurück.
  • Die Einführungszeit kann in Übereinstimmung mit verschiedenen Arten von Parametern geändert werden, die nachfolgend gezeigt werden. Wenn ein Besitzer, der den Roboter 100 hochhebt und umarmt, dem Roboter 100 ein Schlaflied singt, oder wenn der Besitzer bestimmte Wörter wie „Gute Nacht“ oder „Heiabettchen“ spricht, kann die Betriebssteuereinheit 150 die Einführungszeit verkürzen. Wenn der Roboter 100 von einem Besitzer mit einer Vertrautheit mit einem vorbestimmten Wert oder darüber umarmt wird, kann die Betriebssteuereinheit 150 die Einführungszeit verkürzen. Alternativ kann eine Einstellung so sein, dass die Einführungszeit umso kürzer wird, je höher die Vertrautheit wird. Gemäß dieser Art von Steuerungsverfahren kann ein Wohlgefühl, von einem Besitzer mit hoher Vertrautheit umarmt zu werden, durch Verhalten ausgedrückt werden. Wenn der Roboter 100 von einem Besitzer mit einer Vertrautheit mit einem vorbestimmten Wert oder darunter umarmt wird, muss die Betriebssteuereinheit 150 den Schlafausdruck des Roboters 100 nicht ausführen.
  • Die Betriebssteuereinheit 150 kann die Einführungszeit so einstellen, dass sie umso kürzer ist, je größer die Aktivität vor einer Umarmung ist, zum Beispiel die Größe einer Leistungszufuhr zu jedem Stellglied in einer letzten vorbestimmten Zeitspanne bis zur Umarmung, eine Bewegungsmenge des Roboters 100, eine verbrauchte Strommenge und dergleichen. Gemäß dieser Art von Steuerverfahren kann ein Verhaltensausdruck, ausgeführt werden, bei dem die Gefahr besteht, bei energetischer Bewegung schläfrig zu werden. Zusätzlich kann die Betriebssteuereinheit 150 die Einführungszeit kürzer als normal einstellen, wenn der Wert des Emotionsparameters, der die Einsamkeit anzeigt, abnimmt und die Mentalität des Roboters 100 sich in einem Zustand des „Wohlgefühls“ befindet, wenn Umgebungsgeräusche auf einem vorbestimmten Niveau oder darunterliegen, wenn sich die Raumtemperatur in einem vorbestimmten angenehmen Temperaturbereich befindet, beispielsweise 15 ° C bis 25 ° C, oder wenn die Umgebung dunkel ist. Auf die gleiche Weise kann die Betriebssteuereinheit 150 eine zusätzliche Schlafzeit für den Roboter 100 einstellen, wenn sich der Roboter 100 in einem bequemen Zustand befindet, wenn er ruhig ist und die Raumtemperatur geeignet ist oder wenn die Menge der Aktivität groß ist. Der Roboter 100 hält die Zeit und das Datum für das Umschalten vom Ruhezustand in den Normalzustand fest und kann sich weigern zu schlafen, wenn eine vorbestimmte Zeit nicht aus dem vorherigen Ruhezustand abgelaufen ist.
  • Der Schlafausdruck ist so, dass der Roboter 100 ein tierähnliches Verhalten zum Ausdruck bringt und eine Bindung an einen Besitzer entsteht. Der Schlafausdruck ist unterdessen auch Ausdruck einer Funktion zum Unterbrechen des Roboters 100 und bildet einen Auslöser, d. h. einen Startbefehl für eine Funktion zum Unterbrechen der Kontaktaktion durch den Besitzer in Bezug auf den Roboter 100. Im Allgemeinen wird eine Unterbrechungsfunktion von einem Benutzer gestartet, der einen direkten Vorgang wie z. B. das Drücken eines Schalters ausführt. Der Roboter 100 in dieser Ausführungsform ist derart, dass eine „Umarmungsaktion“ eines Besitzers, der sich über einen bestimmten Zeitraum fortsetzt, einen Auslöser der Unterbrechungsfunktion bildet. Die Umarmungsaktion ist die gleiche wie bei einem Baby, das zu Bett gebracht wird und kann natürlich von einem Besitzer durchgeführt werden. Wenn der Roboter 100 leise sein soll, kann ein Besitzer den Roboter 100 deshalb ins Bett bringen, d. h. den Roboter 100 anhalten, indem er den Roboter 100 umarmt und bestimmte Wörter wie „Heiabettchen“ summt, als würde er ein Baby ins Bett bringen.
  • Der Innentemperatursensor 144 misst regelmäßig die Innentemperatur des Roboters 100. Wenn der Roboter 100 umarmt wird, kann die Betriebssteuereinheit 150 den Start des Schlafausdrucks verzögern, bis die Innentemperatur auf eine vorbestimmte Temperatur fällt oder darunterliegt.
  • Wenn ein Besitzer einen Finger vor dem Auge 110 des Roboters 100 nach links und rechts bewegt, kann die Pupillensteuereinheit 152 bewirken, dass sich das Pupillenbild 178 dem Finger nach links und rechts folgend bewegt. Ferner kann die Betriebssteuereinheit 150 bewirken, dass das Augenbild 176 in den Schlafzustand übergeht, nachdem der Hin- und Herbewegungsvorgang des Pupillenbildes 178 von links nach rechts einige Male fortgesetzt wurde. Eine Aktivierungsbedingung ist beispielsweise definiert, wenn ein Besitzer, der einen Finger vor dem Auge 110 hochhält, nachdem der Eigentümer die spezifischen Wörter „schau hin“ ausgesprochen hat. Eine Zustandsbedingung wird definiert, indem der Finger dreimal nach links und rechts bewegt wird. Wenn die Aktivierungsbedingung und die Zustandsbedingung erfüllt sind, wird eine Bewegung zum Umschalten in den Schlafzustand ausgeführt. Eine Bewegung, d. h. eine Geste eines Besitzers, bildet einen Auslöser, der den Roboter 100 veranlasst, eine Bewegung auszuwählen. Zu dem Zeitpunkt kann ein Verwaltungsprogramm, das in dem Prozessor 122 ausgeführt wird, die Funktionen des Roboters 100 herunterfahren. Gemäß dieser Art von Steuerungsverfahren kann der Roboter 100 leicht durch eine Geste angehalten werden, ohne dass eine Vorrichtung wie etwa eine Taste verwendet wird.
  • Die Betriebssteuereinheit 150 ist nicht auf eine Bewegung der Freude beschränkt, die Vergnügen ausdrückt, und kann verschiedene Bewegungen ausführen. Wenn beispielsweise eine Aktivierungsbedingung E2 erfüllt ist, kann die Betriebssteuereinheit 150 eine Bewegung ausführen, die Angst ausdrückt. Beispielsweise sind als Aktivierungs-bedingung E 2 denkbar, dass der Roboter 100 in eine Position angehoben wird, die höher als das Gesicht eines Besitzers ist, der Roboter 100 von einem hohen Platz fällt, Gewalt ausgesetzt ist und ein Geräusch mit einem vorbestimmten Volumen oder mehr erfasst, und dergleichen. Die Erkennungseinheit 156 erkennt einen Anstieg und einen Abfall unter Verwendung des Beschleunigungssensors 138. Die Erkennungseinheit 156 erkennt auch unter Verwendung der Kamera 402, ob der Roboter 100 über das Gesicht eines Besitzers angehoben wurde oder nicht. Die Erkennungseinheit 156 erkennt eine gewaltsame Aktion, wie z. B. Treten oder Schlagen mit Hilfe des Berührungssensors 400.
  • „Einfrieren“, wobei ein Stellglied in einer vorbestimmten Position fixiert und gehalten wird, ein kreischendes Geräusch ausgibt, „Ohnmacht“, wobei das Auge nach dem Ausschalten eines Stellglieds geschlossen wird, „Aufregung“, wobei das Pupillenbild 178 links und rechts geschüttelt wird, und dergleichen, sind als eine Bewegung denkbar, die Angst ausdrückt.
  • Wenn der Roboter 100 umarmt wird, kann die Betriebssteuereinheit 150 eine Bewegung auswählen, um zu versuchen, der Umarmung zu entkommen (im Folgenden wird eine Bewegung, die eine Beteiligung eines Besitzers ablehnt, als „Ablehnungsbewegung“ bezeichnet). Eine Ablehnungsbewegung kann als eine Kombination von Einheitsbewegungen definiert werden, wie zum Beispiel das Anstarren des Besitzers, das Aussenden einer Stimme, wiederholtes Bewegen des Arms 106, Schütteln des Kopfes nach links und rechts, wiederholtes Bewegen des Vorderrades 102 nach innen und außen, Schütteln des Rumpfs nach links und rechts, Bewegen jedes Abschnitts, um dem Besitzer zu verstehen zu geben, dass das Umarmen schwierig ist, und dergleichen. Wenn der Roboter 100 selbst durch Ausführen einer Ablehnungsbewegung nicht aus der Umarmung entkommen kann, kann der Roboter 100 den Schlafausdruck ausführen, nachdem die Einführungszeit verstrichen ist. Wenn der Roboter 100 während einer Umarmung gestoßen wird, kann die Betriebssteuereinheit 150 eine Ablehnungsbewegung auswählen, nachdem sie eine Bewegung ausgewählt hat, die eine Überraschung anzeigt, wie z. B. Blick in Richtung des Schlags.
  • Wenn der Roboter 100 umarmt wird, kann die Betriebssteuereinheit 150 eine Ablehnungsbewegung ausführen, so dass ein Betrag, um den sich jede Art von Stellglied bewegen kann, groß ist, und der Betrag, um den sich die Stellglieder bewegen können, im Laufe der Zeit verringert, und dabei ein Verhalten „eines Aspekts des allmählichen Aufgebens und Beruhigens“ ausdrückt. Auch nach der Beruhigung des Roboters 100 kann die Pupillensteuerung 152 durch Verhalten einen Aspekt des „Aufgebens der Flucht“ zum Ausdruck bringen, indem sie die Sichtlinie des Pupillenbildes 178 vom Benutzer weg verlagert.
  • Wenn die Bewegung eines Benutzers für eine vorbestimmte Zeit oder länger von der Kamera 402 oder dem Berührungssensor 400 in einem Zustand, in dem der Roboter 100 umarmt wird, nicht erkannt wird, reduziert die Betriebssteuereinheit 150 den Betrag, um den sich die Stellglieder bewegen können. Weiterhin kann die Betriebssteuereinheit 150, wenn diese Art von Zustand für eine vorbestimmte Zeit andauert, eine Ablehnungsbewegung ausführen. Ein komplexer Verhaltensausdruck kann dadurch ausgeführt werden, dass der Roboter 100 sich entspannt und den Körper anvertraut, wenn sich der Besitzer nicht bewegt, sich jedoch langweilt und sich bewegen möchte, wenn der Besitzer sich lange Zeit nicht bewegt.
  • Wird der Roboter 100 berührt, wenn das Vorderrad 102 ausgefahren ist, führt die Betriebssteuereinheit 150 eine Bewegung aus, um den Körper 104 auf den Benutzer zu richten, der ihn berührt hat. Wird der Roboter 100 berührt, wenn das Vorderrad 102 untergebracht ist, kann die Bedienungssteuereinheit 150 eine Bewegung zum Ausrichten des Kopfes in Richtung des Benutzers ausführen, ohne den Körper 104 zu bewegen. Auf diese Weise kann die Betriebssteuereinheit 150 unterschiedliche Bewegungen in Übereinstimmung mit dem Gehäusezustand des Vorderrads 102 auswählen, wenn der Ro-boter 100 berührt wird.
  • Wenn eine Rückseite des Körpers 104, zum Beispiel das Gesäß, berührt wird, kann die Betriebssteuereinheit 150 einen Aspekt des Roboters 100 ausdrücken, der versucht, die berührte Stelle zu sehen, aber verwirrt ist, weil er dazu nicht in der Lage ist, und daher den Körper 104 in Drehung versetzt. Wenn dieselbe Stelle auf dem Körper 104 kontinuierlich berührt wird, kann die Pupillensteuereinheit 152 durch Verhalten eine „Geste der Beunruhigung darüber, berührt zu werden“ ausdrücken, indem die Sichtlinie auf die berührte Stelle gerichtet wird. Wird der Roboter 100 weiterhin an der gleichen Stelle berührt, kann er außerdem eine vorbestimmte Bewegung ausführen, beispielsweise den Nacken nach hinten beugen, lethargisch werden, den Arm 106 wellenartig bewegen oder ein Gähnen aussenden. Um der kontinuierlichen Berührung zu entgehen, kann die Betriebssteuereinheit 150 bewirken, dass sich der Roboter 100 in eine Richtung weg vom Benutzer bewegt. Wird der Kopf berührt, kann die Betriebssteuereinheit 150 eine Bewegung des Missfallens der Berührung ausführen, indem sie den Hals veranlasst, sich zu bewegen. Wird eine Berührung fortgesetzt, kann die Pupillensteuereinheit 152 einen schlechtgelaunten Ausdruck, wie etwa ein Starren, ausdrücken, indem sie die Empfindlichkeitssteuereinheit 174 auf den Benutzer richtet.
  • Der Berührungssensor 400 kann in einer oberen Hälfte des Horns 112 installiert sein. Wird die obere Hälfte des Horns 112 berührt, kann die Betriebssteuereinheit 150 verschiedene Ablehnungsbewegungen auswählen. Wird beispielsweise die obere Hälfte des Horns 112 für eine Sekunde oder länger oder zweimal oder mehr berührt wird, kann die Betriebssteuereinheit 150 ein Merkmal von „Hass auf die Berührung des Horns 11“ durch Flucht vor dem Benutzer ausdrücken. Gemäß dieser Art von Steuerverfahren wird das Sichtfeld durch das Horn 112, in dem die Kamera 402 (eine omnidirektionale Kamera) montiert ist, blockiert, so dass das Greifen leicht verhindert wird.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2000323219 A [0006]

Claims (14)

  1. Autonom agierender Roboter, umfassend: einen Sensor, der einen Kontakt durch einen Benutzer auf einer Körperoberfläche des Roboters erfasst; eine Erkennungseinheit, die einen Grad des Zuneigungsausdrucks bei einer Kontaktstelle und einer Kontaktstärke festlegt; eine Betriebssteuereinheit, die die Verhaltensmerkmale des Roboters gemäß dem Grad des Zuneigungsausdrucks ändert.
  2. Autonom agierender Roboter nach Anspruch 1, wobei die Erkennungseinheit des Weiteren eine Emotion des Benutzers gemäß einer Kontaktstelle und einer Kontaktstärke festlegt.
  3. Autonom agierender Roboter nach Anspruch 1 oder 2, wobei eine elastische Außenhaut eines elastischen Körpers auf der äußeren Form des Roboters gebildet ist, und der Sensor einen Bereich hat, der von der Außenhaut als Erfassungsbereich abgedeckt wird.
  4. Autonom agierender Roboter nach Anspruch 3, wobei der Sensor ein gewölbter Sensor ist, der den Hauptteil der Außenhaut abdeckt.
  5. Autonom agierender Roboter nach Anspruch 1 bis 4, ferner umfassend eine Empfindlichkeitssteuereinheit, die eine Erfassungsempfindlichkeit des Sensors einschränkt, wenn kein Benutzer in einem peripheren Bereich erfasst wird.
  6. Autonom agierender Roboter nach Anspruch 1 bis 5, wobei die Betriebssteuereinheit bewirkt, dass eine vorbestimmte Benachrichtigungsoperation ausgeführt wird, wenn sich ein Sensor zum Erfassen externer Informationen, die sich von dem Kontakt durch den Benutzer unterscheiden, in einem Zustand befindet, in dem die Erfassung behindert ist.
  7. Autonom agierender Roboter nach Anspruch 1, umfassend: einen Sensor, der einen Kontakt durch einen Benutzer erfasst; eine Betriebssteuereinheit, die eine Bewegung des Roboters in Übereinstimmung mit dem Kontakt auswählt; einen Antriebsmechanismus, der die durch die Betriebssteuereinheit ausgewählte Bewegung ausführt; eine Außenhaut, die aus einem elastischen Körper gebildet ist, wobei der Sensor ein gewölbter Sensor ist, der die Außenhaut bedeckt.
  8. Autonom agierender Roboter nach Anspruch 7, wobei der Sensor zwischen der Außenhaut und einer die Außenhaut bedeckenden Abdeckhaut installiert ist.
  9. Autonom agierender Roboter nach Anspruch 7 oder 8, ferner umfassend: eine Kleidungserfassungseinheit, die das Tragen von Kleidung durch den Roboter erfasst; und eine Empfindlichkeitssteuereinheit, die eine Detektionsempfindlichkeit des Sensors steuert, wobei die Empfindlichkeitssteuereinheit die Erkennungsempfindlichkeit des Sensors beim Tragen von Kleidung erhöht.
  10. Autonom agierender Roboter, umfassend einen Planarsensor, der an einer Körperoberfläche des Roboters installiert ist und einen Kontakt am Roboter erfasst; eine Betriebssteuereinheit, die eine Bewegung des Roboters in Übereinstimmung mit dem Kontakt auswählt; einen Antriebsmechanismus, der die durch die Betriebssteuereinheit ausgewählte Bewegung ausführt; wobei der Roboter einen gewölbten Körper hat und der Sensor entlang der Wölbung der Körperoberfläche des Roboters installiert ist.
  11. Autonom agierender Roboter umfassend: eine Erkennungseinheit, die ein Hochheben und Umarmen des Roboters erkennt; eine Betriebssteuereinheit, die eine Bewegung des Roboters auswählt; einen Antriebsmechanismus, der die durch die Betriebssteuereinheit ausgewählte Bewegung ausführt; wobei die Erkennungseinheit Aspekte des Hebens und Umarmens in mehrere Arten kategorisiert und die Betriebssteuereinheit eine Bewegung entsprechend der Art des Hebens und Umarmens aus einem Vielfachen von Bewegungen auswählt, die auf das Heben und Umarmen reagieren.
  12. Autonom agierender Roboter nach Anspruch 11, wobei die Erkennungseinheit eine Haltung des Roboters erkennt, wenn der Roboter angehoben und umarmt wird, und die Betriebssteuereinheit eine Bewegung entsprechend der Haltung des Roboters beim Anheben und Umarmen auswählt.
  13. Autonom agierender Roboter nach Anspruch 11, ferner umfassend einen Sensor, der einen Kontakt eines Benutzers auf einer Körperoberfläche des Roboters erkennt, wobei die Betriebssteuereinheit eine Bewegung gemäß einem Aspekt des Kontakts am Roboter oder einer Kontaktstelle auswählt, wenn der Roboter angehoben und umarmt wird.
  14. Autonom agierender Roboter nach Anspruch 11, ferner umfassend: eine Pupillensteuereinheit, die bewirkt, dass sich ein auf einem Auge des Roboters angezeigtes Pupillenbild ändert, wobei die Pupillensteuereinheit bewirkt, dass sich das Pupillenbild schließt, wobei das Heben und Umarmen für eine vorbestimmte Zeit oder länger als Bedingung fortgesetzt wird.
DE112017003651.8T 2016-07-20 2017-07-18 Autonom agierender Roboter, der Körperkontakt versteht Ceased DE112017003651T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016-142060 2016-07-20
JP2016142060 2016-07-20
PCT/JP2017/025859 WO2018016461A1 (ja) 2016-07-20 2017-07-18 スキンシップを理解する自律行動型ロボット

Publications (1)

Publication Number Publication Date
DE112017003651T5 true DE112017003651T5 (de) 2019-04-04

Family

ID=60992528

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017003651.8T Ceased DE112017003651T5 (de) 2016-07-20 2017-07-18 Autonom agierender Roboter, der Körperkontakt versteht

Country Status (6)

Country Link
US (1) US11285614B2 (de)
JP (2) JP6467674B2 (de)
CN (1) CN109475781B (de)
DE (1) DE112017003651T5 (de)
GB (1) GB2567586A (de)
WO (1) WO2018016461A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019213032A1 (de) * 2019-08-29 2021-03-04 navel robotics GmbH Roboter mit einer verhaltenssteuerungseinheit und verfahren zur verhaltenssteuerung eines roboters

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10788235B2 (en) * 2014-11-07 2020-09-29 Sony Corporation Control system, control method, and storage medium
CN110062683B (zh) * 2016-12-12 2023-04-28 微软技术许可有限责任公司 一种机器人姿态生成的方法、装置及计算机可读介质
KR102024087B1 (ko) * 2017-03-31 2019-09-23 엘지전자 주식회사 커뮤니케이션 로봇
JP7020159B2 (ja) * 2018-02-07 2022-02-16 トヨタ自動車株式会社 コミュニケーション装置およびその制御プログラム
JP2019184787A (ja) * 2018-04-09 2019-10-24 凸版印刷株式会社 表示素子モジュール、表示装置、及びロボット
CN110405778B (zh) * 2018-04-28 2022-10-21 深圳果力智能科技有限公司 一种机器人
TWI655960B (zh) * 2018-05-03 2019-04-11 生茂系統開發有限公司 結合觸摸式互動電子寵物的照護裝置、系統與方法
KR102148032B1 (ko) * 2018-06-25 2020-08-26 엘지전자 주식회사 로봇
KR102148031B1 (ko) * 2018-06-25 2020-10-14 엘지전자 주식회사 로봇
WO2020009098A1 (ja) * 2018-07-02 2020-01-09 Groove X株式会社 ロボット
TWI704471B (zh) * 2018-09-27 2020-09-11 仁寶電腦工業股份有限公司 互動式電子裝置及其互動方法
EP3885013A4 (de) * 2018-11-21 2022-03-02 Sony Group Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
US20220126439A1 (en) * 2019-01-22 2022-04-28 Sony Group Corporation Information processing apparatus and information processing method
CN113329798B (zh) * 2019-01-31 2023-04-28 索尼集团公司 机器人控制装置、机器人控制方法及程序
JP7024754B2 (ja) * 2019-03-25 2022-02-24 カシオ計算機株式会社 制御装置、ロボット、制御方法およびプログラム
US11376743B2 (en) * 2019-04-04 2022-07-05 Joyhaptics Oy Systems and methods for providing remote touch
KR102318218B1 (ko) * 2019-07-26 2021-10-27 주식회사 모랑스 장애인과 1인 가구를 위한 정서 공감 인형 및 이를 이용한 시스템
KR102208256B1 (ko) * 2019-09-23 2021-01-27 여영환 리딩 기능을 수행하는 스마트 인형
KR102118593B1 (ko) * 2019-12-13 2020-06-03 주식회사 판도라프로젝트 프라모델 시스템
JP7494479B2 (ja) 2020-02-12 2024-06-04 カシオ計算機株式会社 ロボット
CN111368053B (zh) * 2020-02-29 2020-12-11 重庆百事得大牛机器人有限公司 基于法律咨询机器人的情绪安抚***
JP7081619B2 (ja) 2020-03-25 2022-06-07 カシオ計算機株式会社 機器の制御装置、機器、機器の制御方法及びプログラム
JP7416229B2 (ja) * 2020-05-15 2024-01-17 日本電信電話株式会社 接触刺激算出装置、接触刺激提示装置、接触刺激算出方法、接触刺激提示方法およびプログラム
KR102295836B1 (ko) * 2020-11-20 2021-08-31 오로라월드 주식회사 성장형 스마트 토이 장치 및 스마트 토이 시스템
US12030182B2 (en) * 2020-12-14 2024-07-09 Honda Research Institute Europe Gmbh Controlling an autonomous working device based on physical interaction
JP7287411B2 (ja) * 2021-03-16 2023-06-06 カシオ計算機株式会社 機器の制御装置、機器の制御方法及びプログラム
US11419399B1 (en) 2021-09-01 2022-08-23 Spin Master Ltd. Storage device with movable element
WO2023037608A1 (ja) * 2021-09-10 2023-03-16 ソニーグループ株式会社 自律移動体、情報処理方法、及び、プログラム
WO2023037609A1 (ja) * 2021-09-10 2023-03-16 ソニーグループ株式会社 自律移動体、情報処理方法、及び、プログラム
US11865695B2 (en) * 2021-11-16 2024-01-09 Walton Richardson Humanoid hugging assembly
JPWO2023089696A1 (de) * 2021-11-17 2023-05-25
CN114800566A (zh) * 2022-05-07 2022-07-29 深圳市机器时代科技有限公司 一种幼教机器人隐蔽移动结构及其追踪方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000323219A (ja) 1999-05-10 2000-11-24 Sony Corp 接続装置及びロボットシステム

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU768353B2 (en) 1998-09-10 2003-12-11 Sony Corporation Robot apparatus, method of controlling robot apparatus, method of display, and medium
JP2001191276A (ja) 1999-10-29 2001-07-17 Sony Corp ロボットシステム、ロボット装置及びその外装
WO2001039932A1 (fr) 1999-11-30 2001-06-07 Sony Corporation Robot, son procede de commande et procede d'appreciation du caractere du robot
JP2001157977A (ja) * 1999-11-30 2001-06-12 Sony Corp ロボット装置及びその制御方法
JP2001162058A (ja) * 1999-12-10 2001-06-19 Iesato Sato 自律移動型セラピー機器
JP2003251580A (ja) * 2002-02-28 2003-09-09 Matsushita Electric Ind Co Ltd 人工目およびそれを用いたロボット
JP4042108B2 (ja) * 2003-02-19 2008-02-06 ソニー株式会社 ロボット装置及びその制御方法
JP2005103679A (ja) 2003-09-29 2005-04-21 Toshiba Corp ロボット装置
JP4677585B2 (ja) * 2005-03-31 2011-04-27 株式会社国際電気通信基礎技術研究所 コミュニケーションロボット
EP2281667B1 (de) 2005-09-30 2013-04-17 iRobot Corporation Gesellschaftsroboter für persönliche Interaktion
US20070128979A1 (en) * 2005-12-07 2007-06-07 J. Shackelford Associates Llc. Interactive Hi-Tech doll
US7744442B2 (en) * 2006-06-09 2010-06-29 Mattel, Inc. Dolls with alterable facial features
US8287327B1 (en) * 2006-08-02 2012-10-16 Ghaly Nabil N Interactive play set
TWI306051B (en) * 2006-12-14 2009-02-11 Ind Tech Res Inst Robotic apparatus with surface information displaying and interaction capability
JP4871160B2 (ja) 2007-02-16 2012-02-08 株式会社東芝 ロボットおよびその制御方法
GB0714148D0 (en) * 2007-07-19 2007-08-29 Lipman Steven interacting toys
CN101411946B (zh) * 2007-10-19 2012-03-28 鸿富锦精密工业(深圳)有限公司 玩具恐龙
US8583956B2 (en) * 2008-01-31 2013-11-12 Peter Sui Lun Fong Interactive device with local area time synchronization capbility
US8046620B2 (en) * 2008-01-31 2011-10-25 Peter Sui Lun Fong Interactive device with time synchronization capability
US8545283B2 (en) * 2008-02-20 2013-10-01 Ident Technology Ag Interactive doll or stuffed animal
US8939840B2 (en) * 2009-07-29 2015-01-27 Disney Enterprises, Inc. System and method for playsets using tracked objects and corresponding virtual worlds
CA2675913A1 (en) * 2009-08-20 2011-02-20 Thinking Technology Inc. Interactive talking toy with moveable and detachable body parts
US9421475B2 (en) * 2009-11-25 2016-08-23 Hallmark Cards Incorporated Context-based interactive plush toy
US8662954B2 (en) * 2010-04-30 2014-03-04 Mattel, Inc. Toy doll for image capture and display
US8506343B2 (en) * 2010-04-30 2013-08-13 Mattel, Inc. Interactive toy doll for image capture and display
US8483873B2 (en) * 2010-07-20 2013-07-09 Innvo Labs Limited Autonomous robotic life form
US8596147B2 (en) * 2010-11-30 2013-12-03 Hallmark Cards, Incorporated Non-rigid sensor for detecting deformation
WO2012172721A1 (ja) * 2011-06-14 2012-12-20 パナソニック株式会社 ロボット装置、ロボット制御方法、及びロボット制御プログラム
JP5765095B2 (ja) * 2011-06-30 2015-08-19 富士通株式会社 ロボット、状況認識方法および状況認識プログラム
TWI473147B (zh) * 2011-09-27 2015-02-11 Lg Chemical Ltd 包括導電圖案之觸控面板
US9092021B2 (en) * 2012-01-06 2015-07-28 J. T. Labs Limited Interactive apparatus
US9079113B2 (en) * 2012-01-06 2015-07-14 J. T. Labs Limited Interactive personal robotic apparatus
US9616353B2 (en) * 2012-03-30 2017-04-11 Mattel, Inc. Reconfigurable doll
EP2852881A4 (de) 2012-05-22 2016-03-23 Intouch Technologies Inc Grafische benutzerschnittstellen mit touchpad -ansteuerungsschnittstellen für telemedizinische vorrichtungen
US9796095B1 (en) * 2012-08-15 2017-10-24 Hanson Robokind And Intelligent Bots, Llc System and method for controlling intelligent animated characters
EP2903703A1 (de) * 2012-10-04 2015-08-12 Disney Enterprises, Inc. Interaktive objekte für immersive umgebung
US11020680B2 (en) * 2012-11-15 2021-06-01 Shana Lee McCart-Pollak System and method for providing a toy operable for receiving and selectively vocalizing various electronic communications from authorized parties, and for providing a configurable platform independent interactive infrastructure for facilitating optimal utilization thereof
GB2511898B (en) * 2013-03-15 2015-07-22 Mattel Inc Toy with an illuminable movable portion
US20150314454A1 (en) * 2013-03-15 2015-11-05 JIBO, Inc. Apparatus and methods for providing a persistent companion device
US9934817B2 (en) * 2013-10-04 2018-04-03 Hallmark Cards, Incorporated System for recording, sharing, and storing audio
WO2015089491A1 (en) * 2013-12-14 2015-06-18 The Regents Of The University Of California Liquid column-based capacitive sensors
CN103877727B (zh) * 2013-12-17 2016-08-24 西安交通大学 一种由手机控制并通过手机进行交互的电子宠物
US9329597B2 (en) 2014-01-17 2016-05-03 Knightscope, Inc. Autonomous data machines and systems
KR101762218B1 (ko) * 2014-11-10 2017-07-27 가부시키가이샤 원더 퓨쳐 코포레이션 터치패널, 터치패널의 제조 방법, 및 터치패널 일체형 표시 장치
US10959666B2 (en) * 2015-01-12 2021-03-30 Enbiomedic Wearable hip joint-action detectors
WO2016168117A2 (en) * 2015-04-14 2016-10-20 John James Daniels Wearable electric, multi-sensory, human/machine, human/human interfaces
WO2017019887A1 (en) * 2015-07-29 2017-02-02 The Board Of Trustees Of The Leland Stanford Junior University Methods and apparatus concerning sensitive force sensors
US10452816B2 (en) * 2016-02-08 2019-10-22 Catalia Health Inc. Method and system for patient engagement
US10360859B1 (en) * 2016-03-23 2019-07-23 Valerie J. Heilbron Eye animation device and method to show eye expression in 2D and 3D lighted displays
WO2017187620A1 (ja) * 2016-04-28 2017-11-02 富士通株式会社 ロボット

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000323219A (ja) 1999-05-10 2000-11-24 Sony Corp 接続装置及びロボットシステム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019213032A1 (de) * 2019-08-29 2021-03-04 navel robotics GmbH Roboter mit einer verhaltenssteuerungseinheit und verfahren zur verhaltenssteuerung eines roboters

Also Published As

Publication number Publication date
US11285614B2 (en) 2022-03-29
CN109475781A (zh) 2019-03-15
CN109475781B (zh) 2020-12-25
JP2019072495A (ja) 2019-05-16
JP6467674B2 (ja) 2019-02-13
GB201902083D0 (en) 2019-04-03
WO2018016461A1 (ja) 2018-01-25
US20190143528A1 (en) 2019-05-16
GB2567586A (en) 2019-04-17
JPWO2018016461A1 (ja) 2018-07-26

Similar Documents

Publication Publication Date Title
DE112017003651T5 (de) Autonom agierender Roboter, der Körperkontakt versteht
DE112017003497B4 (de) Selbständig agierender Roboter mit gesteuerter Aktivitätsmenge
DE112017002606B4 (de) Autonom handelnder Roboter, der Kleidung trägt
DE112018005034B4 (de) Autonom handelnder Roboter, der den Begleiter anblickt
DE112017004363T5 (de) Autonom agierender roboter, der die richtung einer geräuschquelle erkennt
DE112017003480B4 (de) Autonom handelnder Roboter
DE112017005954T5 (de) Autonom agierender Roboter, der die Pupille verändert
DE112017001874T5 (de) Autonom handelnder Roboter mit Schüchternheit
DE112017002589T5 (de) Autonom handelnder Roboter und Computerprogramm
DE112017004512T5 (de) Autonom agierender Roboter, der einen natürlichen Abstand hält
DE112017002960T5 (de) Autonom handelnder roboter, der kühle sucht
JP6671577B2 (ja) 人を識別する自律行動型ロボット
DE112017004414T5 (de) Autonom handelnder roboter, server und verhaltenssteuerungsprogramm
DE112018001944T5 (de) Roboter, auf dem Außenhaut befestigt ist
DE112017004554B4 (de) Autonom handelnder Roboter, der einen Gast akzeptiert
DE112018000722T5 (de) Roboter mit einer weichen Außenhaut
DE112018001700T5 (de) Für Robotergelenk geeignete Gelenkstruktur
JP2018192559A (ja) 曲面形状のボディに対するタッチを検出する自律行動型ロボット

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: A63H0011000000

Ipc: B25J0013080000

R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final