DE112017005954T5 - Autonom agierender Roboter, der die Pupille verändert - Google Patents

Autonom agierender Roboter, der die Pupille verändert Download PDF

Info

Publication number
DE112017005954T5
DE112017005954T5 DE112017005954.2T DE112017005954T DE112017005954T5 DE 112017005954 T5 DE112017005954 T5 DE 112017005954T5 DE 112017005954 T DE112017005954 T DE 112017005954T DE 112017005954 T5 DE112017005954 T5 DE 112017005954T5
Authority
DE
Germany
Prior art keywords
eye
robot
causes
unit
eye image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112017005954.2T
Other languages
English (en)
Other versions
DE112017005954T8 (de
Inventor
Kaname HAYASHI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Groove X Inc
Original Assignee
Groove X Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Groove X Inc filed Critical Groove X Inc
Publication of DE112017005954T5 publication Critical patent/DE112017005954T5/de
Application granted granted Critical
Publication of DE112017005954T8 publication Critical patent/DE112017005954T8/de
Active legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/0015Face robots, animated artificial faces for imitating human expressions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/80Creating or modifying a manually drawn or painted image using a manual input device, e.g. mouse, light pen, direction keys on keyboard
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • Ophthalmology & Optometry (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Manipulator (AREA)
  • Toys (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Ein Monitor ist in einem Auge eines Roboters eingebaut, und ein Augenbild 174 wird auf dem Monitor angezeigt. Der Roboter extrahiert aus einem aufgenommenen Bild des Benutzers eine Merkmalsmenge eines Auges eines Benutzers. Die Merkmalsmenge des Auges des Benutzers wird im Augenbild 174 wiedergegeben. Eine Merkmalsmenge ist beispielsweise die Größe eines Pupillenbereichs 158 und eines Pupillenbildes 164 und eine Form eines Augenlidbildes 176. Auch eine Blinzelhäufigkeit oder dergleichen kann als Merkmalsgröße reflektiert werden. Die Vertrautheit mit jedem Benutzer ist festgelegt, und welche Merkmalsgröße des Benutzers reflektiert werden soll, kann in Übereinstimmung mit der Vertrautheit festgelegt werden.

Description

  • Technischer Bereich
  • Die vorliegende Erfindung bezieht sich auf einen Roboter, der autonom eine Handlung in Übereinstimmung mit einem internen Zustand oder einer externen Umgebung auswählt.
  • Stand der Technik
  • Ein Mensch hält sich ein Haustier in der Hoffnung auf Trost. Unterdessen gibt es verschiedene Gründen, aus denen Menschen es aufgegeben haben sich ein Haustier zu halten, weil sie beispielsweise nicht genügend Zeit haben, sich um ein Haustier zu kümmern, oder das Wohnumfeld die Haltung eines Haustiers nicht zulässt, oder weil man eine Allergie hat oder den Gedanken hasst, vom Tod getrennt zu werden. Gäbe es einen Roboter, der die Rolle eines Haustiers übernimmt, könnten viele Menschen, die kein Haustier halten können, dennoch mit der Art Trost versorgt werden, den ein Haustier spenden würde. (siehe Patentschrift 1). Obwohl sich die Robotertechnologie in den letzten Jahren rasch weiterentwickelt hat, ist die Technologie dennoch nicht so weit fortgeschritten, dass sie einen haustierähnlichen Begleiter präsentieren könnte.
  • Referenzliste
  • Patentliteratur
  • Patentschrift 1: JP-A-2000-323219
  • Nichtpatentliteratur
  • Nichtpatentschrift 1: VITOR F. PAMPLONA, MANUEL M. OLIVEIRA and GLADIMIR V. G. BARANOSKI, „Photorealistic Models for Pupil Light Reflex and Iridal Pattern Deformation" ACM Transactions on Graphics, Vol. 28, No. 4, Article 106, August 2009
  • Zusammenfassung der Erfindung
  • Technisches Problem
  • Es wird allgemein angenommen, dass „ein Haustier seinem Herrn ähnlich sieht“. Da ein Mensch eine Eigenschaft hat, sich an etwas zu binden, das er oder sie gewohnt ist zu sehen, kann es sein, dass ein Mensch unterbewusst ein Haustier auswählt, das ihm oder ihr ähnlich sieht. Auch ein Haustier verändert sein Aussehen und seinen Gesichtsausdruck, wenn es wächst und älter wird. Für das Aussehen und den Gesichtsausdruck sind die Augen besonders wichtige Bestandteile, wenn es darum geht, einen Ausdruck, eine Individualität, Reife und dergleichen darzustellen. Der Erfinder glaubt, dass die Empathie gegenüber einem Roboter stark erhöht werden kann, indem eine Ausdruckskraft der Augen des Roboters verstärkt wird.
  • Die Erfindung, die auf der Grundlage des vorstehend beschriebenen Schwerpunktes des Erfinders fertiggestellt wurde, hat als Hauptziel die Bereitstellung von Technologie, die die Ausdruckskraft eines Auges eines Roboters erhöht.
  • Lösung des Problems
  • Ein autonom agierender Roboter in einem Aspekt der Erfindung umfasst eine Betriebssteuereinheit, die eine Bewegung auswählt, einen Antriebsmechanismus, der eine von der Betriebssteuereinheit ausgewählte Bewegung ausführt, eine Augenerzeugungseinheit, die ein Augenbild erzeugt, eine Augenanzeigeeinheit, die bewirkt, dass das Augenbild in einem Gesichtsbereich des Roboters angezeigt wird, und eine Merkmalsextraktionseinheit, die eine Merkmalsgröße eines Auges eines Benutzers aus einem aufgenommenen Bild des Benutzers extrahiert.
  • Die Augenerzeugungseinheit bewirkt, dass die Merkmalsgröße des Auges des Benutzers im Augenbild reflektiert wird.
  • Ein autonom agierender Roboter in einem weiteren Aspekt der Erfindung umfasst eine Betriebssteuereinheit, die eine Bewegung auswählt, einen Antriebsmechanismus, der eine von der Betriebssteuereinheit ausgewählte Bewegung ausführt, eine Augenerzeugungseinheit, die ein Augenbild erzeugt, und eine Augenanzeigeeinheit, die bewirkt, dass das Augenbild in einem Gesichtsbereich des Roboters angezeigt wird.
  • Die Augenerzeugungseinheit bewirkt eine alterungsbedingte Veränderung des Augenbildes.
  • Ein autonom agierender Roboter in einem weiteren Aspekt der Erfindung umfasst eine Betriebssteuereinheit, die eine Bewegung auswählt, einen Antriebsmechanismus, der eine von der Betriebssteuereinheit ausgewählte Bewegung ausführt, eine Augenerzeugungseinheit, die ein Augenbild erzeugt, eine Augenanzeigeeinheit, die bewirkt, dass das Augenbild in einem Gesichtsbereich des Roboters angezeigt wird, und eine Lichterfassungseinheit, die eine externe Lichtquelle erkennt.
  • Die Augenerzeugungseinheit bewirkt, dass ein Fanglicht im Augenbild enthalten ist, und bewirkt, dass sich eine Position des Fanglichts entsprechend einer Richtung der externen Lichtquelle ändert.
  • Ein autonom agierender Roboter in einem weiteren Aspekt der Erfindung umfasst eine Betriebssteuereinheit, die eine Bewegung auswählt, einen Antriebsmechanismus, der eine von der Betriebssteuereinheit ausgewählte Bewegung ausführt, eine Augenerzeugungseinheit, die ein Augenbild erzeugt, eine Augenanzeigeeinheit, die bewirkt, dass das Augenbild in einem Gesichtsbereich des Roboters angezeigt wird, und eine Lichterfassungseinheit, die ein externes Licht erfasst.
  • Die Augenerzeugungseinheit bewirkt, dass sich eine Größe eines im Augenbild enthaltenen Pupillenbildes entsprechend einer Intensität des externen Lichts ändert.
  • Ein autonom agierender Roboter in einem weiteren Aspekt der Erfindung umfasst eine Kamera, eine Betriebssteuereinheit, die eine Bewegung auswählt, einen Antriebsmechanismus, der eine von der Betriebssteuereinheit ausgewählte Bewegung ausführt, eine Augenerzeugungseinheit, die ein Augenbild erzeugt, und eine Augenanzeigeeinheit, die bewirkt, dass das Augenbild in einem Gesichtsbereich des Roboters angezeigt wird.
  • Die Augenerzeugungseinheit bewirkt, dass ein von der Kamera aufgenommenes Motivbild dem Augenbild überlagert wird.
  • Ein autonom agierender Roboter in einem anderen Aspekt der Erfindung umfasst eine Betriebssteuereinheit, die eine Bewegung auswählt, einen Antriebsmechanismus, der eine von der Betriebssteuereinheit ausgewählte Bewegung ausführt, eine Augenerzeugungseinheit, die ein Augenbild erzeugt, eine Augenanzeigeeinheit, die bewirkt, dass das Augenbild in einem Gesichtsbereich des Roboters angezeigt wird, eine Sichtlinienerfassungseinheit, die eine Sichtlinie eines Benutzers erfasst, und eine Symbolspeichereinheit, die ein mit einer Anzeigebedingung korreliertes Symbol speichert.
  • Wenn eine Anzeigebedingung für ein beliebiges Symbol erfüllt ist und eine Sichtlinie zum Roboter erkannt wird, überlagert die Augenerzeugungseinheit das Symbol auf dem Augenbild.
  • Ein autonom agierender Roboter in einem anderen Aspekt der Erfindung umfasst eine Betriebssteuereinheit, die eine Bewegung auswählt, einen Antriebsmechanismus, der eine von der Betriebssteuereinheit ausgewählte Bewegung ausführt, eine Augenerzeugungseinheit, die ein Augenbild erzeugt, eine Augenanzeigeeinheit, die bewirkt, dass das Augenbild in einem Gesichtsbereich des Roboters angezeigt wird, und eine Symbolspeichereinheit, die ein Symbol speichert, das mit einer Anzeigebedingung korreliert.
  • Wenn eine Anzeigebedingung für ein beliebiges Symbol erfüllt ist, überlagert die Augenerzeugungseinheit das Symbol auf dem Augenbild zu einem Zeitpunkt, an dem ein Blinzeln des Augenbildes ausgeführt wird.
  • Vorteilhafte Wirkungen der Erfindung
  • Gemäß der Erfindung lässt sich die Ausdruckskraft des Auges eines Roboters leicht erhöhen.
  • Figurenliste
    • [1 (a)] 1 (a) ist eine Vorderansicht eines Roboters.
    • [1 (b)] 1 (b) ist eine seitliche Außenansicht des Roboters.
    • [2] 2 ist eine Schnittansicht, die schematisch eine Struktur des Roboters darstellt.
    • [3] 3 ist ein Konfigurationsdiagramm eines Robotersystems.
    • [4] 4 ist eine schematische Ansicht einer Emotionskarte.
    • [5] 5 ist ein Hardware-Konfigurationsdiagramm des Roboters.
    • [6] 6 ist ein Funktionsblockdiagramm des Robotersystems.
    • [7] 7 ist eine Außenansicht eines Augenbildes.
    • [8] 8 ist eine vergrößerte Ansicht des Augenbildes.
    • [9(a)] 9(a) ist das Augenbild, wenn kein Augenlidbild angezeigt wird.
    • [9(b)] 9(b) ist das Augenbild, wenn das Augenlidbild auf einer inneren Seite des Augenwinkels herabhängt.
    • [9(c)] 9(c) ist ein erstes Augenbild, wenn das Augenlidbild auf der äußeren Seite des Augenwinkels herabhängt.
    • [9(d)] 9(d) ist ein zweites Augenbild, wenn das Augenlidbild auf der äußeren Seite des Augenwinkels herabhängt.
    • [9(e)] 9(e) ist das Augenbild, wenn ein unteres Augenlid zusätzlich zum Augenlidbild ebenfalls angezeigt wird.
    • [10] 10 ist eine Außenansicht des Augenbildes, wenn eine Reflektion angezeigt wird.
    • [11] 11 ist eine Außenansicht des Augenbildes, wenn ein Symbol angezeigt wird, das einen Pupillenbereich überlagert.
    • [12] 12 ist eine Außenansicht des Augenbildes, wenn ein Fanglicht in ein Symbol umgewandelt wird.
  • Beschreibung der Ausführungsformen
  • 1 (a) ist eine vordere Außenansicht eines Roboters 100. 1 (b) ist eine seitliche Außenansicht des Roboters 100.
  • Der Roboter 100 in dieser Ausführungsform ist ein autonom agierender Roboter, der eine Handlung oder Geste basierend auf einer äußeren Umgebung und einem internen Zustand bestimmt. Die äußere Umgebung wird mit verschiedenen Arten von Sensoren wie einer Kamera oder einem Thermosensor erkannt. Der interne Zustand wird als verschiedene Parameter quantifiziert, die Emotionen des Roboters 100 ausdrücken. Diese werden im Folgenden beschrieben.
  • Im Prinzip hat der Roboter 100 einen Innenraum eines Heims eines Besitzers als Aktionsbereich. Nachfolgend wird ein mit dem Roboter 100 verbundener Mensch als „Benutzer“ bezeichnet, und ein Benutzer, der ein Mitglied eines Hauses bildet, zu dem der Roboter 100 gehört, wird als „Besitzer“ bezeichnet.
  • Ein Körper 104 des Roboters 100 hat eine überall abgerundete Form und umfasst eine Außenhaut, die aus einem weichen Material mit Elastizität gebildet ist, wie beispielsweise Urethan, Gummi, einem Harz oder einer Faser. Der Roboter 100 kann bekleidet sein. Indem der Körper 104, der abgerundet, weich und angenehm anzufassen ist, angenommen wird, vermittelt der Roboter 100 einem Benutzer ein Gefühl von Sicherheit und ein angenehmes Tastgefühl.
  • Das Gesamtgewicht des Roboters 100 beträgt 15 Kilogramm oder weniger, vorzugsweise 10 Kilogramm oder weniger und noch bevorzugter 5 Kilogramm oder weniger. Ein Großteil der Babys beginnt im Alter von 13 Monaten alleine zu gehen. Das Durchschnittsgewicht eines 13 Monate alten Babys beträgt für Jungen etwas mehr als 9 kg und für Mädchen etwas weniger als 9 kg. Wenn daher das Gesamtgewicht des Roboters 100 10 kg oder weniger beträgt, kann ein Benutzer den Roboter 100 mit einem Kraftaufwand tragen, der praktisch dem Tragen eines Babys, das nicht alleine gehen kann, entspricht. Das durchschnittliche Gewicht eines weniger als 2 Monate alten Babys beträgt sowohl für Jungen als auch für Mädchen weniger als 5 kg. Wenn daher das Gesamtgewicht des Roboters 100 5 kg oder weniger beträgt, kann ein Benutzer den Roboter 100 mit einem Kraftaufwand tragen, der praktisch dem Tragen eines sehr jungen Babys entspricht.
  • Die Vorteile für einen Benutzer, der den Roboter 100 mühelos trägt, und den Roboter 100 halten möchte, wird durch die Attribute des entsprechenden Gewichts und die Rundheit, Weichheit und die angenehme Berührung realisiert. Aus den gleichen Gründen beträgt die Höhe des Roboters 100 wünschenswerterweise 1,2 Meter oder weniger oder vorzugsweise 0,7 Meter oder weniger. In dieser Ausführungsform ist es ein wichtiges Konzept des Roboters 100, dass er getragen werden kann.
  • Der Roboter 100 umfasst drei Räder für das Fahren auf drei Rädern. Wie in den Zeichnungen gezeigt, umfasst der Roboter 100 ein Paar Vorderräder 102 (ein linkes Rad 102a und ein rechtes Rad 102b) und ein Hinterrad 103. Die Vorderräder 102 sind Antriebsräder und das Hinterrad 103 ist ein angetriebenes Rad. Obwohl die Vorderräder 102 keinen Lenkmechanismus haben, können die Drehzahl und die Drehrichtung individuell gesteuert werden. Das Hinterrad 103 ist aus einem sogenannten Omni-Rad gebildet und dreht sich frei, um zu bewirken, dass sich der Roboter 100 vorwärts und rückwärts sowie nach links und rechts bewegt. Durch Steuern, so dass die Drehzahl des rechten Rades 102b größer als die des linken Rades 102a ist, kann sich der Roboter 100 nach links oder gegen den Uhrzeigersinn drehen. Durch Steuern, so dass die Drehzahl des linken Rades 102a größer als die des rechten Rades 102b ist, kann sich der Roboter 100 nach rechts oder im Uhrzeigersinn drehen.
  • Die Vorderräder 102 und das Hinterrad 103 können unter Verwendung eines Antriebsmechanismus (eines Schwenkmechanismus und eines Verbindungsmechanismus) vollständig in dem Körper 104 verstaut werden. Ein größerer Teil jedes Rades wird vom Körper 104 auch beim Fahren verborgen, wenn jedoch jedes Rad vollständig im Körper 104 verstaut ist, befindet sich der Roboter 100 in einem Zustand, in dem er sich nicht bewegen kann. Das heißt, der Körper 104 senkt sich ab und sitzt auf einer Bodenfläche F, begleitet von einer Betätigung der Räder, die untergebracht werden. Im Sitzzustand kommt eine in einem Bodenabschnitt des Körpers 104 ausgebildete flache Sitzfläche 108 (eine Bodenunterseite) mit der Bodenfläche F in Kontakt.
  • Der Roboter 100 hat zwei Arme 106. Die Arme 106 haben keine Funktion zum Ergreifen eines Objekts. Die Arme 106 können einfache Aktionen ausführen, wie beispielsweise Anheben, Winken und Schwenken. Die beiden Arme 106 können auch einzeln gesteuert werden.
  • Ein Auge 110 kann mit Hilfe eines Flüssigkristallelements oder einem organischen EL-Element ein Bild anzeigen. Verschiedene Sensoren, wie beispielsweise ein Mikrofonarray oder ein Ultraschallsensor, der die Richtung einer Schallquelle erkennen kann, sind im Roboter 100 angeordnet. Außerdem ist ein Lautsprecher eingebaut, und der Roboter 100 ist auch in der Lage, einfache Sprache zu sprechen.
  • Ein Horn 112 ist an einem Kopfabschnitt des Roboters 100 angebracht. Da der Roboter 100, wie zuvor beschrieben, leicht ist, kann ein Benutzer den Roboter 100 auch durch Ergreifen des Horns 112 anheben. Eine omnidirektionale Kamera ist am Horn 112 angebracht und kann einen ganzen Bereich über dem Roboter 100 gleichzeitig aufnehmen.
  • 2 ist eine Schnittansicht, die schematisch eine Struktur des Roboters 100 darstellt.
  • Wie in 2 gezeigt ist, umfasst der Körper 104 des Roboters 100 einen Basisrahmen 308, einen Hauptkörperrahmen 310, ein Paar Radabdeckungen 312 aus Harz und eine Außenhaut 314. Der Basisrahmen 308 ist aus Metall gebildet und trägt einen inneren Mechanismus sowie die Konfiguration einer Welle des Körpers 104. Der Basisrahmen 308 ist aus einer oberen Platte 332 und einer unteren Platte 334 aufgebaut, die vertikal durch eine Vielzahl von Seitenplatten 336 verbunden sind. Zwischen der Vielzahl der Seitenplatten 336 ist ein ausreichender Abstand vorgesehen, so dass eine Belüftung möglich ist. Eine Batterie 118, eine Steuerschaltung 342 und verschiedene Arten von Stellgliedern und dergleichen sind innerhalb des Basisrahmens 308 untergebracht.
  • Der Hauptkörperrahmen 310 ist aus einem Harzmaterial gebildet und umfasst einen Kopfabschnittsrahmen 316 und einen Rumpfabschnittsrahmen 318. Der Kopfabschnittrahmen 316 hat eine hohle Halbkugelform und bildet einen Kopfabschnittrahmen des Roboters 100. Der Rumpfabschnittrahmen 318 hat eine gestufte zylindrische Form und bildet ein Rumpfabschnitttragwerk des Roboters 100. Der Rumpfabschnittsrahmen 318 ist fest mit dem Basisrahmen 308 verbunden. Der Kopfabschnittrahmen 316 ist an einem oberen Endabschnitt des Rumpfabschnittrahmens 318 so angebracht, dass er relativ verschiebbar ist.
  • Drei Wellen, nämlich eine Gierwelle 320, eine Nickwelle 322 und eine Wickelwelle 324, und ein Stellglied 326 zum drehbaren Antreiben jeder Welle sind in dem Kopfabschnittsrahmen 316 angeordnet. Das Stellglied 326 umfasst mehrere Servomotoren zum individuellen Antreiben jeder Welle. Die Gierwelle 320 wird für eine Kopfbewegungsaktion angetrieben, die Nickwelle 322 wird für eine Nickbewegung angetrieben, und die Wickelwelle 324 wird für eine Kopfkippaktion angetrieben.
  • Eine Platte 325, die die Gierwelle 320 trägt, ist an einem oberen Abschnitt des Kopfabschnittrahmens 316 befestigt. Eine Vielzahl von Belüftungslöchern 327 zum Sichern der Belüftung zwischen den oberen und unteren Abschnitten ist in der Platte 325 ausgebildet.
  • Eine Basisplatte 328 aus Metall ist angeordnet, um den Kopfabschnittrahmen 316 und einen inneren Mechanismus davon von unten zu stützen. Die Basisplatte 328 ist mit der Platte 325 über einen Quervernetzungsmechanismus 329 (einen Pantagraphenmechanismus) verbunden und ist über ein Gelenkstück 330 mit der oberen Platte 332 (dem Basisrahmen 308) verbunden.
  • Der Rumpfabschnittrahmen 318 beherbergt den Basisrahmen 308 und einen Radantriebsmechanismus 370. Der Radantriebsmechanismus 370 umfasst eine Schwenkwelle 378 und ein Stellglied 379. Ein unterer Halbabschnitt des Rumpfabschnittsrahmens 318 ist von geringer Breite, um einen Gehäuseraum S des Vorderrades 102 zwischen den Radabdeckungen 312 zu bilden.
  • Die Außenhaut 314 ist aus Urethangummi gebildet und bedeckt den Hauptkörperrahmen 310 und die Radabdeckungen 312 von einer Außenseite. Die Arme 106 sind einstückig mit der Außenhaut 314 geformt. Ein Öffnungsabschnitt 390 zum Einführen von Außenluft ist in einem oberen Endabschnitt der Außenhaut 314 angeordnet.
  • 3 ist ein Konfigurationsdiagramm eines Robotersystems 300. Das Robotersystem 300 umfasst den Roboter 100, den Server 200 und eine Vielzahl von externen Sensoren 114. Die Vielzahl der externen Sensoren 114 (externe Sensoren 114a, 114b, und so weiter bis 114n) werden vorab in einem Haus installiert. Der externe Sensor 114 kann an einer Wandfläche des Hauses befestigt oder auf einem Boden platziert werden. Die Positionskoordinaten des externen Sensors 114 werden auf dem Server 200 registriert. Die Positionskoordinaten, die als Aktionsbereich des Roboters 100 vorgesehen sind, werden im Haus als x, y-Koordinaten definiert
  • Der Server wird im Haus eingerichtet. In dieser Ausführungsform entsprechen der Server 200 und der Roboter 100 normalerweise Eins-zu-Eins. Der Server 200 bestimmt eine Basisaktion des Roboters 100 auf der Grundlage von Informationen, die von den in dem Roboter 100 enthaltenen Sensoren und der Vielzahl der externen Sensoren 114 empfangen werden.
  • Der externe Sensor 114 dient zur Verstärkung von Sinnesorganen des Roboters 100 und der Server 200 dient zur Verstärkung der Gehirnleistung des Roboters 100.
  • Der externe Sensor 114 sendet regelmäßig ein drahtloses Signal (im Folgenden als „Robotersuchsignal“ bezeichnet) einschließlich der ID (im Folgenden als „Baken-ID“ bezeichnet) des externen Sensors 114. Beim Empfang des Robotersuchsignals sendet der Roboter 100 ein drahtloses Signal (im Folgenden als „Roboterantwortsignal“ bezeichnet) zurück, das die Baken-ID enthält. Der Server 200 misst eine Zeit von dem externen Sensor 114, der das Robotersuchsignal überträgt, bis er das Roboterantwortsignal empfängt, und misst eine Entfernung von dem externen Sensor 114 zu dem Roboter 100. Durch Messen des Abstands zwischen jedem der Vielzahl der externen Sensoren 114 und dem Roboter 100 identifiziert der Server 200 die Positionskoordinaten des Roboters 100.
  • Natürlich kann auch ein Verfahren angewendet werden, bei dem der Roboter 100 regelmäßig seine eigenen Positionskoordinaten an den Server 200 überträgt.
  • 4 ist eine schematische Ansicht einer Emotionskarte 116. Die Emotionskarte 116 ist eine im Server 200 gespeicherte Datentabelle. Der Roboter 100 wählt eine Aktion gemäß der Emotionskarte 116 aus. Die in 4 gezeigte Emotionskarte 116 zeigt eine Größe einer emotionalen Verbundenheit oder einer Abneigung gegen einen Ort des Roboters 100. Eine x-Achse und eine y-Achse der Emotionskarte 116 zeigen zweidimensionale Raumkoordinaten an. Eine z-Achse zeigt die Stärke einer emotionalen Anziehungskraft oder einer Abneigung an. Wenn ein z-Wert ein positiver Wert ist, ist eine Anziehungskraft zu dem Ort hoch, und wenn der z-Wert ein negativer Wert ist, ist der Roboter 100 dem Ort abgeneigt.
  • Auf der Emotionskarte 116 von 4 ist eine Koordinate P1 ein Punkt in einem Innenraum, der vom Server 200 als Aktionsbereich des Roboters 100 verwaltet wird, an dem eine Emotion der Anziehung hoch ist (nachstehend als bevorzugter Punkt bezeichnet). Der bevorzugte Punkt kann ein „sicherer Ort“ sein, wie z. B. hinter einem Sofa oder unter einem Tisch, oder er kann ein Ort sein, an dem sich die Menschen gerne zusammenfinden, oder ein belebter Ort wie ein Wohnzimmer. Der sichere Ort kann auch ein Ort sein, an dem der Roboter 100 in der Vergangenheit sanft gestreichelt oder berührt wurde.
  • Festzulegen, welche Art Ort der Roboter 100 bevorzugt, geschieht willkürlich, aber es ist generell wünschenswert, dass ein von Kleinkindern oder von Kleintieren wie Hunden oder Katzen bevorzugter Ort als bevorzugter Punkt festgelegt wird.
  • Eine Koordinate P2 ist ein Punkt, an dem ein Gefühl der Abneigung hoch ist (im Folgenden als „unbeliebter Punkt“ bezeichnet). Der unbeliebte Punkt kann ein Ort sein, an dem es ein lautes Geräusch gibt, wie z.B. in der Nähe eines Fernsehers, ein Ort, an dem es wahrscheinlich ein Leck geben kann, wie z.B. ein Badezimmer oder ein Waschraum, ein geschlossener Raum oder ein dunkler Ort, ein Ort, an dem der Roboter 100 von einem Benutzer grob behandelt wurde und der eine unangenehme Erinnerung hervorruft, oder dergleichen.
  • Festzulegen, welche Art Ort der Roboter 100 ablehnt, geschieht willkürlich, aber es ist generell wünschenswert, dass ein von Kleinkindern oder von Kleintieren wie Hunden oder Katzen gefürchteter Ort als unbeliebter Punkt gesetzt wird.
  • Eine Koordinate Q zeigt eine aktuelle Position des Roboters 100 an. Der Server 200 identifiziert die Positionskoordinaten des Roboters 100 unter Verwendung des Robotersuchsignals, das regelmäßig von der Vielzahl der externen Sensoren 114 übertragen wird, und des Antwortsignals des Roboters, das auf das Robotersuchsignal reagiert. Wenn beispielsweise der externe Sensor 114 mit Baken-ID = 1 und der externe Sensor 114 mit Baken-ID = 2 jeweils den Roboter 100 erfassen, bezieht der Server 200 die Abstände des Roboters 100 von den beiden externen Sensoren 114 und erhält die Positionskoordinaten des Roboters 100 aus den Abständen.
  • Alternativ sendet der externe Sensor 114 mit Baken-ID = 1 das Robotersuchsignal in ein Vielfaches der Richtungen, und der Roboter 100 gibt beim Empfang des Robotersuchsignals das Roboterantwortsignal zurück. Auf diese Weise kann der Server 200 feststellen, in welche Richtung und in welcher Entfernung sich der Roboter 100 von welchem externen Sensor 114 befindet. Außerdem kann der Server 200 in einer weiteren Ausführungsform aus der Drehzahl des Vorderrads 102 oder des Hinterrads 103 eine vom Roboter 100 zurückgelegte Entfernung berechnen und so die aktuelle Position identifizieren oder die aktuelle Position basierend auf einem von der Kamera erhaltenen Bild identifizieren.
  • Wenn die in 4 dargestellte Emotionskarte 116 bereitgestellt wird, bewegt sich der Roboter 100 in Richtung des bevorzugten Punktes (Koordinate P1) oder in eine Richtung weg vom unbeliebten Punkt (Koordinate P2)
  • Die Emotionskarte 116 ändert sich dynamisch. Wenn der Roboter 100 an der Koordinate P1 ankommt, nimmt der z-Wert (Emotion der Anziehung) an der Koordinate P1 mit der Zeit ab. Deshalb kann der Roboter 100 ein tierähnliches Verhalten nachahmen, indem er „emotional zufrieden ist“, wenn er an dem bevorzugten Punkt (Koordinate P1) angekommen ist und mit der Zeit „gelangweilt“ bei dem Punkt werden. In gleicher Weise wird das Gefühl der Abneigung an der Koordinate P2 im Laufe der Zeit gelindert. Ein neuer bevorzugter oder unbeliebter Punkt erscheint nachdem einige Zeit verstrichen ist, weshalb der Roboter 100 eine neue Aktionsauswahl vornimmt. Der Roboter 100 hat „Interesse“ an einem neuen bevorzugten Punkt und führt ununterbrochen eine neue Aktionsauswahl aus.
  • Die Emotionskarte 116 drückt emotionale Schwingungen als einen internen Zustand des Roboters 100 aus. Der Roboter 100 sucht nach einem bevorzugten Punkt, vermeidet einen unbeliebten Punkt, bleibt eine Weile am bevorzugten Punkt und führt rechtzeitig die nächste Aktion aus. Mit dieser Art Steuerung kann die Aktionsauswahl des Roboters 100 eine menschenähnliche oder tierähnliche Aktionsauswahl sein.
  • Karten, die eine Aktion des Roboters 100 beeinflussen (im Folgenden zusammenfassend als „Aktionskarten“ bezeichnet), sind nicht auf den Typ der in 4 gezeigten Emotionskarte 116 beschränkt. Zum Beispiel können verschiedene Aktionskarten definiert werden, wie z. B. Neugier, der Wunsch, Angst zu vermeiden, der Wunsch nach Sicherheit, der Wunsch innere Ruhe zu finden und der Wunsch nach physischer Behaglichkeit, wie Ruhe, schwachem Licht, Kühle oder Wärme. Darüber hinaus kann ein Zielpunkt des Roboters 100 bestimmt werden, indem ein gewichteter Mittelwert der z-Werte von jeweils einem Vielfachen von Aktionskarten gebildet wird.
  • Zusätzlich zu einer Aktionskarte weist der Roboter 100 Parameter auf, die eine Größe verschiedener Emotionen oder Sinne anzeigen. Wenn beispielsweise ein Wert eines Einsamkeits-Emotionsparameters steigt, wird ein Gewichtungskoeffizient einer Aktionskarte, die Orte auswertet, an denen sich der Roboter 100 wohl fühlt, hoch gesetzt, und der Wert dieses Emotionsparameters wird reduziert, wenn der Roboter 100 einen Zielpunkt erreicht. Ebenso genügt es, wenn ein Wert eines Parameters, der ein Gefühl der Langeweile anzeigt, zunimmt, dass ein Gewichtungskoeffizient einer Aktionskarte, die Orte bewertet, an denen die Neugier befriedigt wird, hoch gesetzt wird.
  • 5 ist ein Hardware-Konfigurationsdiagramm des Roboters 100.
  • Der Roboter 100 umfasst einen Monitor 170, einen internen Sensor 128, einen Kommunikator 126, eine Speichervorrichtung 124, einen Prozessor 122, einen Antriebsmechanismus 120 und eine Batterie 118. Der Antriebsmechanismus 120 umfasst den Radantriebsmechanismus 370. Der Prozessor 122 und die Speichervorrichtung 124 sind in der Steuerschaltung 342 enthalten. Die Einheiten sind durch eine Stromleitung 130 und eine Signalleitung 132 miteinander verbunden. Die Batterie 118 versorgt jede Einheit über die Stromleitung 130 mit Strom. Jede Einheit sendet und empfängt über die Signalleitung 132 ein Steuersignal. Die Batterie 118 ist eine wiederaufladbare Lithiumionenbatterie und ist eine Energiequelle des Roboters 100.
  • Der Monitor 170 ist im Auge 110 des Roboters 100 angeordnet und bewirkt, dass ein Augenbild angezeigt wird (wie nachstehend beschrieben).
  • Der interne Sensor 128 ist eine Sammlung verschiedener Arten von Sensoren, die in den Roboter 100 eingebaut sind. Insbesondere ist der interne Sensor 128 eine Kamera (omnidirektionale Kamera), ein Mikrofonarray, ein Abstandssensor (Infrarotsensor), ein Thermosensor, ein Berührungssensor, ein Beschleunigungssensor, ein Geruchssensor, ein Tastsensor und dergleichen. Der Berührungssensor wird zwischen der Außenhaut 314 und dem Hauptkörperrahmen 310 angebracht und erkennt eine Berührung durch einen Benutzer. Der Geruchssensor ist ein bereits bekannter Sensor, der ein Prinzip anwendet, bei dem sich der elektrische Widerstand entsprechend einer Adsorption von Molekülen, die eine Geruchsquelle bilden, ändert. Der Geruchssensor klassifiziert verschiedene Gerüche in verschiedene Kategorien.
  • Der Kommunikator 126 ist ein Kommunikationsmodul, das eine drahtlose Kommunikation mit dem Server 200 und verschiedenen Arten von externen Geräten, wie beispielsweise dem externen Sensor 114 und einem mobilen Gerät, das ein Benutzer besitzt, als Ziel ausführt. Die Speichervorrichtung 124 ist aus einem nichtflüchtigen Speicher und einem flüchtigen Speicher aufgebaut und speichert ein Computerprogramm und verschiedene Arten von Einstellungsinformationen. Der Prozessor 122 ist ein Mittel zum Ausführen eines Computerprogramms. Der Antriebsmechanismus 120 ist ein Stellglied, das einen internen Mechanismus steuert. Darüber hinaus ist auch eine Anzeige, ein Lautsprecher und dergleichen angebracht.
  • Der Prozessor 122 wählt eine Aktion des Roboters 100 aus, indem er über den Kommunikator 126 mit dem Server 200 oder dem externen Sensor 114 kommuniziert. Verschiedene Arten externer Informationen, die durch den internen Sensor 128 erhalten werden, beeinflussen auch die Aktionsauswahl. Der Antriebsmechanismus 120 steuert hauptsächlich das Rad (das Vorderrad 102) und den Kopfabschnitt (den Kopfabschnittrahmen 316). Der Antriebsmechanismus 120 ändert eine Bewegungsrichtung und eine Bewegungsgeschwindigkeit des Roboters 100 durch Ändern der Drehgeschwindigkeit und der Drehrichtung jedes der beiden Vorderräder 102. Der Antriebsmechanismus 120 kann auch die Räder (das Vorderrad 102 und das Hinterrad 103) anheben und absenken. Wenn sich die Räder anheben, sind die Räder vollständig in dem Körper 104 gelagert, und der Roboter 100 kommt über die Sitzfläche 108 mit der Bodenfläche F in Kontakt und nimmt den Sitzzustand an. Außerdem steuert der Antriebsmechanismus 120 den Arm 106 über einen Draht 135.
  • 6 ist ein Funktionsblockdiagramm des Robotersystems 300.
  • Wie vorstehend beschrieben, umfasst das Robotersystem 300 den Roboter 100, den Server 200 und die Vielzahl von externen Sensoren 114. Jede Komponente des Roboters 100 und des Servers 200 wird durch Hardware realisiert, die einen Rechner umfasst, der aus einer CPU (zentrale Verarbeitungseinheit) gebildet wird, verschiedenen Arten von Co-Prozessoren und dergleichen, einer Speichervorrichtung, die ein Kurzzeitspeicher oder Langzeitspeicher ist, und einer verdrahteten oder drahtlosen Kommunikationsleitung, die den Rechner und die Speichervorrichtung miteinander verbindet, sowie auf der Speichervorrichtung gespeicherte Software, die dem Rechner einen Verarbeitungsbefehl liefert. Ein Rechnerprogramm kann aus einem Gerätetreiber, einem Betriebssystem, verschiedenen Arten von Anwendungsprogrammen, die in einer oberen Schicht davon positioniert sind, und einer Bibliothek konfiguriert sein, die den Programmen eine gemeinsame Funktion bietet. Jeder nachstehend beschriebene Block zeigt einen funktionalen Einheitenblock anstelle einer Konfiguration einer Hardwareeinheit an.
  • Ein Teil der Funktionen des Roboters 100 kann durch den Server 200 realisiert werden, und ein Teil oder alle Funktionen des Servers 200 können durch den Roboter 100 realisiert werden.
  • Server 200
  • Der Server 200 umfasst eine Kommunikationseinheit 204, eine Datenverarbeitungseinheit 202 und eine Datenspeichereinheit 206.
  • Die Kommunikationseinheit 204 verwaltet einen Prozess zum Kommunizieren mit dem externen Sensor 114 und dem Roboter 100. Die Datenspeichereinheit 206 speichert verschiedene Arten von Daten. Die Datenverarbeitungseinheit 202 führt verschiedene Arten von Prozessen auf der Grundlage der von der Kommunikationseinheit 204 erfassten Daten und der in der Datenspeichereinheit 206 gespeicherten Daten aus. Die Datenverarbeitungseinheit 202 fungiert auch als eine Schnittstelle der Kommunikationseinheit 204 und der Datenspeichereinheit 206.
  • Die Datenspeichereinheit 206 enthält eine Bewegungsspeichereinheit 232, eine Kartenspeichereinheit 216 und eine Einzeldatenspeichereinheit 218.
  • Der Roboter 100 hat eine Vielzahl von Betriebsmustern (Bewegungen). Verschiedene Bewegungen, wie das Winken des Arms 106, das Annähern an einen Besitzer während des Umherbewegens und das Beobachten eines Besitzers mit zur Seite geneigtem Kopf, sind definiert.
  • Die Bewegungsspeichereinheit 232 speichert Steuerdetails einer Bewegung (eine Bewegungsdatei). Jede Bewegung wird durch die Bewegungs-ID identifiziert. Die Bewegungsdatei wird auch in eine Bewegungsspeichereinheit 160 des Roboters 100 heruntergeladen. Welche Bewegung ausgeführt werden soll, kann vom Server 200 oder im Roboter 100 bestimmt werden.
  • Viele Bewegungen des Roboters 100 sind als zusammengesetzte Bewegungen konfiguriert, die eine Vielzahl von Bauteilbewegungen umfassen. Wenn sich der Roboter 100 beispielsweise einem Besitzer nähert, kann die Annäherung als eine Kombination aus einer Bauteilbewegung mit Richtungsänderung gegenüber dem Besitzer, einer Bauteilbewegung mit Annäherung beim Anheben eines Arms, einer Bauteilbewegung mit Annäherung beim Schütteln des Körpers und einer Bauteilbewegung mit Sitz beim Anheben beider Arme ausgedrückt werden. Durch die Kombination dieser vier Bewegungsarten wird die Bewegung „Annäherung an einen Besitzer, Anheben eines Armes auf dem Weg dorthin und anschließendes Sitzen nach dem Schütteln des Körpers“ verwirklicht. Ein Drehwinkel, eine Winkelgeschwindigkeit und dergleichen eines im Roboter 100 vorgesehenen Stellglieds ist in Korrelation mit einer Zeitachse in einer Bewegungsdatei definiert. Verschiedene Bewegungen werden ausgeführt, indem jedes Stellglied zusammen mit dem Zeitablauf gemäß der Bewegungsdatei (Stellglied-Steuerinformationen) gesteuert wird.
  • Eine Schaltzeit für den Wechsel von einer vorhergehenden Bauteilbewegung zu einer nachfolgenden Bauteilbewegung wird als „Intervall“ bezeichnet. Es genügt, dass ein Intervall entsprechend der Zeit definiert wird, die für eine Veränderung der Bewegungseinheit oder Einzelheiten einer Bewegung benötigt wird. Es kann eine Länge eines Intervalls eingestellt werden.
  • Im Folgenden werden Einstellungen, die an der Steuerung einer Aktion des Roboters 100 beteiligt sind, wie z. B. welche Bewegung wann gewählt wird, und die Ausgangsregelung jedes Stellglieds bei der Realisierung einer Bewegung, zusammenfassend als „Verhaltensmerkmale“ bezeichnet. Die Verhaltensmerkmale des Roboters 100 werden durch einen Bewegungsauswahlalgorithmus, eine Bewegungsauswahlwahrscheinlichkeit, eine Bewegungsdatei und dergleichen definiert.
  • Zusätzlich zu einer Bewegungsdatei speichert die Bewegungsspeichereinheit 232 eine Bewegungsauswahltabelle, die Bewegungen definiert, die bei Auftreten verschiedener Ereignistypen ausgeführt werden sollen. Eine oder mehrere Bewegungen und deren Auswahlwahrscheinlichkeiten sind mit einem Ereignis in der Bewegungsauswahltabelle korreliert.
  • Die Kartenspeichereinheit 216 speichert neben einem Vielfachen von Aktionskarten auch eine Karte, die eine Stellungssituation eines Hindernisses wie eines Stuhls oder eines Tisches anzeigt. Die Einzeldatenspeichereinheit 218 speichert Informationen über einen Benutzer und insbesondere über einen Besitzer. Insbesondere speichert die Einzeldatenspeichereinheit 218 Masterinformationen, die die Vertrautheit mit einem Benutzer, physische Merkmale und Verhaltensmerkmale anzeigen. Die Einzeldatenspeichereinheit 218 kann auch andere Attributinformationen wie Alter und Geschlecht speichern.
  • Der Roboter 100 hat einen internen Parameter der Vertrautheit für jeden Benutzer. Wenn der Roboter 100 eine Aktion erkennt, die eine Zuneigung für den Roboter 100 anzeigt, wie z. B. das Aufheben des Roboters 100 oder das Sprechen mit dem Roboter 100, steigt die Vertrautheit mit diesem Benutzer. Die Vertrautheit nimmt in Bezug auf einen Benutzer ab, der sich nicht für den Roboter 100 interessiert, einen Benutzer, der sich grob verhält, oder einen Benutzer, der selten anzutreffen ist.
  • Die Datenverarbeitungseinheit 202 umfasst eine Positionsverwaltungseinheit 208, eine Kartenverwaltungseinheit 210, eine Erkennungseinheit 212, eine Betriebssteuereinheit 222, eine Vertrautheitsverwaltungseinheit 220 und eine Zustandsverwaltungseinheit 244.
  • Die Positionsverwaltungseinheit 208 identifiziert die Positionskoordinaten des Roboters 100 unter Verwendung des unter 3 beschriebenen Verfahrens. Die Positionsverwaltungseinheit 208 kann auch Positionskoordinaten eines Benutzers in Echtzeit verfolgen.
  • Die Zustandsverwaltungseinheit 244 verwaltet verschiedene Arten von internen Parametern, wie beispielsweise eine Laderate, eine Innentemperatur und verschiedene Arten von physikalischen Zuständen, wie beispielsweise eine Verarbeitungslast des Prozessors 122. Die Zustandsverwaltungseinheit 244 beinhaltet eine Emotionsverwaltungseinheit 234.
  • Die Emotionsverwaltungseinheit 234 verwaltet verschiedene Emotionsparameter, die Emotionen (Einsamkeit, Neugier, Wunsch nach Anerkennung und dergleichen) des Roboters 100 anzeigen. Diese Emotionsparameter schwanken ständig. Die Bedeutung des Vielfachen von Aktionskarten ändert sich in Übereinstimmung mit den Emotionsparametern, ein Bewegungszielpunkt des Roboters 100 ändert sich in Übereinstimmung mit den Aktionskarten, und die Emotionsparameter ändern sich in Übereinstimmung mit der Bewegung des Roboters 100 und dem Zeitverlauf.
  • Wenn beispielsweise der Emotionsparameter, der die Einsamkeit anzeigt, hoch ist, stellt die Emotionsverwaltungseinheit 234 den Gewichtungskoeffizienten der Aktionskarte, die Orte auswertet, an denen sich der Roboter 100 wohl fühlt, hoch ein. Wenn der Roboter 100 einen Punkt auf der Aktionskarte erreicht, an dem Einsamkeit behoben werden kann, reduziert die Emotionsverwaltungseinheit 234 den Emotionsparameter für Einsamkeit. Außerdem ändert sich jede Art von Emotionsparameter entsprechend einer nachstehend beschriebenen Reaktionshandlung. So nimmt beispielsweise der Emotionsparameter, der die Einsamkeit anzeigt, ab, wenn der Roboter 100 von einem Besitzer „umarmt“ wird, und der Emotionsparameter, der die Einsamkeit anzeigt, erhöht sich nach und nach, wenn der Roboter 100 einen Besitzer über einen längeren Zeitraum nicht optisch erkennt.
  • Die Kartenverwaltungseinheit 210 ändert den Parameter jeder Koordinate auf dem Vielfachen von Aktionskarten unter Verwendung des in Verbindung mit 4 beschriebenen Verfahrens. Die Kartenverwaltungseinheit 210 kann eine aus der Vielzahl von Aktionskarten auswählen oder einen gewichteten Durchschnitt der z-Werte der Vielzahl von Aktionskarten verwenden. Es wird beispielsweise angenommen, dass die z-Werte an einer Koordinate R1 und einer Koordinate R2 auf einer Aktionskarte A 4 und 3 sind und die z-Werte an der Koordinate R1 und der Koordinate R2 auf einer Aktionskarte B -1 und 3 sind. Bei der Bildung eines einfachen Mittelwertes ist der gesamte z-Wert an der Koordinate R1 4 - 1 = 3, und der gesamte z-Wert an der Koordinate R2 ist 3 + 3 = 6, weshalb der Roboter 100 nicht in Richtung der Koordinate R1, sondern in Richtung der Koordinate R2 steuert.
  • Wenn die Aktionskarte A 5-mal in Bezug auf die Aktionskarte B gewichtet wird, beträgt der gesamte z-Wert an der Koordinate R1 4 x 5 - 1 = 19, und der gesamte z-Wert an der Koordinate R2 3 x 5 + 3 = 18, wodurch der Roboter 100 in Richtung der Koordinate R1 steuert.
  • Die Erkennungseinheit 212 erkennt eine externe Umgebung. Verschiedene Arten der Erkennung, wie beispielsweise die Erkennung von Wetter oder Jahreszeit basierend auf Temperatur und Luftfeuchtigkeit und die Erkennung von Schutz (ein sicherer Bereich) basierend auf Lichtmenge und Temperatur, sind in die Erkennung der äußeren Umgebung einbezogen. Die Erkennungseinheit 156 des Roboters 100 erfasst mit dem internen Sensor 128 verschiedene Arten von Umweltinformationen und überträgt nach einer primären Verarbeitung der Umweltinformationen die Umweltinformationen an die Erkennungseinheit 212 des Servers 200.
  • Insbesondere extrahiert die Erkennungseinheit 156 des Roboters 100 aus einem Bild einen Bildbereich, der einem sich bewegenden Objekt, insbesondere einer Person oder einem Tier, entspricht, und extrahiert einen „Merkmalsvektor“ als eine Sammlung von Merkmalsgrößen, die physikalische Eigenschaften und Verhaltensmerkmale des sich bewegenden Objekts aus dem extrahierten Bildbereich anzeigen. Eine Merkmalsvektorkomponente (Merkmalsgröße) ist eine Zahl, bei der verschiedene Arten von physikalischen und verhaltensbezogenen Merkmalen quantifiziert werden. Beispielsweise wird eine horizontale Breite eines menschlichen Auges in einem Bereich von 0 bis 1 quantifiziert und bildet eine Merkmalsvektorkomponente. Die bereits bekannte Gesichtserkennungstechnologie wird als Verfahren zur Extraktion eines Merkmalsvektors aus einem aufgenommenen Bild einer Person eingesetzt. Der Roboter 100 überträgt den Merkmalsvektor an den Server 200.
  • Die Erkennungseinheit 212 des Servers 200 umfasst ferner eine Personenerkennungseinheit 214 und eine Reaktionserkennungseinheit 228.
  • Die Personenerkennungseinheit 214 legt fest, welcher Person ein aufgenommener Benutzer entspricht, indem sie einen Merkmalsvektor, der aus einem von der im Roboter 100 integrierten Kamera aufgenommenen Bild extrahiert wurde, mit einem Merkmalsvektor eines Benutzers (Clusters) vergleicht, der zuvor in der Einzeldatenspeichereinheit 218 registriert wurde (ein Benutzeridentifikationsverfahren). Die Personenerkennungseinheit 214 umfasst eine Ausdruckerkennungseinheit 230. Die Ausdruckserkennungseinheit 230 leitet eine Emotion eines Benutzers her, indem sie eine Bilderkennung eines Ausdrucks des Benutzers durchführt.
  • Die Personenerkennungseinheit 214 führt auch einen Benutzererkennungsprozess an einem sich bewegenden Objekt durch, das keine Person ist, z.B. eine Katze oder ein Hund, das ein Haustier ist.
  • Die Reaktionserkennungseinheit 228 erkennt verschiedene Reaktionshandlungen, die von einem Benutzer in Bezug auf den Roboter 100 ausgeführt werden, und klassifiziert die Aktionen als angenehme oder unangenehme Aktionen. Außerdem erkennt die Reaktionserkennungseinheit 228 eine Reaktionshandlung eines Besitzers in Bezug auf eine Aktion des Roboters 100, wodurch die Reaktionshandlung als positive oder negative Reaktion klassifiziert wird.
  • Es wird zwischen angenehmen und unangenehmen Aktionen unterschieden, je nachdem, ob eine ansprechende Aktion eines Benutzers für ein Tier angenehm oder unangenehm ist. Zum Beispiel ist das Umarmen eine angenehme Aktion für den Roboter 100, und das Getreten werden ist eine unangenehme Aktion für den Roboter 100. Positive und negative Reaktionen werden unterschieden, je nachdem, ob eine Reaktion eines Benutzers auf eine angenehme oder eine unangenehme Emotion des Benutzers hinweist. Zum Beispiel ist die Umarmung eine positive Reaktion, die eine angenehme Emotion des Benutzers anzeigt, und der Tritt ist eine negative Reaktion, die eine unangenehme Emotion des Benutzers anzeigt.
  • Die Betriebssteuereinheit 222 des Servers 200 bestimmt eine Bewegung des Roboters 100 in Zusammenarbeit mit einer Betriebssteuereinheit 150 des Roboters 100. Die Betriebssteuer-einheit 222 des Servers 200 stellt einen Bewegungszielpunkt des Roboters 100 und eine Bewegungsroute für den Bewegungszielpunkt basierend auf einer Aktivitätskartenauswahl durch die Kartenverwaltungseinheit 210 zusammen. Die Bewegungssteuereinheit 222 stellt eine Vielzahl von Bewegungsrouten zusammen und kann, nachdem sie das getan hat, eine der Bewegungsrouten auswählen.
  • Die Betriebssteuereinheit 222 wählt eine Bewegung des Roboters 100 aus einer Vielzahl von Positionen der Bewegungsspeichereinheit 232 aus. Eine Auswahlwahrscheinlichkeit wird für jede Situation mit jeder Bewegung korreliert. So wird beispielsweise ein Auswahlverfahren definiert, bei dem eine Bewegung A mit einer Wahrscheinlichkeit von 20 % ausgeführt wird, wenn eine angenehme Aktion von einem Besitzer ausgeführt wird, und eine Bewegung B mit einer Wahrscheinlichkeit von 5 %, wenn eine Temperatur 30 °C oder höher beträgt.
  • Ein Bewegungszielpunkt und eine Bewegungsroute werden durch eine Aktionskarte bestimmt, und eine Bewegung wird gemäß verschiedenen Arten von Ereignissen ausgewählt, die nachstehend beschrieben werden.
  • Die Vertrautheitsverwaltungseinheit 220 verwaltet die Vertrautheit für jeden Benutzer. Wie zuvor beschrieben, wird die Vertrautheit als ein Teil der einzelnen Daten in der Einzeldatenspeichereinheit 218 registriert. Wenn eine angenehme Aktion erfasst wird, erhöht die Vertrautheitsverwaltungseinheit 220 die Vertrautheit mit diesem Besitzer. Wird eine unangenehme Aktion erfasst, verringert die Vertrautheitsverwaltungseinheit 220 die Vertrautheit. Auch die Vertrautheit mit einem Besitzer, der über einen längeren Zeitraum nicht visuell erkannt wurde, nimmt allmählich ab.
  • Roboter 100
  • Der Roboter 100 umfasst eine Kommunikationseinheit 142, eine Datenverarbeitungseinheit 136, eine Datenspeichereinheit 148, den internen Sensor 128, den Monitor 170 und den Antriebsmechanismus 120.
  • Die Kommunikationseinheit 142 entspricht dem Kommunikator 126 (siehe 5) und verwaltet einen Prozess der Kommunikation mit dem externen Sensor 114, dem Server 200 und einem weiteren Roboter 100. Die Datenspeichereinheit 148 speichert verschiedene Arten von Daten. Die Datenspeichereinheit 148 entspricht der Speichervorrichtung 124 (siehe 5). Die Datenverarbeitungseinheit 136 führt verschiedene Arten von Prozessen auf der Grundlage der von der Kommunikationseinheit 142 erfassten Daten und der in der Datenspeichereinheit 148 gespeicherten Daten aus. Die Datenverarbeitungseinheit 136 entspricht dem Prozessor 122 und einem Computerprogramm, das von dem Prozessor 122 ausgeführt wird. Die Datenverarbeitungseinheit 136 fungiert auch als eine Schnittstelle der Kommunikationseinheit 142, des internen Sensors 128, des Antriebsmechanismus 120 und der Datenspeichereinheit 148.
  • Die Datenspeichereinheit 148 umfasst eine Bewegungsspeichereinheit 160, die die verschiedenen Bewegungsarten des Roboters 100 definiert, und eine Symbolspeichereinheit 172.
  • Verschiedene Arten von Bewegungsdateien werden von der Bewegungsspeichereinheit 232 des Servers 200 in die Bewegungsspeichereinheit 160 des Roboters 100 heruntergeladen. Eine Bewegung wird durch die Bewegungs-ID identifiziert. Ein Arbeitstakt, eine Betriebszeit, eine Betriebsrichtung und dergleichen der verschiedenen Arten von Stellgliedern (der Antriebsmechanismus 120) sind chronologisch definiert in der Bewegungsdatei, um verschiedene Bewegungen auszuführen, wie z. B. Sitzen durch Aufnahme der Vorderräder 102, Anheben des Arms 106, wodurch der Roboter 100 eine Drehaktion ausführt, indem er die beiden Vorderräder 102 in umgekehrter Richtung drehen lässt oder indem er nur ein Vorderrad 102 in Drehung versetzt, Schütteln durch Bewegen der Vorderräder 102 in einem Zustand, in dem die Vorderräder 102 untergebracht sind, oder einmal Anhalten und Zurückblicken, wenn er sich von einem Benutzer fortbewegt.
  • Verschiedene Arten von Daten können auch aus der Kartenspeichereinheit 216 und der Einzeldatenspeichereinheit 218 in die Datenspeichereinheit 148 heruntergeladen werden.
  • Die Symbolspeichereinheit 172 speichert Symbolinformationen, wobei ein Symbolbild und dessen Anzeigebedingungen korreliert sind. Ein Symbol stellt einem Benutzer verschiedene Arten von Informationen zur Verfügung, indem es im Auge 110 des Roboters angezeigt wird, wie nachstehend beschrieben. So erfasst beispielsweise die Kommunikationseinheit 142 des Roboters 100 Wetterinformationen von einem externen Standort über das Internet. Bei Regen oder wenn innerhalb weniger Stunden Regen zu erwarten ist, wird im Auge 110 ein Regenschirmsymbol angezeigt (nachstehend näher beschrieben). In diesem Fall sind die Anzeigebedingungen des Regenschirmsymbols „bei Regen oder wenn innerhalb weniger Stunden Regen zu erwarten ist“. Darüber hinaus werden verschiedene Symbole in der Symbolspeichereinheit 172 gespeichert. Wenn ein Luftreinigungssensor im Roboter 100 angebracht ist, kann ein Symbol entsprechend der Luftreinheit oder einem chemischen Substanzgehalt angezeigt werden. Insbesondere wenn eine Kohlendioxidkonzentration oder eine Partikelkonzentration in der Luft einen vorbestimmten Wert oder höher erreicht, kann ein Symbol angezeigt werden, das die Problematik angibt. Darüber hinaus können verschiedene Symbole in Abhängigkeit von einer Raumtemperatur, der Innentemperatur des Roboters 100, der Laderate der Batterie 118, dem Vorhandensein oder Nichtvorhandensein eines Fehlers und einem von der Emotionsverwaltungseinheit 234 verwalteten emotionalen Zustand angezeigt werden.
  • Der interne Sensor 128 umfasst eine Kamera 134, eine Lichterfassungseinheit 138 und eine Sichtlinienerfassungseinheit 140. Die Kamera 134 in dieser Ausführungsform ist eine omnidirektionale Kamera, die am Horn 112 angebracht ist. Die Lichterfassungseinheit 138 ist ein Lichtsensor und erfasst die Richtung einer externen Lichtquelle, eine Lichtfarbe und eine Lichtmenge. Die Sichtlinienerfassungseinheit 140 ist ein bereits bekannter Sensor, der die Augenbewegung eines Benutzers aus einem von der Kamera 134 aufgenommenen Bild erfasst. In der Ausführungsform wird ein Blick eines Benutzers auf den Roboter 100 durch die Sichtlinienerfassungseinheit 140 erfasst.
  • Die Datenverarbeitungseinheit 136 umfasst die Erkennungseinheit 156, eine Bewegungssteuereinheit 150, eine Augenerzeugungseinheit 152 und eine Augenanzeigeeinheit 154.
  • Die Betriebssteuereinheit 154 des Roboters 100 bestimmt eine Bewegung des Roboters 100 in Zusammenarbeit mit der Betriebssteuereinheit 222 des Servers 200. Ein Teil der Bewegungen kann vom Server 200, und andere Bewegungen können vom Roboter 100 bestimmt werden. Eine Konfiguration kann auch dergestalt sein, dass der Roboter 100 eine Bewegung bestimmt, aber der Server 200 eine Bewegung bestimmt, wenn eine Verarbeitungslast des Roboters 100 hoch ist. Eine Bewegung, die eine Basis bildet, kann vom Server 200 und eine zusätzliche Bewegung vom Roboter 100 bestimmt werden. Es ist ausreichend, dass eine Art und Weise, in der ein bewegungsbestimmender Prozess zwischen dem Server 200 und dem Roboter 100 aufgeteilt wird, gemäß den Spezifikationen des Robotersystems 300 ausgelegt ist.
  • Die Betriebssteuereinheit 150 des Roboters 100 bestimmt eine Bewegungsrichtung des Roboters 100 zusammen mit der Betriebssteuereinheit 222 des Servers 200. Die Bewegung, basierend auf einer Aktionskarte, kann vom Server 200 bestimmt werden, und eine sofortige Bewegung, wie beispielsweise das Umgehen eines Hindernisses, kann von der Betriebssteuereinheit 150 des Roboters 100 bestimmt werden. Der Antriebsmechanismus 120 bewirkt, dass der Roboter 100 durch Antreiben des Vorderrades 102 gemäß einer Anweisung der Betriebssteuereinheit 150 zu einem Bewegungszielpunkt fährt.
  • Die Betriebssteuereinheit 150 des Roboters 100 weist den Antriebsmechanismus 120 an, eine ausgewählte Bewegung auszuführen. Der Antriebsmechanismus 120 steuert jedes Stellglied in Übereinstimmung mit der Bewegungsdatei.
  • Die Betriebssteuereinheit 150 kann auch eine Bewegung zum Hochhalten beider Arme 106 als eine Geste ausführen, die um „eine Umarmung“ bittet, wenn sich ein Benutzer mit einem hohen Vertrautheitsgrad in der Nähe befindet, und kann auch eine Bewegung ausführen, wenn die Umarmung nicht mehr gewünscht wird, indem wiederholt bewirkt wird, dass sich die rechten und linken Vorderräder 102 abwechselnd rückwärts drehen und in einem untergebrachten Zustand anhalten, wenn er der „Umarmung“ überdrüssig ist. Der Antriebsmechanismus 120 bewirkt, dass der Roboter 100 verschiedene Bewegungen ausführt, indem er die Vorderräder 102, den Arm 106 und den Hals (den Kopfabschnittsrahmen 316) entsprechend einer Anweisung von der Betriebssteuereinheit 150 antreibt.
  • Die Augenerzeugungseinheit 152 erzeugt ein Augenbild. Die Augenerzeugungseinheit 152 steuert einzeln zwei Augenbilder, die den beiden Augen 110 entsprechen. Die Augenanzeigeeinheit 154 bewirkt, dass ein von der Augenerzeugungseinheit 152 erzeugtes Augenbild auf dem im Auge 110 installierten Monitor 170 angezeigt wird. Einzelheiten eines Augenbildes werden nachstehend beschrieben.
  • Die Erkennungseinheit 156 des Roboters 100 analysiert externe Informationen, die von dem internen Sensor 128 erhalten werden. Die Erkennungseinheit 156 ist zur visuellen Erkennung (einer visuellen Einheit), zur Geruchserkennung (einer Riecheinheit), zur Tonerkennung (einer akustischen Einheit) und zur taktilen Erkennung (einer taktilen Einheit) fähig.
  • Die Erkennungseinheit 156 nimmt regelmäßig einen Außenwinkel unter Verwendung der eingebauten omnidirektionalen Kamera auf und erfasst ein sich bewegendes Objekt, wie beispielsweise eine Person oder ein Haustier. Die Erkennungseinheit 156 umfasst eine Merkmalsextraktionseinheit 146. Die Merkmalsextraktionseinheit 146 extrahiert einen Merkmalsvektor aus einem aufgenommenen Bild eines sich bewegenden Objekts. Wie vorstehend beschrieben, ist ein Merkmalsvektor eine Gruppe von Parametern (Merkmalsgrößen), die physikalische Eigenschaften und Verhaltensmerkmale eines sich bewegenden Objekts anzeigen. Wenn ein sich bewegendes Objekt erfasst wird, werden auch physikalische Eigenschaften und Verhaltensmerkmale aus dem Geruchssensor, einem integrierten hochempfindlichen Richtmikrofon, einem Temperatursensor und dergleichen extrahiert. Wenn beispielsweise ein sich bewegendes Objekt in einem Bild erscheint, werden verschiedene Merkmale wie Bart, Aktivität am frühen Morgen, trägt rote Kleidung, riecht nach Parfüm, hat eine laute Stimme, trägt eine Brille, trägt einen Rock, hat weißes Haar, ist groß, ist mollig, ist braungebrannt und liegt auf einem Sofa, extrahiert. Diese Merkmale werden ebenfalls quantifiziert und bilden Merkm alsvektorkom ponenten.
  • Das Robotersystem 300 gruppiert Benutzer, die mit hoher Frequenz als „Besitzer“ auftreten, basierend auf physikalischen Eigenschaften und Verhaltensmerkmalen, die aus einer großen Menge von Bildinformationen oder anderen Abtastinformationen gewonnen werden.
  • Wenn beispielsweise ein sich bewegendes Objekt (Benutzer) mit Bart oft am frühen Morgen aktiv ist (steht früh auf) und selten rote Kleidung trägt, entsteht ein erstes Profil eines Clusters (Benutzer), das früh aufsteht, einen Bart hat und nicht oft rote Kleidung trägt. Wenn ein sich bewegendes Objekt mit Brille oft einen Rock trägt, das sich bewegende Objekt aber keinen Bart hat, entsteht ein zweites Profil eines Clusters (Benutzer), das eine Brille und einen Rock trägt, aber definitiv keinen Bart hat.
  • Obwohl das oben genannte Beispiel ein einfaches Beispiel ist, werden das erste Profil, das einem Vater entspricht, und das zweite Profil, das einer Mutter entspricht, nach dem vorstehend beschriebenen Verfahren gebildet, und der Roboter 100 erkennt, dass es mindestens zwei Benutzer (Besitzer) im Haus gibt.
  • Es ist zu beachten, dass der Roboter 100 nicht erkennen muss, dass das erste Profil der „Vater“ ist. Es ist immer ausreichend, dass der Roboter 100 ein persönliches Profil erkennen kann, das ein „Cluster mit Bart ist, oft früh aufsteht und selten rote Kleidung trägt“. Für jedes Profil wird ein Merkmalsvektor definiert, in dem das Profil charakterisiert ist.
  • Es wird davon ausgegangen, dass der Roboter 100 ein sich bewegendes Objekt (Benutzer) in einem Zustand, in dem diese Art der Clusteranalyse abgeschlossen ist, neu erkennt.
  • Zu diesem Zeitpunkt führt die Personenerkennungseinheit 214 des Servers 200 einen Benutzeridentifikationsprozess basierend auf dem Merkmalsvektor des neuen sich bewegenden Objekts durch und bestimmt das Profil (Cluster), dem das sich bewegende Objekt entspricht. Wenn beispielsweise ein sich bewegendes Objekt mit einem Bart erkannt wird, ist die Wahrscheinlichkeit hoch, dass das sich bewegende Objekt der Vater ist. Wenn das sich bewegende Objekt früh am Morgen aktiv ist, ist es noch sicherer, dass das sich bewegende Objekt dem Vater entspricht. Wenn unterdessen ein sich bewegendes Objekt mit Brille erkannt wird, besteht die Möglichkeit, dass das sich bewegende Objekt die Mutter ist. Wenn das bewegliche Objekt einen Bart trägt, ist das bewegliche Objekt weder die Mutter noch der Vater, weshalb die Personenerkennungseinheit 214 bestimmt, dass das bewegliche Objekt eine neue Person ist, die nicht im Cluster analysiert wurde.
  • Die Bildung (Clusteranalyse) eines Clusters (Profils) durch Merkmalsextraktion und Abgleich mit einem Cluster in Kombination mit der Merkmalsextraktion kann zeitgleich erfolgen.
  • Aus einer Reihe von Erkennungsprozessen, die das Erkennen, Analysieren und Bestimmen beinhalten, führt die Erkennungseinheit 156 des Roboters 100 eine Auswahl und Extraktion von für die Erkennung notwendigen Informationen durch, und ein Analyseprozess wie die Bestimmung wird von der Erkennungseinheit 212 des Servers 200 ausgeführt. Die Erkennungsprozesse können von der Erkennungseinheit 212 des Servers 200 allein oder von der Erkennungseinheit 156 des Roboters 100 allein durchgeführt werden, oder die beiden können die Erkennungsprozesse bei gleichzeitiger Aufteilung der Rollen wie vorstehend beschrieben durchführen.
  • Wenn eine starke Kraft auf den Roboter 100 ausgeübt wird, erkennt die Erkennungseinheit 156 dies unter Verwendung des eingebauten Beschleunigungssensors, und die Reaktionserkennungseinheit 228 des Servers 200 erkennt, dass eine „gewaltsame Aktion“ von einem Benutzer in der Umgebung ausgeführt wurde. Packt der Benutzer den Roboter 100 beim Horn 112, kann dies ebenfalls als eine gewaltsame Aktion erkannt werden. Wenn ein Benutzer in einem Zustand, in dem er dem Roboter 100 zugewandt ist, in einem bestimmten Volumenbereich und einem bestimmten Frequenzband spricht, kann die Reaktionserkennungseinheit 228 des Servers 200 erkennen, dass eine „Sprechaktion“ in Bezug auf den Roboter 100 durchgeführt wurde. Auch wenn eine Temperatur im Bereich der Körpertemperatur erfasst wird, erkennt die Reaktionserkennungseinheit 228, dass eine „Berührungsaktion“ von einem Benutzer durchgeführt wurde, und wenn eine Aufwärtsbeschleunigung in einem Zustand erfasst wird, in dem eine Berührung erkannt wird, erkennt die Reaktionserkennungseinheit 228, dass eine „Umarmung“ durchgeführt wurde. Körperlicher Kontakt, wenn ein Benutzer den Körper 104 aufhebt, kann ebenfalls wahrgenommen werden, und eine Umarmung kann auch an einer Last erkannt werden, die auf die Vorderräder 102 wirkt und sich verringert.
  • Zusammenfassend lässt sich sagen, dass der Roboter 100 eine Aktion eines Benutzers als physikalische Information unter Verwendung des internen Sensors 128 erfasst, die Reaktionserkennungseinheit 228 des Servers 200 bestimmt, ob die Aktion angenehm oder unangenehm ist, und die Erkennungseinheit 212 des Servers 200 einen Benutzeridentifikationsprozess basierend auf dem Merkmalsvektor durchführt. [0087]
  • Die Reaktionserkennungseinheit 228 des Servers 200 erkennt verschiedene Arten von Reaktionen eines Benutzers auf den Roboter 100. „Angenehm“ oder „unangenehm“, „positiv“ oder „negativ“ ist mit einem Teil der typischen Reaktionshandlungen unter verschiedenen Arten von Reaktionshandlungen korreliert. Im Allgemeinen sind fast alle reagierenden Aktionen, die angenehme Aktionen sind, positive Reaktionen, und fast alle reagierenden Aktionen, die unangenehme Aktionen sind, sind negative Reaktionen. Angenehme und unangenehme Handlungen beziehen sich auf Vertrautheit, und positive und negative Reaktionen beeinflussen die Aktionsauswahl des Roboters 100.
  • Die Vertrautheitsverwaltungseinheit 220 des Servers 200 ändert die Vertrautheit gegenüber einem Benutzer gemäß einer von der Erkennungseinheit 156 erkannten reagierenden Handlung. Im Wesentlichen nimmt die Vertrautheit mit einem Benutzer, der eine angenehme Aktion ausführt, zu, während die Vertrautheit mit einem Benutzer, der eine unangenehme Aktion ausführt, abnimmt.
  • Die Erkennungseinheit 212 des Servers 200 kann bestimmen, ob eine Reaktion angenehm oder unangenehm ist, und die Kartenverwaltungseinheit 210 des Servers 200 kann den z-Wert des Punkts ändern, an dem die angenehme oder unangenehme Aktion auf einer Aktionskarte ausgeführt wurde, die eine „Anhaftung an einen Ort“ darstellt. Wenn beispielsweise eine angenehme Aktion in einem Wohnzimmer ausgeführt wird, kann die Kartenverwaltungseinheit 210 einen bevorzugten Punkt mit hoher Wahrscheinlichkeit in dem Wohnzimmer festlegen. In diesem Fall wird ein positiver Rückkopplungseffekt dadurch realisiert, dass der Roboter 100 das Wohnzimmer bevorzugt und das Wohnzimmer weiterhin bevorzugt, da er im Wohnzimmer der Empfänger einer angenehmen Handlung ist.
  • Je nachdem, welcher Art von Aktion der Roboter 100 von einem sich bewegenden Objekt (Benutzer) ausgesetzt ist, ändert sich die Vertrautheit gegenüber dem Benutzer.
  • Der Roboter 100 legt eine hohe Vertrautheit für eine häufig getroffene Person, eine Person, die häufig den Roboter 100 berührt, und eine Person, die häufig mit dem Roboter 100 spricht, fest. Indessen nimmt die Vertrautheit für eine selten gesehene Person ab, eine Person, die den Roboter 100 nicht oft berührt, eine gewalttätige Person und eine Person, die mit lauter Stimme schimpft. Der Roboter 100 ändert die Vertrautheit jedes Benutzers basierend auf verschiedenen von den Sensoren erfassten äußeren Winkelinformationen (visuell, taktil und akustisch).
  • Der eigentliche Roboter 100 führt autonom eine komplexe Aktionsauswahl gemäß einer Aktionskarte aus. Der Roboter 100 agiert, während er von einer Vielzahl von Aktionskarten beeinflusst wird, die auf verschiedenen Parametern wie Einsamkeit, Langeweile und Neugier basieren. Wenn die Wirkung der Aktionskarten aufgehoben wird, oder wenn er sich in einem internen Zustand befindet, in dem die Wirkung der Aktionskarten gering ist, versucht der Roboter 100 im Wesentlichen, sich einer Person mit hoher Vertrautheit zu nähern, und versucht, sich von einer Person mit geringer Vertrautheit zu entfernen.
  • Aktionen des Roboters 100 werden im Folgenden entsprechend der Vertrautheit klassifiziert.
  • Ein Benutzer mit extrem hoher Vertrautheit
  • Der Roboter 100 drückt ein starkes Gefühl der Zuneigung aus, indem er sich einem Benutzer nähert (nachfolgend als „Annäherungsaktion“ bezeichnet) und indem er eine Zuneigungsgeste ausführt, die zuvor als eine Geste definiert wurde, die den guten Willen gegenüber einer Person anzeigt.
  • Ein Benutzer mit vergleichsweise hoher Vertrautheit
  • Der Roboter 100 führt nur eine Annäherungsaktion aus.
  • Ein Benutzer mit vergleichsweise niedriger Vertrautheit
  • Der Roboter 100 führt keine besondere Aktion aus.
  • Ein Benutzer mit besonders niedriger Vertrautheit
  • Der Roboter 100 führt eine Rückzugsaktion aus.
  • Gemäß dem zuvor beschriebenen Steuerverfahren nähert sich der Roboter 100 dem Benutzer, wenn er einen Benutzer mit hoher Vertrautheit findet, und bewegt sich umgekehrt von dem Benutzer weg, wenn er einen Benutzer mit geringer Vertrautheit findet. Gemäß dieser Art von Steuerungsverfahren kann der Roboter 100 durch sein Verhalten eine sogenannte „Schüchternheit“ ausdrücken. Wenn ein Besucher (ein Benutzer A mit geringer Vertrautheit) erscheint, kann sich der Roboter 100 vom Besucher wegbewegen und auf ein Familienmitglied (einen Benutzer B mit hoher Vertrautheit) zugehen. In diesem Fall kann der Benutzer B erkennen, dass der Roboter 100 schüchtern ist und sich unwohl fühlt, und sich auf Benutzer B verlässt. Dank dieser Art von Vertrauensausdruck wird beim Benutzer B, weil er ausgewählt und ihm Vertrauen geschenkt wurde, ein Gefühl der Freude geweckt, das von einem Gefühl der Zuneigung begleitet wird.
  • Wenn indes der Benutzer A, ein Besucher ist, der den Roboter 100 häufig besucht und mit ihm spricht und ihn berührt, nimmt die Vertrautheit des Roboters 100 gegenüber dem Benutzer A allmählich zu, und der Roboter 100 hört auf, eine Aktion der Schüchternheit (eine Rückzugsaktion) in Bezug auf Benutzer A durchzuführen. Der Benutzer A kann auch eine Zuneigung zu dem Roboter 100 empfinden, indem er feststellt, dass sich der Roboter 100 an den Benutzer A gewöhnt hat.
  • Die bisher beschriebene Aktionsauswahl muss nicht unbedingt ständig ausgeführt werden. Wenn beispielsweise ein interner Parameter, der die Neugier des Roboters 100 anzeigt, hoch ist, wird eine Aktionskarte gewichtet, aus der ein Ort ermittelt wird, an dem die Neugierde befriedigt wird, wodurch auch die Möglichkeit besteht, dass der Roboter 100 keine von Vertrautheit betroffene Aktion auswählt. Wenn der in dem Eingangsbereich installierte externe Sensor 114 die Heimkehr eines Benutzers erkennt, kann der Roboter 100 außerdem eine Aktion zum Begrüßen des Benutzers mit maximaler Priorität ausführen.
  • 7 ist eine Außenansicht eines Augenbildes 174.
  • Die Augenerzeugungseinheit 152 erzeugt das Augenbild 174, das ein Pupillenbild 164 und ein peripheres Randbild 168 umfasst. Die Augenerzeugungseinheit 152 bewirkt, dass das Augenbild 174 als sich bewegendes Bild dargestellt wird. Insbesondere wird eine Sichtlinie des Roboters 100 durch Bewegen des Pupillenbildes 164 dargestellt. Außerdem wird eine Blinzelaktion zu einem vorbestimmten Zeitpunkt ausgeführt. Die Augenerzeugungseinheit 152 führt verschiedene Bewegungen des Augenbildes 174 gemäß verschiedenen Betriebsmustern durch. Die Augenanzeigeeinheit 154 bewirkt, dass das Augenbild 174 auf dem Monitor 170 des Auges 110 angezeigt wird. Der Monitor 170 hat vorzugsweise eine geschwungene Form, ähnlich wie ein menschlicher Augapfel. Der Monitor 170 in der Ausführungsform wird als flach beschrieben.
  • Das Pupillenbild 164 umfasst einen Pupillenbereich 158 und einen Hornhautbereich 162. Außerdem wird im Pupillenbild 164 auch ein Fanglicht 166 zur Darstellung einer Reflexion von Außenlicht angezeigt. Anstatt durch eine Reflexion von Außenlicht zu leuchten, ist das Fanglicht 166 des Augenbildes 174 ein Bildbereich, der als Bereich mit hoher Leuchtdichte durch die Augenerzeugungseinheit 152 dargestellt wird.
  • Die Augenerzeugungseinheit 152 kann bewirken, dass sich das Pupillenbild 164 auf dem Monitor 170 vertikal und horizontal bewegt. Wenn die Erkennungseinheit 156 des Roboters 100 ein sich bewegendes Objekt erkennt, erzeugt die Augenerzeugungseinheit 152 ein Betriebsmuster (Bewegtbilddaten), so dass das Pupillenbild 164 in die Richtung gerichtet ist, in der sich das sich bewegende Objekt befindet. Die Augenanzeigeeinheit 154 stellt die „Sichtlinie“ des Roboters 100 dar, indem sie die Anzeige des Augenbildes 174 entsprechend dem Betriebsmuster verändert. Wie vorstehend beschrieben, steuert die Augenerzeugungseinheit 152 einzeln die in den beiden Augen 110 dargestellten Augenbilder 174. Wenn die Sichtlinie des Roboters 100 auf ein Ziel, wie beispielsweise einen Benutzer, gerichtet ist, richtet die Augenerzeugungseinheit 152 beide der beiden Augenbilder 174 auf das Ziel.
  • Die Augenerzeugungseinheit 152 kann bewirken, dass sich eine Form des Pupillenbildes 164 entsprechend einer Position auf dem Monitor 170 ändert. Insbesondere wird eine perfekt kreisförmige Form angenommen, wenn sich das Pupillenbild 164 in der Mitte des Monitors 170 befindet, und die Form wird in eine elliptische Form umgewandelt, wenn sich das Pupillenbild 164 in einem peripheren Randbereich befindet. Durch die positionsabhängige Veränderung der Form des Pupillenbildes 164 kann der Monitor 170 auch im Falle des flachen Monitors 170 wie ein echter Augapfel gekrümmt erscheinen. Die Augenerzeugungseinheit 152 stellt das Augenbild 174 als planares Bild dar, indem sie ein dreidimensionales Objekt erzeugt, das einem Augapfel ähnelt, und das dreidimensionale Objekt auf den Monitor 170 (Projektionsfläche) projiziert.
  • Die Lichterfassungseinheit 138 erfasst eine externe Lichtquelle wie die Sonne oder ein elektrisches Licht. Die Augenerzeugungseinheit 152 bewirkt, dass sich eine Position des Fanglichts 166 als Reaktion auf eine Richtung ändert, in der sich die externe Lichtquelle befindet. 7 zeigt eine Displayposition des Fanglichts 166, wenn eine externe Lichtquelle oberhalb und links vom Roboter 100 aus gesehen vorhanden ist. Durch die Verknüpfung der Position des Fanglichts 166 mit einer externen Lichtquelle kann ein realistischeres Augenbild 174 dargestellt werden. Auch die Verzerrung des Fanglichts 166 in eine elliptische Form gemäß der Position des Fanglichts 166, in der gleichen Weise wie das Pupillenbild 164, bewirkt, dass der Monitor 170 gekrümmt erscheint.
  • 8 ist eine vergrößerte Ansicht des Augenbildes 174.
  • Das Augenbild 174 in der Ausführungsform umfasst auch ein Augenlidbild 176, das ein dem Pupillenbild 164 und dem peripheren Randbild 168 überlagertes Augenlid zeigt. Das Augenlidbild 176 umfasst die Wimpern 178. Das periphere Randbild 168 ist ein Abschnitt, der einer menschlichen Konjunktiva entspricht. Der im Pupillenbild 164 enthaltene Hornhautbereich 162 ist ein Abschnitt, der einer menschlichen Hornhaut entspricht. Eine Iris kann im Hornhautbereich 162 dargestellt werden.
  • Vom Augenbild 174 bewirkt die Augenerzeugungseinheit 152, dass sich das Augenlidbild 176, der Pupillenbereich 158, der Hornhautbereich 162 und das Fanglicht 166 ändern. Es gibt zwei Arten von Veränderungen des Augenbildes 174, nämlich eine konstante, stabile Veränderung (nachfolgend „konstante Veränderung“ genannt) und eine vorübergehende Veränderung (nachfolgend „transiente Veränderung“ genannt).
  • Ferner gibt es zwei Arten von konstanter Veränderung, nämlich eine unwiderrufliche Veränderung, die mit der Zeit einhergeht (nachfolgend „alterungsbedingte Veränderung“ genannt) und eine Veränderung, die Merkmale des Auges eines Besitzers beinhaltet (nachfolgend „reflektierende Veränderung“ genannt). Das heißt, das Auge 110 des Roboters 100 weist eine Eigenschaft auf, die sich allmählich an das Auge eines Besitzers annähert.
  • Konstante Veränderung
  • Alterungsbedingte Veränderung
  • Es wird angenommen, dass der Durchmesser einer menschlichen Pupille mit zunehmendem Alter abnimmt. Mit zunehmendem Alter verblasst der Weißanteil einer Bindehaut, und die Muskelkraft, die ein Augenlid schließt, nimmt ab, wodurch das Augenlid allmählich herunterhängt. Es wird außerdem angenommen, dass die Blinzelhäufigkeit im Säuglingsalter gering ist und sich die Blinzelhäufigkeit nach Erreichen des Erwachsenenalters stabilisiert.
  • Die Augenerzeugungseinheit 152 stellt die Veränderung dar, die mit dem Wachstum und der Alterung eines Auges eines Lebewesens, insbesondere eines Menschen, im Augenbild 174 einhergeht. Die Augenerzeugungseinheit 152 bewirkt, dass sich das Augenbild 174 in Abhängigkeit von der Zeit ab dem Zeitpunkt, an dem der Roboter 100 aus der Fabrik ausgeliefert wird, allmählich ändert. Insbesondere reduziert die Augenerzeugungseinheit 152 in Abhängigkeit von der Zeit einen Durchmesser der Hornhautregion 162 und bewirkt, dass eine feste Position des Augenlidbildes 176 nach unten verläuft. Nach besonders langer Zeit kann eine Einstellung so sein, dass das Augenlidbild 176 nicht über eine vorbestimmte Position hinausgeht. Obwohl das Blinzeln durch die Augenerzeugungseinheit 152 dargestellt wird, die das Augenlidbild 176 regelmäßig absenkt, ändert sich die Blinzelhäufigkeit auch in Abhängigkeit vom Alterungsprozess des Roboters 100.
  • Reflektierende Veränderung
  • Das Auge ist eine wichtige Region, die einen bleibenden Eindruck bei einer anderen Person hinterlassen kann. Die Merkmalsabzugseinheit 146 nimmt ein Auge eines Besitzers auf und extrahiert Merkmale des Auges. Die Merkmalsextraktion ist so beschaffen, dass Merkmale eines äußeren Erscheinungsbildes des Auges als Merkmalsgrößen durch die zu bestimmenden Merkmale extrahiert werden. Nicht nur statische Merkmale wie eine Pupillengröße, sondern auch dynamische Merkmale wie ein Bewegungsverhalten der Sichtlinie oder eine Blinzelhäufigkeit können in das äußere Erscheinungsbild des Auges einbezogen werden. Insbesondere werden Parameter wie Augenlidform und feste Position, wie sich das Augenlid nach unten bewegt, Wimpernlänge sowie Pupillengröße und -farbe als Merkmalsgrößen des Auges extrahiert. Dynamische Merkmale wie eine feste Pupillenposition, die Gewohnheit, nach oben zu schauen oder die Augen zu verengen, oder die Blinzelhäufigkeit bilden ebenfalls Merkmalsgrößen. Bei einer Frau können sich die Wimpernlänge und die Farbe des Augenlidbildes 176 je nach Make-up ändern.
  • Die Augenerzeugungseinheit 152 bewirkt, dass das Auge 110 des Roboters 100 einem Besitzer ähnelt, indem sie bewirkt, dass die Merkmalsgrößen des Auges des Besitzers auch im Augenbild 174 reflektiert werden. In der Ausführungsform braucht die Augenerzeugungseinheit 152 mehrere Monate bis mehrere Jahre, so dass sich die Merkmale des Besitzers im Augenbild 174 widerspiegeln. Wenn der Roboter 100 beispielsweise zu einem Besitzer gehört, dessen Augenlid auf einer äußeren Augenwinkelseite etwas nach unten hängt, bewirkt die Augenerzeugungseinheit 152, dass sich das Augenlidbild 176 des Roboters 100 so ändert, dass die äußere Augenwinkelseite nach unten hängt.
  • Die Augenerzeugungseinheit 152 bewirkt eine Veränderung des Augenbildes 174 durch Einstellen einer Spline-Kurve, die eine Begrenzungslinie zwischen verschiedenen Abschnittsarten wie dem Augenlidbild 176 und dem Pupillenbild 164 bildet, oder insbesondere durch Anpassen eines oder mehrerer Kontrollpunkte auf einer Spline-Kurve. Beispielsweise bewirkt die Augenerzeugungseinheit 152 eine Veränderung der Form des Augenlidbildes 176 durch Veränderung der Spline-Kurve, die die Grenze zwischen dem Augenlidbild 176 und dem Pupillenbild 164 bildet. Durch die allmähliche Veränderung der Kontrollpunkte der Spline-Kurve kann das Aussehen des Augenbildes 174 im Laufe der Zeit nach und nach verändert werden.
  • Die Augenerzeugungseinheit 152 kann Bildmuster eines Vielfachen des Augenbildes 174 erzeugen. Weiterhin kann sich das Aussehen des Augenbildes 174 durch den Wechsel zwischen dem Vielfachen der Augenbilder 174 ändern.
  • Wenn es ein Vielfaches von Besitzern gibt, bewirkt die Augenerzeugungseinheit 152, dass sich die Merkmale des Trägers mit der höchsten Vertrautheit im Augenbild 174 widerspiegeln. Wenn der Besitzer mit der höchsten Vertrautheit von einem Besitzer P1 zu einem Besitzer P2 wechselt, wählt die Augenerzeugungseinheit 152 die Merkmale des Besitzers P2 als neues reflektierendes Veränderungsmodell aus.
  • Durch die alterungsbedingte Veränderung und die reflektierende Veränderung wächst der Roboter 100 allmählich und altert und wird einem Besitzer ähnlich. Aus diesem Grund kann der Besitzer ein Gefühl der Nähe zum Roboter 100 spüren und die Entwicklung und Alterung des Roboters 100 spüren. Das Auge 100 kann einer ständigen Veränderung unterworfen sein, die entweder auf der alterungsbedingten Veränderung oder der reflektierenden Veränderung beruht.
  • Transiente Veränderung
  • Eine transiente Veränderung tritt hauptsächlich durch externes Licht auf. Obwohl transiente Veränderungen durch die Darstellung einer „Reflexion“ oder eines „Symbols“ auch im Augenbild 174 auftreten, werden diese nachstehend beschrieben.
  • Wie vorstehend beschrieben, bewirkt die Augenerzeugungseinheit 152, dass sich die Position des Fanglichts 166 als Reaktion auf die Richtung eines externen Lichts ändert. Außerdem bewirkt die Augenerzeugungseinheit 152, dass sich die Form, eine Farbe und eine Größe des Fanglichts 166 entsprechend einer Form und einer Intensität einer externen Lichtquelle ändert. Wenn beispielsweise die externe Lichtquelle ein Fenster ist, bewirkt die Augenerzeugungseinheit 152, dass sich das Fanglicht 166 zur Form des Fensters ändert. Wenn die externe Lichtquelle blau ist, wird das Fanglicht 166 blau. Je höher die Lichtintensität, desto weiter vergrößert die Augenerzeugungseinheit 152 die Größe der Fanglichts 166. Wenn es ein Vielfaches an Lichtquellen gibt, bewirkt die Augenerzeugungseinheit 152, dass ein Vielfaches der Fanglichter 166 angezeigt wird.
  • Wenn eine Sichtlinie von einem Benutzer zum Roboter 100 erkannt wird, kann die Augenerzeugungseinheit 152 die Größe des Fanglichts 166 vergrößern. Die Sichtlinienerfassungseinheit 140 bestimmt, ob ein Benutzer auf den Roboter 100 blickt oder nicht, indem sie ein aufgenommenes Bild analysiert und eine Ausrichtung der Pupille des Benutzers erfasst. Außerdem kann eine Konfiguration so beschaffen sein, dass die Sichtlinienerkennung ausgeführt wird, wenn eine Größe eines Gesichtsbereichs des Benutzers im aufgenommenen Bild einen vorbestimmten Wert oder größer aufweist, oder unter der Bedingung, dass sich der Benutzer gemäß dem Abstandssensor (nicht dargestellt) in einem vorbestimmten Abstand befindet.
  • Bei hoher Lichtintensität vergrößert die Augenerzeugungseinheit 152 einen Durchmesser des Pupillenbereichs 158. Es ist ausreichend, dass ein Zusammenhang zwischen Lichtintensität und Pupillendurchmesser nach einem bereits bekannten Modell gesteuert wird (siehe z.B. Ausdruck (2) des Nichtpatentdokuments 1). Bei besonders hoher Lichtintensität kann ein durch eine Absenkung des Augenlidbildes 176 ein „Erscheinungsbild scheinbarer Blendung“ dargestellt werden.
  • 9(a) bis 9(e) sind Außenansichten verschiedener Augenbilder 174. Jede Zeichnung entspricht einem rechten Auge.
  • 9(a) ist das Augenbild 174, wenn das Augenlidbild 176 nicht angezeigt wird. 9(b) ist das Augenbild 174, wenn das Augenlidbild 176 auf einer inneren Augenwinkelseite herabhängt. 9(c) ist das Augenbild 174, wenn das Augenlidbild 176 auf der äußeren Augenwinkelseite herabhängt. 9(c) ist ein sogenanntes „Schlupflid“. Auch in 9(d) hängt das Augenlidbild 176 auf der äußeren Augenwinkelseite, wenn auch in geringerem Maße als in 9(c). In 9(e) ist zusätzlich zum Augenlidbild 176 auch ein unteres Augenlid 180 abgebildet. Ein Abschnitt, der einem Tränensack unter dem Auge ähnelt, kann auch durch das Bild des unteren Augenlides 180 dargestellt werden.
  • Indem bewirkt wird, dass sich Merkmale eines Besitzers in der Größe und Farbe des Pupillenbildes 164, dem Winkel und der Form des Augenlidbildes 176 und dergleichen widerspiegeln, kann ein Gesicht, das einem Benutzer ähnelt, dargestellt werden. Wenn ein Besitzer beispielsweise Augen hat, die nach unten neigen, senkt die Augenerzeugungseinheit 152 die feste Position des Augenlidbildes 176, wie in 9(c) und 9(d). Wenn ein Besitzer doppelte Lidfalten hat, ändert die Augenerzeugungseinheit 152 das Augenlidbild 176 in ein doppeltes Augenlidbild. Die Eigenschaften eines Besitzers spiegeln sich auch in der Länge und Anzahl der Wimpern 178 des Augenlidbildes 176 wider.
  • 10 ist eine Außenansicht des Augenbildes 174 bei der Anzeige einer Reflexion.
  • Die Augenerzeugungseinheit 152 bewirkt, dass ein von der Kamera 134 aufgenommenes Motiv 182 als überlagertes Objekt auf dem Pupillenbild 164 angezeigt wird. Dabei wird ein Aspekt, bei dem ein Objekt, das der Roboter 100 betrachtet, im Pupillenbild 164 reflektierend, insbesondere im Pupillenbereich 158, dargestellt. Durch die aktive Darstellung des Motivs 182 im Pupillenbild 164 kann das Erscheinungsbild des Auges 100 verbessert werden. Die Augenerzeugungseinheit 152 kann bewirken, dass das Subjekt 182 im Pupillenbild 164 verzerrt dargestellt wird, als ob es durch eine Fischaugenlinse gesehen würde. Bei der Anwendung dieser Art von verzerrter Darstellung kann das Augenbild 174 ähnlich gekrümmt wie ein Augapfel erscheinen.
  • 11 ist eine Außenansicht des Augenbildes 174, wenn ein Symbol 184 angezeigt wird, das den Pupillenbereich 158 überlagert. 12 ist eine Außenansicht des Augenbildes 174, wenn das Fanglicht 166 auf das Symbol 184 umgestellt wird.
  • Wenn eine vorbestimmte Anzeigebedingung erfüllt ist, bewirkt die Augenerzeugungseinheit 152, dass das Symbol 184 im Pupillenbereich 158 oder das Fanglicht 166 angezeigt wird. Wenn es beispielsweise sonnig ist, wird das Symbol 184, das auf Sonnenschein hinweist, über dem Pupillenbereich 158 eingeblendet (siehe 11). Mit einem Blick in die Pupillenregion 158 kann ein Benutzer bestätigen, dass es draußen sonnig ist. Das Symbol 184 kann eher das zukünftige Wetter (eine Wettervorhersage) als das aktuelle Wetter anzeigen.
  • Das Symbol 184 kann im Pupillenbereich 158 angezeigt werden, oder das Fanglicht 166 kann zu einem Wechsel zum Symbol 184 veranlasst werden. In 12 wird das Fanglicht 166 auf das Symbol 184 für Regen umgestellt.
  • Unter der Voraussetzung, dass eine Anzeigebedingung eines beliebigen Symbols 184 erfüllt ist, wenn eine Sichtlinie zum Roboter 100 von der Sichtlinienerfassungseinheit 140 erfasst wird, bewirkt die Augenerzeugungseinheit 152, dass dieses Symbol 184 angezeigt wird. Eine Konfiguration kann so beschaffen sein, dass die Augenerzeugungseinheit 152 bewirkt, dass das Symbol 184 angezeigt wird, wenn eine Sichtlinie für eine vorbestimmte Zeit oder länger erfasst wird, d.h. wenn ein starrer Blick erfasst wird.
  • Die Sichtlinienerfassungseinheit 140 kann festlegen, dass ein Benutzer den Roboter 100 betrachtet, wenn beide Augenbereiche in einem Gesichtsbild einer Größe von einem bestimmten Wert oder größer erfasst werden können. Wenn der Beobachtungszustand für eine vorbestimmte Zeit fortgesetzt wird, wird festgelegt, dass es ein „starrer Blick“ vorliegt, und die Augenerzeugungseinheit 152 kann das Symbol 184 so anzeigen, dass es schwach, matt oder klein ist. Wenn der Beobachtungszustand länger andauert, kann die Augenerzeugungseinheit 152 das Symbol 184 so darstellen, dass es allmählich dunkler, heller oder größer wird.
  • Eine Stimme eines Benutzers wird von einer Spracherkennungseinheit erkannt (nicht dargestellt), und die Augenerzeugungseinheit 152 kann bewirken, dass das Symbol 184, das auf die Stimme reagiert, angezeigt wird. Wenn ein Benutzer beispielsweise „Wie ist das Wetter?“ fragt, kann die Augenerzeugungseinheit 152 bewirken, dass das Symbol 184, welches das aktuelle Wetter anzeigt, als Reaktion auf das Schlüsselwort „Wetter“ angezeigt wird. Wenn von einem Benutzer gefragt wird, „wie wird das Wetter morgen sein?“, kann die Augenerzeugungseinheit 152 bewirken, dass das Symbol 184, welches das Wetter des folgenden Tages anzeigt, als Reaktion auf die Schlüsselwörter „morgen“ und „Wetter“ angezeigt wird. Wenn von einem Benutzer „Bist du nicht hungrig?“ gefragt wird, kann die Augenerzeugungseinheit 152, die die Bedeutung von „hungrig“ erkennt, bewirken, dass ein Indikatorbild, welches die Laderate der Batterie 118 anzeigt, als Symbol 184 angezeigt wird. Eine Konfiguration kann so beschaffen sein, dass die Augenerzeugungseinheit 152 bewirkt, dass das entsprechende Symbol 184 angezeigt wird, vorausgesetzt, dass eine von verschiedenen Äußerungsformen erfolgt, wenn ein starrer Blick für eine vorbestimmte Zeit fortgesetzt wurde.
  • Die Augenerzeugungseinheit 152 löscht das Symbol 184, wenn eine vorbestimmte Zeit verstrichen ist. Alternativ kann die Augenerzeugungseinheit 152 das Symbol 184 löschen, vorausgesetzt, dass ein starrer Blick eines Benutzers nicht länger erfasst wird. Das Symbol 184 kann im Laufe der Zeit mit einem Ausblendungsverfahren gelöscht werden.
  • Die Augenerzeugungseinheit 152 kann bewirken, dass das Symbol 184 zu einem beliebigen Zeitpunkt, beispielsweise zufällig, angezeigt wird, oder sie kann immer bewirken, dass das Symbol 184 angezeigt wird, wenn eine Anzeigebedingung erfüllt ist. Außerdem kann die Augenerzeugungseinheit 152 regelmäßig eine „Blinzeldarstellung“ ausführen, die das Augenlidbild 176 schließt und bewirkt, dass das Symbol 184 entsprechend der Blinzelhäufigkeit angezeigt wird.
  • Bislang wurden der Roboter 100 und das Robotersystem 300, einschließlich des Roboters 100, anhand einer Ausführungsform beschrieben.
  • Gemäß der Ausführungsform kann das Auge 110, das Individualität in Bezug auf das äußere Erscheinungsbild des Roboters 100 ausdrückt, dazu veranlasst werden, einem Auge des Besitzers zu ähneln. Da das Auge 110 des Roboters 100 seinem oder ihrem eigenen Auge ähnelt, ist der Besitzer geneigt, ein Gefühl der Nähe zum Roboter 100 zu spüren. Auch bei einem Vielfachen der Besitzer ähnelt das Auge 110 des Roboters 100 einem Besitzer mit hoher Vertrautheit, wodurch der quantitative Wert der Vertrautheit mit dem Augenbild 174 qualitativ angedeutet werden kann. Aus diesem Grund wird beim Besitzer der Wunsch geweckt, gut mit dem Roboter 100 umzugehen und von ihm gemocht zu werden.
  • Da sich das Auge 110 mit zunehmendem Alter verändert, können auch Entwicklung und Älterwerden des Roboters 100 mithilfe des Auges 110 dargestellt werden. Aus diesem Grund fühlt sich ein Besitzer verpflichtet, die Zuneigung zum Roboter 100 aufrechtzuerhalten, mit dem er eine lange Zeit verbringt.
  • Bei der Aufnahme einer Person gibt es eine Technik, bei der ein Fanglicht mittels eines Stroboskops oder dergleichen in einem Auge reflektiert wird. Ein Fanglicht bewirkt, dass ein menschliches Auge lebendig wirkt. Der Roboter 100 in der Ausführungsform ist so beschaffen, dass die Augenerzeugungseinheit 152 aktiv bewirkt, dass ein Bild des Fanglichts 166 als ein Teil des Augenbildes 174 angezeigt wird. Ursprünglich ist ein Fanglicht eine Reflexion von externem Licht (reflektiertes Licht), aber im Falle des Roboters 100 wird die Niedlichkeit des Auges 110 des Roboters 100 betont, indem das Fanglicht 166 angezeigt wird.
  • Die Augenerzeugungseinheit 152 bewirkt, dass sich die Position des Fanglichts 166 entsprechend der Richtung einer externen Lichtquelle ändert, wodurch ein realistisches Bild ohne Unstimmigkeiten dargestellt werden kann. Die Augenerzeugungseinheit 152 bewirkt, dass sich die Größe des Pupillenbereichs 158 entsprechend der Lichtintensität ändert, wodurch das Auge 110 wie das eines Lebewesens dargestellt werden kann. Durch die Darstellung einer Reflexion mittels der Darstellung des Motivs 182, das dem Augenbild 174 überlagert ist, wird das Aussehen des Auges 110 des Roboters 100 verbessert. Die Steuerung der Blinzelhäufigkeit und des zeitlichen Ablaufs trägt ebenfalls zum Echtheitsgefühl des Auges 110 bei.
  • Der Roboter 100 in der Ausführungsform weist als Grundkonzept eine nonverbale Kommunikation auf. Inzwischen kann der Roboter 100 auch als Informationsterminal eingesetzt werden. Je nach Ausführungsform können verschiedene nützliche Informationen, wie z.B. das Wetter und die Laderate, als Symbol 184 über das Augenbild 174 kommuniziert werden. Der Roboter 100 fungiert auch als Informationsterminal für den Benutzer, wobei er sich an ein grundlegendes Konzept hält, nämlich nonverbal und feinfühlig zu sein.
  • Es wird angenommen, dass durch die Konfiguration, das Symbol 184 so dargestellt wird, als ob es nur dann nach oben schwebt, wenn ein Benutzer den Roboter 100 genau betrachtet, der Benutzer daran interessiert sein wird, den Roboter 100 genau zu betrachten. Wenn ein Besitzer den Roboter 100 aus nächster Nähe betrachtet, extrahiert die Kamera 134 leicht einen Merkmalsvektor des Besitzers. Die zunehmenden Möglichkeiten für einen Besitzer, den Roboter 100 genau zu betrachten, wirken sich auch auf die Genauigkeit des Benutzeridentifikationsprozesses aus.
  • Da sich die Erfindung nicht auf die zuvor beschriebene Ausführungsform oder ein modifiziertes Beispiel beschränkt, können Komponenten geändert oder dargestellt werden, ohne vom Umfang der Erfindung abzuweichen. Verschiedene Erfindungen können durch ein Vielfaches von Komponenten gebildet werden, die in der vorstehend beschriebenen Ausführungsform oder dem modifizierten Beispiel offenbart sind, das gegebenenfalls kombiniert wird. Außerdem können einige Komponenten aus der Gesamtheit der in der vorstehend beschriebenen Ausführungsform oder dem modifizierten Beispiel dargestellten Komponenten herausgenommen werden.
  • Obwohl eine Beschreibung unter der Annahme gegeben wurde, dass das Robotersystem 300 aus einem Roboter 100, einem Server 200 und der Vielzahl der externen Sensoren 114 konfiguriert ist, kann ein Teil der Funktionen des Roboters 100 durch den Server 200 realisiert werden, und ein Teil oder alle Funktionen des Servers 200 können dem Roboter 100 zugeordnet sein. Ein Server 200 kann ein Vielfaches des Roboters 100 steuern, oder ein Vielfaches des Servers 200 kann einen oder mehrere Roboter 100 in Zusammenarbeit steuern.
  • Eine dritte Vorrichtung mit Ausnahme des Roboters 100 und des Servers 200 kann einen Teil der Funktionen verwalten. Eine Sammlung der Funktionen des Roboters 100 und der Funktionen des Servers 200, die in 7 beschrieben sind, kann auch als ein „Roboter“ umfassend verstanden werden. Es ist ausreichend, dass ein Verfahren zum Verteilen der Vielzahl von Funktionen, die zum Verwirklichen der Erfindung in Bezug auf ein oder mehrere Hardware-komponenten erforderlich sind, unter Berücksichtigung der Verarbeitungsfähigkeit jedes Hardwareelements, der Spezifikationen, die für das Robotersystem 300 und dergleichen erforderlich sind, bestimmt wird.
  • Wie vorstehend beschrieben, ist „der Roboter im engeren Sinn“ der Roboter 100 mit Ausnahme des Servers 200, aber „der Roboter im weiteren Sinne“ ist das Robotersystem 300. Es wird angenommen, dass es eine Möglichkeit gibt, dass zukünftig viele Funktionen des Servers 200 in den Roboter 100 integriert werden.
  • Die Augenerzeugungseinheit 152 kann das Augenlidbild 176 gemäß einem Zeitband oder dem internen Zustand des Roboters 100 steuern. So kann beispielsweise das Augenlidbild 176 absinken, wenn die Laderate sinkt, und das Augenlidbild 176 kann während des Ladevorgangs vollständig absinken und das Auge schließen. Wenn es spät in der Nacht ist, kann „Schläfrigkeit“ durch eine Senkung des Augenlidbildes 176 zum Ausdruck gebracht werden.
  • Das Augenlidbild 176 in der Ausführungsform ist als ein Abschnitt des Augenbildes 174 ausgebildet. Als modifiziertes Beispiel können das Augenlidbild 176 und das untere Augenlid 180 als physische Abdeckungen für den Monitor 170 ausgebildet sein.
  • Wenn der Parameter, der Einsamkeit anzeigt, einen vorbestimmten Schwellenwert oder mehr erreicht, können Merkmale der Mutter reflektiert werden, und wenn der Parameter, der Neugier anzeigt, einen vorbestimmten Schwellenwert oder mehr erreicht, können Merkmale des Vaters reflektiert werden. Merkmalsgrößen eines Besitzerauges können situationsgerecht erfasst werden. So kann beispielsweise die Merkmalsextraktionseinheit 146 separat eine Merkmalsgröße des Auges erfassen, wenn der Besitzer P1 lacht, und eine Merkmalsgröße des Auges, wenn der Besitzer P1 traurig ist.
  • Eine Veränderung (Differenz) zwischen der Merkmalsgröße des Auges beim Lachen und einer Merkmalsgröße des Auges zu einem normalen Zeitpunkt wird als eine Merkmalsgrößenänderung A und eine Veränderung (Differenz) zwischen der Merkmalsgröße des Auges bei Trauer und der Merkmalsgröße des Auges zu einem normalen Zeitpunkt als eine Merkmalsgrößenänderung B betrachtet. Außerdem wird angenommen, dass die Merkmalsgrößenänderung A des Besitzers P1 größer ist als die Merkmalsgrößenänderung A des Besitzers P2. Unterdessen wird davon ausgegangen, dass die Merkmalsgrößenänderung B des Besitzers P2 größer ist als die Merkmalsgrößenänderung B des Besitzers P1. In diesem Fall kann die Augenerzeugungseinheit 152 bewirken, dass Merkmale des Besitzers P2 reflektiert werden, wenn der Parameter, der Einsamkeit anzeigt, den vorbestimmten Schwellenwert oder höher erreicht, und dass Merkmale des Besitzers P1 reflektiert werden, wenn ein Parameter, der Freude anzeigt, einen vorbestimmten Schwellenwert oder höher erreicht. In einem emotionalen Zustand der Freude ähnelt der Roboter 100 dem Besitzer P1, dessen lächelndes Gesicht charakteristisch ist. Auch in einem emotionalen Zustand der Einsamkeit ähnelt der Roboter 100 dem Besitzer P2, dessen trauriges Gesicht charakteristisch ist. Nach dieser Art von Steuerungsverfahren kann ein charakteristischer Ausdruck eines Besitzers mit einem emotionalen Zustand des Roboters 100 synchronisiert werden.
  • Die Augenerzeugungseinheit 152 kann einen Besitzer auswählen, der ein Ziel für eine reflektierende Veränderung gemäß verschiedenen Arten von internen Zuständen sein soll, wie beispielsweise der Laderate, der Verarbeitungslast des Prozessors 122 oder der internen Temperatur des Roboters 100, oder einem externen Zustand, wie beispielsweise wenn die Lichtintensität einen vorbestimmten Wert oder höher hat, wenn es 10 Uhr nachts oder später ist, oder dem Wetter. Gemäß diesem Steuerungsverfahren kann ein Besitzer das Gefühl bekommen, dass der Roboter 100 ihm oder ihr nur in einem bestimmten Zustand ähnlich ist. Es wird auch angenommen, dass eine Vielzahl von Besitzern ein Gefühl der Nähe zum Roboter 100 verspüren können, da Merkmale jedes einzelnen von einem Vielfachen von Besitzern in den Roboter 100 integriert werden können.
  • Wenn es ein Vielfaches von Besitzern gibt, kann die Augenerzeugungseinheit 152 bewirken, dass Merkmale des Vielfachen von Besitzern im Auge 110 reflektiert werden, indem ein gewichteter Durchschnitt der Merkmalsvektorkomponenten jedes Besitzers basierend auf der Vertrautheit in Bezug auf jeden Besitzer ermittelt wird.
  • Oftmals unterscheiden sich die menschlichen Augen in ihrer Form zwischen links und rechts. Auch beim Roboter 100 können die Merkmale des rechten Auges eines Besitzers im rechten Auge 110 und die Merkmale des linken Auges eines Besitzers im linken Auge 110 reflektiert werden.
  • Die Augenerzeugungseinheit 152 kann die Trübung des Auges 110 ausdrücken, indem sie das Fanglicht 166 oder den Pupillenbereich 158 flackern lässt oder unscharf macht.
  • In einer reflektierenden Veränderung sind drei Arten von Prozessen enthalten, nämlich ein erster Prozess der Auswahl eines Besitzers, der ein Ziel der reflektierenden Veränderung sein soll, ein zweiter Prozess der Extraktion von Merkmalen des ausgewählten Besitzers und ein dritter Prozess, bei dem die Merkmale des ausgewählten Besitzers im Augenbild 174 reflektiert werden. Der zweite Prozess wird ausgeführt, nachdem der erste Prozess abgeschlossen ist, und der dritte Prozess wird im Laufe der Zeit ausgeführt, nachdem der zweite Prozess abgeschlossen ist.
  • Die Augenerzeugungseinheit 152 kann eine reflektierende Veränderung des Augenbildes 174 unmittelbar nach der Inbetriebnahme des Roboters 100 im Haus einleiten. So kann beispielsweise die Augenerzeugungseinheit 152 den ersten Besitzer auswählen, der erkannt wird, nachdem der Roboter 100 zu Hause in Betrieb genommen und die Stromversorgung als Ziel der reflektierenden Veränderung eingeschaltet wurde (erster Prozess). Alternativ kann eine vorbestimmte Nachfrist eingestellt werden, bis die Augenerzeugungseinheit 152 mit einer reflektierenden Veränderung beginnt. Die Nachfrist ist eine Art von Beobachtungszeit, die für den ersten Prozess des Roboters 100 sichergestellt ist, bei dem ein Besitzer ausgewählt wird, der Ziel einer reflektierenden Veränderung sein soll. Nach Ablauf der Nachfrist kann die Augenerzeugungseinheit 152 eine reflektierende Veränderung mit jedem Besitzer als Ziel beginnen. Wenn beispielsweise die Vertrautheit in Bezug auf einen Besitzer einen vorbestimmten Schwellenwert oder mehr erreicht, kann die Augenerzeugungseinheit 152 diesen Besitzer als Ziel der reflektierenden Veränderung annehmen. In diesem Fall ist eine Frist, bis die Vertrautheit den Schwellenwert überschreitet, die Nachfrist. Die Nachfrist kann auch ein fester Zeitraum sein.
  • Die Augenerzeugungseinheit 152 kann Datum und Uhrzeit des ersten Einschaltens der Stromversorgung aufzeichnen, nachdem der Roboter 100 im Haus installiert wurde. Alternativ kann beim ersten Einschalten der Stromversorgung ein Timer gestartet werden. Es genügt, dass das Datum und die Uhrzeit, zu der ein vorbestimmtes Auslöserereignis eintritt, als Standarddatum und -uhrzeit aufgezeichnet werden, wobei es sich nicht auf das Einschalten der Stromversorgung beschränkt. Basierend auf dieser Art von Zeitinformationen kann die Augenerzeugungseinheit 152 eine vorübergehende Veränderung im Augenbild 174 bewirken.
  • Ein Vielfaches der Anzeigeschichten kann in das Auge 110 des Roboters 100 integriert sein. Insbesondere eine erste Schicht (eine Anzeigefläche des Augenbildes 174), auf die ein dreidimensionales Objekt projiziert wird, das einen Augapfel darstellt, eine zweite Schicht, in der das Symbol 184 angezeigt wird, und eine dritte Schicht, in der das Augenlidbild 176 angezeigt wird, sind übereinander angeordnet, und eine vierte Schicht, in der spezielle Informationen angezeigt werden, kann in einer obersten Schicht (Außenseite) gebildet werden. Spezielle Informationen sind in diesem Fall Informationen, die einem Benutzer dringend mitgeteilt werden müssen, wie z.B. der verbleibende Batterieladezustand mit einem vorbestimmten Wert oder niedriger, oder ein Systemfehler, oder Informationen, bei denen eine Benachrichtigung dringend erforderlich ist, und die von einem Entwickler des Roboters 100 definiert sind. Das Symbol 184 kann in der ersten Schicht (tiefste Schicht) anstelle der zweiten Schicht angezeigt werden, indem das Symbol 184 im Pupillenbild 164 des dreidimensionalen Objekts angezeigt wird.
  • Verschiedene Varianten von „Temperament“ können im Roboter 100 im Voraus eingestellt werden. Als eine alterungsbedingte Veränderung kann die Augenerzeugungseinheit 152 des Roboters 100 mit einem Temperament A bewirken, dass sich das Augenlidbild 176 allmählich zu einem herabhängenden Auge ändert, und die Augenerzeugungseinheit 152 des Roboters 100 mit einem Temperament B kann bewirken, dass sich das Augenlidbild 176 allmählich zu einem schrägen Auge ändert. Auf diese Weise kann ein alterungsbedingtes Veränderungsmuster basierend auf einer kongenitalen Einstellung des Roboters 100 bestimmt werden.
  • Außerdem kann das Augenbild 174 gemäß einer Umgebung oder Erfahrung des Roboters 100 einer alterungsbedingten Veränderung unterzogen werden. So kann beispielsweise ein alterungsbedingtes Veränderungsmuster des Augenbildes 174 bestimmt werden, je nachdem, ob der Roboter 100 mehr angenehme oder unangenehme Reaktionen erfahren hat. Die Augenerzeugungseinheit 152 kann eine von mehreren Arten von alterungsbedingten Veränderungsmustern gemäß den Bedingungen auswählen, wie z.B. ein Besitzer mit Vertrautheit eines ersten Schwellenwerts oder höher ist anwesend, ein Vielfaches von Besitzern mit Vertrautheit eines zweiten Schwellenwerts oder höher ist anwesend, und kein Besitzer mit Vertrautheit eines dritten Schwellenwerts oder niedriger ist anwesend. Die Augenerzeugungseinheit 152 des Roboters 100, die mehr angenehme Reaktionen als unangenehme Reaktionen erfahren hat, bewirkt beispielsweise, dass sich das Augenlidbild 176 zu einem hängenden Auge ändert und sich der Pupillenbereich 158 gegenüber einer Grundeinstellung vergrößert. Unterdessen kann die Augenerzeugungseinheit 152 des Roboters 100, die mehr unangenehme Handlungen als angenehme Handlungen erfahren hat, dazu führen, dass sich das Augenlidbild 176 zu einem schrägen Auge ändert und sich der Pupillenbereich 158 gegenüber der Grundeinstellung verkleinert.
  • Die Augenerzeugungseinheit 152 kann bewirken, dass der emotionale Zustand des Roboters 100 im Augenbild 174 reflektiert wird. Wenn sich der Roboter 100 beispielsweise in einem bestimmten emotionalen Zustand befindet (z.B. überrascht), kann die Augenerzeugungseinheit 152 einen Aspekt von „aufgerissenen Augen“ durch Vergrößerung des Pupillenbereichs 158 darstellen, und wenn sich der Roboter 100 in einem anderen emotionalen Zustand befindet (z.B. gerührt), kann die Augenerzeugungseinheit 152 die Blinzelhäufigkeit erhöhen. Die Augenerzeugungseinheit 152 kann bewirken, dass sich das Augenbild 174 beim Blinzeln in gleicher Weise wie das Symbol 184 ändert. Gemäß diesem Steuerungsverfahren kann ein Besitzer eine Emotion des Roboters 100 dem Augenbild 174 des Roboters 100 entnehmen. Auf diese Weise bewirkt die Augenerzeugungseinheit 152 nicht nur eine alterungsbedingte oder eine reflektierende Veränderung des Augenbildes 174, sondern kann auch eine vorübergehende Veränderung des Augenbildes 174 gemäß einem emotionalen Zustand hervorrufen.
  • Die Augenerzeugungseinheit 152 kann bewirken, dass sich das Augenbild 174 entsprechend einer Positionierung des Roboters 100 ändert. Wenn beispielsweise der Roboter 100 an einem bevorzugten Punkt auf der Emotionskarte 116 zu finden ist, kann die Augenerzeugungseinheit 152 einen Aspekt der „aufgerissenen Augen“ durch Vergrößerung des Pupillenbereichs 158 darstellen, und wenn der Roboter 100 an einem unbeliebten Punkt zu finden ist, kann die Augenerzeugungseinheit 152 einen Aspekt der „Ruhelosigkeit“ durch Erhöhung der Blinzelhäufigkeit darstellen. Auf diese Weise kann eine Emotion des Roboters 100 in Bezug auf einen Ort mit dem Augenbild 174 ausgedrückt werden.
  • Auch bei der Anzeige einer Reflexion kann die Augenerzeugungseinheit 152 die Darstellung des Motivs 182 dahingehend ändern, dass sie umso dunkler, größer und deutlicher ist, je länger ein Zustand eines starrenden Blicks anhält.
  • Die Augenerzeugungseinheit 152 kann ein aufgenommenes Bild unverändert auf das Pupillenbild 164 projizieren oder das aufgenommene Bild nach Durchführung einer Bearbeitung projizieren. Wenn beispielsweise ein Fokuspunkt eines aufgenommenen Bildes verschwommen ist, kann die Augenerzeugungseinheit 152 ein Bild eines schärferen Motivs 182 erzeugen, nachdem sie eine bereits bekannte Bildkorrektur wie beispielsweise eine Hochpassfilterung durchgeführt hat.
  • Die Augenerzeugungseinheit 152 kann ein Vielfaches der aufgenommenen Bilder im Voraus in Verbindung mit einem Benutzer speichern, und wenn ein geeignetes aufgenommenes Bild aus einem Grund, wie beispielsweise wenn der Benutzer zu nah ist, nicht verfügbar ist, kann die Augenerzeugungseinheit 152 ein gespeichertes aufgenommenes Bild als Reflexion im Pupillenbild 164 anstelle eines tatsächlich aufgenommenen Bildes anzeigen. Gemäß diesem Verarbeitungsverfahren kann ein geeignetes Bild des Motivs 182 als Reflexion dargestellt werden, auch wenn ein von der Kamera 134 aufgenommenes Bild unscharf ist. Auch bei der Anzeige einer Reflexion durch Ersetzen durch ein gespeichertes aufgenommenes Bild kann das aufgenommene Bild entsprechend dem Abstand zwischen dem Roboter 100 und dem Benutzer vergrößert oder verkleinert werden. Wenn der Roboter 100 und der Benutzer besonders nahe beieinander angeordnet sind, kann der Benutzer mit einer Kamera für Nahaufnahmen aufgenommen werden.
  • Wenn eine im Roboter 100 installierter voreingestellter Rückstellknopf gedrückt wird oder wenn ein voreingestellter Rückstellbefehl vom Server 200 an den Roboter 100 übertragen wird, kann die Augenerzeugungseinheit 152 eine konstante Veränderung zurücksetzen. Wenn eine Rückstellung durchgeführt wird, löscht die Augenerzeugungseinheit 152 eine alterungsbedingte oder reflektierende Veränderung und ändert dadurch das Augenbild 174 in das Augenbild 174 zum Zeitpunkt der Auslieferung ab Werk. Durch Zurücksetzen kann das Augenbild 174 beispielsweise auf das Augenbild 174 eines vorbestimmten Zeitpunkts einige Tage oder mehrere Wochen zuvor zurückgestellt werden. In diesem Fall muss die Augenerzeugungseinheit 152 chronologische Informationen über die konstante Veränderung des Augenbildes 174 speichern. Gemäß dieser Art von Rückstellfunktion kann das Augenbild 174 in das Augenbild 174 von mehreren Tagen oder mehreren Wochen zuvor „ zurückgespult “ werden, auch wenn das Augenbild 174 keine bevorzugte konstante Veränderung vornimmt. Eine Rücksetzung kann von einem Besitzer zu einem beliebigen Zeitpunkt durchgeführt werden, eine Mengenbegrenzung kann vorbestimmt werden oder eine Rückstellungsberechtigung kann durch ein Passwort oder dergleichen eingeschränkt werden.
  • Auch nach dem Zurücksetzen besteht die Möglichkeit, dass sich das Augenbild 174 des Roboters 100 genauso konstant ändert wie zuvor, wenn sich die äußere Umgebung des Roboters 100 nicht ändert. Als modifiziertes Beispiel kann ein Benutzer eine Änderungstendenz des Augenbildes 174 einstellen. Wenn beispielsweise eine „würdevolle“ Änderungstendenz gewählt wird, kann das Augenbild 174 so beschaffen sein, dass eine Absenkung des Augenlidbildes 176 eingeschränkt ist. Wenn eine „niedliche“ Änderungstendenz gewählt wird, kann das Augenbild 174 so beschaffen sein, dass die Wimpern 178 länger als normal eingestellt sind, und der Durchmesser des Pupillenbildes 164 im Vergleich zu einer regulären Betriebszeit erhöht wird. Ein Benutzer kann per Sprache oder über eine Bedieneinheit, die im Roboter 100 oder im Server 200 installiert ist, Anweisungen erteilen.
  • Eine Geschwindigkeit einer konstanten Veränderung (alterungsbedingte oder reflektierende Veränderung) kann variabel sein. So kann beispielsweise die Betriebssteuereinheit 150 die Geschwindigkeit einer alterungsbedingten Veränderung für einen Zeitraum kurz nach dem Kauf des Roboters 100 erhöhen und die Geschwindigkeit der alterungsbedingten Veränderung nach Ablauf eines vorbestimmten Zeitraums verringern. Gemäß diesem Steuerungsverfahren können Entwicklung und Alterung, die der eines Lebewesens ähneln, dadurch ausgedrückt werden, dass sich das Augenbild 174 zu verändern anfängt, wenn der Roboter 100 „jung“ ist, und das Augenbild 174 sich stabilisiert, wenn der Roboter 100 „erwachsen“ wird.
  • Das Robotersystem 300 muss nicht die Funktion beinhalten, ein Augenbild ab dem Zeitpunkt der Auslieferung ab Werk zu verändern. Die funktionelle Aufwertung des Robotersystems 300 nach Auslieferung des Robotersystems 300 kann durch den Download eines Augenbildsteuerungsprogramms erfolgen, das eine Augenbildsteuerungsfunktion über ein Kommunikationsnetzwerk ermöglicht.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2000323219 A [0003]
  • Zitierte Nicht-Patentliteratur
    • VITOR F. PAMPLONA, MANUEL M. OLIVEIRA and GLADIMIR V. G. BARANOSKI, „Photorealistic Models for Pupil Light Reflex and Iridal Pattern Deformation“ ACM Transactions on Graphics, Vol. 28, No. 4, Article 106, August 2 [0004]

Claims (20)

  1. Autonom agierender Roboter, umfassend: Eine Betriebssteuereinheit, die eine Bewegung auswählt, einen Antriebsmechanismus, der eine von der Betriebssteuereinheit ausgewählte Bewegung ausführt, eine Augenerzeugungseinheit, die ein Augenbild erzeugt, eine Augenanzeigeeinheit, die bewirkt, dass das Augenbild in einem Gesichtsbereich des Roboters angezeigt wird, und eine Merkmalsextraktionseinheit, die eine Merkmalsgröße eines Auges eines Benutzers aus einem aufgenommenen Bild des Benutzers extrahiert, wobei die Augenerzeugungseinheit bewirkt, dass die Merkmalsgröße des Auges des Benutzers im Augenbild reflektiert wird.
  2. Autonom agierender Roboter nach Anspruch 1, wobei die Augenerzeugungseinheit bewirkt, dass sich eine Größe eines im Augenbild enthaltenen Pupillenbildes ändert.
  3. Autonom agierender Roboter nach Anspruch 1 oder 2, wobei die Augenerzeugungseinheit bewirkt, dass sich eine Form eines im Augenbild enthaltenen Augenlidbildes ändert.
  4. Autonom agierender Roboter nach Anspruch 1, wobei die Augenerzeugungseinheit bewirkt, dass sich ein Betriebsmuster des Augenbildes ändert.
  5. Autonom agierender Roboter nach Anspruch 1, ferner umfassend eine Vertrautheitsverwaltungseinheit, die die Vertrautheit in Bezug auf einen Benutzer verwaltet, wobei die Augenerzeugungseinheit einen Benutzer auswählt, dessen Merkmalsgröße im Augenbild reflektiert werden soll, basierend auf der Vertrautheit des Benutzers.
  6. Autonom agierender Roboter nach Anspruch 1, ferner umfassend eine Zustandsverwaltungseinheit, die einen internen Zustand des Roboters verwaltet, wobei die Augenerzeugungseinheit einen Benutzer auswählt, dessen Merkmalsgröße im Augenbild reflektiert werden soll, basierend auf dem internen Zustand.
  7. Autonom agierender Roboter, umfassend: Eine Betriebssteuereinheit, die eine Bewegung auswählt, einen Antriebsmechanismus, der eine von der Betriebssteuereinheit ausgewählte Bewegung ausführt, eine Augenerzeugungseinheit, die ein Augenbild erzeugt, eine Augenanzeigeeinheit, die bewirkt, dass das Augenbild in einem Gesichtsbereich des Roboters angezeigt wird, wobei die Augenerzeugungseinheit eine alterungsbedingte Veränderung des Augenbildes bewirkt.
  8. Autonom agierender Roboter nach Anspruch 7, ferner umfassend eine Merkmalsextraktionseinheit, die eine Merkmalsgröße eines Auges eines Benutzers aus einem aufgenommenen Bild des Benutzers extrahiert, wobei die Augenerzeugungseinheit eine alterungsbedingte Veränderung des Augenbildes bewirkt, basierend auf der Merkmalsgröße des Auges des Benutzers.
  9. Autonom agierender Roboter, umfassend: Eine Betriebssteuereinheit, die eine Bewegung auswählt, einen Antriebsmechanismus, der eine von der Betriebssteuereinheit ausgewählte Bewegung ausführt, eine Augenerzeugungseinheit, die ein Augenbild erzeugt, eine Augenanzeigeeinheit, die bewirkt, dass das Augenbild in einem Gesichtsbereich des Roboters angezeigt wird, und eine Lichterfassungseinheit, die eine externe Lichtquelle erfasst, wobei die Augenerzeugungseinheit bewirkt, dass ein Fanglicht im Augenbild enthalten ist, und bewirkt, dass sich eine Position des Fanglichts entsprechend einer Richtung der externen Lichtquelle ändert.
  10. Autonom agierender Roboter nach Anspruch 9, wobei die Augenerzeugungseinheit ferner bewirkt, dass sich eine Größe des Fanglichts entsprechend einer Intensität der externen Lichtquelle ändert.
  11. Autonom agierender Roboter, umfassend: Eine Betriebssteuereinheit, die eine Bewegung auswählt, einen Antriebsmechanismus, der eine von der Betriebssteuereinheit ausgewählte Bewegung ausführt, eine Augenerzeugungseinheit, die ein Augenbild erzeugt, eine Augenanzeigeeinheit, die bewirkt, dass das Augenbild in einem Gesichtsbereich des Roboters angezeigt wird, und eine Lichterfassungseinheit, die ein externes Licht erfasst, wobei die Augenerzeugungseinheit bewirkt, dass sich eine Größe eines im Augenbild enthaltenen Pupillenbildes entsprechend einer Intensität des externen Lichts ändert.
  12. Autonom agierender Roboter, umfassend: Eine Kamera, eine Betriebssteuereinheit, die eine Bewegung auswählt, einen Antriebsmechanismus, der eine von der Betriebssteuereinheit ausgewählte Bewegung ausführt, eine Augenerzeugungseinheit, die ein Augenbild erzeugt, eine Augenanzeigeeinheit, die bewirkt, dass das Augenbild in einem Gesichtsbereich des Roboters angezeigt wird, wobei die Augenerzeugungseinheit bewirkt, dass ein von der Kamera aufgenommenes Motivbild dem Augenbild überlagert wird.
  13. Autonom agierender Roboter, umfassend: Eine Betriebssteuereinheit, die eine Bewegung auswählt, einen Antriebsmechanismus, der eine von der Betriebssteuereinheit ausgewählte Bewegung ausführt, eine Augenerzeugungseinheit, die ein Augenbild erzeugt, eine Augenanzeigeeinheit, die bewirkt, dass das Augenbild in einem Gesichtsbereich des Roboters angezeigt wird, eine Sichtlinienerfassungseinheit, die eine Sichtlinie eines Benutzers erfasst; und eine Symbolspeichereinheit, die ein Symbol speichert, das mit einer Anzeigebedingung korreliert ist, wobei, die Augenerzeugungseinheit das Symbol auf dem Augenbild überlagert, wenn eine Anzeigebedingung für ein beliebiges Symbol erfüllt ist und eine Sichtlinie zum Roboter erkannt wird.
  14. Autonom agierender Roboter nach Anspruch 13, wobei die Augenerzeugungseinheit ferner bewirkt, dass ein Fanglicht im Augenbild enthalten ist und das Fanglicht zum Symbol wechselt.
  15. Autonom agierender Roboter, umfassend: Eine Betriebssteuereinheit, die eine Bewegung auswählt, einen Antriebsmechanismus, der eine von der Betriebssteuereinheit ausgewählte Bewegung ausführt, eine Augenerzeugungseinheit, die ein Augenbild erzeugt, eine Augenanzeigeeinheit, die bewirkt, dass das Augenbild in einem Gesichtsbereich des Roboters angezeigt wird, und eine Symbolspeichereinheit, die ein Symbol speichert, das mit einer Anzeigebedingung korreliert ist, wobei, die Augenerzeugungseinheit das Symbol im Augenbild zu einem Zeitpunkt überlagert, an dem ein Blinzeln des Augenbildes ausgeführt wird, wenn eine Anzeigebedingung für ein beliebiges Symbol erfüllt ist.
  16. Augenbildsteuerungsprogramm, das einen Rechner veranlasst, folgendes auszuführen: eine Funktion, die bewirkt, dass ein Augenbild in einem Gesichtsbereich eines autonom agierenden Roboters angezeigt wird, und eine Funktion, die bewirkt, dass eine Merkmalsgröße eines Auges eines Benutzers im Augenbild reflektiert wird.
  17. Augenbildsteuerungsprogramm, das einen Rechner veranlasst, folgendes auszuführen: eine Funktion zum Erzeugen eines Augenbildes, eine Funktion, die bewirkt, dass das Augenbild in einem Gesichtsbereich eines autonom agierenden Roboters angezeigt wird, und eine Funktion, die eine alterungsbedingte Veränderung des Augenbildes bewirkt.
  18. Augenbildsteuerungsprogramm, das einen Rechner veranlasst, folgendes auszuführen: eine Funktion zum Erzeugen eines Augenbildes, eine Funktion, die bewirkt, dass das Augenbild in einem Gesichtsbereich eines autonom agierenden Roboters angezeigt wird, eine Funktion zum Erfassen einer externen Lichtquelle, eine Funktion, die bewirkt, dass ein Fanglicht im Augenbild angezeigt wird, und eine Funktion, die bewirkt, dass sich eine Position des Fanglichts gemäß einer Richtung der externen Lichtquelle ändert.
  19. Augenbildsteuerungsprogramm, das einen Rechner veranlasst, folgendes auszuführen: eine Funktion, die bewirkt, dass das Augenbild in einem Gesichtsbereich eines autonom agierenden Roboters angezeigt wird, eine Funktion zum Erfassen einer externen Lichtquelle, und eine Funktion, bei der sich die Größe eines im Augenbild enthaltenen Pupillenbildes entsprechend der Intensität der externen Lichtquelle ändert.
  20. Augenbildsteuerungsprogramm, das einen Rechner veranlasst, folgendes auszuführen: eine Funktion, die bewirkt, dass das Augenbild in einem Gesichtsbereich eines autonom agierenden Roboters angezeigt wird, eine Funktion zum Erfassen einer Sichtlinie eines Benutzers, eine Funktion zum Speichern eines Symbols, das mit einer Anzeigebedingung korreliert ist, und eine Funktion der Überlagerung des Symbols im Augenbild, wenn eine Anzeigebedingung für ein beliebiges Symbol erfüllt ist und eine Sichtlinie zum Roboter erkannt wird.
DE112017005954.2T 2016-11-24 2017-11-20 Autonom agierender Roboter, der die Pupille verändert Active DE112017005954T8 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016227681 2016-11-24
JP2016-227681 2016-11-24
PCT/JP2017/041619 WO2018097089A1 (ja) 2016-11-24 2017-11-20 瞳を変化させる自律行動型ロボット

Publications (2)

Publication Number Publication Date
DE112017005954T5 true DE112017005954T5 (de) 2019-09-05
DE112017005954T8 DE112017005954T8 (de) 2019-10-24

Family

ID=62196008

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017005954.2T Active DE112017005954T8 (de) 2016-11-24 2017-11-20 Autonom agierender Roboter, der die Pupille verändert

Country Status (6)

Country Link
US (2) US11623347B2 (de)
JP (2) JP6508864B2 (de)
CN (2) CN110024000B (de)
DE (1) DE112017005954T8 (de)
GB (1) GB2571027B (de)
WO (1) WO2018097089A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112018005034B4 (de) 2017-09-11 2022-05-12 Groove X, Inc. Autonom handelnder Roboter, der den Begleiter anblickt

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102645817B1 (ko) * 2016-12-06 2024-03-08 한화로보틱스 주식회사 로봇의 비헤이비어 관리 방법 및 장치
JP2019101492A (ja) * 2017-11-28 2019-06-24 トヨタ自動車株式会社 コミュニケーション装置
WO2019130992A1 (ja) * 2017-12-26 2019-07-04 株式会社Nttドコモ 情報処理装置
WO2020009098A1 (ja) * 2018-07-02 2020-01-09 Groove X株式会社 ロボット
JP7298861B2 (ja) * 2018-08-31 2023-06-27 Groove X株式会社 日常生活を記録する自律行動型ロボット
JP7352235B2 (ja) * 2019-01-12 2023-09-28 株式会社Zmp 自律走行車両、配送システム、プログラム及びプログラムを記憶した記憶媒体
JP7137746B2 (ja) * 2019-01-30 2022-09-15 株式会社Jvcケンウッド 映像処理装置、映像処理方法および映像処理プログラム
JP7414299B2 (ja) * 2019-04-04 2024-01-16 Groove X株式会社 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法
WO2020230928A1 (ko) * 2019-05-15 2020-11-19 엘지전자 주식회사 로봇 및 그의 제어 방법
KR102314385B1 (ko) * 2019-08-08 2021-10-19 엘지전자 주식회사 로봇 및 그의 제어 방법
WO2020190362A2 (en) * 2020-01-17 2020-09-24 Futurewei Technologies, Inc. A social interaction robot
US20210331310A1 (en) * 2020-04-28 2021-10-28 Ubtech Robotics Corp Ltd Neck mechanism for robot
CN111546338A (zh) * 2020-05-08 2020-08-18 华为技术有限公司 一种机器人的控制方法、装置、机器人以及存储介质
KR102295836B1 (ko) * 2020-11-20 2021-08-31 오로라월드 주식회사 성장형 스마트 토이 장치 및 스마트 토이 시스템
JP2022142506A (ja) * 2021-03-16 2022-09-30 本田技研工業株式会社 制御装置、制御方法、およびロボット制御システム
JP2024048495A (ja) * 2022-09-28 2024-04-09 カシオ計算機株式会社 機器の制御装置、機器の制御方法及びプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000323219A (ja) 1999-05-10 2000-11-24 Sony Corp 接続装置及びロボットシステム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10289006A (ja) 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法
US6249720B1 (en) * 1997-07-22 2001-06-19 Kabushikikaisha Equos Research Device mounted in vehicle
JP2000099490A (ja) * 1998-08-06 2000-04-07 Yamaha Motor Co Ltd 擬似的な精神情報に基づいて作動する装置
JP2001215940A (ja) * 2000-01-31 2001-08-10 Toshiba Corp 表情を有する知的ロボット
JP2002330365A (ja) * 2001-04-27 2002-11-15 Toshiba Corp 対人会話型ナビゲーション装置
WO2004058289A1 (en) 2002-12-20 2004-07-15 Chakshu Research, Inc. Ophthalmic formulation for the prevention and treatment of ocular conditions
US7705877B2 (en) * 2004-01-28 2010-04-27 Hewlett-Packard Development Company, L.P. Method and system for display of facial features on nonplanar surfaces
JP2005242566A (ja) * 2004-02-25 2005-09-08 Canon Inc 画像合成装置及び方法
JP2006106950A (ja) * 2004-10-01 2006-04-20 Tokyo Univ Of Science 画像表示装置、画像表示方法、及びプログラム
CN101751852A (zh) * 2008-11-28 2010-06-23 复旦大学 机器人实现拟人表情的方法
JP4972218B1 (ja) 2011-08-12 2012-07-11 株式会社バンダイ 動作体玩具
US20150298315A1 (en) * 2013-11-21 2015-10-22 Origami Robotics, Inc. Methods and systems to facilitate child development through therapeutic robotics
US20160042648A1 (en) * 2014-08-07 2016-02-11 Ravikanth V. Kothuri Emotion feedback based training and personalization system for aiding user performance in interactive presentations
JP6369246B2 (ja) * 2014-09-08 2018-08-08 オムロン株式会社 似顔絵生成装置、似顔絵生成方法
WO2016111414A1 (ko) * 2015-01-05 2016-07-14 (주)퓨처로봇 소셜 네트워크 서비스를 이용한 로봇 서비스 방법 및 로봇장치
CN105459126A (zh) * 2015-12-30 2016-04-06 深圳亿家智宝电子科技有限公司 一种机器人交流装置及其实现方法
CN105835071A (zh) * 2016-06-07 2016-08-10 苏州全谱光电科技有限公司 一种投影式人形机器人
JP6841167B2 (ja) * 2017-06-14 2021-03-10 トヨタ自動車株式会社 コミュニケーション装置、コミュニケーションロボットおよびコミュニケーション制御プログラム
BR102017016910A8 (pt) * 2017-08-07 2022-08-23 Db1 Global Software S/A Robô auxiliar com inteligência artificial
US10762414B1 (en) * 2018-04-19 2020-09-01 Kinoo, Inc. Systems and methods for sharing an artificial intelligence personality

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000323219A (ja) 1999-05-10 2000-11-24 Sony Corp 接続装置及びロボットシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
VITOR F. PAMPLONA, MANUEL M. OLIVEIRA and GLADIMIR V. G. BARANOSKI, „Photorealistic Models for Pupil Light Reflex and Iridal Pattern Deformation" ACM Transactions on Graphics, Vol. 28, No. 4, Article 106, August 2

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112018005034B4 (de) 2017-09-11 2022-05-12 Groove X, Inc. Autonom handelnder Roboter, der den Begleiter anblickt
US11498222B2 (en) 2017-09-11 2022-11-15 Groove X, Inc. Autonomously acting robot that stares at companion

Also Published As

Publication number Publication date
JP6508864B2 (ja) 2019-05-08
DE112017005954T8 (de) 2019-10-24
US20230249355A1 (en) 2023-08-10
GB2571027B (en) 2022-08-10
WO2018097089A1 (ja) 2018-05-31
GB201907135D0 (en) 2019-07-03
CN110024000B (zh) 2023-12-26
US11623347B2 (en) 2023-04-11
JPWO2018097089A1 (ja) 2019-02-28
CN117666867A (zh) 2024-03-08
CN110024000A (zh) 2019-07-16
GB2571027A (en) 2019-08-14
US20190279070A1 (en) 2019-09-12
JP2019149181A (ja) 2019-09-05
JP7068709B2 (ja) 2022-05-17

Similar Documents

Publication Publication Date Title
DE112017005954T5 (de) Autonom agierender Roboter, der die Pupille verändert
DE112017003497B4 (de) Selbständig agierender Roboter mit gesteuerter Aktivitätsmenge
DE112018005034B4 (de) Autonom handelnder Roboter, der den Begleiter anblickt
DE112017003651T5 (de) Autonom agierender Roboter, der Körperkontakt versteht
DE112017002606B4 (de) Autonom handelnder Roboter, der Kleidung trägt
DE112017004363T5 (de) Autonom agierender roboter, der die richtung einer geräuschquelle erkennt
DE112017003480B4 (de) Autonom handelnder Roboter
DE112017004512T5 (de) Autonom agierender Roboter, der einen natürlichen Abstand hält
DE112017001573B4 (de) Autonom agierender Roboter, der eine Begrüssungsaktion durchführt
DE112017001874T5 (de) Autonom handelnder Roboter mit Schüchternheit
DE112017002960T5 (de) Autonom handelnder roboter, der kühle sucht
DE112017002589T5 (de) Autonom handelnder Roboter und Computerprogramm
DE112017004414T5 (de) Autonom handelnder roboter, server und verhaltenssteuerungsprogramm
DE112017004554B4 (de) Autonom handelnder Roboter, der einen Gast akzeptiert
DE112018001944T5 (de) Roboter, auf dem Außenhaut befestigt ist
JP6671577B2 (ja) 人を識別する自律行動型ロボット
DE112017001571T5 (de) Informationsverarbeitungseinrichtung, informationsverarbeitungsverfahren und programm
DE112018005162T5 (de) Roboter, der lustig agiert und dessen Aufbau
WO2019151387A1 (ja) 経験に基づいて行動する自律行動型ロボット
DE112018000722T5 (de) Roboter mit einer weichen Außenhaut
JP2024096291A (ja) ロボット、プログラム及び方法
JP2024045247A (ja) ロボット

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: BOCKERMANN KSOLL GRIEPENSTROH OSTERHOFF, DE

R082 Change of representative

Representative=s name: BOCKERMANN KSOLL GRIEPENSTROH OSTERHOFF, DE

R016 Response to examination communication