DE102005001026A1 - Gesichtsbild-Erfassungsverfahren und Gesichtsbild-Erfassungssystem - Google Patents

Gesichtsbild-Erfassungsverfahren und Gesichtsbild-Erfassungssystem Download PDF

Info

Publication number
DE102005001026A1
DE102005001026A1 DE200510001026 DE102005001026A DE102005001026A1 DE 102005001026 A1 DE102005001026 A1 DE 102005001026A1 DE 200510001026 DE200510001026 DE 200510001026 DE 102005001026 A DE102005001026 A DE 102005001026A DE 102005001026 A1 DE102005001026 A1 DE 102005001026A1
Authority
DE
Germany
Prior art keywords
visitor
robot
information
image
facial image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE200510001026
Other languages
English (en)
Other versions
DE102005001026B4 (de
Inventor
Takahiro Wako Oohashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of DE102005001026A1 publication Critical patent/DE102005001026A1/de
Application granted granted Critical
Publication of DE102005001026B4 publication Critical patent/DE102005001026B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)

Abstract

Ein Gesichtsbild-Erfassungssystem, welches einen Roboter und eine Bewegungs-Überwachungseinheit aufweist, wobei der Roboter eine Kamera und einen Arm einschließt, die Bewegungs-Überwachungseinheit einen Besucher-Detektor, einen Befehls-Generator und eine Gesichtsbild-Registrierungseinheit aufweist, wobei in der Bewegungs-Überwachungseinheit vom Befehlsgenerator ein Befehl generiert wird, der die Bewegung des Roboters steuert und an den Roboter übermittelt wird, wenn der Besucher vom Besucher-Detektor detektiert worden ist, und der Roboter dem Besucher in Übereinstimmung mit dem Befehl ein Händeschütteln anbietet und der Roboter während des Händeschüttelns mit dem Besucher das Gesichtsbild des Besuchers erfasst und das erfasste Gesichtsbild in der Gesichtsbild-Registrierungseinheit gespeichert wird.

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung bezieht sich auf ein Gesichtsbild-Erfassungsverfahren und ein Gesichtsbild-Erfassungssystem, welche unter Verwendung eines robotischen Geräts (hierin nachstehend "ein Roboter" genannt) verwirklicht sind, welches Kameras und einen Arm aufweist.
  • Zum Zweck der Verbesserung der Arbeitseffizienz und der Ersparnis von Arbeitskosten ist ein Rezeptionssystem zum Identifizieren von Besuchern und zum Geben von bestimmten Informationen zur Führung an diese untersucht und entwickelt worden, um neue Roboteranwendungstechnologien zu erzeugen.
  • Als Beispiel für diese Arten des Rezeptionssystems ist in den japanischen Patentoffenlegungsschriften JP Nr. H02-240684 und Nr. H07-295637 eine Erfindung entdeckt worden, die eine Rezeptionisten-Arbeit unter Verwendung eines Roboters durchführt.
  • Da die Rezeptionisten-Arbeit für einen Besucher unter Verwendung eines Roboters durchgeführt wird, der für die Rezeptionisten-Arbeit nur eine Hilfsfunktion innehat, kann die Verbesserung der Arbeitseffizienz und die Ersparnis von Arbeitskosten bei der in diesen Patentoffenlegungsschriften offenbarten Erfindung nicht erreicht werden. Insbesondere hat der in diesen Erfindungen verwendete Roboter nicht die Funktion zum Identifizieren eines Besuchers, und dies beschränkt die Bewegung des Roboters auf eine standardisierte Handlung.
  • Hier haben sich die Erfinder der vorliegenden Erfindung auf eine Gesichtserkennungstechnik fokussiert, die in der japanischen Patentoffenlegungsschrift JP Nr. 2001-266152 entdeckt worden ist, und haben versucht, diese Gesichtserkennungstechnik in den Roboter einzusetzen, und haben unter Verwendung einer Gesichtserkennungstechnik das Rezeptionssystem verwirklicht, welches eine Rezeptionisten-Arbeit an jeweiligen Besuchern individuell durchführen kann.
  • Bei dem vorstehend beschriebenen Rezeptionssystem, welches einen Roboter mit Menschengestalt verwendet, muss das Gesichtsbild eines Besuchers im Voraus registriert sein, um die Gesichtserkennung eines Besuchers durchzuführen.
  • Überdies wird der Besucher dazu gebracht, während der Bildaufnahme des Gesichtsbilds unter Verwendung einer Videokamera usw. stehen zu bleiben, um die Genauigkeit der Gesichtserkennung des Besuchers zu verbessern.
  • Deshalb muss die Bildaufnahme des Gesichtsbilds an einem Rezeptionsschalter usw. durchgeführt werden, um das Gesichtsbild des Besuchers zu registrieren, dessen Gesichtsbild noch nicht registriert worden ist. Dies stört die reibungslose Rezeptionisten-Arbeit.
  • Deshalb bestand Bedarf für das Gerät, welches die Bildaufnahme des Gesichtsbilds eines Besuchers durchführen kann, ohne dass sich der Besucher der Bildaufnahme bewusst wird, und welches das Gesichtsbild eines Besuchers von vorne erfassen und die Genauigkeit der Gesichtserkennung verbessern kann.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die vorliegende Erfindung bezieht sich auf ein Gesichtsbild-Erfassungsverfahren, welches einen Roboter mit einer Kamera und einem Arm verwendet. Dieses Verfahren schließt die Schritte ein: a) Detektieren einer Zielperson, deren Gesichts bild in einem mittels der Kamera erhaltenen Bild erfasst wird; b) Bewegen des Arms auf die Zielperson zu; c) Durchführen einer Bildaufnahme des Gesichtsbilds der Zielperson während des Händeschüttelns mit der Zielperson; und d) Speichern des erhaltenen Gesichtsbilds in einem Speichermedium.
  • Die vorliegende Erfindung bezieht sich überdies auf ein Gesichtsbild-Erfassungssystem, welches einen Roboter mit einer Kamera und einem Arm und eine Bewegungs-Überwachungseinheit einschließt. Die Bewegungs-Überwachungseinheit weist auf: einen Besucher-Detektor, der die Gegenwart eines Besuchers detektiert; einen Befehls-Generator, der einen Befehl generiert, der die Bewegung des Roboters steuert; und eine Gesichtsbild-Registrierungseinheit, die ein Gesichtsbild des Besuchers aufbewahrt.
  • Bei diesem System übermittelt die Bewegungs-Überwachungseinheit den im Befehls-Generator generierten Befehl an den Roboter, wenn der Besucher vom Besucher-Detektor detektiert worden ist; bewegt der Roboter den Arm auf den Besucher zu, um dem Besucher in Übereinstimmung mit dem Befehl ein Händeschütteln anzubieten, und führt eine Bildaufnahme eines Gesichtsbilds des Besuchers während des Händeschüttelns mit dem Besucher unter Verwendung der Kamera durch; und speichert die Bewegungs-Überwachungseinheit das vom Roboter erfasste Gesichtsbild in der Gesichtsbild-Registrierungseinheit.
  • Darüber hinaus bezieht sich die vorliegende Erfindung weiter auf ein Gesichtsbild-Erfassungssystem, welches einen Roboter mit einer Kamera und einem Arm und eine Bewegungs-Überwachungseinheit aufweist. Die Bewegungs-Überwachungseinheit schließt ein: eine Datenbank für persönliche Informationen, die eine persönliche Information speichert, die zur Identifizierung einer Person verwendet wird, sowie ein der persönlichen Information zugeordnetes Gesichtsbild der Person speichert; einen Besucher-Detektor, der die Gegenwart eines Besuchers detektiert und ein Gesichtsbild des Besuchers erfasst; einen Informationsmanager, der eine wesentliche Information generiert, die zum Generieren eines Befehls zu verwenden ist, der die Bewegung des Roboters steuert; und einen Befehls-Generator, der auf Grundlage der wesentlichen Information einen Befehl generiert.
  • Bei diesem System bezieht sich die Bewegungs-Überwachungseinheit auf Grundlage des vom Besucher-Detektor erfassten Gesichtsbilds auf die Datenbank für persönliche Informationen, um den Besucher zu identifizieren, wenn der Besucher vom Besucher-Detektor detektiert worden ist; generiert der Informationsmanager die Identifizierungsinformation, durch welche der Besucher identifizierbar ist, falls die geeignete persönliche Information in der Datenbank für persönliche Informationen nicht zu finden ist; und generiert die wesentliche Information, aus welcher der Befehls-Generator den Befehl generiert, welcher dem Roboter das Erfassen des Gesichtsbilds des Besuchers befiehlt; bewegt der Roboter den Arm auf den Besucher zu, um dem Besucher in Übereinstimmung mit dem Befehl ein Händeschütteln anzubieten, und führt eine Bildaufnahme eines Gesichtsbilds des Besuchers während des Händeschüttelns mit dem Besucher unter Verwendung der Kamera durch; und betrachtet die Bewegungs-Überwachungseinheit die Identifizierungsinformation als die persönliche Information und speichert das vom Roboter erfasste Gesichtsbild zusammen mit der persönlichen Information in der Datenbank für persönliche Informationen.
  • Bei der vorliegenden Erfindung fordert der Roboter den Besucher vorzugsweise auf, die Besucherinformation einzugeben, die eine Information über den Besucher ist, und speichert die Bewegungs-Überwachungseinheit die Besucherinformation zusammen mit der persönlichen Information in der Datenbank für persönliche Informationen.
  • In diesem Fall kann die Information über den Besucher erhalten werden, über den keine Information in der Datenbank verzeichnet ist.
  • Bei der vorliegenden Erfindung erfasst der Roboter eine vorbestimmte Anzahl von Gesichtsbildern des Besuchers, wenn die Bildaufnahme des Gesichtsbilds des Besuchers durchgeführt wird, und errechnet die Ähnlichkeit des letzten Gesichtsbilds gegen das Klassenbild, welches aus allen Gesichtsbildern mit Ausnahme des letzten Gesichtsbilds generiert worden ist, und wiederholt die Bildaufnahme des Gesichtsbilds, bis die errechnete Ähnlichkeit einen Schwellenwert übersteigt.
  • Bei der vorliegenden Erfindung bezieht sich die Bewegungs-Überwachungseinheit auf Grundlage des vom Besucher-Detektor erfassten Gesichtsbilds auf die Datenbank für persönliche Informationen, um den Besucher zu identifizieren, wenn der Besucher vom Besucher-Detektor detektiert worden ist; generiert der Informationsmanager die wesentliche Information, aus welcher der Befehls-Generator den Befehl generiert, welcher dem Roboter befiehlt, die Ähnlichkeit des Gesichtsbilds des Besuchers zu errechnen, falls die geeignete persönliche Information in der Datenbank für persönliche Informationen zu finden ist; bewegt der Roboter den Arm auf den Besucher zu, um dem Besucher in Übereinstimmung mit dem Befehl ein Händeschütteln anzubieten, und führt eine Bildaufnahme eines Gesichtsbilds des Besuchers während des Händeschüttelns mit dem Besucher unter Verwendung der Kamera durch, und errechnet der Roboter die Ähnlichkeit des durch die Bildaufnahme erhaltenen Gesichtsbilds gegen das Klassenbild, welches aus den in der Datenbank für persönliche Informationen gespeicherten Gesichtsbildern generiert worden ist, und wiederholt die Bildaufnahme des Gesichtsbilds des Besuchers, bis die errechnete Ähnlichkeit einen Schwellenwert übersteigt; und speichert die Bewegungs-Überwachungseinheit alle vom Roboter erfassten Gesichtsbilder in der Datenbank für persönliche Informationen.
  • In diesem Fall kann die Identifizierung des Besuchers erreicht werden, und werden alle vom Roboter erfassten Gesichtsbilder zusätzlich zu den zuvor gespeicherten Gesichtbildern unter dieser Identifizierung in der Datenbank für persönliche Informationen gespeichert. Daher kann das Klassenbild, das aus den in der Datenbank für persönliche Informationen gespeicherten Gesichtbildern generiert worden ist, die Veränderung des Besuchergesichts widerspiegeln. Dadurch kann die Genauigkeit der Identifizierung des Besuchers aufrechterhalten werden, auch wenn der Besucher altert.
  • Bei der vorliegenden Erfindung schließt der Roboter ferner einen Händeschüttel-Sensor ein, der überprüft, ob der Besucher den Arm akzeptiert hat oder nicht, und überprüft der Roboter, ob der Besucher den Arm akzeptiert hat oder nicht, wenn der Arm des Roboters auf den Besucher zu bewegt worden ist, und führt der Roboter die Bildaufnahme des Gesichtsbilds des Besuchers mittels der Kamera durch, wenn befunden worden ist, dass der Besucher das Händeschütteln akzeptiert hat.
  • Bei der vorliegenden Erfindung sucht die Bewegungs-Überwachungseinheit vorzugsweise die persönliche Information, die in vorbestimmten Informationspunkten einen leeren Inhalt aufweist, und löscht eine solche persönliche Information zusammen mit dem Gesichtsbild.
  • Da die persönliche Information, die in vorbestimmten Informationspunkten einen leeren Inhalt aufweist, in einem festen Zyklus gelöscht wird, kann der Datenbetrag in der Datenbank in diesem Fall überwacht werden.
  • Da der Besucher für ein Händeschütteln mit dem Roboter an einer vorbestimmten Position stehen bleibt, kann das Gesichtsbild des Besuchers nach der vorliegenden Erfindung an derselben Stelle erfasst werden, ohne den Besucher übermäßig zu belästigen. Dies ist der Fall, weil die Bildaufnahme während der natürlichen Bewegung des Händeschüttelns durchgeführt wird.
  • Darüber hinaus wiederholt der Roboter das Erfassen des Gesichtsbilds an einem Besucher, dessen Gesichtsbild bereits schon erfasst worden ist, nicht noch einmal. Dies ist der Fall, weil die neue Identifizierungsnummer dem unplanmäßigen Besucher zugeordnet und zusammen mit seinem Gesichtsbild in der Datenbank gespeichert wird, falls der Besucher, dessen Ankunft unplanmäßig war, angekommen ist.
  • Da das in der Datenbank zu speichernde Gesichtsbild eine ausreichende Ähnlichkeit aufweist, kann die Genauigkeit der Identifizierung des Besuchers nach der vorliegenden Erfindung verbessert werden.
  • Da das Gesichtsbild des Besuchers nicht erfasst wird, falls die Identifizierung des Besuchers fehlgeschlagen ist, kann die Aktualisierung der Besucherinformation mittels eines falschen Gesichtbilds nach der vorliegenden Erfindung vermieden werden.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist schematisches Diagramm, welches einen Rezeptionsbereich zeigt, in welchem das Rezeptionssystem gemäß der bevorzugten Ausführungsform der vorliegenden Erfindung angeordnet ist.
  • 2 ist ein Blockdiagramm, welches die Konstruktion des Roboters des Rezeptionssystems gemäß der bevorzugten Ausführungsform der vorliegenden Erfindung zeigt.
  • 3 ist ein Blockdiagramm, welches die Rezeptions-Überwachungseinheit des Rezeptionssystems gemäß der bevorzugten Ausführungsform der vorliegenden Erfindung zeigt.
  • 4 ist ein Flussdiagramm zur Erläuterung des Prozesses der Rezeptionshandlung für einen Besucher unter Verwendung des Rezeptionssystems gemäß der bevorzugten Ausführungsform der vorliegenden Erfindung.
  • 5 ist ein Flussdiagramm zur Erläuterung des Prozesses der Registrierung des Gesichtsbilds des Besuchers unter Verwendung des Rezeptionssystems gemäß der bevorzugten Ausführungsform der vorliegenden Erfindung.
  • 6 ist ein Flussdiagramm zur Erläuterung des Prozesses der Rezeptionshandlung für den Besucher unter Verwendung des Rezeptionssystems gemäß der bevorzugten Ausführungsform der vorliegenden Erfindung.
  • AUSFÜHRLICHE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORM
  • Die bevorzugten Ausführungsformen der vorliegenden Erfindung werden mit Bezug auf die beiliegenden Zeichnungen beschrieben.
  • Als Beispiel der vorliegenden Erfindung wird ein System erklärt, welches in einem Rezeptionsbereich in einem Bürogebäude eines Unternehmens angeordnet ist und zu einer Rezeptionisten-Arbeit für einen Besucher verwendet wird. Hier führt das System die Rezeptionisten-Arbeit unter Verwendung eines autonomen, mobilen Roboters in Menschengestalt durch, der auf zwei Beinen gehen kann.
  • Wie in 1 gezeigt, ist das Rezeptionssystem 1 hauptsächlich von einem Roboter 2 und einer Rezeptions-Überwachungseinheit B gebildet.
  • Die Rezeptions-Überwachungseinheit B ist von einer Roboter-Unterstützungseinheit 3, einem Transceiver 35 und einer Überwachungskamera 4 gebildet.
  • Wie in 1 gezeigt, ist die Roboter-Unterstützungseinheit 3 bei dieser Ausführungsform in einem Rezeptionsbereich angeordnet. Diese Roboter-Unterstützungseinheit 3 kann jedoch auch an einem anderen Ort als dem Rezeptionsbereich angeordnet sein.
  • [ROBOTER]
  • Auf 2 Bezug nehmend wird als Nächstes der Roboter 2 erklärt.
  • Ein Roboter 2 der vorliegenden Ausführungsform ist ein auf zwei Beinen gehender Roboter und ist auch ein autonomer, mobiler Roboter in Menschengestalt.
  • Der Roboter 2 schließt Kameras 21a, ein Mikrophon 22a, einen Lautsprecher 23a, eine Roboter-Überwachungseinheit 2A, eine autonome Fortbewegungseinheit 26b, eine Arbeitseinheit 27 und einen Roboter-Transceiver 28 ein.
  • Die Roboter-Überwachungseinheit 2A schließt ferner einen Bild-Analysator 21b, einen Sprach-Analysator 22b, einen Sprach-Synthetisierer 23b, eine Antwort-Überwachungseinheit 24, einen Positions-Analysator 25, eine Fortbewegungs-Überwachungseinheit 26a, eine Szenario-Datenbank 29a und eine Datenbank für Karteninformationen 29b ein.
  • Hier wird jede Komponente des Roboters 2 ausführlich erklärt.
  • Die Kamera 21a erhält ein Bild der Umgebung und ein Gesichtsbild eines Besuchers und sendet diese an den Bild-Analysator 21b. Hier wird eine Schwarzweiß-Videokamera oder eine Farbbild-Videokamera als Kamera 21a der vorliegenden Ausführungsform eingesetzt.
  • Bei dieser Ausführungsform werden insgesamt zwei Kameras auf dem Roboter 2 installiert. Dies ist der Fall, weil der Abstand vom Roboter 2 zu einem Besucher und die relative Position des Roboters 2 im Rezeptionsbereich erhalten werden, indem die Parallaxe zwischen den mittels jeder Kamera erhaltenen Bildern errechnet wird.
  • Bei dieser Ausführungsform ist jede Kamera 21a überdies dazu ausgelegt, sich unter Verwendung einer Antriebseinheit, beispielsweise eines Motors (nicht gezeigt), derart in einer Links- und Rechts-Richtung und in einer Aufwärts- und Abwärts-Richtung zu bewegen, dass die Kameras in die gewünschte Richtung gerichtet werden können.
  • Der Bild-Analysator 21b formt das Datenformat eines Bilds oder eines Gesichtsbilds, die von der Kamera 21a eingegeben worden sind, in ein digitales Format um und sendet diese der Antwort-Überwachungseinheit 24 und dem Positions-Analysator 25.
  • Der Bild-Analysator 21b hat die Funktion, das automatische Verfolgen eines sich bewegenden Objekts und das Extrahieren des sich bewegenden Objekts aus einem Bild durchzuführen, und zwar unter Verwendung eines Aktiv-Umrissmodells (beispielsweise „SNAKES"). Der Bild-Analysator 21b hat auch die Funktion, das Gesichtsbild des Besuchers in einer vorbestimmten Größe zu extrahieren. Hier wird das extrahierte Gesichtsbild mit dem in einer Datenbank für Besucherinformationen 34b der Roboter-Unterstützungseinheit 3 gespeicherten (oder von dieser geschickten) Gesichtsbild oder mit den Gesichtsbildern verglichen, die vor diesem extrahierten Bild erhalten worden sind. Daher errechnet der Bild-Analysator 21b aus diesem Vergleich die Ähnlichkeit und gibt das errechnete Ergebnis an die Antwort-Überwachungseinheit 24 aus.
  • Das Mikrophon 22a sammelt die Töne aus der Umgebung und den Gesprächen eines Besuchers und sendet diese dem Sprach-Analysator 22b als Tondaten. Auf Grundlage der vom Mikrophon 22a eingegebenen Tondaten bezieht sich der Sprach-Analysator 22b auf eine Datenbank aus festgelegten Wörtern und erkennt die Bedeutung der Gespräche des Besuchers.
  • Der Lautsprecher 23a lässt eine im Sprach-Synthetisierer 23b synthetisierte Sprachmitteilung erklingen, um die Kommunikation mit einem Besuchers mittels einer Unterhaltung zu ermöglichen.
  • Der Lautsprecher 23a lässt auch eine Sprachmitteilung erklingen, welche gemäß eines in der Szenario-Datenbank 29a aufgezeichneten Szenarios oder gemäß eines von einem Befehls-Generator 33 (siehe 3) der Roboter-Unterstützungseinheit 3 gesendeten Befehls synthetisiert wird.
  • Die Antwort-Überwachungseinheit 24 generiert die Gesprächsdaten auf Grundlage der von der Roboter-Unterstützungseinheit 3 gesendeten Information, einer vom Bild-Analysator 21b eingegebenen Bildinformation und vom Mikrophon 22a aufgenommenen Tondaten.
  • Die Antwort-Überwachungseinheit 24 steuert auch die Bewegung des Roboters 2, beispielsweise ein Anheben des Arms des Roboters bis zu einer bestimmten Höhe, indem sie ein Befehlssignal an die Arbeitseinheit 27 sendet.
  • Die Antwort-Überwachungseinheit 24 sendet durch den Roboter-Transceiver 28 ein Rezeptions-Startsignal an die Roboter-Unterstützungseinheit 3, wenn der Roboter 2 in Antwort auf einen von der Roboter-Unterstützungseinheit 3 gesendeten Befehls die Rezeptionshandlung beginnt.
  • Die Antwort-Überwachungseinheit 24 sendet auch ein Rezeptions-Beendigungssignal an die Roboter-Unterstützungseinheit 3, wenn die Rezeptionshandlung durch den Roboter 2 beendet ist.
  • Die Antwort-Überwachungseinheit 24 steuert das Erfassen des Gesichtsbilds des Besuchers gemäß der im Bild-Analysator 21b errechneten Ähnlichkeit.
  • Der Positions-Analysator 25 errechnet Positionsdaten, welche die derzeitige Position des Roboters 2 angeben, und übermittelt die Positionsdaten an die Roboter-Unterstützungseinheit 3. Hier werden die Positionsdaten auf Grundlage von Bildern errechnet, die mittels jeder Kamera 21a erhalten und durch den Bild-Analysator 21b eingegeben worden sind, sowie von in der Datenbank für Karteninformationen 29b gespeicherten Karteninformationen.
  • In Übereinstimmung mit vom Positions-Analysator 25 eingegebenen Positionsdaten, in der Datenbank für Karteninformationen 29b gespeicherten Karteninformationen und einem von der Roboter-Unterstützungseinheit 3 gesendeten Befehl steuert eine Fortbewegungs-Überwachungseinheit 26a den Betrieb der autonomen Fortbewegungseinheit 26b.
  • Die autonome Fortbewegungseinheit 26b ist eine Vorrichtung zum Durchführen einer autonomen Fortbewegung des Roboters z. Bei dieser Ausführungsform entspricht der Beinabschnitt des Roboters 2 der autonomen Fortbewegungseinheit 26b.
  • Die Arbeitseinheit 27 ist eine Vorrichtung zum Steuern einer Arbeit (einer Bewegung mit Ausnahme der Fortbewegung) des Roboters 2 in Übereinstimmung mit einem von der Antwort-Überwachungseinheit 24 eingegebenen Befehlssignal. Bei dieser Ausführungsform entspricht der Armabschnitt des Roboters 2 der Arbeitseinheit 27.
  • Der Roboter-Transceiver 28 ist eine Vorrichtung zum Durchführen einer drahtlosen Kommunikation mit der Roboter-Unterstützungseinheit 3.
  • Die Szenario-Datenbank 29a speichert eine Vielzahl von Modellsätzen und die relevante Information des Modellsatzes. Hier entspricht der Modellsatz Gesprächsdaten, die zu verwenden sind, wenn der Roboter mittels eines Gesprächs mit einem Besucher kommuniziert. "Wie geht es Ihnen?" und "Bitte nennen Sie mir einen Namen." sind beispielsweise solche Modelsätze.
  • Bei dieser Ausführungsform entspricht die Information, die erforderlich ist, wenn der Roboter 2 die auf die Gesprächsdaten bezogene, bestimmte Handlung (z.B. das Händeschütteln) ausführt, oder die Information, die zu verwenden ist, wenn sich der Roboter 2 in die Ausgangsposition im Rezeptionsbereich bewegt, der relevanten Information.
  • Darüber hinaus sind in der Szenario-Datenbank 29a Informationen gespeichert, die zum Generieren eines Befehlssignals in der Antwort-Überwachungseinheit 24 erforderlich sind.
  • Die Datenbank für Karteninformationen 29b speichert Karteninformationen bezüglich eines Bereichs (Rezeptionsbereich), in welchem sich der Roboter 2 umherbewegen kann. Die in der Datenbank für Karteninformationen 29b gespeicherten Karteninformationen sind dieselben Daten wie jene, die in der Datenbank für Karteninformationen 34a der Roboter-Unterstützungseinheit 3 gespeichert sind. Bei dieser Ausführungsform kann die Aktualisierung (oder Synchronisierung) der Karteninformationen durch den Datenaustausch zwischen dem Roboter 2 und der Roboter-Unterstützungseinheit 3 ausgeführt werden.
  • [REZEPTIONS-ÜBERWACHUNGSEINHEIT]
  • Mit Bezug auf 3 wird als Nächstes die Rezeptions-Überwachungseinheit B als Bewegungs-Überwachungseinheit erklärt.
  • Die Rezeptions-Überwachungseinheit B ist hauptsächlich von der Roboter-Unterstützungseinheit 3, der Überwachungskamera 4 und dem Transceiver 35 gebildet.
  • Die Roboter-Unterstützungseinheit 3 schließt einen Überwachungsbild-Analysator 31, einen Rezeptions-Informationsmanager 32, den Befehls-Generator 33, eine Datenbank für Karteninformationen 34a, die Datenbank für Besucherinformationen 34b und eine Datenbank für Zeitplaninformationen 34c ein.
  • Die Roboter-Unterstützungseinheit 3 ist dazu ausgelegt, um mit dem Roboter 2 durch den Transceiver 35 verschiedene Informationen auszutauschen, beispielsweise den Befehl, das Rezeptions-Startsignal usw..
  • Der Überwachungsbild-Analysator 31 formt das Datenformat eines mittels der Überwachungskamera 4 erhaltenen Überwachungsbilds in ein digitales Format um.
  • Der Überwachungsbild-Analysator 31 hat die Funktion, das automatische Verfolgen eines sich bewegenden Objekts und das Extrahieren des sich bewegenden Objekts durchzuführen, und zwar unter Verwendung eines Aktiv-Umrissmodells (beispielsweise „SNAKES"), und kann die Anwesenheit eines Besuchers im Überwachungsbild detektieren.
  • Der Überwachungsbild-Analysator 31 hat auch die Funktion, das Gesichtsbild des Besuchers in einer vorbestimmten Größe zu extrahieren.
  • Der Überwachungsbild-Analysator 31 hat die Funktion, eine Ortsinformation zu generieren, welche die Position des Besuchers und des Roboters 2 innerhalb des Rezeptionsbereichs angibt und welche auch eine relative Position zwischen dem Besucher und dem Roboter 2 angibt.
  • Die Überwachungskamera 4 erhält ein Bild des Rezeptionsbereichs einschließlich des Eingangs und sendet dieses an den Überwachungsbild-Analysator 31. Hier ist der Rezeptionsbereich ein Bereich, in welchem sich der Roboter und die Person umherbewegen können.
  • Unter Verwendung von "Snakes" analysiert der Überwachungsbild-Analysator 31 das Bild des Rezeptionsbereichs und detektiert aus diesem das sich bewegende Objekt. Danach betrachtet der Überwachungsbild-Analysator 31 das sich bewegende Objekt als einen Besucher und extrahiert das Gesichtsbild des Besuchers. Der Überwachungsbild-Analysator 31 gibt das Gesichtsbild des Besuchers als Bildinformation an den Rezeptions-Informationsmanager 32 aus, und dies zusammen mit der Besuchszeitinformation, welche die Zeit angibt, wann der Besucher vom Überwachungsbild-Analysator 31 detektiert worden ist.
  • Der Überwachungsbild-Analysator 31 bestimmt die Positionen des Besuchers und des Roboters 2 im Rezeptionsbereich und generiert die Ortsinformation. Danach gibt der Überwachungsbild-Analysator 31 die Ortsinformation an den Rezeptions-Infor mationsmanager 32 aus. Bei dieser Ausführungsform dienen der Überwachungsbild-Analysator 31 und die Überwachungskamera 4 als Besucher-Detektor.
  • Die Datenbank für Karteninformationen 34a speichert Kartendaten und Karteninformationen bezüglich des Bereichs (Rezeptionsbereich), in welchem sich der Roboter 2 herumbewegen kann.
  • Bei dieser Ausführungsform sind die Information bezüglich der Auslegung des Rezeptionsbereichs und die Information bezüglich der Position eines Hindernisses, beispielsweise einer Grünpflanze oder eines Sofas, als Informationspunkt der Karteninformation eingesetzt.
  • Darüber hinaus kann die Aktualisierung der Kartendaten und Karteninformationen bei der vorliegenden Ausführungsform durch einen Bedienungsperson-PC (siehe 1) durchgeführt werden. Deshalb können die Kartendaten und Karteninformationen gemäß der Änderung der Auslegung des Rezeptionsbereichs und der Änderung der Position des Hindernisses, beispielsweise einer Grünpflanze oder eines Sofas, geändert werden.
  • Da die aktualisierten Kartendaten und Karteninformationen durch den Transceiver 35 an den Roboter 2 übertragen werden, wenn die Kartendaten und Karteninformationen aktualisiert worden sind, können bei dieser Ausführungsform darüber hinaus die in der Datenbank für Karteninformationen 29b (siehe 2) im Roboter 2 gespeicherten Kartendaten und Karteninformationen bei dieser Ausführungsform ohne Zeitverzögerung aktualisiert werden.
  • Die Datenbank für Besucherinformationen 34b, die als Datenbank für persönliche Informationen dient, speichert die Besucherinformation und das Gesichtsbild des Besuchers. Hier werden die Besucherinformation und das Gesichtsbild, die dem Besucher entsprechen, in der Datenbank für Besucherinformationen 34b miteinander korreliert.
  • Bei dieser Ausführungsform werden eine einem Besucher allein zugeordnete Identifizierungsnummer (ID-Nummer), ein Name eines Besuchers, ein Name eines Unternehmens, zu welchem ein Besucher gehört, und ein Geschäftstitel eines Besuchers als Informationspunkte der Besucherinformation eingesetzt.
    Figure 00160001
    Tabelle 1 Ein Beispiel einer allgemeinen Besucherinformation für den Besucherbestand
  • Die Tabelle 1 zeigt ein Beispiel jedes Informationspunkts der in der Datenbank für Besucherinformationen 34b gespeicherten Besucherinformation. Wie in Tabelle 1 gezeigt, schließt die Besucherinformation bei dieser Ausführungsform eine Vielzahl von Informationspunkten ein, und alle Punkte mit Ausnahme der Identifizierungsnummer sind keine unentbehrlichen Punkte. Deshalb ist der Informationspunkt, dessen Inhalt leer ist (keine Daten) in dieser Tabelle mit "nicht vorhanden" bezeichnet.
  • Bei der vorliegenden Ausführungsform löscht der Rezeptions-Informationsmanager 32 in einem vorbestimmten Zyklus alle Daten (Information), die mit einer Identifizierungsnummer korreliert sind, deren Informationspunkt "Name" "nicht vorhanden" ist. Hier kann das Löschen der Information alle paar Tage durchgeführt werden oder jedes Mal, wenn der Roboter 2 herunterfährt.
  • Bei der vorliegenden Ausführungsform können Daten von zumindest einem Informationspunkt als "Schlüssel" zum Suchen von Zeitplaninformationen verwendet werden, die in der Datenbank für Zeitplaninformationen 34c gespeichert sind.
  • Hier wird das Aktualisieren jedes Inhalts der in der Datenbank für Besucherinformationen 34b gespeicherten Besucherinformation mittels des Bedienungsperson-PC's durchgeführt oder unter Verwendung von direkt vom Roboter 2 erfassten Daten.
  • Um eine selten verwendete Besucherinformation zu löschen, wird die selten verwendete Besucherinformation bei der vorliegenden Ausführungsform auf der Grundlage unterschieden, ob der Inhalt der vorbestimmten Information "nicht vorhanden" ist oder nicht.
  • Das Suchen der selten verwendeten Besucherinformation kann jedoch unter Verwendung der Besuchszeit des Besuchers durchgeführt werden, die in der Besucherinformation eingeschlossen und vom Überwachungsbild-Analysator 31 generiert wird. In diesem Fall wird die Besucherinformation beispielsweise gelöscht, wenn seit der Besuchszeit eine vorbestimmte Zeit, z.B. eine Woche, vergangen ist.
  • Bei der vorliegenden Ausführungsform kann die Gesamtzahl der Gesichtsbilder jedes Besuchers (ID-Nummer), welche in der Datenbank für Besucherinformationen 34b gespeichert werden können, begrenzt sein. In diesem Fall wird das älteste Gesichtsbild durch ein neues Gesichtsbild ersetzt, wenn die Anzahl der Gesichtsbilder die Grenzanzahl erreicht.
  • Bei der vorliegenden Ausführungsform kann die Besucherinformation die Anzahl der Besuche als Informationspunkt einschließen. In diesem Fall kann die Dauer der Aufbewahrung des Gesichtsbilds auf Grundlage der Anzahl von Besuchen variiert werden.
  • Die Datenbank für Zeitplaninformationen 34c speichert die Besucherinformation, beispielsweise die ID-Nummer, und die Zeitplaninformation. Unter Verwendung der ID-Nummer als Schlüssel wird hier jeder Inhalt der Besucherinformation und jeder Inhalt der Zeitplaninformation miteinander korreliert.
  • Bei dieser Ausführungsform werden ein Besuchsdatum, eine Besuchszeit, ein Name eines Unternehmens, zu welchem ein Besucher gehört, ein Geschäftstitel eines Besuchers, ein Name des Besuchers, ein Name der zu treffenden Person und ein Besuchsort als Informationspunkte der Zeitplaninformation eingesetzt. Hier wird jeder in der Zeitplaninformation eingeschlossene Inhalt im Voraus durch den Bedienungsperson-PC eingegeben.
  • Der Rezeptions-Informationsmanager 32 generiert und verwaltet eine wesentliche Information auf Grundlage der vom Überwachungsbild-Analysator 31 eingegebenen Bildinformation, einer vom Überwachungsbild-Analysator 31 eingegebenen Ortsinformation, vom Positions-Analysator 25 des Roboters 2 eingegebenen Positionsdaten und verschiedenen Informationen, die in jeder Datenbank (d.h. der Datenbank für Karteninformationen 34a, der Datenbank für Besucherinformationen 34b und der Datenbank für Zeitplaninformationen 34c) gespeichert sind.
  • Hier wird das Generieren der wesentlichen Information erklärt.
  • Zuerst generiert der Überwachungsbild-Analysator 31 die Besuchszeitinformation, welche angibt, wann der Besucher angekommen ist, ein aus dem Überwachungsbild in einer vorbestimmten Größe erhaltenes Gesichtsbild des Besuchers und eine Ortsinformation, welche die Position des Besuchers und des Roboters 2 innerhalb des Rezeptionsbereichs angibt. Danach werden dem Rezeptions-Informationsmanager 32 die generierte Besuchszeitinformation, das Gesichtsbild und die Ortsinformation zugeführt.
  • Auf Grundlage des vom Überwachungsbild-Analysator 31 eingegebenen Gesichtsbilds durchsucht der Rezeptions-Informationsmanager 32 die Datenbank für Besucherinformationen 34b und erhält Besucherinformationen der Person, deren Gesichtsbild eine hohe Korrelation mit dem vom Überwachungsbild-Analysator 31 eingegebenen Gesichtsbild aufweist.
  • Als Beispiel für das Verfahren zum Suchen des Gesichtsbilds, welches eine hohe Korrelation mit dem vom Überwachungsbild-Analysator 31 eingegebenen Gesichtsbild aufweist, kann hier das Eigenraum-Verfahren auf Grundlage der Hauptkomponenten-Analyse verwendet werden. Bei diesem Verfahren wird das Gesichtsbild, welches aus dem Überwachungsbild in einer vorbestimmten Größe extrahiert worden ist, mittels Normalisierung in einen Satz von Vektoren umgewandelt, wobei die Helligkeit jedes Pixels des Gesichtsbilds als ein Merkmal betrachtet wird.
  • Danach wird die lineare Richtung identifiziert, in welcher ein Satz von Vektoren am besten dargestellt ist, indem die Richtungen mit der größten Abweichung gewählt werden, und als Nächstes wird auf Grundlage der linearen Richtung ein Merkmalsvektor des Gesichtsbilds bestimmt.
  • Die Korrelation des aus dem Überwachungsbild erhaltenen Gesichtsbilds mit dem in der Datenbank für Besucherinformationen 34b gespeicherten Gesichtsbild wird errechnet, indem der Abstand zwischen dem Merkmalsvektor, der aus dem aus dem Überwachungsbild erhaltenen Gesichtsbild bestimmt wird, und dem Merkmalsvektor des in der Datenbank für Besucherinformationen 34b gespeicherten Gesichtsbilds gemessen wird.
  • Danach wird das Gesichtsbild, dessen Korrelationswert einen Schwellenwert übersteigt und den höchsten Wert aufweist, aus in der Datenbank für Besucherinformationen 34b gespeicherten Gesichtsbildern herausgesucht. Falls ein solches Gesichtsbild vorhanden ist, wird eine diesem Gesichtsbild zugeordnete Person als Besucher betrachtet.
  • Bei der vorliegenden Ausführungsform kann ein weiteres konventionelles Verfahren zum Suchen des Gesichtsbilds, welches eine hohe Korrelation mit dem Besucher aufweist, eingesetzt werden.
  • Falls ein solches Gesichtsbild vorhanden ist, durchsucht der Rezeptions-Informationsmanager 32 auf Grundlage eines der Informationspunkte der Besucherinformation (z.B. der ID-Nummer) die Datenbank für Zeitplaninformationen 34c und erhält die Zeitplaninformation des entsprechenden Besuchers.
  • Danach generiert der Rezeptions-Informationsmanager 32 die wesentliche Information auf Grundlage der Besucherinformation, der Zeitplaninformation des Besuchers und der vom Überwachungsbild-Analysator 31 eingegebenen Ortsinformation und sendet dem Befehls-Generator 33 die wesentliche Information. Hier wird die wesentliche Information verwendet, wenn der Befehls-Generator 33 einen Befehl generiert, durch welchen der Roboter 2 eine Rezeptionshandlung ausführt.
  • Falls kein solches Gesichtsbild vorhanden ist, ordnet der Rezeptions-Informationsmanager 32 dem Besucher eine neue ID-Nummer zu und generiert die wesentliche Information, die zum Generieren des Befehls zu verwenden ist, durch welchen der Roboter 2 die Bildaufnahme des Gesichtsbilds des Besuchers durchführt. Danach gibt der Rezeptions-Informationsmanager 32 die wesentliche Information an den Befehls-Generator 33 aus.
  • Auf Grundlage der vom Rezeptions-Informationsmanager 32 eingegebenen wesentlichen Information generiert der Befehls-Generator 33 einen Befehl und sendet diesen an den Roboter 2. Da die detaillierte Rezeptionshandlung bei jedem Besucher verschieden ist, wird bei dieser Ausführungsform für jeden Besucher ein anderer Befehl generiert und dem Roboter 2 zugeführt. Dadurch nimmt der Roboter 2 eine Rezeptionshandlung gemäß des Befehls vor, der für jeden Besucher speziell erarbeitet worden ist.
  • Die vom Roboter 2 durchzuführende Rezeptionshandlung wird nachstehend ausführlich erklärt.
  • Der Transceiver 35 führt den Informationsaustausch mit dem Roboter-Transceiver 28 (siehe 2) drahtlos durch.
  • Insbesondere übermittelt der Transceiver 35 bei der vorliegenden Ausführungsform an den Roboter 2 den Befehl, der vom Befehls-Generator 33 der Reihe nach eingegeben worden ist. Der Transceiver 35 erhält eine im Bild-Analysator 21b des Roboters 2 erhaltene Bildinformation (Gesichtsbild).
  • Der Transceiver 35 erhält auch das Rezeptions-Startsignal, das Rezeptions-Beendigungssignal und die Positionsdaten, welches vom Roboter 2 übermittelt worden sind, und sendet diese an die Roboter-Unterstützungseinheit 3.
  • Bei der vorliegenden Ausführungsform werden das Rezeptions-Startsignal, das Rezeptions-Beendigungssignal und die Positionsdaten dem Rezeptions-Informationsmanager 32 zugeführt und für die Aktualisierung der Besucherinformation verwendet.
  • Da der Informationspunkt der Besucherinformation, der anzeigt, ob der Besucher die Rezeptionshandlung akzeptiert hat oder nicht, aktualisiert worden ist, kann dadurch mittels Durchsicht der Besucherinformation überprüft werden, ob der Besucher die Rezeptionshandlung akzeptiert hat oder nicht.
  • Falls diese Information mit der Zeitplaninformation kombiniert wird, ist darüber hinaus erkennbar, ob der Rezeptionsvorgang des Besuchers, dessen Ankunft planmäßig war, abgeschlossen ist oder nicht.
  • Der Bedienungsperson-PC wird für die Eingabe, die Anzeige und die Aktualisierung der in jeder Datenbank gespeicherten Informationen verwendet und wird auch für das Überprüfen verwendet, ob jede Person, deren Daten in der Datenbank gespeichert sind, die Rezeptionshandlung akzeptiert hat oder nicht.
  • [REZEPTIONSHANDLUNG FÜR EINEN NEUEN BESUCHER]
  • Die unter Verwendung des Rezeptionssystems 1 für einen neuen Besucher durchzuführende Rezeptionshandlung wird als Nächstes hauptsächlich mit Bezug auf das in 4 gezeigte Flussdiagramm und soweit erforderlich mit Bezug auf die 2 und 3 erklärt.
  • Zuerst überprüft der Überwachungsbild-Analysator 31 die Anwesenheit eines Besuchers in einem mittels der Überwachungskamera 4 erhaltenen Überwachungsbild (Schritt S401). Falls kein Besucher detektiert worden ist (Schritt S401, NEIN), wird der Prozess von Schritt S401 wiederholt, bis in einem Überwachungsbild ein Besucher detektiert worden ist.
  • Wenn in Schritt S401 ein Besucher detektiert worden ist (Schritt S401, JA), extrahiert der Überwachungsbild-Analysator 31 das Gesichtsbild des Besuchers in einer vorbestimmten Größe aus dem Überwachungsbild und generiert die Ortsinformation. Danach gibt der Überwachungsbild-Analysator 31 das Gesichtsbild und die Ortsinformation an den Rezeptions-Informationsmanager 32 aus (Schritt S402).
  • Als Nächstes überprüft der Rezeptions-Informationsmanager 32 der Roboter-Unterstützungseinheit 3 unter Verwendung des Eigenraum-Verfahrens, ob das entsprechende Gesichtsbild, welches eine ausreichende Ähnlichkeit mit dem aus dem Überwachungsbild erhaltenen Gesichtsbild aufweist, in der Datenbank für Besucherinformationen 34b vorhanden ist (Schritt S403).
  • Falls das Gesichtsbild nicht vorhanden ist (Schritt S403, NEIN), geht der Prozess zum nächsten Schritt über. Falls das Gesichtsbild vorhanden ist (Schritt S403, JA), geht der Prozess zur Rezeptionshandlung zum Führen über ("A" in der Figur).
  • Es ist hier vorzuziehen, die Anzahl der Gesichtbilder zu verringern, die in der Datenbank für Besucherinformationen 34b gespeichert sind und zum Suchen des Gesichtsbilds verwendet werden, welches eine ausreichende Ähnlichkeit mit dem aus dem Überwachungsbild erhaltenen Gesichtsbild aufweist. Deshalb wird ein Gesichtsbild, dessen Inhalt bezüglich der planmäßigen Ankunftszeit nicht im Bereich der aktuellen Zeit liegt, bei der vorliegenden Ausführungsform aus den Gesichtsbildern ausgeschlossen, die zum Errechnen der Ähnlichkeit zu verwenden werden. Dadurch kann die Genauigkeit des errechneten Ergebnisses der Ähnlichkeit verbessert und die zum Errechnen benötigte Zeit verringert werden.
  • Falls das Gesichtsbild nicht vorhanden ist (Schritt S403, NEIN), ordnet der Rezeptions-Informationsmanager 32 der Roboter-Unterstützungseinheit 3 dem gegenwärtigen Besucher eine neue ID-Nummer zu und speichert die ID-Nummer und die Besuchszeit des Besuchers als Besucherinformation des gegenwärtigen Besuchers in der Datenbank für Besucherinformationen 34b (Schritt S404).
  • Der Rezeptions-Informationsmanager 32 bezieht sich auf die vom Überwachungsbild-Analysator 31 eingegebene Ortsinformation, auf die in der Datenbank für Karteninformationen 34a gespeicherte Karteninformation und auf die vom Roboter 2 eingegebenen Positionsdaten und generiert danach die wesentliche Information zum Generieren des Befehls, durch welchen der Roboter 2 am Besucher die Rezeptionshandlung durchführt (Schritt S405). Der Rezeptions-Informationsmanager 32 sendet dem Befehls-Generator 33 die wesentliche Information.
  • Hier dient das Rezeptionshandlungsprogramm als Befehl, der die Bildaufnahme des Gesichtsbilds des Besuchers befiehlt.
  • Der Befehls-Generator 33 generiert einen Befehl, durch welchen der Roboter 2 bis zu dem vorbestimmten Abstand auf den Besucher zugeht und der über den Transceiver 35 an den Roboter 2 gesendet wird (der Schritt S406).
  • Um auf den bestimmten Besucher im Rezeptionsbereich zuzugehen, schließt der Befehl bei der vorliegenden Ausführungsform die Positionsinformation ein, durch welche die Position des Besuchers im Rezeptionsbereich erkannt werden kann, oder das Programm, durch welches der Roboter 2 auf zwei Beinen zum Besucher hingeht.
  • Wenn der Roboter 2 den Befehl empfangen hat (der Schritt S407), bestimmt der Roboter 2 den Besucher auf Grundlage der im Befehl enthaltenen Positionsinformation und sendet das Startsignal, welches der Roboter-Unterstützungseinheit 3 den Beginn der Rezeptionshandlung anzeigt (Schritt S408).
  • Der Rezeptions-Informationsmanager 32 in der Roboter-Unterstützungseinheit 3 fügt das Rezeptions-Startsignal zu der Besucherinformation hinzu, welche die dem gegenwärtigen Besucher entsprechende Besucherinformation ist und in der Datenbank für Besucherinformationen 34b gespeichert ist (Schritt S409). Dadurch wird die Besucherinformation aktualisiert.
  • Der Roboter 2 bewegt sich in die Position, in welcher die Kommunikation mit dem Besucher durchführbar ist (Schritt S410).
  • Nach der Ankunft des Roboters 2 an der Zielposition generiert der Rezeptions-Informationsmanager 32 der Roboter-Unterstützungseinheit 3 die wesentliche Information, mittels welcher der Befehls-Generator 33 den Befehl generiert, der dem Roboter 2 befiehlt, die Bewegung zum Begrüßen des Besuchers durchzuführen. Danach wird der Befehl an den Roboter 2 gesendet (Schritt S411).
  • Bei der vorliegenden Ausführungsform kann der Zeitablauf der Ausgabe des Befehls von dem Befehls-Generator 33 variabel sein. Der Befehls-Generator 33 kann den Befehl beispielsweise dann senden, wenn die Annäherung des Roboters 2 an den Besucher beendet ist, oder wenn der verbleibende Abstand zwischen dem Roboter 2 und dem Besucher den Schwellenwert übersteigt. Hier wird der Abstand zwischen dem Roboter 2 und dem Besucher auf Grundlage der vom Überwachungsbild-Analysator 31 eingegebenen Ortsinformation errechnet.
  • Überdies kann die Szenario-Datenbank 29a des Roboters 2 bei der vorliegenden Ausführungsform das Szenario (Programm) speichern, mittels welchem der Roboter 2 die Bewegung durchführt, um dem Besucher die Hand des Roboters zu geben.
  • Wenn der Roboter 2 den Befehl erhalten hat, mittels welchem der Roboter 2 die Bewegung zum Begrüßen des Besuchers durchführt, führt der Roboter 2 bei der vorliegenden Ausführungsform die Bewegung durch, um dem Besucher die Hand des Roboters zu geben, um ein Händeschütteln anzubieten (Schritt S412). Gleichzeitig bezieht sich der Roboter 2 auf die in der Szenario-Datenbank 29a gespeicherte Szenario-Information und lässt auf Grundlage des Szenarios die Sprachmitteilung "Wie geht es Ihnen?" ertönen.
  • Danach beurteilt der Roboter 2, ob der Roboter 2 vom Besucher ein Händeschütteln erhalten hat oder nicht (Schritt S413).
  • Bei dieser Ausführungsform kann diese Beurteilung unter Verwendung eines auf der Hand des Roboters 2 angeordneten Kontaktsensors (nicht gezeigt) vorgenommen werden, oder indem überprüft wird, ob der Besucher das Händeschütteln mit dem Roboter 2 ausgetauscht hat oder nicht. Hier wird das Überprüfen, ob der Besucher das Händeschütteln mit dem Roboter 2 ausgetauscht hat oder nicht, auf Grundlage des mittels der Kamera 21a erhaltenen Bilds im Bild-Analysator 21b des Roboters 2 durchgeführt.
  • Bei der vorliegenden Ausführungsform kann die Überprüfung, ob der Besucher das Händeschütteln mit dem Roboter 2 ausgetauscht hat oder nicht, weggelassen werden. In diesem Fall geht der Prozess zum nächsten Schritt über, nachdem der Roboter 2 dem Besucher die Hand des Roboters 2 gegeben hat. Dieses Weglassen des Überprüfens erlaubt eine einfachere Auslegung des Roboters 2. Die Wahrscheinlichkeit der erfolgreichen Bildaufnahme des Gesichtsbilds des Besuchers wird dadurch jedoch herabgesetzt.
  • Falls der Roboter 2 vom Besucher kein Händeschütteln erhält (Schritt S413, NEIN), geht der Prozess zu Schritt S415 über, ohne dass eine Kommunikation stattgefunden hat.
  • Falls der Roboter 2 vom Besucher ein Händeschütteln erhalten hat (Schritt S413, JA), wird die Registrierung des Gesichtsbilds des Besuchers durchgeführt (Schritt S414).
  • Mit Bezug auf 5 und soweit erforderlich auf 2 erfolgt hier die ausführliche Erklärung der Registrierung des Gesichtsbilds des Besuchers. 5 ist ein Flussdiagramm, welches die Schritte von Schritt S414 ausführlich zeigt.
  • Bei dem Roboter 2 wird die Anzahl N des Zählers, welche die Gesamtzahl der bereits erhaltenen Gesichtsbilder darstellt, zurückgesetzt, um die Bildaufnahme des neuen Besuchers durchzuführen (Schritt S501), wenn befunden worden ist, dass der Roboter 2 vom Besucher ein Händeschütteln erhalten hat. Danach wird die Bildaufnahme des Gesichtsbilds des Besuchers unter Verwendung der Kamera 21a durchgeführt (Schritt S502).
  • Da sich der Besucher vor dem Roboter 2 befindet, während er sein Gesicht dem Roboter 2 zuwendet, um dem Roboter 2 die Hand zu schütteln, kann man bei dieser Gelegenheit das Gesichtsbild des Besuchers von vorne erhalten. Dadurch kann man mit Leichtigkeit ein Bild des gesamten Gesichts des Besuchers erhalten, was zur Verbesserung der Genauigkeit der Gesichtserkennung erforderlich ist.
  • Die Antwort-Überwachungseinheit 24 des Roboters 2 zählt die nach dem Beginn der Bildaufnahme vergangene Zeit und überprüft, ob die vorbestimmte Zeit vergangen ist oder nicht (Schritt S503). Bei dieser Ausführungsform ist es bevorzugt, dass die vorbestimmte Zeit innerhalb der geplanten Zeit liegt, die für das Händeschütteln mit dem Besucher bereitgestellt worden ist.
  • Falls die vorbestimmte Zeit nicht abgelaufen ist (Schritt S503, NEIN), geht der Prozess zum nächsten Schritt über. Falls die vorbestimmte Zeit abgelaufen ist (Schritt S503, JA), geht der Prozess nach Beendigung der Bildaufnahme zu Schritt S506 über.
  • Die Antwort-Überwachungseinheit 24 des Roboters 2 überprüft, ob die Gesamtzahl der durch die Bildaufnahme erhaltenen Gesichtsbilder des Besuchers die vorbestimmte Anzahl überschreitet oder nicht (Schritt S504). Falls die Gesamtzahl der Gesichtsbilder unter der vorbestimmten Anzahl liegt (Schritt S504, NEIN) liegt, führt die Antwort-Überwachungseinheit 24 die Bildaufnahme weiter durch. Falls die Gesamtzahl der Gesichtsbilder die vorbestimmte Anzahl überschreitet (Schritt S504, JA), geht der Prozess zum nächsten Schritt über.
  • Hier wird die vorbestimmte Anzahl auf Grundlage der Anzahl der Gesichtsbilder bestimmt, welche normalerweise während des Händeschüttelns mit dem Besucher erhalten werden können. Bei dieser Ausführungsform können während 2 Sekunden nach dem Beginn der Bildaufnahme beispielsweise insgesamt sechzig Gesichtsbilder erhalten werden.
  • Falls die Anzahl der Gesichtsbilder pro Person (Besucher), welche in der Datenbank für Besucherinformationen 34b gespeichert werden können, begrenzt ist, kann die vorbestimmte Anzahl bei dieser Ausführungsform darüber hinaus als dieselbe Anzahl wie die Grenzanzahl der Gesichtsbilder bestimmt werden.
  • Falls die Gesamtzahl der Gesichtsbilder die vorbestimmte Anzahl überschreitet (Schritt S504, JA), errechnet die Antwort-Überwachungseinheit 24 die Ähnlichkeit des letzten Gesichtsbilds gegen das Klassenbild und überprüft, ob die errechnete Ähnlichkeit einen Schwellenwert überschreitet oder nicht (Schritt S505). Hier ist das letzte Gesichtsbild jenes Gesichtsbild, welches am Ende der Bildaufnahme der Gesichtsbilder erhalten worden ist. Das Klassenbild wird aus allen Gesichtbildern mit Ausnahme des letzten Gesichtsbilds gebildet.
  • Insbesondere führt der Überwachungs-Analysator 21 in Schritt S505 die lineare Projektion aller Gesichtsbilder mit Ausnahme des letzten Gesichtsbilds in den Bildraum durch und formuliert das Klassenbild, falls die Anzahl der Gesichtsbilder des Besuchers die vorbestimmte Anzahl überschreitet. Danach errechnet der Überwachungs-Analysator 21 die Ähnlichkeit zwischen dem letzten Gesichtsbild und dem Klassenbild und sendet das errechnete Ergebnis an die Antwort-Überwachungseinheit 24. In der Antwort-Überwachungseinheit 24 wird das errechnete Ergebnis mit einem Schwellenwert verglichen, und es wird überprüft, ob das errechnete Ergebnis den Schwellenwert überschreitet oder nicht.
  • Bei der vorliegenden Ausführungsform kann das Errechnen der Ähnlichkeit zwischen den jeweils letzten fünf Bildern und dem Klassenbild durchgeführt werden, welches mittels der linearen Projektion aller Gesichtsbilder mit Ausnahme der letzten fünf Bilder erhalten worden ist. Da man insgesamt fünf errechnete Ergebnisse erhält, wird der Vergleich mit dem Schwellenwert in diesem Fall unter Verwendung des aus den fünf errechneten Ergebnissen erhaltenen Durchschnittswerts durchgeführt.
  • Falls die errechnete Ähnlichkeit des letzten Gesichtsbilds gegen das Klassenbild den Schwellenwert nicht überschreitet (Schritt S505, NEIN), wiederholt die Antwort-Überwachungseinheit 24 die Bildaufnahme des Gesichtsbilds des Besuchers.
  • Bei dieser Gelegenheit ist die Anzahl der zu erhaltenden Gesichtbilder nicht auf eines begrenzt. Die Antwort-Überwachungseinheit 24 kann pro Bildaufnahme fünf Gesichtsbilder erhalten.
  • In diesem Fall errechnet die Antwort-Überwachungseinheit 24 gleichermaßen den Durchschnitt der Ähnlichkeit der letzten fünf Bilder und führt in Schritt S505 auf Grundlage des errechneten Durchschnittswerts den Vergleich mit dem Schwellenwert durch.
  • Darüber hinaus kann die in Schritt S505 durchgeführte Beurteilung der Ähnlichkeit bei der vorliegenden Ausführungsform weggelassen werden. In diesem Fall geht der Prozess zu Schritt S506 über, wenn die Gesamtzahl der Gesichtsbilder die vorbestimmte Anzahl in Schritt S504 überschreitet.
  • Falls die errechnete Ähnlichkeit des letzten Gesichtsbilds gegen das Klassenbild den Schwellenwert überschreitet (Schritt S505, JA), geht der Prozess zum nächsten Schritt über. Danach fragt der Roboter 2 mittels einer Sprachmitteilung "Darf ich bitte Ihren Namen haben?" nach dem Namen des Besuchers. Hier wird diese Sprachmitteilung auf Grundlage der in der Szenario-Datenbank 29a gespeicherten Szenario-Information generiert.
  • Der Roboter 2 empfängt die Stimme des Besuchers durch das Mikrophon 22a und erhält den Namen des Besuchers im Sprach-Analysator 22b. Danach sendet der Roboter 2 die Information, welche den Namen des Besuchers und das Gesichtsbild des Besuchers einschließt, an die Roboter-Überwachungseinheit 3 (Schritt S507).
  • Wenn die Roboter-Überwachungseinheit 3 diese Information erhält, fügt die Roboter-Überwachungseinheit 3 den Namen des Besuchers zu der Besucherinformation hinzu und speichert das Gesichtsbild des Besuchers in der Datenbank für Besucherinformationen 34b (Schritt S508).
  • Wenn der Roboter 2 mit demselben Besucher das nächste Mal kommuniziert, wiederholt der Roboter 2 die Rezeptionshandlung dadurch nicht. Dies ist der Fall, da die Information, beispielsweise ein Name und ein Gesichtsbild des entsprechenden Besuchers, bereits in der Datenbank gespeichert ist.
  • In Schritt S506 kann der Roboter 2 bei der vorliegenden Ausführungsform weitere Sprachmitteilungen ertönen lassen, um die Information zu erhalten, die sich auf einen Namen eines Unternehmens, zu welchem der Besucher gehört, einen Geschäftstitel eines Besuchers, ein Geburtsdatum und ähnliches bezieht.
  • Auf Grundlage des in der Szenario-Datenbank 29a gespeicherten Szenarios kann der Roboter 2 in diesem Fall mit dem Besucher kommunizieren und dem Besucher eine passende Sprachmitteilung geben.
  • Falls man solche zusätzlichen Informationen, z.B. einen Namen eines Unternehmens usw., erhält, werden bei dieser Abwandlung auch die zusätzlichen Informationen zusammen mit dem Gesichtsbild in der Datenbank für Besucherinformationen 34b gespeichert.
  • Falls der Roboter 2 den Namen des Besuchers nicht erhalten kann, wird bei der vorliegenden Ausführungsform lediglich das Gesichtsbild in der Datenbank für Besucherinformationen 34b gespeichert, und so wird die Besucherinformation (jetzt nur mit der ID-Nummer) aktualisiert.
  • Auf 4 Bezug nehmend, sendet der Roboter 2 das Rezeptions-Beendigungssignal an die Roboter-Unterstützungseinheit 3 (Schritt S415), wenn die in Schritt S414 durchgeführte Bildaufnahme des Gesichtsbilds des Besuchers beendet worden ist oder wenn der Besucher seine Hand dem Roboter 2 nicht innerhalb einer vorbestimmten Zeit gibt.
  • Die Roboter-Unterstützungseinheit 3 aktualisiert den entsprechenden Informationspunkt der in der Datenbank für Besucherinformationen 34b gespeicherten Besucherinformation, wenn das Rezeptions-Beendigungssignal vom Roboter 2 eingegeben worden ist.
  • Falls der Besucher dem Roboter 2 seine Hand nicht gibt, wird das durch die Überwachungskamera 4 erhaltene Gesichtsbild in der Datenbank für Besucherinformationen 34b gespeichert. Danach wird der auf die Rezeptionshandlung bezogene Informationspunkt überprüft, so dass der Besucher die Rezeptionshandlung nicht nochmals akzeptiert.
  • Wenn der Roboter 2 mit demselben Besucher das nächste Mal kommuniziert, wiederholt der Roboter 2 die Rezeptionshandlung bei dieser Ausführungsform nicht. Dies ist der Fall, da mittels der Besucherinformation überprüft werden kann, ob der Besucher die Rezeptionshandlung für einen neuen Besucher akzeptiert hat oder nicht.
  • Auf Grundlage der in der Szenario-Datenbank 29a gespeicherten Information bewegt sich der Roboter 2 in die Ausgangsposition, z.B. in die Nähe des Rezeptionsschalters, und beendet danach die Rezeptionshandlung (Schritt S417).
  • Dies ist der Fall, da dies dann, wenn sich der Roboter nicht in die Ausgangsposition bewegt, weil sich der Roboter 2 in die Position bewegen muss, in welcher der nächste Besucher wartet, wenn der nächste Besucher angekommen ist, den nächsten Besucher einen Zeitverlust kostet, bevor er die Rezeptionshandlung durch den Roboter 2 akzeptiert. Dies ist überdies der Fall, da, wenn sich der Roboter nicht in die Ausgangsposition bewegt, der Verkehr anderer Personen, z.B. eines Angestellten, durch den Roboter 2 gestört werden kann.
  • Da es bei der vorliegenden Ausführungsform darüber hinaus möglich ist, eine Batterie des Roboters 2 aufzuladen, falls sich der Roboter 2 in die Ausgangsposition bewegt, wird das Auftreten einer Batterie-Abschaltung während der Rezeptionshandlung durch den Roboter 2 vermieden.
  • [REZEPTIONSHANDLUNG ZUM FÜHREN]
  • Auf das in 6 gezeigte Flussdiagramm Bezug nehmend wird als Nächstes der Prozess bei der Rezeptionshandlung zum Führen erklärt, die durchgeführt wird, nachdem befunden wurde, dass das Gesichtsbilds vorhanden ist (Schritt S403, JA).
  • Auf Grundlage der Besucherinformation des Besuchers durchsucht der Rezeptions-Informationsmanager 32 die Datenbank für Zeitplaninformationen 34c und generiert auf Grundlage der vom Überwachungsbild-Analysator 31 eingegebenen Ortsinformation und der vom Roboter 2 eingegebenen Positionsdaten die wesentliche Information (Schritt S601). Danach sendet der Rezeptions-Informationsmanager 32 dem Befehls-Generator 33 die wesentliche Information. Hier ist die wesentliche Information die Information, die zum Generieren eines Befehls zu verwenden ist, durch welchen der Roboter 2 die Ähnlichkeit des Gesichtsbilds des Besuchers errechnet.
  • Hier wird angenommen, dass die Information, die anzeigt, dass ein Gastgeber (Angestellter) mit einem Besucher im Gästeraum A eine Sitzung anberaumt hat, in der Datenbank für Zeitplaninformationen 34c eingetragen ist. In diesem Fall wird die wesentliche Information bezüglich dieser Information generiert, und führt der Roboter 2 auf Grundlage des aus dieser wesentlichen Information generierten Befehls die Rezeptionshandlung zum Führen aus.
  • Der Befehls-Generator 33 in der Roboter-Unterstützungseinheit 3 generiert einen Befehl, welcher dem Roboter 2 befiehlt, bis zu dem vorbestimmten Abstand auf den Besucher zuzugehen, und der Befehls-Generator 33 sendet diesen über den Transceiver 35 an den Roboter 2 (Schritt S602). Hier schließt der in diesem Befehls-Generator 33 generierte Befehl die Information zum Identifizieren der Position des Besuchers im Rezeptionsbereich ein.
  • Wenn der Roboter 2 den Befehl erhält (Schritt S603), erkennt der Roboter 2 auf Grundlage der im Befehl eingeschlossenen Information die Position des Besuchers und sendet der Roboter-Unterstützungseinheit 3 gleichzeitig das Rezeptions-Startsignal (Schritt S604).
  • Wenn die Roboter-Unterstützungseinheit 3 das Rezeptions-Startsignal erhält, aktualisiert die Roboter-Diensteinheit 3 die Besucherinformation in der Datenbank für Besucherinformationen 34b. Insbesondere werden der auf die Besuchszeit des Besuchers bezogene Informationspunkt und der auf das Rezeptions-Startsignal bezogene Informationspunkt aktualisiert.
  • Danach bewegt sich der Roboter 2 an die Position, in welcher die Kommunikation mit dem Besucher durchführbar ist (Schritt S606).
  • Nachdem der Roboter 2 an der Zielposition angekommen ist, sendet der Befehls-Generator 33 der Rotober-Unterstützungseinheit 3 an den Roboter 2 den Befehl, durch welchen der Roboter 2 die Bewegung zum Begrüßen des Besuchers durchführt (Schritt S607). Hier schließt der Befehl die Information bezüglich des Gesichtsbilds des Besuchers ein, welches in der Datenbank für Besucherinformationen 34b gespeichert worden ist.
  • Bei der vorliegenden Ausführungsform kann der Zeitablauf der Ausgabe des Befehls aus dem Befehls-Generator 33 variabel sein. Der Befehls-Generator 33 kann den Befehl beispielsweise senden, wenn das Zugehen des Roboters 2 auf den Besucher beendet ist oder wenn der Abstand zwischen dem Roboter 2 und dem Besucher den Schwellenwert übersteigt. Hier wird der Abstand zwischen dem Roboter 2 und dem Besucher auf Grundlage der vom Überwachungsbild-Analysator 31 eingegebenen, Ortsinformation errechnet.
  • Wenn der Roboter 2 den Befehl erhalten hat, mittels welchem der Roboter 2 die Bewegung zum Begrüßen des Besuchers durchführt, führt der Roboter 2 bei der vorliegenden Ausführungsform die Bewegung durch, um dem Besucher die Hand des Roboters zu geben, um ein Händeschütteln anzubieten (Schritt S608). Gleichzeitig bezieht sich der Roboter 2 auf die in der Szenario-Datenbank 29a gespeicherte Szenario-Information und lässt auf Grundlage des Szenarios die Sprachmitteilung "Willkommen, Herr Suzuki!" ertönen.
  • Danach beurteilt der Roboter 2, ob der Roboter 2 vom Besucher ein Händeschütteln erhalten hat oder nicht (Schritt S609).
  • Bei dieser Ausführungsform, kann diese Beurteilung unter Verwendung eines Kontaktsensors (nicht gezeigt) vorgenommen werden, der auf der Hand des Roboters 2 angeordnet ist.
  • Falls der Roboter 2 vom Besucher kein Händeschütteln erhält (Schritt S607, NEIN), geht der Prozess zu Schritt S614 über, ohne dass eine Kommunikation stattgefunden hat.
  • Falls der Roboter 2 vom Besucher ein Händeschütteln erhalten hat (Schritt S607, JA), wird die Bildaufnahme des Gesichtsbilds des Besuchers durchgeführt (Schritt S610).
  • Die Antwort-Überwachungseinheit 24 des Roboters 2 zählt die nach dem Beginn der Bildaufnahme vergangene Zeit und überprüft, ob die vorbestimmte Zeit vergangen ist oder nicht (Schritt S611). Bei dieser Ausführungsform ist es bevorzugt, dass die vorbestimmte Zeit innerhalb der eingeplanten Zeit liegt, die für das Händeschütteln mit dem Besucher erforderlich ist.
  • Falls die vorbestimmte Zeit nicht vergangen ist (Schritt S611, NEIN), geht der Prozess zum nächsten Schritt über. Falls die vorbestimmte Zeit vergangen ist (Schritt S611, JA), geht der Prozess nach Beendigung der Bildaufnahme zu Schritt S614 über.
  • Falls die vorbestimmte Zeit nicht vergangen ist (Schritt S611, NEIN), errechnet die Antwort-Überwachungseinheit 24 des Roboters 2 die Ähnlichkeit des erhaltenen Gesichtsbilds gegen das Klassenbild und überprüft, ob die errechnete Ähnlichkeit einen Schwellenwert überschreitet oder nicht (Schritt S612). Hier erhält man das Klassenbild mittels der linearen Projektion aller Gesichtsbilder, die in Schritt 607 zusammen mit dem Befehl von der Roboter-Unterstützungseinheit 3 gesendet worden sind, in den Bildraum.
  • Falls die errechnete Ähnlichkeit des in Schritt S612 erhaltenen Gesichtsbilds gegen das Klassenbild den Schwellenwert nicht überschreitet (Schritt S612, NEIN), wird die Bildaufnahme des Gesichtsbilds des Besuchers wiederholt, bis die errechnete Ähnlichkeit den Schwellenwert überschreitet.
  • Hier ist die Anzahl der in Schritt 610 zu erhaltenden Gesichtbilder nicht auf ein Bild begrenzt. Die Antwort-Überwachungseinheit 24 kann pro Bildaufnahme fünf Gesichtsbilder erhalten.
  • In diesem Fall errechnet der Durchschnitts-Generator 24 die Ähnlichkeit von jeweils fünf Bildern und erhält den Durchschnitt aus diesen. Danach überprüft der Durchschnitts-Generator 24, ob der Durchschnittswert in Schritt S612 den Schwellenwert überschreitet oder nicht.
  • Falls der Roboter 2 vom Besucher kein Händeschütteln erhält (Schritt S309, NEIN) oder falls die errechnete Ähnlichkeit den Schwellenwert überschreitet (Schritt S612, JA), generiert der Befehls-Generator 33 den Befehl für den Roboter 2, durch welchen der Roboter 2 die Rezeptionshandlung (Führen) für den Besucher ausführt.
  • Somit gibt der Roboter 2 die für den Besucher erforderliche Information zusammen mit der Sprachmitteilung "Bitte gehen Sie in Besprechungsraum A" (Schritt S614). Hier wird die Sprachmitteilung auf Grundlage der in der Szenario-Datenbank 29a gespeicherten Szenario-Information generiert.
  • Zusätzlich zur Sprachmitteilung kann der Roboter 2 den Besucher bei dieser Ausführungsform überdies zum Besprechungsraum A führen oder kann den Besucher zum vorbestimmten Ort führen, z.B. zu einem Sofa im Rezeptionsbereich. Im letzteren Fall ist es akzeptierbar, das Rezeptionspersonal um Hilfe zu bitten, indem ein Signal angezeigt wird, welches das Rezeptionspersonal ersucht, die Besprechungsperson auf dem Bedienungsperson-PC auszurufen.
  • Der Roboter 2 übermittelt das Rezeptions-Beendigungssignal an die Roboter-Unterstützungseinheit 3, wenn die Rezeptionshandlung in Schritt S614 beendet ist oder wenn der Roboter 2 vom Besucher keinen Handschlag erhalten hat. In diesem Fall übermittelt der Roboter 2 das Gesichtsbild des Besuchers zusammen mit dem Rezeptions-Beendigungssignal, falls das Gesichtsbild des Besuchers vorhanden ist.
  • Die Roboter-Unterstützungseinheit 3 führt eine Aktualisierung jedes Inhalts der in der Datenbank für Besucherinformationen 34b gespeicherten Besucherinformation durch (Schritt S616), wenn die Roboter-Unterstützungseinheit 3 das Rezeptions-Beendigungssignal erhalten hat. Falls das Gesichtsbild dem Rezeptions-Beendigungssignal beigefügt ist, wird das Gesichtsbild bei dieser Gelegenheit ebenfalls in der Datenbank für Besucherinformationen 34b gespeichert.
  • Auf Grundlage der in der Szenario-Datenbank 29a gespeicherten Szenario-Information bewegt sich der Roboter 2 anschließend in die Ausgangsposition, z.B. in die Nähe des Rezeptionsschalters, und beendet danach die Rezeptionshandlung (Schritt S617).
  • In dem in 6 gezeigten Flussdiagramm ist die Rezeptionshandlung, die an dem Besucher durchzuführen ist, dessen Information in der Datenbank für Besucherinformationen 34b und in der Datenbank für Zeitplaninformationen 34c gespeichert ist, beispielhaft erklärt worden.
  • Der Roboter 2 führt die Rezeptionshandlung für einen neuen Besucher durch, wenn es sich um einen Besucher handelt, dessen Information weder in der Datenbank für Besucherinformationen 34b noch in der Datenbank für Zeitplaninformationen 34c gespeichert ist.
  • Gemäß den vorstehend beschriebenen Auslegungen usw. kann man das Gesichtsbild von vorne, welches für die Gesichtserkennung des Besuchers notwendig ist, des Besuchers erhalten, ohne dass sich der Besucher der Bildaufnahme bewusst wird.
  • Darüber hinaus kann die Genauigkeit der Gesichtserkennung verbessert werden, da das Gesichtsbild des Besuchers wiederholt erhalten wird, bis die Ähnlichkeit zwischen dem aktuell erhaltenen Gesichtsbild und dem zuvor erhaltenen Gesichtsbild einen Schwellenwert überschreitet.
  • Falls ein unplanmäßiger Besucher, dessen Besuch unvorhergesehen ist, den Rezeptionsbereich betritt, wird das Gesichtsbild des Besuchers zusammen mit der diesem unplanmäßigen Besucher neu zugeordneten ID-Nummer in der Datenbank für Besucherinformationen 34b gespeichert. Da die Überprüfung, ob die Rezeptionshandlung an dem Besucher zustande gekommen ist oder nicht, mittels Bezugnahme auf die Datenbank für Besucherinformationen 34b ausgeführt werden kann, kann dadurch vermieden werden, dass der Besucher, der die Rezeptionshandlung durch den Roboter 2 bereits schon akzeptiert hat, dieselbe Rezeptionshandlung vom Roboter 2 noch einmal erfährt.
  • In diesem Fall kann der Roboter 2 sowohl mit dem unplanmäßigen Besucher als auch mit dem Besucher, dessen Ankunft planmäßig war, für eine Weile kommunizieren, z.B. bis die in der Datenbank für Besucherinformationen 34b gespeicherte Besucherinformation gelöscht ist.
  • Da die Information bezüglich des Besuchers, dessen für die Datenspeicherung wesentlicher Informationspunkt, beispielsweise ein Name des Besuchers, nicht erhalten worden ist, in einem geeigneten Zyklus gelöscht wird, kann die Zunahme der in der Datenbank für Besucherinformationen 34b zu speichernden Daten bei der vorliegenden Ausführungsform überwacht werden. Das heißt, dass die Besucherinformation (persönliche Information), die in vorbestimmten Informationspunkten einen leeren Inhalt aufweist, in einem geeigneten Zyklus gelöscht wird, um die Gesamtmenge der Besucherinformation (persönlichen Information) zu überwachen.
  • Bei der vorliegenden Ausführungsform werden das Gesichtsbild eines Besuchers, die Information über die Anwesenheit oder die Abwesenheit eines Besuchers und die Ortsinformation des Besuchers und des Roboter 2 durch die Überwachungskamera 4 erhalten, auch wenn der Roboter 2 sich gerade beim Ausführen der Rezeptionshandlung für den anderen Besucher befindet, oder der Besucher sich nicht im Bereich der Kamera 21a des Roboters 2 befindet.
  • Dadurch kann die Rezeptionshandlung des Besuchers reibungslos durchgeführt werden.
  • Obwohl die Patent-Ausführungsformen der Erfindung offenbart worden ist, ist es für Fachleute selbstverständlich, dass hieran Variationen und Abwandlungen vorgenommen werden können, ohne den Schutzbereich der Erfindung zu verlassen, der in den beiliegenden Ansprüchen angegeben ist.
  • Der Befehl, der den Betrieb des Roboters 2 gemäß des Befehls befiehlt, wird bei der vorliegenden Ausführungsform im Befehls-Generator 33 generiert und wird nach Bedarf an den Roboter 2 gesendet.
  • Befehle, von welchen jeder dem Roboter 2 befiehlt, verschiedene Bewegungen durchzuführen, können jedoch in der Szenario-Datenbank 29a des Roboters 2 gespeichert werden. In diesem Fall sendet die Roboter-Unterstützungseinheit 3 das Befehlssignal, welches den zumindest einen Befehl aus den in der Szenario-Datenbank 29a gespeicherten Befehlen anzeigt, um den Roboter 2 zu betätigen.
  • Bei der vorliegenden Ausführungsform kann der Roboter 2 die Funktion der Roboter-Unterstützungseinheit 3 einschließen. In diesem Fall tauscht der Roboter 2 Daten direkt zwischen der Überwachungskamera 4 und dem Bedienungsperson-PC drahtlos aus. Deshalb wird die Gesichtserkennung des Besuchers im Roboter 2 auf Grundlage des von der Überwachungskamera 4 eingegebenen Bilds durchgeführt.
  • Bei der vorstehend beschriebenen Ausführungsform ist für das Detektieren des Besuchers nur eine Überwachungskamera 4 im Rezeptionsbereich angeordnet. Die Anzahl und die Installationsposition der Überwachungskamera 4 sind jedoch nicht auf die vorstehend beschriebene Ausführungsform beschränkt.
  • Darüber hinaus kann die Kamera 21a des Roboters 2 die Rolle der Überwachungskamera 4 übernehmen. In diesem Fall werden das Detektieren und die Gesichtserkennung des Besuchers auf Grundlage eines mittels der Kamera 21a des Roboters 2 erhaltenen Gesichtsbilds durchgeführt.
  • Bei der vorstehend beschriebenen Ausführungsform wird nur ein Roboter 2 im Rezeptionsbereich eingesetzt. Es kann jedoch auch eine Vielzahl von Robotern 2 in demselben Rezeptionsbereich eingesetzt werden. In diesem Fall ist es möglich, jedem Roboter 2 zu befehlen, eine unterschiedliche Aufgabe (Rezeptionshandlung) durchzuführen.
  • Falls sich zwei Roboter im Rezeptionsbereich befinden, führt ein Roboter beispielsweise die Rezeptionshandlung an dem Besucher durch, dessen Gesichtsbild usw. bereits gespeichert worden ist, und der andere Roboter führt die Rezeptionshandlung an dem Besucher durch, dessen Gesichtsbild noch nicht gespeichert worden ist, und speichert das erhaltene Gesichtsbild.
  • Bei der vorliegenden Ausführungsform können verschiedene Abwandlungen der Konstruktion des Roboters 2 akzeptiert werden.
  • Beispielsweise kann die Fortbewegungs-Überwachungseinheit 26a des Roboters 2 von einer Vielzahl von Rädern gebildet sein, und kann der Roboter 2 eine Anzeigeeinheit einschließen, welche die Kommunikation mit dem Besucher mittels einer Textinformation oder einer Bildinformation ermöglicht.
  • Darüber hinaus kann der Roboter 2 eine berührungsempfindliche Platte einschließen, die es dem Besucher erlaubt, mittels der berührungsempfindlichen Platte den Zweck seines Besuchs in den Roboter 2 einzugeben.
  • Bei der vorliegenden Erfindung ist es möglich, einen Besucher von Fußgängern (einem Angestellten) zu unterscheiden, die durch den Rezeptionsbereich gehen, indem an einem durch die Überwachungskamera 4 erhaltenen Gesichtsbild unter Verwendung des Rezeptions-Informationsmanager 32 eine Gesichtserkennung durchgeführt wird. Um die Genauigkeit der Unterscheidung zu verbessern, ist es in diesem Fall bevorzugt, dass alle Angestellten eine Uniform oder Schuhe tragen, durch welche der Roboter zwischen einem Besucher und einem Angestellten unterscheiden kann, oder dass alle Angestellten an einer vorbestimmten Stelle des Körpers eine Identifikationskarte befestigen.
  • Falls jeder Angestellte darüber hinaus einen drahtlosen IC-Anstecker trägt, in welchem die Angestellteninformation gespeichert ist, und der Rezeptionsbereich mit einer Empfängereinheit für drahtlose IC-Anstecker ausgestattet ist, ist es bei der vorliegenden Ausführungsform möglich, zwischen einem Besucher und einem Angestellten zu unterscheiden, indem die im drahtlosen IC-Anstecker gespeicherte Information unter Verwendung der Empfängereinheit für drahtlose IC-Anstecker gelesen wird. Daher kann die Unterscheidung zwischen einem Besucher und einem Angestellten ungeachtet der Genauigkeit der mittels des Rezeptions-Informationsmanagers 32 durchzuführenden Gesichtserkennung durchgeführt werden.
  • Ein Gesichtsbild-Erfassungssystem, welches einen Roboter und eine Bewegungs-Überwachungseinheit aufweist, wobei der Roboter eine Kamera und einen Arm einschließt, die Bewegungs-Überwachungseinheit einen Besucher-Detektor, einen Befehls-Generator und eine Gesichtsbild-Registrierungseinheit aufweist, wobei in der Bewegungs-Überwachungseinheit vom Befehlsgenerator ein Befehl generiert wird, der die Bewegung des Roboters steuert und an den Roboter übermittelt wird, wenn der Besucher vom Besucher-Detektor detektiert worden ist, und der Roboter dem Besucher in Übereinstimmung mit dem Befehl ein Händeschütteln anbietet und der Roboter während des Händeschüttelns mit dem Besucher das Gesichtsbild des Besuchers erfasst, und das erfasste Gesichtsbild in der Gesichtsbild-Registrierungseinheit gespeichert wird.

Claims (12)

  1. Gesichtsbild-Erfassungsverfahren, welches einen Roboter mit einer Kamera und einem Arm verwendet, wobei das Verfahren die Schritte umfasst: a) Detektieren einer Zielperson, deren Gesichtsbild aus einem mittels der Kamera erhaltenen Bild erfasst wird; b) Bewegen des Arms auf die Zielperson zu; c) Durchführen einer Bildaufnahme des Gesichtsbilds der Zielperson während des Händeschüttelns mit der Zielperson; d) Speichern des erhaltenen Gesichtsbilds in einem Speichermedium.
  2. Gesichtsbild-Erfassungssystem, welches umfasst: • einen Roboter mit einer Kamera und einen Arm; und • eine Bewegungs-Überwachungseinheit, welche einen Besucher-Detektor einschließt, der eine Gegenwart eines Besuchers detektiert, einen Befehls-Generator, der einen Befehl generiert, der die Bewegung des Roboters steuert, und eine Gesichtsbild-Registrierungseinheit, die ein Gesichtsbild des Besuchers aufbewahrt, wobei die Bewegungs-Überwachungseinheit den im Befehls-Generator generierten Befehl an den Roboter übermittelt, wenn der Besucher vom Besucher-Detektor detektiert worden ist, und der Roboter den Arm auf den Besucher zu bewegt, um dem Besucher in Übereinstimmung mit dem Befehl ein Händeschütteln anzubieten, und eine Bildaufnahme eines Gesichtsbilds des Besuchers während des Händeschüttelns mit dem Besucher unter Verwendung der Kamera durchführt, und die Bewegungs-Überwachungseinheit das vom Roboter erfasste Gesichtsbild in der Gesichtsbild-Registrierungseinheit speichert.
  3. Gesichtsbild-Erfassungssystem, welches umfasst: • einen Roboter mit einer Kamera und einem Arm; und • eine Bewegungs-Überwachungseinheit, welche einschließt eine Datenbank für persönliche Informationen, die eine persönliche Information, die zur Identifizierung einer Person verwendet wird, und ein der persönlichen Information zugeordnetes Gesichtsbild der Person speichert, einen Besucher-Detektor, der eine Gegenwart eines Besuchers detektiert und ein Gesichtsbild des Besuchers erfasst, einen Informationsmanager, der eine wesentliche Information generiert, die zum Generieren eines Befehls zu verwenden ist, der die Bewegung des Roboters steuert, und einen Befehls-Generator, der auf Grundlage der wesentlichen Information einen Befehl generiert, wobei sich die Bewegungs-Überwachungseinheit auf Grundlage des vom Besucher-Detektor erfassten Gesichtsbilds auf die Datenbank für persönliche Informationen bezieht, um den Besucher zu identifizieren, wenn der Besucher vom Besucher-Detektor detektiert worden ist, der Informationsmanager eine Identifizierungsinformation generiert, durch welche der Besucher identifizierbar ist, falls die geeignete persönliche Information in der Datenbank für persönliche Informationen nicht zu finden ist, und die wesentliche Information generiert, aus welcher der Befehls-Generator den Befehl generiert, welcher dem Roboter das Erfassen des Gesichtsbilds des Besuchers befiehlt, der Roboter den Arm auf den Besucher zu bewegt, um dem Besucher in Übereinstimmung mit dem Befehl ein Händeschütteln anzubieten, und eine Bildaufnahme eines Gesichtsbilds des Besuchers während des Händeschüttelns mit dem Besucher unter Verwendung der Kamera durchführt, und die Bewegungs-Überwachungseinheit die Identifizierungsinformation als die persönliche Information betrachtet und das vom Roboter erfasste Gesichtsbild zusammen mit der persönlichen Information in der Datenbank für persönliche Informationen speichert.
  4. Gesichtsbild-Erfassungssystem gemäß Anspruch 3, bei welchem der Roboter den Besucher auffordert, die Besucherinformation einzugeben, die eine Information über den Besucher ist, und die Bewegungs-Überwachungseinheit die Besucherinformation zusammen mit der persönlichen Information in der Datenbank für persönliche Informationen speichert.
  5. Gesichtsbild-Erfassungssystem gemäß einem der Ansprüche 2, 3 und 4, bei welchem der Roboter eine vorbestimmte Anzahl von Gesichtsbildern des Besuchers erfasst, wenn die Bildaufnahme des Gesichtsbilds des Besuchers durchgeführt wird, und die Ähnlichkeit des letzten Gesichtsbilds gegen das Klassenbild errechnet, welches aus allen Gesichtsbildern mit Ausnahme des letzten Gesichtsbilds generiert ist, und die Bildaufnahme des Gesichtsbilds wiederholt, bis die errechnete Ähnlichkeit einen Schwellenwert übersteigt.
  6. Gesichtsbild-Erfassungssystem gemäß Anspruch 3, bei welchem sich die Bewegungs-Überwachungseinheit auf Grundlage des vom Besucher-Detektor erfassten Gesichtsbilds auf die Datenbank für persönliche Informationen bezieht, um den Besucher zu identifizieren, wenn der Besucher vom Besucher-Detektor detektiert worden ist, der Informationsmanager die wesentliche Information generiert, aus welcher der Befehls-Generator den Befehl generiert, welcher dem Roboter befiehlt, die Ähnlichkeit des Gesichtsbilds des Besuchers zu errechnen, falls die geeignete persönliche Information in der Datenbank für persönliche Informationen zu finden ist, der Roboter den Arm auf den Besucher zu bewegt, um dem Besucher in Übereinstimmung mit dem Befehl ein Händeschütteln anzubieten, und eine Bildaufnahme eines Gesichtsbilds des Besuchers während des Händeschüttelns mit dem Besucher unter Verwendung der Kamera durchführt, und der Roboter die Ähnlichkeit des durch die Bildaufnahme erhaltenen Gesichtsbilds gegen das Klassenbild errechnet, welches aus den in der Datenbank für persönliche Informationen gespeicherten Gesichtsbildern generiert ist, und die Bildaufnahme des Gesichtsbilds des Besuchers wiederholt, bis die errechnete Ähnlichkeit einen Schwellenwert übersteigt, und die Bewegungs-Überwachungseinheit alle vom Roboter erfassten Gesichtsbilder in der Datenbank für persönliche Informationen speichert.
  7. Gesichtsbild-Erfassungssystem gemäß einem der Ansprüche 2, 3, 4 und 6, bei welchem der Roboter ferner einen Händeschüttel-Sensor einschließt, der überprüft, ob der Besucher den Arm akzeptiert hat oder nicht, wobei der Roboter überprüft, ob der Besucher den Arm akzeptiert hat oder nicht, wenn der Arm des Roboters auf den Besucher zu bewegt worden ist, und der Roboter die Bildaufnahme des Gesichtsbilds des Besuchers mittels der Kamera durchführt, wenn befunden worden ist, dass der Besucher das Händeschütteln akzeptiert hat.
  8. Gesichtsbild-Erfassungssystem gemäß Anspruch 5, der Roboter ferner einen Händeschüttel-Sensor einschließt, der überprüft, ob der Besucher den Arm akzeptiert hat oder nicht, wobei der Roboter überprüft, ob der Besucher den Arm akzeptiert hat oder nicht, wenn der Arm des Roboters auf den Besucher zu bewegt worden ist, und der Roboter die Bildaufnahme des Gesichtsbilds des Besuchers mittels der Kamera durchführt, wenn befunden worden ist, dass der Besucher das Händeschütteln akzeptiert hat.
  9. Gesichtsbild-Erfassungssystem gemäß einem der Ansprüche 3, 4 und 6, bei welchem die Bewegungs-Überwachungseinheit die persönliche Information sucht, die in vorbestimmten Informationspunkten einen leeren Inhalt aufweist, und eine solche persönliche Information zusammen mit dem Gesichtsbild in einem festen Zyklus löscht.
  10. Gesichtsbild-Erfassungssystem gemäß Anspruch 5, bei welchem die Bewegungs-Überwachungseinheit die persönliche Information sucht, die in vorbestimmten Informationspunkten einen leeren Inhalt aufweist, und eine solche persönliche Information zusammen mit dem Gesichtsbild in einem festen Zyklus löscht.
  11. Gesichtsbild-Erfassungssystem gemäß Anspruch 7, bei welchem die Bewegungs-Überwachungseinheit die persönliche Information sucht, die in vorbestimmten Informationspunkten einen leeren Inhalt aufweist, und eine solche persönliche Information zusammen mit dem Gesichtsbild in einem festen Zyklus löscht.
  12. Gesichtsbild-Erfassungssystem gemäß Anspruch 8, bei welchem die Bewegungs-Überwachungseinheit die persönliche Information sucht, die in vorbestimmten Informationspunkten einen leeren Inhalt aufweist, und eine solche persönliche Information zusammen mit dem Gesichtsbild in einem festen Zyklus löscht.
DE102005001026.1A 2004-01-09 2005-01-07 Gesichtsbild-Erfassungsverfahren und Gesichtsbild-Erfassungssystem Expired - Fee Related DE102005001026B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004004010A JP4303602B2 (ja) 2004-01-09 2004-01-09 顔面像取得システム
JP2004/004010 2004-01-09

Publications (2)

Publication Number Publication Date
DE102005001026A1 true DE102005001026A1 (de) 2005-08-04
DE102005001026B4 DE102005001026B4 (de) 2017-01-26

Family

ID=34737177

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005001026.1A Expired - Fee Related DE102005001026B4 (de) 2004-01-09 2005-01-07 Gesichtsbild-Erfassungsverfahren und Gesichtsbild-Erfassungssystem

Country Status (4)

Country Link
US (1) US7539556B2 (de)
JP (1) JP4303602B2 (de)
KR (1) KR100776690B1 (de)
DE (1) DE102005001026B4 (de)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7783013B2 (en) * 2004-04-30 2010-08-24 At&T Intellectual Property I, L.P. Method and system for routing emergency communications
US7720572B2 (en) * 2005-09-30 2010-05-18 Irobot Corporation Companion robot for personal interaction
JP4512830B2 (ja) * 2006-02-20 2010-07-28 国立大学法人埼玉大学 コミュニケーションロボット
JPWO2008001492A1 (ja) * 2006-06-28 2009-11-26 日本電気株式会社 ロボット、ロボット制御方法、および、ロボット制御プログラム
KR100823739B1 (ko) * 2006-12-08 2008-04-21 한국전자통신연구원 주변 환경 변화에 신속하게 적응하여 환경 지도를 작성할수 있는 이동체의 환경 지도 작성 장치 및 그 방법
JP2008243093A (ja) * 2007-03-29 2008-10-09 Toshiba Corp 辞書データの登録装置及び辞書データの登録方法
WO2009004772A1 (ja) * 2007-07-05 2009-01-08 Panasonic Corporation ロボットアームの制御装置及び制御方法、ロボット、及び制御プログラム
KR101436834B1 (ko) * 2008-01-11 2014-09-02 삼성전자주식회사 디지털 영상 처리장치 및 그 제어방법
TW201205449A (en) * 2010-07-20 2012-02-01 Hon Hai Prec Ind Co Ltd Video camera and a controlling method thereof
TWI507047B (zh) * 2010-08-24 2015-11-01 Hon Hai Prec Ind Co Ltd 麥克風控制系統及方法
US8965067B2 (en) * 2010-10-28 2015-02-24 Telefonaktiebolaget L M Ericsson (Publ) Face data acquirer, end user video conference device, server, method, computer program and computer program product for extracting face data
JP5765153B2 (ja) * 2011-09-12 2015-08-19 日本電気株式会社 人物監視システム、ロボット、人物監視方法およびロボット制御プログラム
JP5582422B2 (ja) * 2012-03-16 2014-09-03 株式会社安川電機 ロボットシステム
JP2014029623A (ja) * 2012-07-31 2014-02-13 Canon Inc 情報処理装置及び情報処理方法
JP6126028B2 (ja) * 2014-02-28 2017-05-10 三井不動産株式会社 ロボット制御システム、ロボット制御サーバ及びロボット制御プログラム
JP2016052697A (ja) 2014-09-03 2016-04-14 インターマン株式会社 人型ロボット
JP6543047B2 (ja) * 2015-02-25 2019-07-10 シャープ株式会社 情報処理装置、制御プログラム、記録媒体
CN105069437A (zh) 2015-08-14 2015-11-18 惠州Tcl移动通信有限公司 一种能够自动识别位置的智能***及其实现方法
JP6610349B2 (ja) * 2016-03-10 2019-11-27 大日本印刷株式会社 案内ロボット制御システム、プログラム及び案内ロボット
JP6726388B2 (ja) * 2016-03-16 2020-07-22 富士ゼロックス株式会社 ロボット制御システム
JP6675893B2 (ja) * 2016-03-17 2020-04-08 株式会社エヌ・ティ・ティ・データ 個人認証システム、個人認証装置、個人認証方法、およびプログラム
EP3418912B1 (de) 2016-06-13 2022-08-03 Nec Corporation Antwortvorrichtung, antwortsystem, antwortverfahren und aufzeichnungsmedium
EP3477577A4 (de) * 2016-06-22 2019-12-04 Laurel Precision Machines Co., Ltd. Tresenempfangssystem und serviceroboter
WO2018084170A1 (ja) * 2016-11-07 2018-05-11 Groove X株式会社 人を識別する自律行動型ロボット
US10134006B2 (en) * 2016-12-07 2018-11-20 Invia Robotics, Inc. Workflow management system and methods for coordinating simultaneous operation of multiple robots
JP6874437B2 (ja) * 2017-03-13 2021-05-19 大日本印刷株式会社 コミュニケーションロボット、プログラム及びシステム
JP2018149626A (ja) * 2017-03-13 2018-09-27 大日本印刷株式会社 コミュニケーションロボット、プログラム及びシステム
JP6844385B2 (ja) * 2017-03-31 2021-03-17 日本電気株式会社 照合システム、管理装置、照合方法、及びプログラム
JP7000704B2 (ja) * 2017-05-16 2022-01-19 富士フイルムビジネスイノベーション株式会社 移動式サービス提供装置及びプログラム
JP7020639B2 (ja) * 2017-05-16 2022-02-16 株式会社サテライトオフィス ロボットまたは電子回路モジュール制御システム、プログラム
CN110069651B (zh) * 2017-10-23 2023-04-07 腾讯科技(北京)有限公司 图片筛选方法及装置、存储介质
JP7109207B2 (ja) * 2018-02-23 2022-07-29 パナソニックホールディングス株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット
SG10201807678WA (en) * 2018-09-06 2020-04-29 Nec Asia Pacific Pte Ltd A method for identifying potential associates of at least one target person, and an identification device
US11154991B2 (en) 2018-09-26 2021-10-26 Disney Enterprises, Inc. Interactive autonomous robot configured for programmatic interpretation of social cues
JP7273638B2 (ja) * 2019-07-17 2023-05-15 本田技研工業株式会社 ロボット管理装置、ロボット管理方法およびロボット管理システム
CN112765404B (zh) * 2021-01-22 2023-03-31 北京市商汤科技开发有限公司 到访信息处理方法、装置、***、设备及存储介质
JP2022142506A (ja) * 2021-03-16 2022-09-30 本田技研工業株式会社 制御装置、制御方法、およびロボット制御システム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5012522A (en) * 1988-12-08 1991-04-30 The United States Of America As Represented By The Secretary Of The Air Force Autonomous face recognition machine
JPH02240684A (ja) 1989-03-14 1990-09-25 Sanyo Electric Co Ltd 接客ロボット
US5835616A (en) * 1994-02-18 1998-11-10 University Of Central Florida Face detection using templates
JP2802416B2 (ja) 1994-04-20 1998-09-24 株式会社テムス 受付・案内ロボットシステム
KR19980703120A (ko) * 1995-03-20 1998-10-15 조안나 티. 라우 이미지 식별 시스템 및 방법
US5774591A (en) * 1995-12-15 1998-06-30 Xerox Corporation Apparatus and method for recognizing facial expressions and facial gestures in a sequence of images
JP3625941B2 (ja) * 1996-01-30 2005-03-02 沖電気工業株式会社 虹彩認識システム
US6347261B1 (en) * 1999-08-04 2002-02-12 Yamaha Hatsudoki Kabushiki Kaisha User-machine interface system for enhanced interaction
JP2001266152A (ja) * 2000-03-17 2001-09-28 Toshiba Corp 顔画像認識装置および顔画像認識方法
JP2001277166A (ja) * 2000-03-31 2001-10-09 Sony Corp ロボット及びロボットの行動決定方法
JP2001357391A (ja) 2000-06-14 2001-12-26 Omron Corp 画像照合装置
KR20010016048A (ko) * 2000-10-16 2001-03-05 장기영 다기능 홈 퍼스널 로봇
JP4143305B2 (ja) * 2001-01-30 2008-09-03 日本電気株式会社 ロボット装置、照合環境判定方法、及び照合環境判定プログラム
KR100941209B1 (ko) 2001-08-23 2010-02-10 소니 주식회사 로봇 장치, 얼굴 인식 방법 및 얼굴 인식 장치
JP2003205483A (ja) * 2001-11-07 2003-07-22 Sony Corp ロボットシステム及びロボット装置の制御方法
JP3529049B2 (ja) * 2002-03-06 2004-05-24 ソニー株式会社 学習装置及び学習方法並びにロボット装置
JP2003281653A (ja) 2002-03-26 2003-10-03 Victor Co Of Japan Ltd 自律行動ロボット
JP2004357915A (ja) 2003-06-04 2004-12-24 Matsushita Electric Ind Co Ltd センシング玩具

Also Published As

Publication number Publication date
KR20050073524A (ko) 2005-07-14
JP2005193351A (ja) 2005-07-21
US20050151842A1 (en) 2005-07-14
US7539556B2 (en) 2009-05-26
KR100776690B1 (ko) 2007-11-16
JP4303602B2 (ja) 2009-07-29
DE102005001026B4 (de) 2017-01-26

Similar Documents

Publication Publication Date Title
DE102005001026A1 (de) Gesichtsbild-Erfassungsverfahren und Gesichtsbild-Erfassungssystem
US7014102B2 (en) Face identification system
DE19732153B4 (de) Vorrichtung zum Messen der Anzahl passierender Personen
DE102006058552B4 (de) Empfangssystem
KR100408365B1 (ko) 안면화상 촬영장치 및 안면화상 촬영방법
DE69032326T2 (de) Dynamisches verfahren um gegenstände zu erkennen und bildverarbeitungsgerät dafür
DE102017009223A1 (de) Steuervorrichtung zum Steuern eines Roboters durch Lernen einer Aktion einer Person, Robotersystem und Produktionssystem
DE112015003933T5 (de) Vorrichtung und Verfahren zum Ausführen eines Sachen-Auswahlprozesses
DE112020006846T5 (de) Aufzugvorrichtung und Aufzugregelvorrichtung
DE112016003284T5 (de) Aktivitäts-aufzeichner, aktivitäts-aufzeichnungsprogramm und aktivitäts-aufzeichnungsverfahren
DE112017003800T5 (de) Überwachungsunterstützungsvorrichtung, überwachungsunterstützungssystem und überwachungsunterstützungsverfahren
CN106060470A (zh) 一种视频监控方法及其***
CN102017606A (zh) 图像处理设备、相机、图像处理方法和程序
CN109849008A (zh) 一种基于金库的机器人盘点方法及***
CN115346256A (zh) 机器人寻人方法及***
DE102020209054A1 (de) Vorrichtung und verfahren zur personenerkennung, -verfolgung und -identifizierung unter verwendung drahtloser signale und bilder
CN116259101A (zh) 一种用于考场或课堂纪律巡视的方法及巡视机器人
DE102017216735A1 (de) Verfahren, System zum Beseitigen von Fahrzeugkarosseriedefekten unter Verwendung einer virtuellen Markierung
DE102018204704A1 (de) System zum Überwachen eines Überwachungsbereichs
EP3329432A1 (de) System zur beobachtung und beeinflussung von objekten von interesse sowie davon ausgeführten prozessen und entsprechendes verfahren
CN109448150A (zh) 一种基于人脸识别***的员工考勤***及其方法
CN110287841B (zh) 图像传输方法及装置、图像传输***、存储介质
CN109302441B (zh) 巡视探访服务的电子监管方法
JP5472976B2 (ja) 対象物検出装置、対象物検出方法、プログラムおよび記録媒体
JPWO2018124168A1 (ja) 画像処理システムと画像処理装置と画像処理方法と画像処理プログラム

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R002 Refusal decision in examination/registration proceedings
R006 Appeal filed
R008 Case pending at federal patent court
R019 Grant decision by federal patent court
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee