JP7326707B2 - ロボット、ロボットの制御方法及びプログラム - Google Patents

ロボット、ロボットの制御方法及びプログラム Download PDF

Info

Publication number
JP7326707B2
JP7326707B2 JP2018117797A JP2018117797A JP7326707B2 JP 7326707 B2 JP7326707 B2 JP 7326707B2 JP 2018117797 A JP2018117797 A JP 2018117797A JP 2018117797 A JP2018117797 A JP 2018117797A JP 7326707 B2 JP7326707 B2 JP 7326707B2
Authority
JP
Japan
Prior art keywords
robot
preference data
face
target
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018117797A
Other languages
English (en)
Other versions
JP2019217605A (ja
Inventor
正敏 綿貫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2018117797A priority Critical patent/JP7326707B2/ja
Priority to CN201910537480.8A priority patent/CN110625608A/zh
Priority to US16/447,613 priority patent/US11485021B2/en
Publication of JP2019217605A publication Critical patent/JP2019217605A/ja
Priority to US17/952,677 priority patent/US11780098B2/en
Application granted granted Critical
Publication of JP7326707B2 publication Critical patent/JP7326707B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/0015Face robots, animated artificial faces for imitating human expressions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/026Acoustical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Toys (AREA)
  • Image Analysis (AREA)

Description

本発明は、ロボット、ロボットの制御方法及びプログラムに関する。
自律的に動作するロボットが知られている。例えば特許文献1は、所定の対象が出す指示を認識し、認識した指示に従って行動するロボットを開示している。具体的に説明すると、特許文献1には、ロボットが、所定の対象の顔を認識し、顔認識の結果に基づいて複数の対象のうちの所定の対象の指示を優先することが開示されている。
特開2007-280417号公報
しかしながら、特許文献1の技術においては、ロボットの顔認識の結果に基づいて所定の対象を特定して所定の対象の指示を優先するだけであるため、ロボットの動作に個性を持たせにくいという問題がある。
本発明は、前記のような課題を解決するためのものであり、ロボットの動作に個性を持たせることが可能なロボット、ロボットの制御方法及びプログラムを提供することを目的とする。
前記目的を達成するため、本発明に係るロボットの一様態は、
自装置に動作をさせる動作手段と、
前記自装置の好みの顔又は好みの音声と、前記自装置の嫌いな顔又は嫌いな音声と、のいずれか一方を示す嗜好データであって購入予定のユーザとは独立して前記自装置の個性として予め設定された嗜好データが、前記自装置が出荷される前に記憶される嗜好データ記憶手段と、
所定の対象の顔又は音声を検知する対象検知手段と、
前記嗜好データ記憶手段に記憶された前記嗜好データと、前記対象検知手段により検知された前記所定の対象の顔又は音声と、の類似度を算出する類似度算出手段と、
前記動作手段を制御することにより、前記類似度算出手段により算出された前記類似度に応じた所定の動作を前記自装置に実行させる動作制御手段と、
を備える、
ことを特徴とする。
前記目的を達成するため、本発明に係るロボットの制御方法の一様態は、
ロボットの好みの顔又は好みの音声と、前記ロボットの嫌いな顔又は嫌いな音声と、のいずれか一方を示す嗜好データであって購入予定のユーザとは独立して前記ロボットの個性として予め設定された嗜好データが、前記ロボットが出荷される前に記憶される嗜好データ記憶手段を有するロボットの制御方法であって、
所定の対象の顔又は音声を検知し、
前記嗜好データ記憶手段に記憶された前記嗜好データと、検知された前記所定の対象の顔又は音声と、の類似度を算出し、
算出された前記類似度に応じた所定の動作を前記ロボットに実行させる、
ことを含む、
ことを特徴とする。
前記目的を達成するため、本発明に係るプログラムの一様態は、
ロボットの好みの顔又は好みの音声と、前記ロボットの嫌いな顔又は嫌いな音声と、のいずれか一方を示す嗜好データであって購入予定のユーザとは独立して前記ロボットの個性として予め設定された嗜好データが、前記ロボットが出荷される前に記憶される嗜好データ記憶手段を有するロボットのコンピュータを、
所定の対象の顔又は音声を検知する対象検知手段、
前記嗜好データ記憶手段に記憶された前記嗜好データと、前記対象検知手段により検知された前記所定の対象の顔又は音声と、の類似度を算出する類似度算出手段、
前記類似度算出手段により算出された前記類似度に応じた所定の動作を前記ロボットに実行させる動作制御手段、
として機能させる、
ことを特徴とする。
本発明によれば、ロボットの動作に個性を持たせることが可能なロボット、ロボットの制御方法及びプログラムを提供することができる。
本発明の実施形態に係るロボットの外観を示す図である。 本発明の実施形態に係るロボットのハードウェア構成を示すブロック図である。 本発明の実施形態に係るロボットの機能的な構成を示すブロック図である。 本発明の実施形態に係るロボットに記憶された好感度データの例を示す図である。 本発明の実施形態に係るロボットに記憶された得点テーブルの例を示す図である。 本発明の実施形態に係るロボットによって実行されるロボット制御処理の流れを示すフローチャートである。 本発明の実施形態に係るロボットによって実行される周辺環境に関する得点算出処理の流れを示すフローチャートである。 本発明の実施形態に係るロボットによって実行される内部状況に関する得点算出処理の流れを示すフローチャートである。 本発明の実施形態に係るロボットによって実行される検知された対象に関する得点算出処理の流れを示すフローチャートである。
以下、本発明の実施形態について、図面を参照して説明する。なお、図中同一又は相当する部分には同一符号を付す。
図1に、本発明の実施形態に係るロボット100の外観を示す。ロボット100は、動物(ペット)を模した形状を有し、予め規定された動作プログラムに従って自律的に動作(所定の動作)をする装置である。
ロボット100は、自装置の外部に存在する所定の対象からの呼び掛け、接触等の外部からの刺激に反応して、様々に動作(所定の動作)をする。これによって、ロボット100は、所定の対象とコミュニケーションをとり、所定の対象と交流をすることができる。
所定の対象とは、ロボット100の外部に存在し、且つ、ロボット100とコミュニケーション及び交流をする相手となる対象である。所定の対象として、具体的には、ロボット100の周囲の人間であるユーザ(ロボット100の所有者、家族、友人等)、ユーザの周囲の動物(ユーザに飼われているペット等)、ロボット100以外の他のロボット等が挙げられる。所定の対象は、コミュニケーション対象、コミュニケーション相手、交流対象、交流相手等とも言うことができる。以下では、所定の対象を、単に「対象」とも呼ぶ。
図1に示すように、ロボット100は、外観的には犬を模した立体的な形状を有する。ロボット100は、例えばプラスチック等の硬質合成樹脂を主たる材料として作製されている。ロボット100は、頭部101と、胴体部102と、耳部103と、目部104と、口部105と、手部107と、足部108と、を備える。
頭部101、耳部103、手部107及び足部108は、ロボット100に内蔵された駆動部材によって動かすことができる部位である。頭部101は、首に設けられた首の関節によって、ピッチ、ロール及びヨーの3方向に回転可能に胴体部102に取り付けられている。目部104には、目に関する画像(目玉等)を表示する表示部117が設けられている。口部105には、ロボット100の前方を撮像する撮像部115aが設けられている。
図2に、ロボット100のハードウェア構成を示す。図2に示すように、ロボット100は、制御部110と、記憶部111と、バッテリ112と、駆動ドライバ113と、可動部114と、センサ部115と、無線通信部116と、表示部117と、音声出力部118と、画像認識部119と、を備える。
制御部110は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)を備える。CPUは、例えばマイクロプロセッサ等であって、様々な処理や演算を実行する中央演算処理部である。制御部110において、CPUが、ROMに記憶されている制御プログラムを読み出して、RAMをワークメモリとして用いながら、自装置(ロボット100)全体の動作を制御する。制御部110は、制御手段として機能する。
記憶部111は、フラッシュメモリ、ハードディスク等の不揮発性メモリである。記憶部111は、OS(Operating System)及びアプリケーションプログラムを含む、制御部110が各種処理を行うために使用するプログラム及びデータを記憶する。また、記憶部111は、制御部110が各種処理を行うことにより生成又は取得するデータを記憶する。記憶部111は、記憶手段として機能する。
バッテリ112は、電気エネルギーを蓄電し、ロボット100の各部に電力を供給する蓄電池である。バッテリ112は、ロボット100が充電ステーションに帰巣した場合に、充電ステーションによって充電される。
駆動ドライバ113は、ロボット100の可動部114を駆動させるモータ、アクチュエータ等の駆動部材と、これらの駆動部材を駆動する駆動回路と、を備える。可動部114とは、可動する部位であって、具体的には頭部101、手部107及び足部108である。制御部110は、動作プログラムに基づいて、駆動回路に制御信号を送信する。駆動回路は、制御部110から送信された制御信号に従って、駆動部材に駆動用のパルス信号を供給する。駆動部材は、駆動回路から供給されたパルス信号に従って、可動部114を駆動させる。可動部114は、可動手段として機能する。
ロボット100は、駆動ドライバ113が可動部114を駆動させることによって、様々に動作することができる。例えば、ロボット100は、足部108を動かすことによって、前方又は後方に移動することができ、自装置の向きを変えることができる。ここで、足部108には車輪が設けられており、駆動ドライバ113が車輪を回転駆動させることにより、ロボット100の位置又は向きを変えても良い。また、ロボット100は、頭部101又は手部107を動かすことによって、人の動作及び人の仕草を真似ることができる。
センサ部115は、自装置の周囲又は内部の物理量を検知する複数のセンサを備える。図2に示すように、センサ部115は、周囲を撮像する撮像部115aと、音を検知する音センサ115bと、自装置への接触を検知する接触センサ115cと、を含む。また、センサ部115は、図示しないが、周囲の物体までの距離を測定する距離センサ、自装置の動きを検知する加速度センサ、自装置の回転を検知するジャイロセンサ、自装置の方角を検知する地磁気センサ、自装置の周囲の温度を検知する温度センサ、自装置の周囲の気圧を検知する気圧センサ等を含む。
撮像部115aは、いわゆるカメラであって、口部105に設置されている。撮像部115aは、被写体から射出された光を集光して被写体の画像を取得する画像取得部と、画像取得部によって取得された画像を処理する画像処理部と、を備えており、ロボット100の前方を撮像する撮像手段として機能する。音センサ115bは、頭部101に設置されており、ユーザから発せられた音声、周囲の環境音等を検知する。ロボット100は、図示しないが、音センサ115bとして頭部101を囲むように複数のマイクを備えており、四方で発生した音を効率良く検知することができる。
接触センサ115cは、ロボット100の各所に設置されており、ユーザにより自装置の表面に接触された場合に、その接触の位置を検知する。その他のセンサは、ロボット100の各所に設置され、ロボット100の周囲の状態又は内部の状態を示す情報を取得する。センサ部115は、このような複数のセンサによって、ロボット100の周囲の状態又は内部の状態を示す情報を取得し、制御部110に供給する。
無線通信部116は、外部の機器と無線で通信するためのインタフェースを備える。無線通信部116は、制御部110の制御の下、例えばWi-Fi(Wireless Fidelity)等の無線LAN(Local Area Network)、Bluetooth(登録商標)、NFC(Near Field Communication)等の通信規格に従って、ロボット100を充電するための充電ステーション、クラウドサーバ等の外部の機器と無線通信をする。無線通信部116は、通信手段として機能する。
表示部117は、例えば液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、LED(Light Emitting Diode)等の表示デバイスである。表示部117は、目部104の眼球部分に設置されており、図示しない表示駆動回路による制御のもと、状況に応じて様々な画像を表示する。表示部117は、表示手段として機能する。
音声出力部118は、スピーカと音声出力インタフェースとを備え、制御部110によって生成された音声データを音声に変換して外部に出力する。スピーカは、頭部101に設置されている。音声出力部118は、動物の鳴き声及び人間の言葉を含む様々な音声を出力する。例えば、ロボット100は、音センサ115bでユーザの音声を収集し、ユーザの発話内容に対応する音声を音声出力部118から出力する。これにより、ユーザと簡単な会話をすることができる。音声出力部118は、音声出力手段として機能する。
画像認識部119は、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)等の画像処理用のプロセッサと、処理される画像を一時的に保存するバッファメモリと、を備え、撮像部115aによって撮像された画像を認識する。画像認識部119は、周知の画像認識手法を用いて、撮像部115aによって撮像された画像に含まれる人、顔、物体、パターン等を認識する。画像認識部119は、撮像部115aによって撮像された対象の顔を認識する認識手段として機能する。
次に、図3を参照して、ロボット100の機能的な構成について説明する。図3に示すように、ロボット100は、機能的に、動作部120と、動作制御部130と、対象検知部140と、類似度算出部150と、好感度設定部160と、状況検知部170と、決定部180と、を備える。動作制御部130、対象検知部140、類似度算出部150、好感度設定部160、状況検知部170及び決定部180の各部は、制御部110において、CPUがROMに記憶されたプログラムをRAMに読み出して、読み出されたプログラムを実行して制御することにより機能する。
また、ロボット100は、嗜好データ記憶部191と、対象データ記憶部192と、を備える。これらは、記憶部111の適宜の記憶領域に構築され、それぞれ嗜好データ記憶手段及び対象データ記憶手段として機能する。
動作部120は、自装置、すなわちロボット100を動作させる部位である。図3に示すように、動作部120は、可動部114と、表示部117と、音声出力部118と、を含む。動作部120は、可動部114を動かしてロボット100の姿勢を変化させる、表示部117にロボット100の表情を表す画像を表示する、又は、音声出力部118から音声を出力する。このようにして、動作部120は、ロボット100に様々な動作を実行させる。動作部120は、動作手段として機能する。
また、動作部120は、移動部121を含む。移動部121は、駆動ドライバ113が足部108を前後左右に動かす、又は足部108に設けられた車輪を回転させることにより、ロボット100を移動させる。これにより、ロボット100は、自律的に走行することができる。移動部121は、移動手段として機能する。
動作制御部130は、動作部120を制御して、予め規定された様々な動作をロボット100に実行させる。例えば、動作制御部130は、可動部114として設けられた頭部101、手部107及び足部108を動かすことにより、ロボット100の位置、向き、姿勢等を変更する。また、動作制御部130は、表示部117に画像を表示することによって、顔の表情を変化させる。更に、動作制御部130は、音声出力部118から音声を出力することによって、ユーザと対話する。動作制御部130は、制御部110が、駆動ドライバ113、可動部114、表示部117及び音声出力部118と協働することによって実現される。動作制御部130は、動作制御手段として機能する。
嗜好データ記憶部191は、嗜好データを記憶している。嗜好データは、ロボット100が個性として持っているデータであって、具体的には、ロボット100の好き嫌いの顔を示すデータである。ロボット100は、好みの顔の対象に対しては好意的に動作し、好みの顔ではない対象に対しては好意的には動作しない。このように、ロボット100の好き嫌いの顔は、ロボット100の動作に影響を与える。
嗜好データ記憶部191は、嗜好データとして、例えば、ロボット100の好みの顔のパターンを示す少なくとも1つの画像を記憶している。嗜好データにより示される顔は、実在する人間の顔であっても良いし、CG(Computer Graphics)等で作成された仮想的な人間の顔であっても良い。又は、嗜好データにより示される顔は、後述する類似度算出部150により対象の顔との間でパターンを比較して類似度を算出することが可能なものであれば、人間以外の動物の顔であっても良い。更には、嗜好データは、顔と比較可能なものであれば、顔の画像でなくても、一般的な形状、文様等のパターンを示すものであっても良い。
嗜好データは、ロボット100に固有のデータであって、ユーザが自由に設定、変更及び消去することができないように、嗜好データ記憶部191に記憶されている。具体的に説明すると、嗜好データは、ロボット100が出荷される前に、嗜好データ記憶部191に予め記憶される。ここで、出荷とは、ロボット100が工場等で製造された後、工場、倉庫等から市場に出ることを意味する。例えば、嗜好データは、ロボット100が工場で製造された時に、ロボット100が出荷されてユーザの元に届けられた時には読み取ることはできるが書き換えることはできないように、予め嗜好データ記憶部191の嗜好データ記憶領域に書き込まれる。このように出荷前に嗜好データを設定することで、あたかも人間が先天的に顔の好みを有しているように、ロボット100に先天的な個性を持たせることができる。
嗜好データ記憶部191に記憶された嗜好データにより示されるロボット100の好みの顔は、ロボット100と同じ機種の他のロボットに記憶された他の嗜好データにより示される他のロボットの他の好みの顔とは、異なる。ロボット100と同じ機種の他のロボットとは、ロボット100と同じ外見をしていて同じ動作アルゴリズムに基づいて動作するロボットである。ロボット100の好みの顔は、そのロボット100の個性を表現するものであるため、たとえ同じ機種であっても、複数のロボットの間で個体ごとに互いに異なるように設定される。例えば、同じ機種の複数のロボットが製造される時に、複数のロボットのそれぞれの嗜好データ記憶部191に、互いに異なる好みの顔を示す嗜好データが記憶される。これにより、あるロボットの好みの顔は同じ機種の他のロボットにとっては好みの顔ではないという状況が成立する。
ここで、同じ機種の複数のロボットのそれぞれにおいて記憶された嗜好データにより示される好みの顔は、複数のロボットの全てで異なっていても良いし、複数のロボットの一部で重複していても良い。但し、なるべく多くのロボット間で好みの顔が異なるように設定することで、ロボットに多様な個性を持たせることができる。嗜好データは、自装置のユーザのユーザ登録により複数の対象に関する対象データが記憶される対象データ記憶部192の後述の対象データ記憶領域とは異なる、嗜好データ記憶部191の嗜好データ記憶領域に記憶される。そしてユーザは、嗜好データを変更及び消去することができない。また、嗜好データに応じた自装置の所定の動作は、対象データに応じた自装置の動作とは異なる。
対象検知部140は、ロボット100の周囲に存在する対象の顔を検知する。具体的に説明すると、対象検知部140は、撮像部115aによって周囲を撮像することにより、周囲の様子を表す画像を取得する。そして、対象検知部140は、撮像画像中に所定の対象である人間、動物、他のロボット等の顔が含まれている場合に、画像認識部119の機能により、その顔を検知する。
このようにして、対象検知部140は、ロボット100の周囲に対象が存在する場合に、その顔を検知することにより、対象の存在を検知する。なお、ロボット100の周囲に複数の対象が存在する場合には、対象検知部140は、複数の対象のそれぞれについて顔を検知する。対象検知部140は、制御部110が撮像部115a及び画像認識部119と協働することにより実現される。対象検知部140は、対象検知手段として機能する。
類似度算出部150は、対象検知部140により検知された対象の顔と、嗜好データ記憶部191に記憶されている嗜好データにより示される自装置の好みの顔と、の類似度を算出する。ここで、類似度とは、2つの顔が類似しているか否かの度合を示す指標である。類似度算出部150は、対象検知部140により検知された対象の顔のパターンと、嗜好データ記憶部191に記憶されている嗜好データにより示される自装置の好みの顔のパターンと、を比較する。そして、類似度算出部150は、予め定められたルールに従って、2つの顔のパターンが類似しているか否かを判定する。
具体的に説明すると、類似度算出部150は、画像認識部119の機能により、撮像部115aにより得られた撮像画像から、対象の顔の輪郭、及び顔に含まれる目、耳、鼻、口等の部位を認識する。そして、類似度算出部150は、嗜好データにより示される顔との間で輪郭の形状や各部位の位置及び形状を比較し、合致している度合が高いほど、類似度として大きな値を算出する。類似度算出部150は、制御部110が画像認識部119と協働することにより実現される。類似度算出部150は、類似度算出手段として機能する。
なお、例えば撮像部115aが対象の顔を正面から撮像しなかった場合のように、撮像画像における対象の顔の向きが、嗜好データにより示される顔の向きとは異なる場合がある。この場合、類似度算出部150は、撮像画像における対象の顔の向きが、嗜好データにより示される顔の向きに近づくように、撮像画像に対して顔の向きを補正するデータ変換を施してから、類似度を算出する。このように顔の向きの差異を吸収することで、類似度算出部150は、2つの顔の類似度を精度良く算出ことができる。
好感度設定部160は、類似度算出部150により算出された類似度に基づいて、対象に対するロボット100の好感度を設定する。ここで、好感度とは、対象に対してロボット100がどの程度好意的な感情を有しているかを示す指標である。ロボット100は、対象に対する好感度がより高いほど、その対象に対して好意的な動作又は優先的な動作を実行し、対象に対する好感度がより低いほど、その対象に対して好意的でない動作又は優先的でない動作を実行する。言い換えると、動作制御部130は、対象に対する好感度に応じて、その対象に対する好意的な動作及び優先的な動作の程度を変更する。
具体的に説明すると、好感度設定部160は、類似度算出部150により算出された対象の顔と好みの顔との類似度がより高いほど、その対象に対するロボット100の好感度をより高く設定する。類似度算出部150により算出された類似度がより高いほど、対象の顔は、自装置の個性としての先天的な好みに近いことを意味する。そのため、好感度設定部160は、好みの顔との類似度がより高い顔を有する対象に対しては、ロボット100がより好意的に動作する又は優先的に動作するように、より高い好感度を設定する。
好感度設定部160は、このようにして好感度を設定すると、設定した好感度を対象データ記憶部192に記憶させる。好感度設定部160は、制御部110が記憶部111と協働することによって実現される。好感度設定部160は、好感度設定手段として機能する。
対象データ記憶部192は、それぞれロボット100に対する交流相手となる複数の対象に関する対象データを対象データ記憶領域に記憶している。図4に、対象データ記憶部192の対象データ記憶領域に記憶された対象データの例を示す。図4に示すように、対象データ記憶部192は、対象データとして、複数の対象のそれぞれについて、ID(識別情報)と、対象の種類と、顔の画像データと、類似度と、好感度と、を対応付けて対象データ記憶領域に記憶している。
図4に示した対象データにおいて、対象の種類とは、具体的には、対象が家族であるか、知人であるか、不知(知らない人、すなわち初めて会った人)であるか等であって、対象のより詳細な情報を表している。各対象の種類は、例えばデフォルトでは不知に設定されている。各対象のデータが対象データ記憶部192に登録された後で、ユーザにより家族、知人等に更新される。
また、図4に示した対象データにおいて、顔の画像データは、撮像部115aにより対象の顔が撮像された画像データである。ある対象の顔が対象検知部140により最初に検知された場合、類似度算出部150は、その対象の顔と好みの顔との類似度を算出し、好感度設定部160は、類似度算出部150により算出された類似度に基づいて好感度を設定する。そして、好感度設定部160は、撮像部115aにより撮像されたその対象の顔の画像データを、得られた類似度と好感度とに対応付けて、対象データ記憶部192に記憶させる。
図3に戻って、状況検知部170は、ロボット100の周囲に存在する対象の状況を検知する。ここで、対象の状況とは、対象検知部140により顔が検知された対象の現在の行動、位置等であって、例えば、対象が誰かと対話中であるか、対象の位置がロボット100からどの程度離れているか、対象とロボット100にどの程度久々に会ったか等である。
状況検知部170は、このような対象の現在の状況を、センサ部115の各種センサによって検知する。例えば、状況検知部170は、対象が対話中であるか否かを撮像部115a又は音センサ115bを介して検知する。また、状況検知部170は、ロボット100と対象との距離を距離センサにより検知する。更に、状況検知部170は、ロボット100と対象とが会っていなかった期間の長さを、対象検知部140により前回に対象の顔が検知された時の日時と現在の日時との差分から判定する。状況検知部170は、制御部110がセンサ部115の各種センサと協働することによって実現される。状況検知部170は、状況検知手段として機能する。
決定部180は、嗜好データ記憶部191に記憶された嗜好データと、対象検知部140により検知された対象の顔と、に基づいて、ロボット100に実行させる動作を決定する。具体的に説明すると、決定部180は、(1)ロボット100の周辺環境と、(2)ロボット100の内部状況と、(3)対象検知部140により顔が検知された対象と、のうちの少なくとも何れかに応じて、ロボット100に実行させる動作及び対象を決定する。ここで、ロボット100の周辺環境とは、ロボット100の周辺の音、明るさ、気温等の環境を意味する。また、ロボット100の内部状況とは、ロボット100の内部に設定された各種のパラメータの状況を意味する。
ロボット100の周辺環境において特定の事象が発生した場合、決定部180は、発生した事象に対応する動作を、ロボット100に実行させる動作として決定する。特定の事象とは、ロボット100が動作するトリガーとなる事象であって、具体的には、突発音が聞こえた、周囲の明るさや騒音が変化した、人の声が聞こえた等である。周辺環境において特定の事象が発生した場合、決定部180は、例えば、「耳を動かす」、「興味を示しながら移動する」等の発生した事象に予め対応付けられた動作を、ロボット100に実行させる動作として決定する。
これに対して、ロボット100の内部状況が特定の状況に該当する場合、決定部180は、内部状況に対応する動作を、ロボット100に実行させる動作として決定する。特定の状況とは、ロボット100が動作するトリガーとなる状況であって、具体的には、ロボット100の現在の感情を示すパラメータが、「楽しい」、「寂しい」、「退屈」、「眠い」等を示していることに該当する。内部状況が特定の状況に該当する場合、決定部180は、例えば、「楽しそうに動き回る」、「寂しそうな表情をする」等の現在のロボット100の内部状況に予め対応付けられた動作を、ロボット100に実行させる動作として決定する。
また、対象検知部140により対象の顔が検知された場合、決定部180は、この対象に対応する動作を、ロボット100に実行させる動作として決定する。具体的に説明すると、対象検知部140により対象の顔が検知された場合、決定部180は、例えば、「検知された対象の方に移動する」、「検知された対象に話しかける」等の検知された対象に関する動作を、ロボット100に実行させる動作として決定する。
ここで、このような3つの要因、すなわち(1)ロボット100の周辺環境において特定の事象が発生したことと、(2)ロボット100の内部状況が特定の状況に該当することと、(3)対象検知部140により対象の顔が検知されたことと、のうちの少なくとも2つが成立した場合、決定部180は、発生した事象に対応する動作と、内部状況に対応する動作と、対象に対応する動作と、のうちの何れか1つを、ロボット100に実行させる動作として決定する。言い換えると、複数の要因が同時に成立した場合、決定部180は、成立した要因に対応する全ての動作をロボット100に実行させる動作として決定せず、予め定められたルールに従って、その中から1つの動作を選択する。
より詳細に説明すると、複数の要因が同時に成立した場合、決定部180は、記憶部111に記憶された得点テーブル193を参照して、ロボット100に実行させる動作を決定する。得点テーブル193は、決定部180がロボット100に実行させる動作を決定する基準となる得点を定めたテーブルである。
図5に、得点テーブル193の例を示す。図5に示すように、得点テーブル193は、ロボット100の周辺環境に関する要因、ロボット100の内部状況に関する要因、及び、ロボット100の周辺に存在する対象に関する要因のそれぞれについて、得点を定めている。ロボット100は、このような複数の要因のうちの、その時々に生じた要因に応じて、様々な動作を実行する。得点テーブル193に定められた得点は、ロボット100が、複数の要因のうちのどの要因に基づいて動作するかの優先度を表す値である。
第1に、得点テーブル193は、ロボット100の周辺環境に関する得点として、8点から15点までの得点を定めている。具体的に図5に示すように、得点テーブル193は、周辺環境に関する要因の得点として、突発音が聞こえた場合には15点、周囲の明るさ又は騒音が大きく変化した場合には13点、人の声が聞こえた場合には10点、周囲の明るさ又は騒音が小さく変化した場合には8点、のように、種類に応じて異なる得点を定めている。
第2に、得点テーブル193は、ロボット100の内部状況に関する得点として、1点から10点までの得点を定めている。例えば、得点テーブル193は、内部状況に関する要因の得点として、ロボット100の現在の感情を示すパラメータに応じて、異なる得点を定めている。このような感情を示すパラメータは、ロボット100の現在の状況、現在の時刻や季節、対象との交流の結果等に応じて、様々に変化する。
第3に、得点テーブル193は、検知された対象に関する得点として、対象データ記憶部192に記憶された対象の種類と、状況検知部170により検知された対象の現在の状況と、対象データ記憶部192に記憶された対象に対する好感度と、に応じて異なる得点を定めている。具体的に説明すると、検知された対象に関する得点は、要因点としての5点に、対象が「家族」、「知人」、「不知」の順に高い得点を加点し、対象の現在の状況に応じて0点から7点までを加点し、対象に対する好感度に応じて0点から3点までを加点することにより算出される。
より詳細には、図5では省略しているが、対象の現在の状況に関する加点は、例えば対象が現在誰かと会話中であれば3点を加点し、対象がロボット100の目の前に居れば2点を加点し、対象がロボット100と久々に会った場合には2点を加点するというように、状況検知部170により検知された対象の現在の状況に応じて様々に定められている。
また、対象に対する好感度に関する加点は、図4に示した対象テーブルにおいて定められた好感度の値と同様であり、好感度がより高いほど、0点から3点までのうちの高い点が加点されるように定められている。言い換えると、ロボット100の好みの顔と類似度が高い顔の対象ほど、好感度に関する加点は高くなる。
決定部180は、周辺環境と、内部状況と、検知された対象と、の3つの要因のうちの少なくとも2つの要因が成立した場合、このような得点テーブル193を参照して、成立した要因に対応する得点を算出する。そして、決定部180は、得点が最高の要因に対応する動作を、ロボット100に実行させる動作として決定する。
例えば、周辺環境に関する得点が最も高い場合、決定部180は、「耳を動かす」、「興味を示しながら移動する」等の動作を決定する。これに対して、内部状況に関する得点が最も高い場合、決定部180は、「楽しそうな表情をする」、「活発に動き回る」等の動作を決定する。又は、検知された対象に関する得点が最も高い場合、決定部180は、「検知された対象の方に移動する」、「検知された対象に話しかける」等の動作を決定する。決定部180は、制御部110が記憶部111と協働することによって実現される。決定部180は、決定手段として機能する。
なお、検知された対象に関する得点が最も高い場合、決定部180は、検知された対象に対する好感度がより高いほど、その対象に対してより好意的な動作を、ロボット100に実行させる動作として決定する。例えば、決定部180は、検知された対象に対する好感度が第1の値である場合には、検知された対象に対する好感度が第1の値よりも小さい第2の値である場合に比べて、ロボット100が対象により近い位置に移動する、又は、対象に対してより親密に話しかけるように、動作を決定する。
また、対象検知部140によりロボット100の周囲に複数の対象の顔が検知された場合、決定部180は、これら複数の対象の中から、ロボット100の動作対象を決定する。具体的に説明すると、ロボット100の周囲に複数の対象が検知された場合には、決定部180は、複数の対象のそれぞれについて得点テーブル193に従って得点を算出し、複数の対象のうちの最高得点の対象を、ロボット100の動作対象として決定する。前述したように、各対象の得点は、対象の種類と、対象の現在の状況と、対象に対するロボット100の好感度と、に応じて算出されるため、決定部180は、このような対象の種類、状況及び好感度という複数の指標に応じて最適な動作対象を複数の対象の中から決定する。
動作制御部130は、動作部120を制御することにより、このようにして決定部180により決定された動作をロボット100に実行させる。具体的に説明すると、動作制御部130は、可動部114を動かす、表示部117に画像を表示する、音声出力部118から音声を出力する、又は、移動部121によりロボット100を移動させる。これにより、動作制御部130は、決定部180により決定された動作、すなわち周辺環境、内部状況、又は、顔が検知された対象の種類、状況及び好感度に応じて決定された動作を、ロボット100に実行させる。
このとき、検知された対象に対する好感度が高い場合、すなわち検知された対象の顔とロボット100の好みの顔との類似度が高い場合には、この対象に関して相対的に高い得点が算出されるため、この対象に対する動作が選択される可能性が高くなる。そのため、動作制御部130は、検知された対象の顔とロボット100の好みの顔との類似度が高い場合、高い確率で、この対象に対する動作を優先的にロボット100に実行させる。また、ロボット100の周囲に複数の対象が居る場合、好感度が高い対象ほど、すなわちロボット100の好みの顔との類似度が高い顔を有する対象ほど、動作対象として選択される可能性が高くなる。更に、動作制御部130は、検知された対象に対する好感度が高いほど、その対象に対してより好意的な動作及びより優先的な動作を実行するように、好意的な動作及び優先的な動作の程度を変更する。
このように、ロボット100は、好みの顔立ちの対象に対して好意的な動作且つ優先的な動作を実行する。これにより、ロボット100は、特定の対象に積極的に交流をするように動作するため、特定の対象に懐きやすいという個性を持っていると見なすことができる。
以上のように構成されるロボット100において実行される処理の流れについて、図6に示すフローチャートを参照して説明する。
図6に示すロボット制御処理は、ロボット100の電源が投入され、且つ、バッテリ112が充電されることによって、ロボット100が正常に動作可能な状態になると、開始する。
ロボット制御処理を開始すると、制御部110は、ロボット100の内部に定義された各種の設定を初期化する(ステップS1)。具体的に説明すると、制御部110は、周辺環境、内部状況、検知された対象のそれぞれに関する得点を0に設定することで、過去に発生した要因による得点をクリアする。
設定を初期化すると、制御部110は、第1に、ロボット100の周辺環境に関する得点を算出する(ステップS2)。ステップS2の処理の詳細について、図7に示すフローチャートを参照して説明する。
図7に示す周辺環境に関する得点算出処理を開始すると、制御部110は、ロボット100の周辺環境において、ロボット100が動作するトリガーとなる特定の事象が発生したか否かを判定する(ステップS21)。具体的に説明すると、制御部110は、特定の事象として、突発音が聞こえた、周囲の明るさや騒音が変化した、人の声が聞こえた等、得点テーブル193に定められた事象が発生したか否かを判定する。
これらの特定の事象のいずれかが発生した場合(ステップS21;YES)、制御部110は、発生した事象に応じて周辺環境に関する得点を算出する(ステップS22)。具体的に説明すると、制御部110は、得点テーブル193を参照して、発生した事象に対応する8点から15点までの得点を、周辺環境に関する得点として算出する。
なお、得点テーブル193に定められた複数の事象が発生した場合には、制御部110は、これらの複数の事象の得点の中で最も高い得点を、周辺環境に関する得点として算出する。
これに対して、特定の事象が発生していない場合(ステップS21;NO)、制御部110は、ステップS22の処理をスキップし、周辺環境に関する得点を算出しない。この場合、制御部110は、周辺環境に関する得点が0のまま、図7に示す処理を終了する。
図6に戻って、制御部110は、第2に、ロボット100の内部状況に関する得点を算出する(ステップS3)。ステップS3の処理の詳細について、図8に示すフローチャートを参照して説明する。
図8に示す内部状況に関する得点算出処理を開始すると、制御部110は、ロボット100の現在の内部状況が、ロボット100が動作するトリガーとなる特定の状況に該当するか否かを判定する(ステップS31)。具体的に説明すると、制御部110は、ロボット100の現在の感情を示すパラメータが、「楽しい」、「寂しい」、「退屈」、「眠い」等、得点テーブル193に定められた状況に該当するか否かを判定する。
ロボット100の内部状況が特定の状況に該当する場合(ステップS31;YES)、制御部110は、該当する状況に応じて内部状況に関する得点を算出する(ステップS32)。具体的に説明すると、制御部110は、得点テーブル193を参照して、該当する状況に対応する1点から10点までの得点を、内部状況に関する得点として算出する。
なお、ロボット100の現在の内部状況が得点テーブル193に定められた複数の状況に該当する場合には、制御部110は、これらの複数の状況の得点の中で最も高い得点を、内部状況に関する得点として算出する。
これに対して、ロボット100の内部状況が特定の状況に該当していない場合(ステップS31;NO)、制御部110は、ステップS32の処理をスキップし、内部状況に関する得点を算出しない。この場合、制御部110は、内部状況に関する得点が0のまま、図8に示す処理を終了する。
図6に戻って、制御部110は、第3に、対象に関する得点を算出する(ステップS4)。ステップS4の処理の詳細について、図9に示すフローチャートを参照して説明する。
図9に示す対象に関する得点算出処理を開始すると、制御部110は、対象検知部140として機能し、対象を検知したか否かを判定する(ステップS41)。具体的に説明すると、制御部110は、撮像部115aによって撮像された画像を画像認識部119により認識し、撮像画像の中に対象の顔を検知したか否かを判定する。
対象を検知した場合(ステップS41;YES)、制御部110は、検知した対象が対象データ記憶部192に登録済みであるか否かを判定する(ステップS42)。具体的に説明すると、制御部110は、ステップS41で検知した対象の顔と合致する顔画像のデータが、対象データ記憶部192に既に記憶されているか否かを判定する。例えば、ステップS41で検知した対象が、対象データ記憶部192において、「家族」、「知人」等として既に記憶されている場合、制御部110は、検知した対象が登録済みであると判定する。
検知した対象が対象データ記憶部192に登録済みでない場合(ステップS42;NO)、制御部110は、類似度算出部150として機能し、検知した対象の顔と、嗜好データ記憶部191に記憶された自装置の好みの顔と、の類似度を算出する(ステップS43)。具体的に説明すると、制御部110は、検知した対象の顔と好みの顔との間で輪郭及び顔の部位を比較し、予め定められたルールに従って2つの顔が類似しているか否かの度合を算出する。
類似度を算出すると、制御部110は、好感度設定部160として機能し、検知した対象に対する好感度を設定する(ステップS44)。具体的に説明すると、制御部110は、検知した対象の顔と好みの顔との類似度がより高いほど、その対象に対してより高い好感度を設定する。
好感度を設定すると、制御部110は、対象データ記憶部192を更新する(ステップS45)。具体的に説明すると、制御部110は、ステップS41で検知された対象の顔画像データと、ステップS43で算出された類似度と、ステップS44で設定された好感度と、を対応付けて、対象データ記憶部192に記憶させる。
これに対して、検知した対象が対象データ記憶部192に登録済みである場合(ステップS42;YES)、検知した対象の顔画像データ、類似度及び好感度は、既に対象データ記憶部192に登録されている。そのため、この場合、制御部110は、ステップS43からステップS45までの処理をスキップする。
次に、制御部110は、状況検知部170として機能し、検知した対象の現在の状況を検知する(ステップS46)。具体的に説明すると、制御部110は、検知した対象が対話中であるか、検知した対象とロボット100との距離、検知した対象と久々に会ったか等を、撮像部115a、音センサ115b、距離センサ等のセンサ部115を介して、検知する。
対象の状況を検知すると、制御部110は、対象に関する得点を算出する(ステップS47)。具体的に説明すると、制御部110は、得点テーブル193を参照して、対象を検知したことに対する要因点である5点に、検知した対象の種類と、検知した対象の状況と、検知した対象に対する好感度と、による得点をそれぞれ加点することにより、対象に関する得点を算出する。
なお、ステップS41において複数の対象を検知した場合には、制御部110は、検知した複数の対象のそれぞれについて、ステップS42からステップS47までの処理を実行して、得点を算出する。そして、制御部110は、複数の対象のそれぞれについて算出した得点の中で最も高い得点を、対象に関する得点として算出する。
一方、ステップS41で対象を検知していない場合(ステップS41;NO)、制御部110は、ステップS42からステップS47までの処理をスキップし、対象に関する得点を算出しない。この場合、制御部110は、対象に関する得点が0のまま、図9に示す処理を終了する。
図6に戻って、制御部110は、このようにして各要因に関する得点を算出すると、決定部180として機能し、最高得点の要因に対応する動作を決定する(ステップS5)。例えば、周辺環境に関する得点が最も高い場合、決定部180は、周辺環境として発生した事象に予め対応付けられた動作を、ロボット100に実行させる動作として決定する。これに対して、内部状況に関する得点が最も高い場合、決定部180は、該当する状況に予め対応付けられた動作を、ロボット100に実行させる動作として決定する。又は、検知された対象に関する得点が最も高い場合、決定部180は、検知された対象に予め対応付けられた動作を、ロボット100に実行させる動作として決定する。このとき、検知された対象が複数存在する場合には、決定部180は、複数の対象の中で得点が最も高い対象を、動作対象として決定する。
動作を決定すると、制御部110は、動作制御部130として機能し、決定した動作をロボット100に実行させる(ステップS6)。具体的に説明すると、制御部110は、可動部114を動かす、表示部117に画像を表示する、音声出力部118から音声を出力する、又は、移動部121によりロボット100を移動させることにより、最高得点の要因に対応する動作をロボット100に実行させる。
このようにしてロボット100に動作を実行させると、制御部110は、図6に示した処理を終了する。制御部110は、ロボット100が正常に稼働している限り、図6に示した処理を適宜繰り返し実行する。これにより、制御部110は、複数の要因に応じて様々にロボット100を動作させる。
以上説明したように、本実施形態に係るロボット100は、自装置の好き嫌いの顔を示す嗜好データが記憶された嗜好データ記憶部191を有し、対象の顔を検知すると、検知した対象の顔と嗜好データにより示される自装置の好き嫌いの顔との類似度に応じて異なる動作を実行する。これにより、ロボット100の動作に個性を持たせることができる。
特に、同じ機種の複数のロボットは、同じアルゴリズムに従って動作するため、基本的には同じ状況の下では同じように動作する結果となる。そのため、各ロボットの稼働履歴等によって動作に多少の差異を生じさせることはできるものの、個体毎の動作に個性を持たせることは基本的には難しい。これに対して、本実施形態に係るロボット100によれば、同じ機種であっても他のロボットとは異なる嗜好データを有するようにし、且つ、嗜好データを、ユーザが後から変更及び消去できないように設定する。これにより、あたかも人間が生まれながらに個性を持っているように、ロボット100の動作に先天的な好みに応じた個性を持たせることができる。その結果、複数の対象に対するロボット100の接し方に個性による違いが出るため、ロボット100に対する親しみやすさを向上させることができる。
(変形例)
以上に本発明の実施形態について説明したが、前記実施形態は一例であり、本発明の適用範囲はこれに限られない。すなわち、本発明の実施形態は種々の応用が可能であり、あらゆる実施の形態が本発明の範囲に含まれる。
例えば、前記実施形態では、ロボット100の好みの顔を示す嗜好データは、ロボット100が出荷される前に、嗜好データ記憶部191に予め記憶されていた。しかしながら、本発明において、嗜好データは、これに限らず、ユーザが自由に設定できるものでなければ、出荷された後に嗜好データ記憶部191に記憶されても良い。
例えば、ロボット100は、自装置が出荷された後、最初に起動された場合に、無線通信部116を介して自装置の外部のサーバから嗜好データを取得し、嗜好データ記憶部191に記憶しても良い。この場合、外部のサーバは、嗜好データとして互いに異なる顔を示す複数の画像データを予め有している。ロボット100は、出荷後に最初にネットワークに接続された場合に、外部のサーバに、嗜好データを要求する。外部のサーバは、ロボット100からの要求に応じて、複数の画像データのうちからランダムに又は所定の規則に従って選ばれた少なくとも1つの画像データを、そのロボット100に送信する。
又は、ロボット100は、自装置が出荷された後、最初に対象検知部140により検出された顔を示すデータを、嗜好データとして、嗜好データ記憶部191に記憶しても良い。具体的に説明すると、ユーザがロボット100を購入して最初に起動させた後、ロボット100は、撮像部115aによる撮像を開始する。そして、撮像画像に人間の顔が含まれている場合、ロボット100は、対象検知部140によりその顔を検出する。このとき、ロボット100が最初に検出した顔がユーザの顔であれば、そのユーザの顔がロボット100の好みの顔として設定される。又は、ロボット100が最初に検出した顔がユーザとは別の人間であれば、この別の人間の顔がロボット100の好みの顔として設定される。このようにすることで、あたかも刷り込み効果のように、ロボット100の個性を設定することができる。
前記実施形態では、嗜好データ記憶部191は、嗜好データとして、ロボット100の好き嫌いの顔を示すデータを記憶していた。しかしながら、本発明において、嗜好データ記憶部191は、嗜好データとして、顔に限らず、自装置の好き嫌いの音声を示すデータを記憶していても良い。
この場合、対象検知部140は、ロボット100の周囲に存在する対象の音声を、音センサ115bを介して検知する。類似度算出部150は、対象検知部140により検知された対象の音声と、嗜好データ記憶部191に記憶されている嗜好データにより示される自装置の好みの音声と、の類似度を算出する。具体的に説明すると、ロボット100は、音声の波形、周波数等を分析することにより音声を認識する音声認識部を備えており、類似度算出部150は、音声認識部により、対象の音声と自装置の好みの音声との間で、例えば波形、周波数等を比較する。これにより、類似度算出部150は、2つの音声のパターンの類似度を算出する。好感度設定部160は、2つの音声の類似度がより高い場合に、その対象に対する好感度を高く設定する。これにより、ロボット100は、自装置の好みの音声を発する対象に対して好意的及び優先的に動作するようになる。
このとき、好みの顔を刷り込み効果によって決めたことと同様に、ロボット100が最初に聞いた音声を好みの音声と決めても良い。言い換えると、ロボット100は、自装置が出荷された後、最初に対象検知部140により検知された対象の音声を示すデータを、嗜好データとして、嗜好データ記憶部191に記憶しても良い。
前記実施形態及び前記変形例では、嗜好データとして、ロボット100の好みの顔又は好みの音声について例示して説明したが、嗜好データとして、ロボット100の嫌いな顔又は嫌いな音声を採用しても良い。嗜好データとして、ロボット100の嫌いな顔又は嫌いな音声を採用した場合、ロボット100は、嫌いな顔又は嫌いな音声の対象に対しては好意的には動作しない。
前記実施形態では、ロボット100は、犬を模したロボットであった。しかしながら、本発明に係るロボット100は、どのような形状を有していても良い。例えば、本発明に係るロボット100は、外観的に猫、鼠、兎等の他の動物を模していても良いし、人間を模していても良い。
前記実施形態では、表示部117は目部104に設けられており、撮像部115aは口部105に設けられていた。しかしながら、本発明において、表示部117は目部104以外の場所に設けられていても良いし、撮像部115aは口部105以外の場所(例えば鼻部等)に設けられていても良い。
前記実施形態では、制御部110において、CPUがROMに記憶されたプログラムを実行することによって、図3に示した各部として機能した。しかしながら、本発明において、制御部110は、CPUの代わりに、例えばASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、又は、各種制御回路等の専用のハードウェアを備え、専用のハードウェアが、図3に示した各部として機能しても良い。この場合、各部の機能それぞれを個別のハードウェアで実現しても良いし、各部の機能をまとめて単一のハードウェアで実現しても良い。また、各部の機能のうちの、一部を専用のハードウェアによって実現し、他の一部をソフトウェア又はファームウェアによって実現しても良い。
なお、本発明に係る機能を実現するための構成を予め備えたロボットとして提供できることはもとより、プログラムの適用により、既存の情報処理装置等を、本発明に係るロボットとして機能させることもできる。すなわち、前記実施形態で例示したロボット100による各機能構成を実現させるためのプログラムを、既存の情報処理装置等を制御するCPU等が実行できるように適用することで、本発明に係るロボットとして機能させることができる。
また、このようなプログラムの適用方法は任意である。プログラムを、例えば、フレキシブルディスク、CD(Compact Disc)-ROM、DVD(Digital Versatile Disc)-ROM、メモリカード等のコンピュータ読み取り可能な記憶媒体に格納して適用できる。さらに、プログラムを搬送波に重畳し、インターネットなどの通信媒体を介して適用することもできる。例えば、通信ネットワーク上の掲示板(BBS:Bulletin Board System)にプログラムを掲示して配信してもよい。そして、このプログラムを起動し、OS(Operating System)の制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。
以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲とが含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
(付記1)
自装置に動作をさせる動作手段と、
前記自装置の好き嫌いの顔又は好き嫌いの音声を示す嗜好データが記憶された嗜好データ記憶手段と、
所定の対象の顔又は音声を検知する対象検知手段と、
前記動作手段を制御することにより、前記嗜好データ記憶手段に記憶された前記嗜好データと、前記対象検知手段により検知された前記所定の対象の顔又は音声と、に応じた所定の動作を前記自装置に実行させる動作制御手段と、
を備える、
ことを特徴とするロボット。
(付記2)
前記嗜好データ記憶手段に記憶された前記嗜好データにより示される前記自装置の前記好き嫌いの顔又は前記好き嫌いの音声と、前記対象検知手段により検知された前記所定の対象の顔又は音声と、の類似度を算出する類似度算出手段、
を更に備え、
前記動作制御手段は、前記動作手段を制御することにより、前記類似度算出手段により算出された前記類似度に応じた前記所定の動作を前記自装置に実行させる、
ことを特徴とする付記1に記載のロボット。
(付記3)
前記類似度算出手段により算出された前記類似度が高いほど、前記所定の対象に対する前記自装置の好感度を高く設定する好感度設定手段、
を更に備え、
前記動作制御手段は、前記動作手段を制御することにより、前記好感度設定手段により設定された前記好感度に応じた前記所定の動作を前記自装置に実行させる、
ことを特徴とする付記2に記載のロボット。
(付記4)
前記所定の対象の状況を検知する状況検知手段、
を更に備え、
前記動作制御手段は、前記動作手段を制御することにより、前記状況検知手段により検知された前記所定の対象の状況と、前記好感度設定手段により設定された前記所定の対象に対する前記自装置の前記好感度と、に応じた前記所定の動作を前記自装置に実行させる、
ことを特徴とする付記3に記載のロボット。
(付記5)
前記動作手段を制御することにより、前記嗜好データ記憶手段に記憶された前記嗜好データと、前記対象検知手段により検知された前記所定の対象の顔又は音声と、に基づいて、前記自装置に実行させる前記所定の動作を決定する決定手段、
を更に備え、
前記動作制御手段は、前記動作手段を制御することにより、前記決定手段により決定された前記所定の動作を前記自装置に実行させる、
ことを特徴とする付記1乃至4の何れか1つに記載のロボット。
(付記6)
前記決定手段は、前記自装置の周辺環境と、前記自装置の内部状況と、前記対象検知手段により顔又は音声が検知された前記所定の対象と、のうちの少なくとも1つに応じて、前記自装置に実行させる前記所定の動作を決定する、
ことを特徴とする付記5に記載のロボット。
(付記7)
前記決定手段は、前記周辺環境において特定の事象が発生した場合、発生した前記特定の事象に対応する動作を前記自装置に実行させる前記所定の動作として決定し、前記内部状況が特定の内部状況に該当する場合、前記特定の内部状況に対応する動作を前記自装置に実行させる前記所定の動作として決定し、前記対象検知手段により前記所定の対象の顔又は音声が検知された場合、前記所定の対象に対応する動作を前記自装置に実行させる前記所定の動作として決定する、
ことを特徴とする付記6に記載のロボット。
(付記8)
前記決定手段は、前記周辺環境において前記特定の事象が発生したことと、前記内部状況が前記特定の内部状況に該当することと、前記対象検知手段により前記所定の対象の顔又は音声が検知されたことと、のうちの少なくとも2つが成立した場合、前記嗜好データ記憶手段に記憶された前記嗜好データと、前記対象検知手段により検知された前記所定の対象の顔又は音声と、に基づいて、前記発生した事象に対応する動作と、前記内部状況に対応する動作と、前記所定の対象に対応する動作と、のうちのいずれか1つを、前記自装置に実行させる前記所定の動作として決定する、
ことを特徴とする付記7に記載のロボット。
(付記9)
前記決定手段は、前記対象検知手段により複数の対象の顔又は音声が検知された場合、前記嗜好データ記憶手段に記憶された前記嗜好データと、前記対象検知手段により検知された前記複数の対象の顔又は音声と、に基づいて、前記複数の対象の中から前記自装置の動作対象となる前記所定の対象を決定し、
前記動作制御手段は、前記動作手段を制御することにより、前記決定手段により決定された前記所定の対象に対して、前記決定手段により決定された前記所定の動作を前記自装置に実行させる、
ことを特徴とする付記5乃至8の何れか1つに記載のロボット。
(付記10)
前記嗜好データにより示される前記自装置の前記好き嫌いの顔又は前記好き嫌いの音声を示す前記嗜好データは、前記自装置と同じ機種の他のロボットに記憶された他の嗜好データにより示される前記他のロボットの他の好き嫌いの顔又は他の好き嫌いの音声とは、異なる、
ことを特徴とする付記1乃至9の何れか1つに記載のロボット。
(付記11)
前記嗜好データは、前記自装置が出荷される前に、前記嗜好データ記憶手段に記憶される、
ことを特徴とする付記1乃至10の何れか1つに記載のロボット。
(付記12)
前記自装置の外部のサーバと通信する通信手段、
を更に備え、
前記嗜好データは、前記自装置が出荷された後、最初に起動された場合に、前記通信手段を介して前記外部のサーバから取得される、
ことを特徴とする付記1乃至10の何れか1つに記載のロボット。
(付記13)
前記嗜好データは、前記自装置が出荷された後、最初に前記対象検知手段により検知された顔又は音声を示すデータである、
ことを特徴とする付記1乃至10の何れか1つに記載のロボット。
(付記14)
前記動作手段は、可動手段と表示手段と音声出力手段と移動手段とのうちの少なくとも1つを含み、
前記動作制御手段は、前記可動手段を動かす、前記表示手段に画像を表示する、前記音声出力手段から音声を出力する、又は、前記移動手段により前記自装置を移動させることにより、前記嗜好データ記憶手段に記憶された前記嗜好データと、前記対象検知手段により検知された前記所定の対象の顔又は音声と、に応じた前記所定の動作を前記自装置に実行させる、
ことを特徴とする付記1乃至13の何れか1つに記載のロボット。
(付記15)
前記好き嫌いの顔又は前記好き嫌いの音声を示す前記嗜好データは、前記自装置のユーザのユーザ登録により少なくとも1つの対象に関する対象データが記憶される対象データ記憶手段の対象データ記憶領域とは異なる、前記嗜好データ記憶手段の嗜好データ記憶領域に記憶され、
前記ユーザは、前記嗜好データを変更及び消去することができず、
前記嗜好データに応じた前記自装置の前記所定の動作は、前記対象データに応じた前記自装置の動作とは異なる、
ことを特徴とする付記1乃至14の何れか1つに記載のロボット。
(付記16)
前記所定の動作は、前記所定の対象に対する好意的な動作及び優先的な動作であり、
前記動作制御手段は、前記類似度算出手段により算出された前記類似度に応じて、前記所定の対象に対する前記好意的な動作及び前記優先的な動作の程度を変更する、
ことを特徴とする付記2に記載のロボット。
(付記17)
前記所定の対象は、人間又は動物又は前記自装置以外の他のロボットを含む、
ことを特徴とする付記1乃至16の何れか1つに記載のロボット。
(付記18)
ロボットの好き嫌いの顔又は好き嫌いの音声を示す嗜好データが記憶された嗜好データ記憶手段を有するロボットの制御方法であって、
所定の対象の顔又は音声を検知し、
前記嗜好データ記憶手段に記憶された前記嗜好データと、検知された前記所定の対象の顔又は音声と、に応じた所定の動作を前記ロボットに実行させる、
ことを含む、
ことを特徴とするロボットの制御方法。
(付記19)
ロボットの好き嫌いの顔又は好き嫌いの音声を示す嗜好データが記憶された嗜好データ記憶手段を有するロボットのコンピュータを、
所定の対象の顔又は音声を検知する対象検知手段、
前記嗜好データ記憶手段に記憶された前記嗜好データと、前記対象検知手段により検知された前記所定の対象の顔又は音声と、に応じた所定の動作を前記ロボットに実行させる動作制御手段、
として機能させる、
ことを特徴とするプログラム。
100…ロボット、101…頭部、102…胴体部、103…耳部、104…目部、105…口部、107…手部、108…足部、110…制御部、111…記憶部、112…バッテリ、113…駆動ドライバ、114…可動部、115…センサ部、115a…撮像部、115b…音センサ、115c…接触センサ、116…無線通信部、117…表示部、118…音声出力部、119…画像認識部、120…動作部、121…移動部、130…動作制御部、140…対象検知部、150…類似度算出部、160…好感度設定部、170…状況検知部、180…決定部、191…嗜好データ記憶部、192…対象データ記憶部、193…得点テーブル

Claims (17)

  1. 自装置に動作をさせる動作手段と、
    前記自装置の好みの顔又は好みの音声と、前記自装置の嫌いな顔又は嫌いな音声と、のいずれか一方を示す嗜好データであって購入予定のユーザとは独立して前記自装置の個性として予め設定された嗜好データが、前記自装置が出荷される前に記憶される嗜好データ記憶手段と、
    所定の対象の顔又は音声を検知する対象検知手段と、
    前記嗜好データ記憶手段に記憶された前記嗜好データと、前記対象検知手段により検知された前記所定の対象の顔又は音声と、の類似度を算出する類似度算出手段と、
    前記動作手段を制御することにより、前記類似度算出手段により算出された前記類似度に応じた所定の動作を前記自装置に実行させる動作制御手段と、
    を備える、
    ことを特徴とするロボット。
  2. 前記嗜好データが、前記自装置の好みの顔又は好みの音声を示す場合、前記類似度算出手段により算出された前記類似度が高いほど、前記所定の対象に対する前記自装置の好感度を高く設定する好感度設定手段、
    を更に備え、
    前記動作制御手段は、前記動作手段を制御することにより、前記好感度設定手段により設定された前記好感度に応じた前記所定の動作を前記自装置に実行させる、
    ことを特徴とする請求項1に記載のロボット。
  3. 前記所定の対象の状況を検知する状況検知手段、
    を更に備え、
    前記動作制御手段は、前記動作手段を制御することにより、前記状況検知手段により検知された前記所定の対象の状況と、前記好感度設定手段により設定された前記所定の対象に対する前記自装置の前記好感度と、に応じた前記所定の動作を前記自装置に実行させる、
    ことを特徴とする請求項2に記載のロボット。
  4. 前記動作手段を制御することにより、前記嗜好データ記憶手段に記憶された前記嗜好データと、前記対象検知手段により検知された前記所定の対象の顔又は音声と、に基づいて、前記自装置に実行させる前記所定の動作を決定する決定手段、
    を更に備え、
    前記動作制御手段は、前記動作手段を制御することにより、前記決定手段により決定された前記所定の動作を前記自装置に実行させる、
    ことを特徴とする請求項1乃至3の何れか1項に記載のロボット。
  5. 前記決定手段は、前記自装置の周辺環境と、前記自装置の内部状況と、前記対象検知手段により顔又は音声が検知された前記所定の対象と、のうちの少なくとも1つに応じて、前記自装置に実行させる前記所定の動作を決定する、
    ことを特徴とする請求項4に記載のロボット。
  6. 前記決定手段は、前記周辺環境において特定の事象が発生した場合、発生した前記特定の事象に対応する動作を前記自装置に実行させる前記所定の動作として決定し、前記内部状況が特定の内部状況に該当する場合、前記特定の内部状況に対応する動作を前記自装置に実行させる前記所定の動作として決定し、前記対象検知手段により前記所定の対象の顔又は音声が検知された場合、前記所定の対象に対応する動作を前記自装置に実行させる前記所定の動作として決定する、
    ことを特徴とする請求項5に記載のロボット。
  7. 前記決定手段は、前記周辺環境において前記特定の事象が発生したことと、前記内部状況が前記特定の内部状況に該当することと、前記対象検知手段により前記所定の対象の顔又は音声が検知されたことと、のうちの少なくとも2つが成立した場合、前記嗜好データ記憶手段に記憶された前記嗜好データと、前記対象検知手段により検知された前記所定の対象の顔又は音声と、に基づいて、前記発生した事象に対応する動作と、前記内部状況に対応する動作と、前記所定の対象に対応する動作と、のうちのいずれか1つを、前記自装置に実行させる前記所定の動作として決定する、
    ことを特徴とする請求項6に記載のロボット。
  8. 前記決定手段は、前記対象検知手段により複数の対象の顔又は音声が検知された場合、前記嗜好データ記憶手段に記憶された前記嗜好データと、前記対象検知手段により検知された前記複数の対象の顔又は音声と、に基づいて、前記複数の対象の中から前記自装置の動作対象となる前記所定の対象を決定し、
    前記動作制御手段は、前記動作手段を制御することにより、前記決定手段により決定された前記所定の対象に対して、前記決定手段により決定された前記所定の動作を前記自装置に実行させる、
    ことを特徴とする請求項4乃至7の何れか1項に記載のロボット。
  9. 前記自装置の前記好の顔又は前記好の音声と、前記自装置の嫌いな顔又は嫌いな音声と、のいずれか一方を示す前記嗜好データは、前記自装置と同じ機種の他のロボットに記憶された他の嗜好データにより示される前記他のロボットの他の好の顔又は他の好の音声および前記他のロボットの嫌いな顔又は嫌いな音声とは、異なる、
    ことを特徴とする請求項1乃至8の何れか1項に記載のロボット。
  10. 前記自装置の外部のサーバと通信する通信手段、
    を更に備えた、
    ことを特徴とする請求項1乃至9の何れか1項に記載のロボット。
  11. 前記動作手段は、可動手段と表示手段と音声出力手段と移動手段とのうちの少なくとも1つを含み、
    前記動作制御手段は、前記可動手段を動かす、前記表示手段に画像を表示する、前記音声出力手段から音声を出力する、又は、前記移動手段により前記自装置を移動させることにより、前記嗜好データ記憶手段に記憶された前記嗜好データと、前記対象検知手段により検知された前記所定の対象の顔又は音声と、に応じた前記所定の動作を前記自装置に実行させる、
    ことを特徴とする請求項1乃至10の何れか1項に記載のロボット。
  12. 前記嗜好データは、前記自装置のユーザの操作による変更及び消去ができないように前記嗜好データ記憶手段に記憶されている、
    ことを特徴とする請求項1乃至11の何れか1項に記載のロボット。
  13. 前記嗜好データは、前記自装置の前記ユーザのユーザ登録により少なくとも1つの対象に関する対象データが記憶される対象データ記憶手段の対象データ記憶領域とは異なる、前記嗜好データ記憶手段の嗜好データ記憶領域に記憶され、
    前記嗜好データに応じた前記自装置の前記所定の動作は、前記対象データに応じた前記自装置の動作とは異なる、
    ことを特徴とする請求項12に記載のロボット。
  14. 前記所定の動作は、前記所定の対象に対する好意的な動作及び優先的な動作であり、
    前記嗜好データが、前記自装置の好みの顔又は好みの音声を示す場合、前記動作制御手段は、前記類似度算出手段により算出された前記類似度に応じて、前記所定の対象に対する前記好意的な動作及び前記優先的な動作の程度を変更する、
    ことを特徴とする請求項1乃至13の何れか1項に記載のロボット。
  15. 前記所定の対象は、人間又は動物又は前記自装置以外の他のロボットを含む、
    ことを特徴とする請求項1乃至14の何れか1項に記載のロボット。
  16. ロボットの好みの顔又は好みの音声と、前記ロボットの嫌いな顔又は嫌いな音声と、のいずれか一方を示す嗜好データであって購入予定のユーザとは独立して前記ロボットの個性として予め設定された嗜好データが、前記ロボットが出荷される前に記憶される嗜好データ記憶手段を有するロボットの制御方法であって、
    所定の対象の顔又は音声を検知し、
    前記嗜好データ記憶手段に記憶された前記嗜好データと、検知された前記所定の対象の顔又は音声と、の類似度を算出し、
    算出された前記類似度に応じた所定の動作を前記ロボットに実行させる、
    ことを含む、
    ことを特徴とするロボットの制御方法。
  17. ロボットの好みの顔又は好みの音声と、前記ロボットの嫌いな顔又は嫌いな音声と、のいずれか一方を示す嗜好データであって購入予定のユーザとは独立して前記ロボットの個性として予め設定された嗜好データが、前記ロボットが出荷される前に記憶される嗜好データ記憶手段を有するロボットのコンピュータを、
    所定の対象の顔又は音声を検知する対象検知手段、
    前記嗜好データ記憶手段に記憶された前記嗜好データと、前記対象検知手段により検知された前記所定の対象の顔又は音声と、の類似度を算出する類似度算出手段、
    前記類似度算出手段により算出された前記類似度に応じた所定の動作を前記ロボットに実行させる動作制御手段、
    として機能させる、
    ことを特徴とするプログラム。
JP2018117797A 2018-06-21 2018-06-21 ロボット、ロボットの制御方法及びプログラム Active JP7326707B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018117797A JP7326707B2 (ja) 2018-06-21 2018-06-21 ロボット、ロボットの制御方法及びプログラム
CN201910537480.8A CN110625608A (zh) 2018-06-21 2019-06-20 机器人、机器人的控制方法以及存储介质
US16/447,613 US11485021B2 (en) 2018-06-21 2019-06-20 Robot, robot control method, and recording medium
US17/952,677 US11780098B2 (en) 2018-06-21 2022-09-26 Robot, robot control method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018117797A JP7326707B2 (ja) 2018-06-21 2018-06-21 ロボット、ロボットの制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2019217605A JP2019217605A (ja) 2019-12-26
JP7326707B2 true JP7326707B2 (ja) 2023-08-16

Family

ID=68968712

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018117797A Active JP7326707B2 (ja) 2018-06-21 2018-06-21 ロボット、ロボットの制御方法及びプログラム

Country Status (3)

Country Link
US (2) US11485021B2 (ja)
JP (1) JP7326707B2 (ja)
CN (1) CN110625608A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021154393A (ja) * 2018-07-12 2021-10-07 ソニーグループ株式会社 制御装置、制御方法、及びプログラム
US11386888B2 (en) * 2020-07-17 2022-07-12 Blue Ocean Robotics Aps Method of adjusting volume of audio output by a mobile robot device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001179665A (ja) 1999-12-24 2001-07-03 Toshiba Corp 知的ロボット
JP2002018147A (ja) 2000-07-11 2002-01-22 Omron Corp 自動応答機器
JP2004066418A (ja) 2002-08-08 2004-03-04 Victor Co Of Japan Ltd 自律ロボット
JP2012519501A (ja) 2009-03-05 2012-08-30 ステレンボッシュ ユニバーシティ 懐く挙動を示す玩具
JP2017042883A (ja) 2015-08-27 2017-03-02 シャープ株式会社 ロボット、ロボット販売システム、ロボットの制御方法、およびプログラム。
WO2017175559A1 (ja) 2016-04-08 2017-10-12 Groove X株式会社 人見知りする自律行動型ロボット

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001105363A (ja) * 1999-08-04 2001-04-17 Yamaha Motor Co Ltd ロボットにおける自律的行動表現システム
KR100864339B1 (ko) * 2000-10-13 2008-10-17 소니 가부시끼 가이샤 로봇 장치 및 로봇 장치의 행동 제어 방법
US7113848B2 (en) * 2003-06-09 2006-09-26 Hanson David F Human emulation robot system
WO2007041295A2 (en) * 2005-09-30 2007-04-12 Irobot Corporation Companion robot for personal interaction
JP4435212B2 (ja) 2007-06-19 2010-03-17 本田技研工業株式会社 姿勢認識装置及び自律ロボット
CN101618542A (zh) * 2009-07-24 2010-01-06 塔米智能科技(北京)有限公司 一种智能机器人迎宾***和方法
WO2012172721A1 (ja) * 2011-06-14 2012-12-20 パナソニック株式会社 ロボット装置、ロボット制御方法、及びロボット制御プログラム
US9870716B1 (en) * 2013-01-26 2018-01-16 Ip Holdings, Inc. Smart glasses and smart watches for real time connectivity and health
US20150314454A1 (en) * 2013-03-15 2015-11-05 JIBO, Inc. Apparatus and methods for providing a persistent companion device
CN105637512B (zh) * 2013-08-22 2018-04-20 贝斯普客公司 用于创造定制产品的方法和***
US10929661B1 (en) * 2013-12-19 2021-02-23 Amazon Technologies, Inc. System for user identification
JP2016052697A (ja) * 2014-09-03 2016-04-14 インターマン株式会社 人型ロボット
US10366689B2 (en) * 2014-10-29 2019-07-30 Kyocera Corporation Communication robot
US9801517B2 (en) * 2015-03-06 2017-10-31 Wal-Mart Stores, Inc. Shopping facility assistance object detection systems, devices and methods
US10124491B2 (en) * 2015-08-31 2018-11-13 Avaya Inc. Operational parameters
CN105234945A (zh) * 2015-09-29 2016-01-13 塔米智能科技(北京)有限公司 一种基于网络语音对话及体感互动的迎宾机器人
WO2017056194A1 (ja) * 2015-09-29 2017-04-06 株式会社 東芝 情報機器または情報通信端末および、情報処理方法
JP6693111B2 (ja) * 2015-12-14 2020-05-13 カシオ計算機株式会社 対話装置、ロボット、対話方法及びプログラム
EP3345379B1 (en) * 2015-12-23 2022-01-26 Samsung Electronics Co., Ltd. Method for electronic device to control object and electronic device
CN107020637A (zh) * 2016-01-29 2017-08-08 深圳光启合众科技有限公司 宠物机器人的情绪表达方法及宠物机器人
JP2017175559A (ja) * 2016-03-25 2017-09-28 キヤノン株式会社 表示制御装置、システム、表示制御方法及びプログラム
US10286558B1 (en) * 2016-04-19 2019-05-14 Boston Incubator Center, LLC Autonomous robotic vehicles for mobile storage and trash collection applications
US10532268B2 (en) * 2016-05-02 2020-01-14 Bao Tran Smart device
WO2017218586A1 (en) * 2016-06-13 2017-12-21 Gamma2Robotics Methods and systems for reducing false alarms in a robotic device by sensor fusion
CN109414824B (zh) * 2016-07-08 2022-07-26 Groove X 株式会社 穿衣服的行为自主型机器人
WO2018117704A1 (en) * 2016-12-23 2018-06-28 Samsung Electronics Co., Ltd. Electronic apparatus and operation method thereof
US10467509B2 (en) * 2017-02-14 2019-11-05 Microsoft Technology Licensing, Llc Computationally-efficient human-identifying smart assistant computer
US10521344B1 (en) * 2017-03-10 2019-12-31 Pure Storage, Inc. Servicing input/output (‘I/O’) operations directed to a dataset that is synchronized across a plurality of storage systems
CN107030691B (zh) * 2017-03-24 2020-04-14 华为技术有限公司 一种看护机器人的数据处理方法及装置
US10850398B2 (en) * 2017-05-11 2020-12-01 Misty Robotics, Inc. Infinite robot personalities
US11100042B2 (en) * 2017-05-18 2021-08-24 Geoffrey Bourgeois Methods and systems relating to network based storage
US11446810B1 (en) * 2017-06-05 2022-09-20 Amazon Technologies, Inc. Robotic assistant
US20210197393A1 (en) * 2017-12-22 2021-07-01 Sony Corporation Information processing device, information processing method, and program
US11017317B2 (en) * 2017-12-27 2021-05-25 X Development Llc Evaluating robot learning
US10878294B2 (en) * 2018-01-05 2020-12-29 Irobot Corporation Mobile cleaning robot artificial intelligence for situational awareness
US10926408B1 (en) * 2018-01-12 2021-02-23 Amazon Technologies, Inc. Artificial intelligence system for efficiently learning robotic control policies
US10754343B2 (en) * 2018-02-15 2020-08-25 X Development Llc Semantic mapping of environments for autonomous devices
CA3098172A1 (en) * 2018-04-26 2019-10-31 C2Ro Cloud Robotics Inc. System and method for scalable cloud-robotics based face recognition and face analysis
US10471591B1 (en) * 2018-06-01 2019-11-12 X Development Llc Object hand-over between robot and actor
US11583997B2 (en) * 2018-09-20 2023-02-21 Sony Group Corporation Autonomous robot

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001179665A (ja) 1999-12-24 2001-07-03 Toshiba Corp 知的ロボット
JP2002018147A (ja) 2000-07-11 2002-01-22 Omron Corp 自動応答機器
JP2004066418A (ja) 2002-08-08 2004-03-04 Victor Co Of Japan Ltd 自律ロボット
JP2012519501A (ja) 2009-03-05 2012-08-30 ステレンボッシュ ユニバーシティ 懐く挙動を示す玩具
JP2017042883A (ja) 2015-08-27 2017-03-02 シャープ株式会社 ロボット、ロボット販売システム、ロボットの制御方法、およびプログラム。
WO2017175559A1 (ja) 2016-04-08 2017-10-12 Groove X株式会社 人見知りする自律行動型ロボット

Also Published As

Publication number Publication date
US11780098B2 (en) 2023-10-10
CN110625608A (zh) 2019-12-31
US20190389071A1 (en) 2019-12-26
US20230016899A1 (en) 2023-01-19
JP2019217605A (ja) 2019-12-26
US11485021B2 (en) 2022-11-01

Similar Documents

Publication Publication Date Title
JP6572943B2 (ja) ロボット、ロボットの制御方法及びプログラム
JP7400923B2 (ja) 情報処理装置および情報処理方法
JP7205148B2 (ja) ロボット、制御方法、及び、プログラム
US11780098B2 (en) Robot, robot control method, and recording medium
US20230266767A1 (en) Information processing apparatus, information processing method, and program
US11325262B2 (en) Robot, robot control system, robot control method, and non-transitory storage medium
US11969876B2 (en) Robot and control method of robot
US20210023704A1 (en) Information processing apparatus, information processing method, and robot apparatus
JP2022113701A (ja) 機器の制御装置、機器、機器の制御方法及びプログラム
JP2024009862A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2019168925A (ja) ロボット、ロボットの制御方法及びプログラム
US20220288791A1 (en) Information processing device, information processing method, and program
US11938625B2 (en) Information processing apparatus, information processing method, and program
WO2023037608A1 (ja) 自律移動体、情報処理方法、及び、プログラム
WO2023037609A1 (ja) 自律移動体、情報処理方法、及び、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221017

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230425

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230425

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230508

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230717

R150 Certificate of patent or registration of utility model

Ref document number: 7326707

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150