JP4815940B2 - ロボット制御システム、ロボット装置、およびロボット制御方法 - Google Patents

ロボット制御システム、ロボット装置、およびロボット制御方法 Download PDF

Info

Publication number
JP4815940B2
JP4815940B2 JP2005236325A JP2005236325A JP4815940B2 JP 4815940 B2 JP4815940 B2 JP 4815940B2 JP 2005236325 A JP2005236325 A JP 2005236325A JP 2005236325 A JP2005236325 A JP 2005236325A JP 4815940 B2 JP4815940 B2 JP 4815940B2
Authority
JP
Japan
Prior art keywords
robot
viewer
motion
viewers
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005236325A
Other languages
English (en)
Other versions
JP2007050461A (ja
Inventor
新 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2005236325A priority Critical patent/JP4815940B2/ja
Publication of JP2007050461A publication Critical patent/JP2007050461A/ja
Application granted granted Critical
Publication of JP4815940B2 publication Critical patent/JP4815940B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、ロボット制御システム、ロボット装置、およびロボット制御方法に関する。
特許文献1には、音源から発せられた音を検出する音検出手段を有し、呼びかけた人の方向に視線を向けたり、対面者の顔を認識したり、いくつかの命令に応じた行動をとることができる自律行動ロボットが開示されている。
特許文献2には、広告情報を蓄積する情報管理基地局に無線または有線を経由してロボットを接続し、ユーザ状況判断部によりユーザがいかなる状況にあるかを判断し、判断結果のユーザ状況に適した広告情報を情報管理基地局から広告情報入手部により入手し、広告情報提示手段によりユーザに提示する技術が開示されている。
特許文献3には、ユーザ情報を記憶するユーザ情報記憶手段と、ロボットに広告動作を実行させるための動作情報の中から、ユーザ情報記憶手段に記憶されているユーザ情報に対応する動作情報を選択する選択手段と、選択手段により選択された動作情報を、ネットワークを介して情報提供装置から取得する取得手段と、連続する入力音声を認識する音声認識手段と、音声認識手段により入力音声が認識されたと判断された場合、取得手段により取得された動作情報に基づいて、ロボットが広告動作を実行するように制御する広告動作制御手段と、を備えるロボット制御装置が開示されている。
特開2003−62777号公報 特開2004−17200号公報 特開2004−302328号公報
しかし、従来、ロボットがユーザに対して一方的に説明を行っていたために、ユーザの印象に残らなかったりして、効果的な説明を行うことができなかった。
本発明は上記事情を踏まえてなされたものであり、本発明の目的は、ロボットが、印象に残るような説明を行うようにする技術を提供することにある。
本発明によれば、
説明を行うロボットを制御するロボット制御システムであって、
前記ロボットの近傍にいる視聴者の数を把握する視聴者状況把握部と、
前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶部と、
前記視聴者状況把握部が把握した前記視聴者の数に基づき、前記動作パターン記憶部から、いずれかの前記動作パターンを選択する動作パターン選択部と、
前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの動作を決定する動作決定部と、
を含むロボット制御システムが提供される。
本発明によれば、
説明を行うロボットを制御するロボット制御方法であって、
前記ロボットの近傍にいる視聴者の数を把握するステップと、
前記視聴者の数を把握するステップで把握された前記視聴者の数に基づき、前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶部から、いずれかの前記動作パターンを選択するステップと、
前記動作パターンを選択するステップで選択された前記動作パターンに基づき、前記ロボットの動作を決定するステップと、
を含むロボット制御方法が提供される。
ここで、ロボットは、音声出力、画像出力、または身振りや手話等の動作、あるいはこれらの組合せ等により説明を行うことができる。また、説明は、発表、案内、宣伝、プレゼンテーション、教育、視聴者とのコミュニケーション等、ロボットが視聴者に何らかの情報を意思表示したり伝達することとすることができる。ロボットの近傍とは、たとえばロボットが出力する音声が聞こえるような範囲や、ロボットの画像出力や動作が見えるような範囲等、視聴者がロボットの説明を把握することができる範囲とすることができる。このようにすれば、ロボットの近傍にいる視聴者の数に応じて、ロボットが説明を行う際に、ロボットが視聴者に適切な動作を行うようにすることができる。これにより、ロボットの説明が視聴者の印象に残るようにすることができる。
ここで、ロボットは、ロボット装置とすることもでき、またキャラクタで示される仮想ロボットとすることもできる。また、ロボットは、音声認識機能を有する対話型ロボットとすることができる。
本発明のロボット制御システムにおいて、前記動作パターンは、前記ロボットの前記視聴者への視線を制御する視線動作パターンとすることができ、前記視聴者状況把握部は、前記視聴者の前記ロボットに対する位置も把握することができ、前記動作決定部は、前記視聴者の位置および前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの前記視聴者への視線動作を決定することができる。
ここで、視線動作パターンは、ロボットの視線を向けるアイコンタクトポイント、各アイコンタクトポイントにロボットの視線を向ける頻度、および各アイコンタクトポイントにロボットの視線を向ける時間等の設定情報を含むことができる。このようにすれば、ロボットの近傍や周囲にいる視聴者の数に応じて、ロボットが説明を行う際に、ロボットが視聴者に適切なアイコンタクト等の視線動作を行うようにすることができる。これにより、ロボットの説明が視聴者の印象に残るようにすることができる。なお、動作決定部は、たとえば、ロボットの視線モーションを生成する視線モーション生成部とすることができる。
本発明のロボット制御システムにおいて、前記動作決定部は、前記視聴者の位置および前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの視線を向けるアイコンタクトポイントを決定することができる。
このようにすれば、ロボットが視聴者の方向に視線を向けるようにすることができ、ロボットが視聴者に適切なアイコンタクト等の視線動作を行うようにすることができる。ここで、動作決定部は、視聴者の位置に基づき、視聴者の目の位置を推定し、視聴者の目の位置をロボットの視線を向けるアイコンタクトポイントと決定することもできる。
本発明のロボット制御システムにおいて、前記動作パターンは、前記アイコンタクトポイントに前記ロボットの視線を向ける頻度および当該アイコンタクトポイントに前記ロボットが視線を向ける時間の設定を含むことができ、前記動作決定部は、前記動作パターン選択部が選択した前記動作パターンに基づき、設定された前記頻度および前記時間通りに前記ロボットの視線を前記アイコンタクトポイントに向ける視線動作を決定することができる。
これにより、たとえばロボット近傍の視聴者の数が少ない場合、ロボットが各アイコンタクトポイントに長い時間視線を向けるような丁寧なアイコンタクト動作を行ったり、ロボット近傍の視聴者の数が多い場合、ロボットが各アイコンタクトポイントに視線を向ける時間を短くして、多数の視聴者にまんべんなく視線を向けるようにしたり等、適宜調整することができる。
本発明のロボット制御システムにおいて、前記ロボットは、首、胴体、または目の少なくとも一つが移動可能に構成することができ、前記動作決定部は、前記ロボットが前記視線動作を行うように、前記ロボットの前記首、前記胴体、または前記目の一つ以上の動きを決定することができる。
このようにすれば、ロボットが視聴者に適切なアイコンタクト等の視線動作を行うようにすることができる。
本発明のロボット制御システムにおいて、前記動作パターン記憶部は、前記ロボットが、前記視聴者それぞれを動作対象とする第1の動作パターンと、前記視聴者をグループ分けした各グループを動作対象とする第2の動作パターンと、を記憶することができ、前記動作パターン選択部は、前記視聴者状況把握部が把握した前記視聴者の数が所定数以下の場合に前記第1の動作パターンを選択し、前記数が前記所定数より多い場合に前記第2の動作パターンを選択することができる。
ここで、動作パターンが視線動作パターンの場合、第1の動作パターンは、ロボットが、視聴者それぞれをロボットの視線を向けるアイコンタクトポイントとする設定を含み、第2の動作パターンは、ロボットが、視聴者をグループ分けした各グループをロボットの視線を向けるアイコンタクトポイントとする設定を含むようにすることができる。
本発明のロボット制御システムにおいて、前記視聴者状況把握部は、前記視聴者の数の変化を検出することができ、前記動作パターン選択部は、前記視聴者状況把握部が前記視聴者の数の変化を検出すると、新たな数に対応する前記動作パターンを選択することができ、前記動作決定部は、前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの動作を決定することができる。
このようにすれば、ロボットが説明している間に、ロボットの近傍の視聴者の数が変わった場合に、その数に応じて動作パターンを選択しなおすことができ、適宜、ロボットの説明が視聴者の印象に残るようにすることができる。
本発明のロボット制御システムは、所定の条件を満たす視聴者を特別な動作対象とするか否かの設定を記憶する設定記憶部をさらに含むことができ、前記動作パターン記憶部は、前記所定の条件を満たす視聴者を動作対象とする特別な動作パターンを、前記所定の条件に対応付けて記憶することができ、前記視聴者状況把握部は、前記視聴者の中から前記所定の条件を満たす視聴者を検出することができ、前記動作パターン選択部は、前記視聴者状況把握部が前記所定の条件を満たす視聴者を検出した場合であって、前記設定記憶部に前記所定の条件を満たす視聴者を前記特別な動作対象とすることが設定されている場合、当該所定の条件に対応する前記特別な動作パターンを選択することができる。
ここで、所定の条件とは、たとえばロボットが説明中に新たに加わった新規視聴者が所定数以上把握された場合、ロボットの近傍に所定時間以上いる長時間視聴者が把握された場合、またはロボットの説明等を熱心に聞いていると判断されるアクティブ視聴者が把握された場合等とすることができる。また、動作パターンが視線動作パターンの場合、特別な動作パターンは、所定の条件を満たす視聴者を、他の視聴者とは区別して、ロボットの視線を向けるアイコンタクトポイントとする設定を含むようにすることができる。また、ロボットは、所定の条件を満たす視聴者に、説明のサマリを発話したりすることもできる。
本発明のロボット制御システムは、前記ロボットが実行した前記動作パターンに対する前記視聴者の反響を、前記動作パターンを示す情報に対応付けて取得する反響取得部と、前記反響取得部が取得した前記反響を前記動作パターン毎に集計する反響集計部と、をさらに含むことができ、前記動作パターン選択部は、複数の前記動作パターンの反響を比較し、反響の高い前記動作パターンを前記ロボットが実行する動作パターンとして優先的に選択することができる。
ここで、反響とは、たとえば集客効率や販売効率等とすることができる。また、視聴者の理解度の高低とすることもできる。このようにすれば、ロボットの近傍にいる視聴者の数に応じて、ロボットの動作を適切に選択することができるとともに、反響の高い動作を選択することができるので、ロボットの説明がより効果的に視聴者の印象に残るようにすることができる。
本発明のロボット制御システムにおいて、反響取得部は、複数のロボットそれぞれが実行した動作パターンに対する視聴者の反響を、それぞれ、動作パターンを示す情報に対応付けて取得することができ、反響集計部は、これらの反響を集計することができる。反響集計部が集計した結果は、複数のロボットで共有することができる。これにより、反響の高かった動作パターンを、複数のロボット間で共有したり、複数のロボットにフィードバックしたりすることができる。
本発明のロボット制御システムは、前記ロボットに再生させる発話ファイルおよびモーションファイルを記憶するコンテンツ記憶部と、前記コンテンツ記憶部から、指定された前記発話ファイルおよび前記モーションファイルを読み出し、前記ロボットに再生させるコンテンツ再生部と、をさらに含むことができ、前記動作決定部は、前記動作パターンに基づき決定する前記動作が、前記コンテンツ再生部が読み出した前記モーションファイルの再生により実行される前記ロボットの動作と矛盾する場合、前記モーションファイルの再生により実行される前記ロボットの動作を優先的に前記ロボットに行わせることができる。
このようにすれば、予め設定されたロボットの動作と矛盾しないように、動作パターンに基づき、ロボットの動作を決定することができる。
動作パターン記憶部は、たとえばロボットがある説明等を行う際に、ロボットが説明する内容自体は同じであるが、そのときのロボットの身振り等の動作や、ロボットのしゃべり方等を変化させる説明ルールを記憶することができる。
本発明によれば、
上記いずれかに記載のロボット制御システムと、
前記動作決定部が決定した前記動作を実行する動作実行部と、
を含むことを特徴とするロボット装置が提供される。
ここで、ロボット装置は自律移動型または対話型とすることができる。また、ロボット装置は、音声出力機能を有することができる。
本発明のロボット制御方法において、前記動作パターンは、前記ロボットの前記視聴者への視線を制御する視線動作パターンであって、ロボット制御方法は、前記視聴者の前記ロボットに対する位置を把握するステップをさらに含むことができ、前記ロボットの動作を決定するステップにおいて、前記視聴者の位置および前記動作パターンを選択するステップで選択された前記動作パターンに基づき、前記ロボットの前記視聴者への視線動作を決定することができる。
本発明のロボット制御方法において、前記ロボットの動作を決定するステップは、前記視聴者の位置および前記動作パターンを選択するステップで選択された前記動作パターンに基づき、前記ロボットの視線を向けるアイコンタクトポイントを決定するステップを含むことができる。
本発明のロボット制御方法において、前記動作パターンは、前記アイコンタクトポイントに前記ロボットの視線を向ける頻度および当該アイコンタクトポイントに前記ロボットが視線を向ける時間の設定を含むことができ、前記ロボットの動作を決定するステップにおいて、前記動作パターンを選択するステップで選択された前記動作パターンに基づき、設定された前記頻度および前記時間通りに前記ロボットの視線を前記アイコンタクトポイントに向ける視線動作を決定することができる。
本発明のロボット制御方法において、前記ロボットは、首、胴体、または目の少なくとも一つが移動可能に構成することができ、前記ロボットの動作を決定するステップにおいて、前記ロボットが前記視線動作を行うように、前記ロボットの前記首、前記胴体、または前記目の一つ以上の動きを決定することができる。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラム等の間で変換したものもまた、本発明の態様として有効である。
本発明によれば、ロボットが、印象に残るような説明を行うようにすることができる。
次に、発明を実施するための最良の形態について図面を参照して詳細に説明する。なお、以下の図面において、本発明の本質に関わらない部分の構成は省略する。また、同様の構成要素には同様の符号を付し、適宜説明を省略する。
以下の本発明の実施の形態において、ロボットは、たとえば屋内や屋外の商用スペース等で商品等の説明を行う。本実施の形態におけるロボット制御システムは、ロボットがユーザに印象深く内容を伝えるようにロボットの動作を制御する。
(第1の実施の形態)
本実施の形態において、ロボット制御システムは、音声出力可能で、音声出力により説明を行うロボットを制御する。ロボット制御システムは、ロボットの近傍や周囲にいる人(以下、視聴者という)の数や位置に応じて、ロボットが音声出力により説明を行う際に、音声出力とともに、ロボットが視聴者に対して行う動作パターンを選択し、ロボットの動作を決定する。本実施の形態において、動作パターンは、ロボットの視聴者への視線を制御する視線動作パターンとすることができる。
たとえば、視聴者が4人程度の少人数であれば、ロボットがすべての人にアイコンタクトとりながら説明を行うようにする。また、たとえば、視聴者が10人以上の大人数であれば、それらの視聴者を左右のグループに分け、ロボットがそれぞれのグループに交互にアイコンタクトをとりながら説明を行うようにする。また、たとえば、新たに加わった新規視聴者等がいる場合、ロボットが新規視聴者に集中的にアイコンタクトをしたり、サマリの説明をしたりするようにする。これにより、視聴者に対して、ロボットの説明を印象深くすることができる。また、ロボットがアイコンタクトを行うことにより、視聴者が一定の緊張感を持って集中してロボットの説明を聞くようにすることができる。
図1は、本実施の形態におけるロボット制御システムの構成の一例を示すブロック図である。
ロボット制御システム100は、視聴者状況取得部101、視聴者状況把握部102、動作パターン選択部104、シナリオ読込部106、視線モーション生成部108(動作決定部)、コンテンツ再生部110、動作パターン記憶部112、シナリオ記憶部114、視聴者状況記憶部116およびコンテンツ記憶部118を含む。
ここで、ロボット制御システム100が制御するロボットは、自律移動可能なロボット装置とすることもでき、キャラクタで示される仮想ロボットとすることもできる。いずれの場合でも、ロボットは、首、胴体、または目の少なくとも一つが移動可能に構成される。ロボットがロボット装置の場合、ロボット制御システム100は、ロボット装置内に組み込まれてもよく、ロボット装置外部に設けられ、外部からロボット装置を制御するようにすることもできる。また、ロボット制御システム100の一部のみがロボット装置内に組み込まれた構成とすることもできる。ロボット制御システム100がロボット装置外部に設けられた場合、無線通信等の種々のネットワークを介して、ロボット装置に制御信号が送信される。また、ロボット制御システム100の一部のみがロボット装置内に組み込まれ、残りがロボット装置外部に設けられた場合、それらの間のデータの授受も、無線通信等の種々のネットワークを介して行うことができる。たとえば、本実施の形態において、視聴者状況取得部101のみロボット装置外部に設け、それ以外の構成をロボット装置内に組み込んだ構成とすることができる。ロボット装置の構成は後述する。
視聴者状況取得部101は、ロボットの近傍や周囲にいる視聴者の情報を取得する。視聴者状況取得部101は、たとえば、カメラ、温度センサ等の人体検知センサ、超音波タグセンサ、無線タグセンサ等により構成することができる。
視聴者状況把握部102は、視聴者状況取得部101が取得した視聴者の情報を解析し、ロボットの近傍にいる視聴者の数、およびそれらの視聴者のロボットに対する位置を把握する。
以下、図2を参照して、視聴者状況把握部102が画像認識により視聴者の数や位置を把握する処理を説明する。ここで、視聴者状況取得部101は、ロボットの前方を撮影可能なカメラとすることができる。
図2(a)に示すように、視聴者状況把握部102は、視聴者状況取得部101が取得した画像から顔と識別される領域を抜き出す顔検出を行う。つづいて、視聴者状況把握部102は、検出した顔画像の大きさおよび形状、視聴者状況取得部101の位置、ならびにロボットの位置に基づき、ロボットの近傍にいる視聴者の数、各視聴者のロボットに対する位置(角度および距離)を推定する。その結果、たとえば図2(b)に示すように、各視聴者のロボットに対する位置の推定結果が得られる。ここでは、A、B、C、Dの4人の視聴者が把握されている。
また、ここで、視聴者状況把握部102は、視聴者状況取得部101が取得した画像に基づき、利用者の性別や年齢等の推定を行うこともできる。また、予め視聴者の顔画像と、その属性情報との対応データ等を取得しておき、視聴者状況把握部102により、顔認識を行い、個人認証を行ってもよい。
図1に戻り、視聴者状況取得部101は、タグリーダとすることもできる。たとえば、予め視聴者に識別情報や属性情報を記憶したタグを付与しておくことができる。この場合、視聴者状況把握部102は、視聴者状況取得部101により、タグから情報を読み取ることにより、ロボットの近傍にいる視聴者の数、各視聴者のロボットに対する位置を推定することができる。ここで、タグは、たとえば超音波タグとすることができ、視聴者状況取得部101は、超音波タグから情報を読み取るタグリーダとすることができる。この場合、各視聴者に取り付けるタグの位置を、たとえば胸等所定の場所に設定しておくことにより、視聴者状況把握部102は、視聴者状況取得部101が取得したタグの位置から、その人の目の位置を推定することができる。また、タグに各視聴者の年齢等の属性情報を記憶しておくことにより、たとえば胸から目までの距離を推定することができる。たとえば、視聴者が子供(年齢6歳から12歳等)の場合、タグの位置から上約30cmに目の位置があると推定することができる。この場合も、視聴者の属性情報を読み出し、個人認証を行うことができる。
また、視聴者状況取得部101は、タグリーダとカメラとを併用した構成とすることもできる。
視聴者状況把握部102は、把握した視聴者の数や位置等の視聴者状況を視聴者状況記憶部116に記憶する。視聴者状況把握部102は、視聴者状況取得部101が取得する情報および視聴者状況記憶部116に記憶された情報に基づき、視聴者状況の変化も検出する。
シナリオ記憶部114は、ロボットの振る舞いについて記載されたシナリオを記憶する。シナリオは、たとえば、ロボットに再生させるべきモーションファイルや発話ファイル、およびその再生手段等が記述されたプログラムとすることができる。ここで、モーションファイルは、ロボットのモーションを示す。発話ファイルは、ロボットの発話を示す。
また、本実施の形態において、シナリオは、視線制御のオンオフの設定も含む。本実施の形態において、視線制御とは、モーションファイルの動作とは別に、ロボットが音声出力等の説明をする際に、ロボットに視聴者に対してアイコンタクトをとる動作を行わせる処理のことである。モーションファイルに視線モーションが含まれる場合は、視線制御はオフとなるように設定される。視線モーションとは、ロボットの視線を所定の方向に向けたりする動作のことである。たとえば、ロボットにある商品の説明をさせる場合、ロボットが商品の方を向いて商品を指差すというモーションファイルが指定されている場合がある。このような場合は、モーションファイルに、「商品の方を向く」という視線モーションが含まれるため、視線制御がオフとなるように設定される。このようにすれば、モーションファイルで指定された動作と矛盾するような視線制御が行われないようにすることができる。
図3は、シナリオ記憶部114に記憶されたシナリオの一例を示す図である。ここでは、シナリオ記憶部114は、モーションファイルや発話ファイルを指定し、順番に再生していくためのスクリプト言語を記憶している。
このシナリオのシナリオ名は「あいさつ」である。また、このシナリオ再生時には、ロボットの近傍にいる視聴者の数が2以下の場合動作パターン「001」が選択され、視聴者の数が3以上20以下の場合に動作パターン「002」が選択され、視聴者の数が21以上の場合に動作パターン「003」が選択されるよう設定されている。
図1に戻り、シナリオ読込部106は、設定またはユーザの指示に従い、シナリオ記憶部114からシナリオを選択し、それを読み込む。シナリオ読込部106は、シナリオ記憶部114から読み込んだシナリオに従い、コンテンツ再生部110および視線モーション生成部108に指示を行う。本実施の形態において、シナリオ読込部106は、シナリオ記憶部114から読み出したシナリオにおいて、視線制御がオンと設定されている場合、視線モーション生成部108に通知を行う。
コンテンツ記憶部118は、モーションファイルおよび発話ファイルを記憶する。コンテンツ再生部110は、シナリオ読込部106の指示を受け、コンテンツ記憶部118から該当するモーションファイルや発話ファイルを読み出し、ロボットのモーション再生のためのメカ駆動コマンドやロボットの発話コマンドを発行してシナリオ再生を実行する。
動作パターン選択部104は、視聴者状況把握部102が把握した視聴者の数およびシナリオ読込部106が読み込んだシナリオに基づき、動作パターン記憶部112からロボットの動作パターンを選択する。
動作パターン記憶部112には、ロボットが説明を行う際に、効果的なアイコンタクトが実行できるような動作パターンが記憶される。本実施の形態において、動作パターンは、ロボットの視聴者への視線を制御する視線動作パターンである。たとえば、ロボット近傍の視聴者の数が少人数の場合は丁寧にアイコンタクトを行い、視聴者の数が増えたら大勢に対してアイコンタクトを行う等のルールが記憶される。ここで、たとえば視聴者の数が所定数以下の場合、ロボットは、視聴者一人一人をアイコンタクトポイントとして、アイコンタクトを行うようにすることができる。一方、視聴者の数が所定数より多い場合、ロボットは、視聴者をいくつかのグループに分けて、各グループを一つのアイコンタクトポイントとして、アイコンタクトを行うようにすることができる。
動作パターン記憶部112には、ロボットの視線を向けるアイコンタクトポイント、そのポイントにどの程度の頻度で、どの程度の時間視線を向けるか等が記憶される。また、動作パターン記憶部112には、たとえば、新規視聴者、長時間視聴者、またはアクティブ視聴者等への優遇動作を行うか否かの設定等も記憶される。本実施の形態において、動作パターン記憶部112は、所定の条件を満たす視聴者を特別な動作対象とするか否かの設定を記憶する設定記憶部としても機能する。他の例において、設定記憶部は、動作パターン記憶部112とは別に設けられてもよい。ここで、新規視聴者とは、視聴者状況把握部102により、新たにロボットの近傍に来たことが把握された視聴者のことである。長時間視聴者とは、視聴者状況把握部102により、ある程度の時間以上ロボットの近傍にいることが把握された視聴者のことである。また、アクティブ視聴者とは、視聴者状況把握部102により、たとえばうなずいている等、ロボットの説明を積極的に聞いていると判断された視聴者のことである。
アクティブ視聴者か否かの判断は、たとえば視聴者状況取得部101がカメラの場合、視聴者状況把握部102による画像認識により、人の顔の位置の変化に基づき、うなずきを確認して判断することができる。視聴者状況把握部102は、ロボットの近傍にいる視聴者のうち、たとえばうなずいている人や、ロボットに対するアイコンタクト回数や時間が多い人、または肯定的な声を発している視聴者等を認識し、アクティブ視聴者か否かの判断を行うことができる。
図4は、動作パターン記憶部112の内部構成の一例を示す図である。
動作パターン記憶部112は、動作パターン欄、アイコンタクトポイント欄、移動順序/頻度欄、アイコンタクト時間(秒)欄、新規視聴者優遇欄、長時間視聴者優遇欄、およびアクティブ視聴者優遇欄を含む。
動作パターン欄には、動作パターン名が記憶される。アイコンタクトポイント欄には、ロボットがアイコンタクトをするアイコンタクトポイントの数やアイコンタクトポイントとなる視聴者の種類の定義等が記憶される。移動順序/頻度欄には、ロボットが各アイコンタクトポイントに視線を向ける順序、および頻度が記憶される。アイコンタクト時間欄には、ロボットが各アイコンタクトポイントに視線を向ける時間(秒)が記憶される。
また、新規視聴者優遇欄、長時間視聴者優遇欄、およびアクティブ視聴者優遇欄には、それぞれ、新規視聴者、長時間視聴者、およびアクティブ視聴者への優遇を行うか否かが記憶される。
たとえば、動作パターン「001」では、アイコンタクトポイントが「n」となっている。ここで、「n」とは、視聴者状況把握部102により把握された視聴者の数である。動作パターン「001」では、視聴者一人一人がアイコンタクトポイントとして設定される。また、各アイコンタクトポイントには、1カ所2秒間で全アイコンタクトポイントに順番にアイコンタクトが行われるように設定されている。さらに、新規視聴者優遇およびアクティブ視聴者優遇は行われないように設定されている。一方、長時間視聴者優遇が行われるように設定されている。ここでは、2分以上ロボットの近傍にいる視聴者が長時間視聴者で、このような長時間視聴者がいた場合、動作パターンが「001」から「L001」に移行するよう設定されている。
また、たとえば、動作パターン「002」では、アイコンタクトポイントが「n」となっている。動作パターン「002」では、視聴者一人一人がアイコンタクトポイントとして設定される。また、移動順序/頻度欄に「ランダム(1/3回)」と記憶されている。ここでは、各アイコンタクトポイントには、1カ所1.3秒間でランダムに1/3回の頻度でアイコンタクトが行われるように設定されている。
また、たとえば、動作パターン「003」では、アイコンタクトポイントが「n/5」となっている。つまり、視聴者の数がnのときに、これらの視聴者が5つのグループに分類され、各グループが一つのアイコンタクトポイントとして設定される。また、各アイコンタクトポイントには、1カ所1秒間で全アイコンタクトポイントに順番にアイコンタクトが行われるように設定されている。ここで、新規視聴者優遇、長時間視聴者優遇、およびアクティブ視聴者優遇のいずれも行われないように設定されている。
また、たとえば、動作パターン「L001」では、アイコンタクトポイントが「n(L)+n(F)」となっている。ここで、n(L)とは、視聴者状況把握部102により把握された長時間視聴者の数である。また、n(F)とは、視聴者状況把握部102により把握された視聴者の数から長時間視聴者の数n(L)を引いた数である。動作パターン「L001」では、視聴者一人一人がアイコンタクトポイントとして設定される。また、アイコンタクトポイントは、長時間視聴者に対応するアイコンタクトポイントLとそれ以外の視聴者に対応するアイコンタクトポイントFとが区別して設定される。各アイコンタクトポイントには、全アイコンタクトポイントに順番にアイコンタクトが行われるように設定されている。ここで、1回のアイコンタクトは、アイコンタクトポイントLに対しては3秒、アイコンタクトポイントFに対しては1秒行われるように設定されている。また、この動作パターンが選択されている場合に、2分以上ロボットの近傍にいる視聴者がいる限り、この動作パターンを継続することも設定されている。
また、動作パターン「N001」では、アイコンタクトポイントが「n(N)+n(F)」となっている。ここで、n(N)とは、視聴者状況把握部102により把握された新規視聴者の数である。また、n(F)とは、視聴者状況把握部102により把握された視聴者の数から新規視聴者の数n(N)を引いた数である。また、この動作パターンが選択されている場合、2分間はこの動作パターンを継続することも設定されている。
また、動作パターン「A001」では、アイコンタクトポイントが「n(A)+n(F)」となっている。ここで、n(A)とは、視聴者状況把握部102により把握されたアクティブ視聴者の数である。また、n(F)とは、視聴者状況把握部102により把握された視聴者の数からアクティブ視聴者の数n(A)を引いた数である。また、この動作パターンが選択されている場合に、アクティブ視聴者がロボットの近傍にいる限り、この動作パターンを継続することも設定されている。
図1に戻り、視線モーション生成部108は、シナリオ読込部106の指示を受け、動作パターン選択部104が選択した動作パターンに基づき、視線モーションを生成する。具体的には、視線モーション生成部108は、ロボットが適切な視線動作を行うよう、ロボットの首、胴体、または目(目玉)の一つ以上を移動させるための視線モーションファイルを生成する。視線モーション生成部108は、視聴者状況記憶部116に記憶された視聴者の位置、および動作パターン選択部104が選択した動作パターンに基づき、ロボットの視線を向けるアイコンタクトポイントを決定することができる。また、ロボット制御システム100は、ロボットの目の位置を記憶した記憶部を有することができ、視線モーション生成部108は、ロボットの目の位置も考慮して、ロボットの目がアイコンタクトポイントに向くようにすることができる。たとえば、アイコンタクトポイントが、ロボットから見て左右にあり、順番通りにアイコンタクトを行う動作パターンが設定されている場合、視線モーション生成部108は、ロボットが左右交互に視線を向けるような視線モーションを生成する。
また、動作パターン記憶部112は、アイコンタクトポイントにロボットの視線を向ける頻度および当該アイコンタクトポイントにロボットが視線を向ける時間の設定を含むことができ、視線モーション生成部108は、動作パターン選択部104が選択した動作パターンに基づき、設定された頻度および時間通りにロボットの視線をアイコンタクトポイントに向ける視線モーションを生成することができる。さらに、視線モーション生成部108は、どのアイコンタクトポイントまでアイコンタクトを行ったかを記憶しておき、途中で動作パターンを変えた場合等、次の視線モーション作成の際に利用することができる。
また、視線モーション生成部108は、視線モーション生成前にコンテンツ再生部110により再生されていたモーションと、生成する視線モーションとの間で不可能、または不自然な動きが発生する場合は、ロボットの顔をセンターポジションに戻す視線モーションを生成した後、動作パターン記憶部112に基づく視線モーションを生成する等、適切な視線モーションを生成するようにする。
コンテンツ再生部110は、視線モーション生成部108が生成した視線モーションに基づき、ロボットの視線モーション再生のためのメカ駆動コマンドを発行する。
なお、視聴者状況取得部101は、コンテンツ再生部110がコマンドを発行中も定期的に周囲の視聴者の状況を取得する。視聴者状況把握部102は、視聴者状況取得部101が取得したデータを解析し、ロボットの近傍にいる視聴者の数、およびそれらの視聴者のロボットに対する位置の変化を検出する。ロボットの移動や視聴者の移動等により、ロボットの近傍にいる視聴者の数や位置に変化があった場合、動作パターン選択部104は、新たな状況に応じて、動作パターン記憶部112から動作パターンを選択しなおす。また、視聴者状況把握部102は、アクティブ視聴者を検出すると、動作パターン記憶部112を参照して、そのときに選択されている動作パターンにおいてアクティブ視聴者優遇の設定がされているか否かを判断する。アクティブ視聴者優遇の設定がされている場合、動作パターン選択部104は、アクティブ視聴者優遇用の動作パターンを選択しなおすことができる。
図5は、視聴者状況記憶部116の内部構成の一例を示す図である。
視聴者状況記憶部116は、時刻欄、動作パターン欄、近傍欄、および変化欄を含む。
たとえば、12:35にはロボットの近傍に視聴者aおよび視聴者bがいることが把握されている。このとき、動作パターン「001」が選択される。つづいて、12:36にはロボットの近傍に視聴者a、視聴者b、および視聴者cがいることが把握されている。ここで、前回の記録から、新規視聴者Nとして、変化欄にN(c)が記憶される。このとき、動作パターンは「001」のまま変化しない。次に、12:37にはロボットの近傍に視聴者bおよび視聴者cがいることが把握されている。ここで、視聴者bはロボットの近傍に2分以上いるので、長時間視聴者Lであると把握され、変化欄にL(b)が記憶される。ここで、図4を参照すると、動作パターン「001」が選択されている場合、2分以上ロボットの近傍にいる長時間視聴者がいる場合、動作パターンが「L001」に移行することが設定されている。そのため、動作パターンが「L001」に移行する。
また、以上の実施の形態においては、シナリオ記憶部114に記憶されたシナリオに、動作パターンの番号と、ロボットの近傍にいる視聴者の数の範囲とが対応付けて記述された例を示した。他の例において、シナリオに記述するのではなく、動作パターン記憶部112に、ロボットが近傍にいる視聴者に対して行う動作パターンと、近傍にいる視聴者の数の範囲とを対応付けて記憶することもできる。
また、動作パターン記憶部112は、ロボットの近傍にいる視聴者の数や位置だけでなく、説明が行われている場所、時間帯、これまでの視聴者の増減状況等に対応づけて複数の動作パターンを記憶することができる。たとえば、ロボット近傍の視聴者の数が同じでも、場所や時間帯等に対応づけて、異なる動作パターンを記憶することができる。
図6は、本実施の形態におけるロボット制御システム100の処理手順を示すフローチャートである。
まず、ロボットが初期化され、プログラムがスタートすると、シナリオ読込部106は、シナリオ記憶部114からシナリオを読み込む(S100)。どのシナリオを読み込むかは、設定またはユーザの指示に基づき決定される。
つづいて、視聴者状況取得部101は、視聴者状況を取得する(S102)。視聴者状況把握部102は、視聴者状況取得部101が取得した視聴者状況に基づき、ロボットの近傍にいる視聴者の数および位置を把握する(S104)。視聴者状況把握部102は、把握した情報を視聴者状況記憶部116に記憶する。また、視聴者状況把握部102は、視聴者状況記憶部116を参照し、視聴者の数や位置に変化があったか否かを判断する(S106)。視聴者の数や位置に変化があった場合(S106のYES)、視聴者状況把握部102は、把握した視聴者の数および位置を時間に対応付けて視聴者状況記憶部116に記憶する(S108)。動作パターン選択部104は、視聴者状況把握部102が把握した視聴者の数およびシナリオ読込部106が読み込んだシナリオに基づき、動作パターン記憶部112から動作パターンを選択する(S110)。
つづいて、シナリオ読込部106は、シナリオのコマンドを解釈して(S112)、視線制御がオンか否かを判断する(S114)。ステップS106で変化がない場合(S106のNO)、そのままステップS112に進む。ステップS114で視線制御がオンの場合(S114のYES)、シナリオ読込部106は、視線モーション生成部108に通知を行う。視線モーション生成部108は、視聴者状況記憶部116を参照して、視聴者の数、位置等を取得する。つづいて、視線モーション生成部108は、動作パターン選択部104が選択した動作パターン、視聴者の数、および位置に基づき、視線モーションを生成する(S116)。コンテンツ再生部110は、シナリオ読込部106の指示に基づき、コンテンツ記憶部118から該当するコンテンツデータを読み出し再生するとともに、視線モーション生成部108により視線モーションが生成された場合は、その視線モーションも再生する(S118)。ステップS114で視線制御がオンでない場合(S114のNO)、そのままステップS118に進む。
図示しない制御部は、シナリオ読込部106が読み込んだシナリオが終了したか否かを判断し(S120)、シナリオが終了していない場合は、ステップS102に戻り、視聴者の状況を取得する。ステップS120において、シナリオが終了したと判断された場合(S120のYES)、次のシナリオを読み込むか否かを判断し(S122)、次のシナリオを読み込む場合(S122のYES)、ステップS100に戻り、新たなシナリオを読み込む。一方、ステップS122において、次のシナリオを読み込まない場合(S122のNO)、処理を終了する。
以上のように、本実施の形態におけるロボット制御システム100によれば、ロボットの近傍や周囲にいる視聴者の数に応じて、ロボットが説明を行う際に、ロボットが視聴者に適切なアイコンタクトを行うようにすることができる。これにより、ロボットの説明が視聴者の印象に残るようにすることができる。
(第2の実施の形態)
本実施の形態において、ロボット制御システムは、第1の実施の形態と同様、ロボットの近傍にいる視聴者の数や位置に応じて、ロボットが音声出力による説明を行う際に、音声出力とともに、ロボットが視聴者に対して行う動作パターンを選択する。さらにそれに加えて、ロボット制御システムは、ロボットが実行した動作パターンに対する視聴者の反響を考慮し、反響の高い動作パターンを優先的に選択する。本実施の形態においても、動作パターンは、視線動作パターンとすることができる。
図7は、本実施の形態におけるロボット制御システム100の構成を示すブロック図である。
本実施の形態において、ロボット制御システム100は、第1の実施の形態で説明した構成に加え、さらに反響取得部132、反響集計部134、および反響記憶部142を含む。
反響取得部132は、ロボットが実行した動作パターンに対する視聴者の反響を、動作パターンを示す情報に対応付けて取得する。ここで、反響とは、たとえば集客効率や販売効率、視聴者の理解度の高低等とすることができる。反響集計部134は、反響取得部132が取得した反響を動作パターン毎に集計する。反響取得部132が取得した反響、および反響集計部134が集計した結果は、反響記憶部142に記憶される。
本実施の形態において、動作パターン選択部104は、反響集計部134が集計した結果に基づき、複数の動作パターンの反響を比較し、反響の高い動作パターンをロボットが実行する動作パターンとして選択する。
反響取得部132は、たとえば音声認識により、ロボット近傍にいる視聴者の反響を取得する。反響は、たとえば視聴者の理解度とすることができる。たとえば、ロボットに近傍にいる視聴者に質問させ、質問に対する回答を音声認識することにより、その視聴者がどの程度ロボットの説明を理解しているか等の情報を取得する。
また、反響取得部132は、視聴者状況把握部102が把握した視聴者状況に基づき、ロボットがどの動作パターンの説明をしたときにどの程度の視聴者が集まったか等の情報も取得する。さらに、たとえば、ロボットに、周囲にいる視聴者に対して「○○のお店に行ってね」等の約束を行わせることができる。ロボットは、握手、指きり、対話等により、視聴者と約束することができる。反響取得部132は、ロボットが何人の視聴者と約束したか、またロボットと約束をした視聴者のうち何人がその約束を実行したか等の情報も取得する。
また、ロボットは、約束をする際に、約束した視聴者を何らかの手法で識別することができる。たとえば、ロボットがテーマパーク内に配置される場合、視聴者に入場券を提示させ、入場券の整理番号等により、視聴者を識別することができる。また、たとえば約束した視聴者に識別情報を付したカード等を渡し、その識別情報を記憶しておくこともできる。さらに、視聴者の顔画像を取得することもできる。
また、反響取得部132は、ネットワークと通信可能に構成することができ、ネットワークを介して、他の端末から情報を取得することができる。たとえば、店舗に設置された端末から、商品を購入した人の情報が反響取得部132に送信されるようにすることができる。これにより、反響取得部132は、たとえば約束をした視聴者が実際に商品を購入した場合に、それを把握することができる。反響取得部132は、取得した情報を反響記憶部142に記憶する。
図8は、反響記憶部142の内部構成を示す図である。
反響記憶部142は、動作パターン欄、周囲欄、約束欄、購入欄、反響率欄等を含む。ここで、動作パターン欄には、動作パターン選択部104が選択した動作パターンの識別情報が記憶される。周囲欄には、その動作パターンの説明が行われている際に、どの程度の視聴者がロボットの周囲に集まっていたかが記憶される。約束欄には、その動作パターンの説明が行われている際に、どの程度の視聴者がロボットと約束をしたかが記憶される。また、購入欄には、その動作パターンの説明を聞いた視聴者のうち、どの程度の視聴者が商品を購入したかが記憶される。
たとえば、動作パターン「001」の説明が行われていた際に、周囲には視聴者が30人集まり、約束をした視聴者が10人、購入をした視聴者が6人と記憶されている。また、動作パターン「002」の説明が行われていた際に、周囲には視聴者が10人集まり、約束をした視聴者が1人、購入した視聴者が0人と記憶されている。
反響集計部134は、これらの情報に基づき、反響を集計し、反響率を算出する。ここでは、動作パターン「001」の反響率は「○」で、動作パターン「002」の反響率「△」よりも高くなっている。つまり、動作パターン「001」で説明を行った方が、動作パターン「002」で説明を行った場合よりも、反響率が高くなることが推定される。動作パターン選択部104は、反響集計部134の集計結果に基づき、より反響率が高くなるような動作パターンを優先的に選択する。
本実施の形態におけるロボット制御システム100においても、第1の実施の形態におけるロボット制御システム100と同様の効果が得られる。さらに、本実施の形態において、視聴者の反響に応じて動作パターンが選択されるので、ロボットの説明を効果的に行うことができる。
(第3の実施の形態)
本実施の形態において、ロボット制御システム100は、第2の実施の形態と同様、ロボットが実行した動作パターンに対する視聴者の反響を考慮し、反響の高い動作パターンを優先的に選択する。なお、本実施の形態において、ロボット制御システム100は、複数のロボットが実行した動作パターンに対する視聴者の反響に基づき、反響の高い動作パターンを選択する。これにより、より効果的な動作パターンを、精度よく選択することができる。本実施の形態においても、動作パターンは、視線動作パターンとすることができる。
図9は、本実施の形態におけるロボット制御システム100の構成を示すブロック図である。
ロボット制御システム100は、複数のロボット制御装置100aおよび100b、ならびに動作パターン選択装置300がネットワーク400を介して接続された構成を有する。ロボット制御装置100aおよびロボット制御装置100bは、それぞれロボット装置に組み込まれ、各ロボット装置を制御する。
ネットワーク400は、無線LANや携帯電話等の各種無線環境、LANやWANや電話回線等の各種有線環境、または共有メモリにより実現できる。
ロボット制御装置100aおよびロボット制御装置100bは、同様の構成を有するため、ここではロボット制御装置100aについて説明する。ロボット制御装置100aは、第2の実施の形態において図7を参照して説明したロボット制御システム100とほぼ同様の構成を有する。
ロボット制御装置100aは、送受信部140をさらに含む。また、ロボット制御装置100aは、反響集計部134を有しない構成とすることができる。なお、ここではロボット制御装置100aが視聴者状況取得部101を含む構成を図示しているが、ロボット制御装置100aは、視聴者状況取得部101を含まず、ロボット制御装置100a外部に設けられた視聴者状況取得部101からの情報を送受信部140を介して取得するようにすることもできる。
動作パターン選択装置300は、複数のロボット制御装置100aおよび100b等から各ロボットが実行した動作パターンに対する視聴者の反響を、動作パターンを示す情報に対応付けて取得する。動作パターン選択装置300は、これらを集計して、最も反響の高い動作パターンを選択して、各ロボット制御装置100aおよび100bにフィードバックする。各ロボット制御装置100aおよび100bにおいて、動作パターン選択装置300により選択された動作パターンをロボットに実行させることにより、ロボットが効果的な説明を行うようにすることができる。
動作パターン選択装置300は、送受信部302と、反響取得部304と、反響集計部306と、動作パターン選択部308と、反響記憶部310とを記憶する。送受信部302は、ネットワーク400を介して他の端末とデータの送受信を行う。反響取得部304は、送受信部302を介して、各ロボットが実行した動作パターンに対する視聴者の反響を、動作パターンを示す情報に対応付けて取得する。反響集計部306は、反響取得部304が取得した反響を動作パターン毎に集計する。反響取得部304が取得した反響、および反響集計部306が集計した結果は、反響記憶部310に記憶される。動作パターン選択部308は、反響集計部306が集計した結果に基づき、複数の動作パターンの反響を比較し、反響の高い動作パターンを各ロボットが実行する動作パターンとして選択する。動作パターン選択部308は、送受信部302を介して、ロボット制御装置100aおよび100b等に、選択した動作パターンを通知する。ロボット制御装置100a等において、反響取得部132は、送受信部140を介して動作パターン選択装置300から選択された動作パターンを取得し、動作パターン選択部104に通知する。動作パターン選択部104は、動作パターン選択装置300により選択された反響の高い動作パターンを優先的に選択することができる。
また、ロボットが宣伝を行う場合、宣伝する商品を販売している店舗の店舗端末402もネットワーク400に接続することができる。反響取得部304は、送受信部302を介して、このような店舗端末402等からも、視聴者が商品を購入したか否か等の情報を取得する。また、他の例として、ロボット制御装置100aの反響取得部132が送受信部302を介して、このような店舗端末402等から、視聴者が商品を購入したか否か等の情報を取得し、それらを動作パターン選択装置300に送信するようにすることもできる。
動作パターン選択装置300は、ロボット装置外部のサーバとすることもできるが、たとえば複数のロボット装置のいずれかに組み込まれた構成とすることもできる。たとえば、ロボット制御装置100aが動作パターン選択装置300の機能も兼ね備え、他のロボット制御装置100b等から、各ロボットが実行した動作パターンに対する視聴者の反響を、動作パターンを示す情報に対応付けて取得するようにすることもできる。
このようにすれば、いずれかのロボットにおいて効果的だった動作パターンを他のロボットにも実行させることができ、ロボットにより効果的な説明を実行させることができる。
また、反響取得部304は、各ロボットが説明を行った時間や位置等も、反響および動作パターンに対応付けて取得することができる。反響取得部304は、これらの情報を反響記憶部310に記憶する。動作パターン選択部308は、各ロボットに実行させる動作パターンを選択する際に、各ロボットが説明を行う時間や位置も考慮して、動作パターンを選択する。これにより、動作パターン選択部308は、各ロボットにその場に即した略リアルタイムな指示を行うことができる。
さらに、動作パターン選択部308は、複数のロボットに説明をさせる際、複数のロボットの配置関係に応じて、各ロボットに実行させる動作パターンを選択することができる。たとえば、あるロボットに大人数を対象とする説明をさせるとともに、その周囲に丁寧な説明をするロボットを配置するようにすることもできる。
本実施の形態におけるロボット制御システム100においても、第1および第2の実施の形態におけるロボット制御システム100と同様の効果が得られる。さらに、本実施の形態において、ロボットの説明をより効果的に行うことができる。
(ロボット装置)
以上の実施の形態で説明したロボットの一例を説明する。以上の実施の形態で説明したロボット制御システム100、およびロボット制御装置100a(および100b)は、ロボット装置に組み込まれ、ロボット装置を制御する構成とすることができる。また、他の例において、以上の実施の形態で説明したロボット制御システム100、およびロボット制御装置100a(および100b)は、ロボット装置の外部に設けられ、各ロボット装置を制御する構成とすることもできる。
図10は、ロボット装置200の電気的構成の一例を示すブロック図である。
ロボット装置200は、胴体部201および頭部202を含む。胴体部201には、ロボット装置全体の制御を行うコントローラ210、ロボット装置200の動力源となるバッテリ211、スピーカ212、マイクロフォン213、2つの車輪を動かすためのアクチュエータ214Aおよびアクチュエータ214B、および通信インターフェース224等が収納される。
マイクロフォン213は、周囲の音声を集音し、得られた音声データをコントローラ210に送出する。
コントローラ210は、CPU210Aやメモリ210Bを内蔵しており、CPU210Aにおいて、メモリ210Bに記憶された制御プログラムが実行されることにより、各種の処理を行う。
通信インターフェース224は、ネットワーク400等のネットワークを介して、他の端末との間で通信を行う。第3の実施の形態で説明した送受信部140は、たとえば、通信インターフェース224により構成することができる。
頭部202には、CCDカメラ221AおよびCCDカメラ221B、ならびに頭部202を回転するためのアクチュエータ222Aおよびアクチュエータ222B等が収納される。CCDカメラ221A、CCDカメラ221B、アクチュエータ222A、アクチュエータ222B、バッテリ211、スピーカ212、マイクロフォン213、アクチュエータ214A、アクチュエータ214B、および通信インターフェース224等がロボットの動作を実行する動作実行部として機能する。
CCDカメラ221AおよびCCDカメラ221Bは、周囲の状況を撮像し、得られた画像データを、コントローラ210に送出する。第1〜第3の実施の形態で説明した視聴者状況取得部101は、たとえば、CCDカメラ221AやCCDカメラ221Bにより構成することができる。
アクチュエータ222Aおよびアクチュエータ222Bは、ロボット装置200の頭部202を上下左右に回転させる。
コントローラ210は、マイクロフォン213や通信インターフェース224を介して得られる音声データやCCDカメラ221AおよびCCDカメラ221Bから得られる画像データに基づいて、メモリ210Bから適宜情報を読み出し、周囲の状況を取得する。ロボット制御システム100やロボット制御装置100a(または100b)がロボット装置200内に組み込まれる場合、ロボット制御システム100やロボット制御装置100a(または100b)の各機能は、コントローラ210により実現することができる。
コントローラ210は、アクチュエータ214A、アクチュエータ214B、アクチュエータ222A、およびアクチュエータ222B等を制御してロボット装置200に決定した動作を実行させる。また、コントローラ210は、合成音を生成し、スピーカ212に供給して、ロボット装置200に決定した発話を出力させる。
なお、ここでは図示してないが、ロボット装置200は、アーム部およびそれを駆動するアクチュエータを含む構成とすることもでき、コントローラ210によりアーム部を駆動するアクチュエータを制御して、ロボット装置200に指切りや握手等をさせることもできる。
ロボットは、図10に示したようなロボット装置200とすることもできるが、たとえばキャラクタで示される仮想ロボットとすることもできる。この場合、仮想ロボットはモニタ等に表示して実現することができる。ロボットが仮想ロボットの場合、たとえばCGの描画によって仮想ロボットの視線の向きを変更することができる。
以上で説明したロボット制御システム100、ロボット制御装置100a(または100b)、および動作パターン選択装置300の各構成要素は、任意のコンピュータのCPU、メモリ、メモリにロードされた本図の構成要素を実現するプログラム、そのプログラムを格納するハードディスク等の記憶ユニット、ネットワーク接続用インターフェースを中心にハードウェアとソフトウェアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。
以上、図面を参照して本発明の実施の形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
以上の実施の形態において、動作パターンが視線動作パターンで、ロボット制御システム100やロボット制御装置100a等が視線モーション生成部108を有する例を説明した。しかし、他の形態において、ロボット制御システム100やロボット制御装置100a等は、視線モーション生成部108に加えて、または視線モーション生成部108の代わりに視線モーション以外のモーションを生成するモーション生成部や、ロボットの発話ファイルの再生を制御する制御部等を設けた構成とすることができる。たとえば、動作パターンは、ロボットの発話速度やロボットの声の大きさ等とすることもできる。上記制御部により、ロボットの発話ファイルの再生を制御することにより、ロボットの発話速度やロボットの声の大きさを調整することができる。たとえば、ロボットの近傍にいる視聴者の数が所定数以下の少ない場合は、ロボットが小さい声でゆっくり説明を行い、ロボットの近傍にいる視聴者の数が所定数より多い場合は、ロボットが大きい声で早口で説明を行うようにすることもできる。
また、本発明は、以下の形態も含むことができる。
音声出力可能なロボットを制御するロボット制御システムであって、
前記ロボットが、当該ロボットの近傍にいる視聴者に対して行う動作パターンを複数記憶する動作パターン記憶部と、
いずれかの前記動作パターンを前記ロボットに実行させる動作処理部と、
前記ロボットが実行した動作パターンに対する前記視聴者の反響を、前記動作パターンを示す情報に対応付けて取得する反響取得部と、
前記反響取得部が取得した前記反響を前記動作パターン毎に集計する反響集計部と、
複数の前記動作パターンの反響を比較し、反響の高い前記動作パターンをロボットが実行する動作パターンとして選択する動作パターン選択部と、
を含み、
前記動作処理部は、前記動作パターン選択部が選択した動作パターンをロボットに実行させるロボット制御システム。
図11は、ロボット制御システムの他の例を示すブロック図である。
ロボット制御システム130は、シナリオ読込部106、コンテンツ再生部110、シナリオ記憶部114、コンテンツ記憶部118、反響取得部132、反響集計部134、動作パターン選択部136、反響記憶部142、動作パターン記憶部144、およびモーション生成部150を含む。
ロボット制御システム130は、視聴者状況取得部101、視聴者状況把握部102、および視聴者状況記憶部116を含まない点で、以上の実施の形態で説明したロボット制御システム100と異なる。
動作パターン選択部136は、ロボット近傍にいる視聴者の状況にかかわらず、反響集計部134が集計した結果に基づき、複数の動作パターンの反響を比較し、反響の高い動作パターンをロボットが実行する動作パターンとして選択する。モーション生成部150は、ロボットのモーションを生成する。
図12は、動作パターン記憶部144の内部構成の一例を示す図である。
動作パターン記憶部144は、動作パターン覧、音楽覧、踊り覧、ランプ覧を含む。ここで、踊り覧は、ロボットに説明させる際に、ロボットに踊らせるか否かを記憶する。音楽覧は、ロボットに説明させる際に、音楽を流すか否かを記憶する。ランプ覧は、ロボットに説明させる際に、ロボットのランプを点灯させるか否かを記憶する。たとえば、動作パターン「001」においては、音楽、踊り、ランプのいずれも実行させるように設定されている。
モーション生成部150は、動作パターン選択部136が選択した動作パターンに応じて、ロボットのモーションを生成する。なお、モーション生成部150は、以上の実施の形態で説明した視線モーション生成部108の機能も含む構成とすることができる。また、動作パターン記憶部144は、以上の実施の形態で説明した動作パターン記憶部112と同様の構成を含むこともできる。
また、このような形態においても、第3の実施の形態で図9を参照して説明したように、反響集計部134が、複数のロボットが実行した動作パターンに対する視聴者の反響を集計するようにすることができる。これにより、効果的な動作パターンを、精度よく選択することができる。
本発明は、ロボットに発表、案内、宣伝、プレゼンテーション、教育、視聴者とのコミュニケーション等の説明を行わせる際のロボットの制御に用いることができる。
本発明の実施の形態におけるロボット制御システムの構成の一例を示すブロック図である。 視聴者状況把握部が画像認識により視聴者状況を把握する処理を示す図である。 シナリオ記憶部に記憶されたシナリオの一例を示す図である。 動作パターン記憶部の内部構成の一例を示す図である。 視聴者状況記憶部の内部構成の一例を示す図である。 本発明の実施の形態におけるロボット制御システムの処理手順を示すフローチャートである。 本発明の実施の形態におけるロボット制御システムの構成の一例を示すブロック図である。 反響記憶部の内部構成を示す図である。 本発明の実施の形態におけるロボット制御システムの構成の一例を示すブロック図である。 ロボットの電気的構成の一例を示すブロック図である。 ロボット制御システムの他の例を示すブロック図である。 動作パターン記憶部の内部構成の一例を示す図である。
符号の説明
100 ロボット制御システム
100a ロボット制御装置
100b ロボット制御装置
101 視聴者状況取得部
102 視聴者状況把握部
104 動作パターン選択部
106 シナリオ読込部
108 視線モーション生成部
110 コンテンツ再生部
112 動作パターン記憶部
114 シナリオ記憶部
116 視聴者状況記憶部
118 コンテンツ記憶部
132 反響取得部
134 反響集計部
136 動作パターン選択部
140 送受信部
142 反響記憶部
144 動作パターン記憶部
150 モーション生成部
200 ロボット装置
201 胴体部
202 頭部
203A、203B 車輪
210 コントローラ
210A CPU
210B メモリ
211 バッテリ
212 スピーカ
213 マイクロフォン
214A、214B アクチュエータ
221A、221B CCDカメラ
222A、222B アクチュエータ
224 通信インターフェース
300 動作パターン選択装置
302 送受信部
304 反響取得部
306 反響集計部
308 動作パターン選択部
310 反響記憶部
400 ネットワーク
402 店舗端末

Claims (20)

  1. 説明を行うロボットを制御するロボット制御システムであって、
    前記ロボットの近傍にいる視聴者の数を把握する視聴者状況把握部と、
    前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶部と、
    前記視聴者状況把握部が把握した前記視聴者の数に基づき、前記動作パターン記憶部から、いずれかの前記動作パターンを選択する動作パターン選択部と、
    前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの動作を決定する動作決定部と、
    を含み、
    前記視聴者状況把握部は、前記視聴者の数の変化を検出し、
    前記動作パターン選択部は、前記視聴者状況把握部が前記視聴者の数の変化を検出すると、新たな数に対応する前記動作パターンを選択し、
    前記動作決定部は、前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの動作を決定するロボット制御システム。
  2. 説明を行うロボットを制御するロボット制御システムであって、
    前記ロボットの近傍にいる視聴者の数を把握する視聴者状況把握部と、
    前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶部と、
    前記視聴者状況把握部が把握した前記視聴者の数に基づき、前記動作パターン記憶部から、いずれかの前記動作パターンを選択する動作パターン選択部と、
    前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの動作を決定する動作決定部と、
    を含み、
    所定の条件を満たす視聴者を特別な動作対象とするか否かの設定を記憶する設定記憶部をさらに含み、
    前記動作パターン記憶部は、前記所定の条件を満たす視聴者を動作対象とする特別な動作パターンを、前記所定の条件に対応付けて記憶し、
    前記視聴者状況把握部は、前記視聴者の中から前記所定の条件を満たす視聴者を検出し、
    前記動作パターン選択部は、前記視聴者状況把握部が前記所定の条件を満たす視聴者を検出した場合であって、前記設定記憶部に前記所定の条件を満たす視聴者を前記特別な動作対象とすることが設定されている場合、当該所定の条件に対応する前記特別な動作パターンを選択し、
    前記所定の条件は、新規前記視聴者が所定数以上把握された場合、または前記ロボットの近傍に所定時間以上いる長時間視聴者が把握された場合であるロボット制御システム。
  3. 説明を行うロボットを制御するロボット制御システムであって、
    前記ロボットの近傍にいる視聴者の数を把握する視聴者状況把握部と、
    前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶部と、
    前記視聴者状況把握部が把握した前記視聴者の数に基づき、前記動作パターン記憶部から、いずれかの前記動作パターンを選択する動作パターン選択部と、
    前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの動作を決定する動作決定部と、
    を含み、
    前記動作パターン記憶部は、前記ロボットが、前記視聴者それぞれを動作対象とする第1の動作パターンと、前記視聴者が所定数よりも多い場合に前記視聴者を前記所定数未満の人数にグループ分けした各グループを動作対象とする第2の動作パターンと、を記憶し、
    前記動作パターン選択部は、前記視聴者状況把握部が把握した前記視聴者の数が所定数以下の場合に前記第1の動作パターンを選択し、前記数が前記所定数より多い場合に前記第2の動作パターンを選択するロボット制御システム。
  4. 請求項1乃至3いずれかに記載のロボット制御システムにおいて、
    前記動作パターンは、前記ロボットの前記視聴者への視線を制御する視線動作パターンであって、
    前記視聴者状況把握部は、前記視聴者の前記ロボットに対する位置も把握し、
    前記動作決定部は、前記視聴者の位置および前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの前記視聴者への視線動作を決定するロボット制御システム。
  5. 請求項に記載のロボット制御システムにおいて、
    前記動作決定部は、前記視聴者の位置および前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの視線を向けるアイコンタクトポイントを決定するロボット制御システム。
  6. 請求項に記載のロボット制御システムにおいて、
    前記動作パターンは、前記アイコンタクトポイントに前記ロボットの視線を向ける頻度および当該アイコンタクトポイントに前記ロボットが視線を向ける時間の設定を含み、
    前記動作決定部は、前記動作パターン選択部が選択した前記動作パターンに基づき、設定された前記頻度および前記時間通りに前記ロボットの視線を前記アイコンタクトポイントに向ける視線動作を決定するロボット制御システム。
  7. 請求項3乃至6いずれかに記載のロボット制御システムにおいて、
    前記ロボットは、首、胴体、または目の少なくとも一つが移動可能に構成され、
    前記動作決定部は、前記ロボットが前記視線動作を行うように、前記ロボットの前記首、前記胴体、または前記目の一つ以上の動きを決定するロボット制御システム。
  8. 請求項1乃至いずれかに記載のロボット制御システムにおいて、
    前記ロボットが実行した前記動作パターンに対する前記視聴者の反響を、前記動作パターンを示す情報に対応付けて取得する反響取得部と、
    前記反響取得部が取得した前記反響を前記動作パターン毎に集計する反響集計部と、
    をさらに含み、
    前記動作パターン選択部は、複数の前記動作パターンの反響を比較し、反響の高い前記動作パターンを前記ロボットが実行する動作パターンとして優先的に選択するロボット制御システム。
  9. 請求項1乃至いずれかに記載のロボット制御システムにおいて、
    前記ロボットに再生させる発話ファイルおよびモーションファイルを記憶するコンテンツ記憶部と、
    前記コンテンツ記憶部から、指定された前記発話ファイルおよび前記モーションファイルを読み出し、前記ロボットに再生させるコンテンツ再生部と、
    をさらに含み、
    前記動作決定部は、前記動作パターンに基づき決定する前記動作が、前記コンテンツ再生部が読み出した前記モーションファイルの再生により実行される前記ロボットの動作と矛盾する場合、前記モーションファイルの再生により実行される前記ロボットの動作を優先的に前記ロボットに行わせるロボット制御システム。
  10. 請求項1乃至いずれかに記載のロボット制御システムと、
    前記動作決定部が決定した前記動作を実行する動作実行部と、
    を含むことを特徴とするロボット装置。
  11. 説明を行うロボットを制御するロボット制御方法であって、
    前記ロボットの近傍にいる視聴者の数を把握するステップと、
    前記視聴者の数を把握するステップで把握された前記視聴者の数に基づき、前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶部から、いずれかの前記動作パターンを選択するステップと、
    前記動作パターンを選択するステップで選択された前記動作パターンに基づき、前記ロボットの動作を決定するステップと、
    を含み、
    前記視聴者数を把握するステップにおいて、前記視聴者の数の変化を検出し、
    前記動作パターンを選択するステップにおいて、前記視聴者状況把握部が前記視聴者の数の変化を検出すると、新たな数に対応する前記動作パターンを選択し、
    前記動作を決定するステップにおいて、選択された前記動作パターンに基づき、前記ロボットの動作を決定するロボット制御方法。
  12. 説明を行うロボットを制御するロボット制御方法であって、
    前記ロボットの近傍にいる視聴者の数を把握するステップと、
    前記視聴者の数を把握するステップで把握された前記視聴者の数に基づき、前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶部から、いずれかの前記動作パターンを選択するステップと、
    前記動作パターンを選択するステップで選択された前記動作パターンに基づき、前記ロボットの動作を決定するステップと、
    を含み、
    所定の条件を満たす視聴者を特別な動作対象とするか否かの設定を記憶するステップをさらに含み、
    前記動作パターンを記憶するステップにおいて、前記所定の条件を満たす視聴者を動作対象とする特別な動作パターンを、前記所定の条件に対応付けて記憶し、
    前記視聴者の数を把握するステップにおいて、前記視聴者の中から前記所定の条件を満たす視聴者を検出し、
    前記動作パターンを選択するステップにおいて、前記所定の条件を満たす視聴者を検出した場合であって、前記設定を記憶するステップにおいて前記所定の条件を満たす視聴者を前記特別な動作対象とすることが設定されている場合、当該所定の条件に対応する前記特別な動作パターンを選択し、
    前記所定の条件は、新規前記視聴者が所定数以上把握された場合、または前記ロボットの近傍に所定時間以上いる長時間視聴者が把握された場合であるロボット制御方法。
  13. 説明を行うロボットを制御するロボット制御方法であって、
    前記ロボットの近傍にいる視聴者の数を把握するステップと、
    前記視聴者の数を把握するステップで把握された前記視聴者の数に基づき、前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶部から、いずれかの前記動作パターンを選択するステップと、
    前記動作パターンを選択するステップで選択された前記動作パターンに基づき、前記ロボットの動作を決定するステップと、
    を含み、
    前記動作パターン記憶部は、前記ロボットが、前記視聴者それぞれを動作対象とする第1の動作パターンと、前記視聴者が所定数よりも多い場合に前記視聴者を前記所定数未満の人数にグループ分けした各グループを動作対象とする第2の動作パターンと、を記憶し、
    前記動作パターンを選択するステップにおいて、前記視聴者数を把握するステップにおいて把握した前記視聴者の数が所定数以下の場合に前記第1の動作パターンを選択し、前記数が前記所定数より多い場合に前記第2の動作パターンを選択するロボット制御方法。
  14. 請求項11乃至13いずれかに記載のロボット制御方法において、
    前記動作パターンは、前記ロボットの前記視聴者への視線を制御する視線動作パターンであって、
    前記視聴者の前記ロボットに対する位置を把握するステップをさらに含み、
    前記ロボットの動作を決定するステップにおいて、前記視聴者の位置および前記動作パターンを選択するステップで選択された前記動作パターンに基づき、前記ロボットの前記視聴者への視線動作を決定するロボット制御方法。
  15. 請求項14に記載のロボット制御方法において、
    前記ロボットの動作を決定するステップは、前記視聴者の位置および前記動作パターンを選択するステップで選択された前記動作パターンに基づき、前記ロボットの視線を向けるアイコンタクトポイントを決定するステップを含むロボット制御方法。
  16. 請求項15に記載のロボット制御方法において、
    前記動作パターンは、前記アイコンタクトポイントに前記ロボットの視線を向ける頻度および当該アイコンタクトポイントに前記ロボットが視線を向ける時間の設定を含み、
    前記ロボットの動作を決定するステップにおいて、前記動作パターンを選択するステップで選択された前記動作パターンに基づき、設定された前記頻度および前記時間通りに前記ロボットの視線を前記アイコンタクトポイントに向ける視線動作を決定するロボット制御方法。
  17. 請求項13乃至16いずれかに記載のロボット制御方法において、
    前記ロボットは、首、胴体、または目の少なくとも一つが移動可能に構成され、
    前記ロボットの動作を決定するステップにおいて、前記ロボットが前記視線動作を行うように、前記ロボットの前記首、前記胴体、または前記目の一つ以上の動きを決定するロボット制御方法。
  18. 説明を行うロボットを制御するために、コンピュータを、
    前記ロボットの近傍にいる視聴者の数を把握する視聴者状況把握手段、
    前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶手段、
    前記視聴者状況把握手段が把握した前記視聴者の数に基づき、前記動作パターン記憶手段から、いずれかの前記動作パターンを選択する動作パターン選択手段、
    前記動作パターン選択手段が選択した前記動作パターンに基づき、前記ロボットの動作を決定する動作決定手段、
    として機能させ
    前記視聴者状況把握手段は、前記視聴者の数の変化を検出し、
    前記動作パターン選択手段は、前記視聴者状況把握部が前記視聴者の数の変化を検出すると、新たな数に対応する前記動作パターンを選択し、
    前記動作決定手段は、前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの動作を決定することを特徴とするプログラム。
  19. 説明を行うロボットを制御するために、コンピュータを、
    前記ロボットの近傍にいる視聴者の数を把握する視聴者状況把握手段、
    前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶手段、
    前記視聴者状況把握手段が把握した前記視聴者の数に基づき、前記動作パターン記憶手段から、いずれかの前記動作パターンを選択する動作パターン選択手段、
    前記動作パターン選択手段が選択した前記動作パターンに基づき、前記ロボットの動作を決定する動作決定手段、
    所定の条件を満たす視聴者を特別な動作対象とするか否かの設定を記憶する設定記憶手段、
    として機能させ、
    前記動作パターン記憶手段は、前記所定の条件を満たす視聴者を動作対象とする特別な動作パターンを、前記所定の条件に対応付けて記憶し、
    前記視聴者状況把握手段は、前記視聴者の中から前記所定の条件を満たす視聴者を検出し、
    前記動作パターン選択手段は、前記視聴者状況把握部が前記所定の条件を満たす視聴者を検出した場合であって、前記設定記憶部に前記所定の条件を満たす視聴者を前記特別な動作対象とすることが設定されている場合、当該所定の条件に対応する前記特別な動作パターンを選択し、
    前記所定の条件は、新規前記視聴者が所定数以上把握された場合、または前記ロボットの近傍に所定時間以上いる長時間視聴者が把握された場合であることを特徴とするプログラム。
  20. 説明を行うロボットを制御するために、コンピュータを、
    前記ロボットの近傍にいる視聴者の数を把握する視聴者状況把握手段、
    前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶手段、
    前記視聴者状況把握手段が把握した前記視聴者の数に基づき、前記動作パターン記憶手段から、いずれかの前記動作パターンを選択する動作パターン選択手段、
    前記動作パターン選択手段が選択した前記動作パターンに基づき、前記ロボットの動作を決定する動作決定手段、
    として機能させ、
    前記動作パターン記憶手段は、前記ロボットが、前記視聴者それぞれを動作対象とする第1の動作パターンと、前記視聴者が所定数よりも多い場合に前記視聴者を前記所定数未満の人数にグループ分けした各グループを動作対象とする第2の動作パターンと、を記憶し、
    前記動作パターン選択手段は、前記視聴者状況把握手段が把握した前記視聴者の数が所定数以下の場合に前記第1の動作パターンを選択し、前記数が前記所定数より多い場合に前記第2の動作パターンを選択するプログラム。
JP2005236325A 2005-08-17 2005-08-17 ロボット制御システム、ロボット装置、およびロボット制御方法 Expired - Fee Related JP4815940B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005236325A JP4815940B2 (ja) 2005-08-17 2005-08-17 ロボット制御システム、ロボット装置、およびロボット制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005236325A JP4815940B2 (ja) 2005-08-17 2005-08-17 ロボット制御システム、ロボット装置、およびロボット制御方法

Publications (2)

Publication Number Publication Date
JP2007050461A JP2007050461A (ja) 2007-03-01
JP4815940B2 true JP4815940B2 (ja) 2011-11-16

Family

ID=37915259

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005236325A Expired - Fee Related JP4815940B2 (ja) 2005-08-17 2005-08-17 ロボット制御システム、ロボット装置、およびロボット制御方法

Country Status (1)

Country Link
JP (1) JP4815940B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104889799A (zh) * 2014-03-07 2015-09-09 发那科株式会社 控制进行工件的供给和排出的机器人的机器人控制装置

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5157595B2 (ja) * 2008-04-01 2013-03-06 トヨタ自動車株式会社 接客システム及び接客方法
FR2947923B1 (fr) * 2009-07-10 2016-02-05 Aldebaran Robotics Systeme et procede pour generer des comportements contextuels d'un robot mobile
TWI416289B (zh) * 2010-05-28 2013-11-21 Compal Communications Inc 自動機械裝置及其控制方法
JP5929061B2 (ja) * 2011-09-15 2016-06-01 セイコーエプソン株式会社 ロボット制御装置、ロボットシステム、ロボット
JP5910249B2 (ja) * 2012-03-30 2016-04-27 富士通株式会社 インタラクション装置およびインタラクション制御プログラム
JP5975947B2 (ja) * 2013-07-08 2016-08-23 ユニロボット株式会社 ロボットを制御するためのプログラム、及びロボットシステム
JP6203696B2 (ja) * 2014-09-30 2017-09-27 富士ソフト株式会社 ロボット
JP6497185B2 (ja) * 2015-04-09 2019-04-10 本田技研工業株式会社 自律移動装置および自律移動装置の制御方法
JP6729424B2 (ja) 2017-01-30 2020-07-22 富士通株式会社 機器、出力装置、出力方法および出力プログラム
JP6944817B2 (ja) * 2017-06-08 2021-10-06 シャープ株式会社 ロボット制御システム
US10970527B2 (en) 2017-09-01 2021-04-06 Digital Dream Labs, Llc Robot attention detection
JP7000759B2 (ja) * 2017-09-14 2022-01-19 大日本印刷株式会社 案内装置、案内システム、案内方法及びプログラム
DE102019108670A1 (de) * 2019-04-03 2020-10-08 Hochschule Offenburg Verfahren zur Steuerung eines Geräts, insbesondere einer Handprothese oder eines Roboterarms

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2993867B2 (ja) * 1995-05-24 1999-12-27 中小企業事業団 観客情報から多様な対応をするロボットシステム
JP2004042151A (ja) * 2002-07-09 2004-02-12 Advanced Telecommunication Research Institute International コミュニケーションロボット

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104889799A (zh) * 2014-03-07 2015-09-09 发那科株式会社 控制进行工件的供给和排出的机器人的机器人控制装置
US9778646B2 (en) 2014-03-07 2017-10-03 Fanuc Corporation Robot controller for controlling robot which supplies and discharges workpiece

Also Published As

Publication number Publication date
JP2007050461A (ja) 2007-03-01

Similar Documents

Publication Publication Date Title
JP4815940B2 (ja) ロボット制御システム、ロボット装置、およびロボット制御方法
US10798509B1 (en) Wearable electronic device displays a 3D zone from where binaural sound emanates
JP5339900B2 (ja) コンピューターインタラクティブ処理による選択的音源聴取
KR101576294B1 (ko) 가상 현실 시스템에서 사운드 처리를 수행하기 위한 장치 및 방법
KR20240011874A (ko) 신경 상태의 검출을 위해 생체 센서 데이터를 사용하여 라이브 엔터테인먼트를 디렉팅
TWI280481B (en) A device for dialog control and a method of communication between a user and an electric apparatus
US20060239471A1 (en) Methods and apparatus for targeted sound detection and characterization
WO2020117283A1 (en) Audio augmentation using environmental data
EP1878013A2 (en) Microphone array based selective sound source listening and video game control
KR20210065099A (ko) 정보 처리 장치, 정보 처리 방법, 프로그램, 및 정보 처리 시스템
US20220122333A1 (en) Information processing apparatus, information processing method, and program
US10820132B2 (en) Voice providing device and voice providing method
JP2022518105A (ja) 人工現実に基づくユーザグループ
WO2020066154A1 (ja) 情報処理装置及び情報処理方法、コンピュータプログラム、並びに対話システム
WO2023281820A1 (ja) 情報処理装置、情報処理方法、記憶媒体
JP7053074B1 (ja) 鑑賞システム、鑑賞装置及びプログラム
WO2023084933A1 (ja) 情報処理装置、情報処理方法およびプログラム
US20230101693A1 (en) Sound processing apparatus, sound processing system, sound processing method, and non-transitory computer readable medium storing program
JP7151707B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2023132236A (ja) 情報処理装置、音響再生装置、情報処理システムおよび情報処理方法および仮想音源生成装置
CN117222364A (zh) 用于听力训练的方法和设备
JP2021170148A (ja) 情報処理装置、情報処理方法、および記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110802

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110815

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140909

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4815940

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees