JP4822319B2 - コミュニケーションロボットおよびそれを用いた注意制御システム - Google Patents

コミュニケーションロボットおよびそれを用いた注意制御システム Download PDF

Info

Publication number
JP4822319B2
JP4822319B2 JP2005313470A JP2005313470A JP4822319B2 JP 4822319 B2 JP4822319 B2 JP 4822319B2 JP 2005313470 A JP2005313470 A JP 2005313470A JP 2005313470 A JP2005313470 A JP 2005313470A JP 4822319 B2 JP4822319 B2 JP 4822319B2
Authority
JP
Japan
Prior art keywords
attention
controlled
communication
person
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005313470A
Other languages
English (en)
Other versions
JP2007118129A (ja
Inventor
昌裕 塩見
崇行 神田
智史 小泉
浩 石黒
紀博 萩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2005313470A priority Critical patent/JP4822319B2/ja
Publication of JP2007118129A publication Critical patent/JP2007118129A/ja
Application granted granted Critical
Publication of JP4822319B2 publication Critical patent/JP4822319B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)
  • Toys (AREA)

Description

この発明はコミュニケーションロボットおよびそれを用いた注意制御システムに関し、特にたとえば、身体動作および音声の少なくとも一方を用いて人間との間でコミュニケーション行動して人間の注意を制御する、コミュニケーションロボットおよびそれを用いた注意制御システムに関する。
この種の従来のコミュニケーションロボットの一例が特許文献1に開示される。この特許文献1によれば、コミュニケーションロボットは、ロボット本体自身の視点から展示会場の状況、説明員および訪問者の状況等を観測し、観測した赤外線タグ等のID番号およびXY座標や映像データ、音声データおよび触覚データ等のインタラクションデータに時間情報等を付加して、データ取得サーバに送信する。また、ロボット本体によって、環境内の人間に対して、そのインタラクションデータに応じたコミュニケーション行動(案内や推薦等)が提示される。たとえば、ロボット本体は、或る展示物の方に指差し動作をしながら、「展示物も見るといいよ」と発話するなどの推薦を行う。つまり、対話相手の行動等の履歴に基づいて、当該対話相手の注意を制御(誘導)することができる。
特開2005−131713号
この背景技術では、対話相手が1人である場合には、その注意を制御することができる。したがって、対話相手が多数である場合には、各人に対して個別に注意を制御することとなり、多大な時間がかかってしまう。つまり、適切なコミュニケーション行動(注意制御)が行われているとは言えない。かかる場合には、対話相手を1つの集団と捉えて、コミュニケーション行動を行うべきである。
それゆえに、この発明の主たる目的は、新規な、コミュニケーションロボットおよびそれを用いた注意制御システムを提供することである。
この発明の他の目的は、人数に応じて適切な注意制御を実行できる、コミュニケーションロボットおよびそれを用いた注意制御システムを提供することである。
請求項1の発明は、身体動作および音声の少なくとも一方を用いて人間との間でコミュニケーション行動して人間の注意を制御するコミュニケーションロボットである。このコミュニケーションロボットは、周囲に存在する人間の人数を検出する人数検出手段、周囲に存在する所定人数以上の人間の注意を制御する集団注意制御手段、および周囲に存在する所定人数未満の人間の注意を個別に制御する個人注意制御手段を備え、人数検出手段の検出結果に基づいて集団注意制御手段または個人注意制御手段を選択的に実行し、集団注意制御手段は、周囲に存在する制御対象のすべての人間が前方の第1所定角度以内に存在するか否かを判断する集団存在判断手段、集団存在判断手段によって前方の第1所定角度外に制御対象の人間が存在することが判断されたとき、制御対象のすべての人間を当該第1所定角度以内に移動させる第1コミュニケーション行動を実行する第1コミュニケーション行動実行手段、集団存在判断手段によって制御対象のすべての人間が前方の第1所定角度以内に存在することが判断されたとき、水平面において、制御対象の人間の視線方向と、当該制御対象の人間の眼の位置と自身の位置とを結ぶ直線とがなす角度が第2所定角度以下か否かを制御対象のすべての人間について判断することにより、当該制御対象のすべての人間が自身の方を見ているか否かを判断する集団注目判断手段、および集団注目判断手段によって自身の方を見ていない制御対象の人間が存在することが判断されたとき、制御対象のすべての人間を自身に注目させる第2コミュニケーション行動を実行する第2コミュニケーション行動実行手段を含む
請求項1の発明では、このコミュニケーションロボット(12:実施例で相当する参照符号。以下、同じ。)は、身体動作および音声の少なくとも一方を用いて人間との間でコミュニケーション行動して人間の注意を制御する。人数検出手段(76,S11)は、自身の周囲に存在する人間の人数を検出する。また、コミュニケーションロボット(12)は、集団注意制御手段(76,S15)および個人注意制御手段(76,S19)を備え、人数検出手段(76,S11)の検出結果に基づいていずれか一方を選択的に実行する。集団注意制御手段(76,S15)は、周囲に存在する所定人数以上の人間を1つの集団として注意制御する。また、個人注意制御手段(76,S19)は、周囲に存在する所定数未満の人間の注意を個別に制御する。たとえば、集団注意制御手段(76,S15)を実行すると、コミュニケーションロボット(12)は、すべての人間(全体)を見渡しながら、周囲に存在するすべての人間に話し掛けるように行動する。一方、個人注意制御手段(76,S19)を実行すると、コミュニケーションロボット(12)は、制御対象の人間を見て、個別に話し掛けるように行動する。集団注意制御手段(76,S15)は、集団存在判断手段(76,S33)、第1コミュニケーション行動実行手段(76,S35,S37,S39,S41)、集団注目判断手段および第2コミュニケーション行動実行手段(76,S49,S51,S53,S55)を含む。集団存在判断手段(76,S33)は、周囲に存在する制御対象のすべての人間が前方の第1所定角度以内に存在するか否かを判断する。第1コミュニケーション行動実行手段(76,S35−S41)は、集団存在判断手段(76,S33)によって前方の第1所定角度外に制御対象の人間が存在することが判断されたとき、つまり制御対象の人間のうち、いずれか1人でも自身の前方の第1所定角度以内に存在しない場合には、制御対象のすべての人間を第1所定角度以内に移動させる第1コミュニケーション行動を実行する。たとえば、コミュニケーションロボット(12)は、周囲を見渡しながら、自身の前に集まるように、集団(制御対象のすべての人間)に対して呼び掛ける。集団注目判断手段(76,S47)は、集団存在判断手段(S33)によって制御対象のすべての人間が自身の前方の第1所定角度以内に存在するとき、当該制御対象のすべての人間が自身の方を見ているか否かを判断する。ここでは、水平面において、制御対象の人間の視線方向と、当該制御対象の人間の眼の位置と自身の位置とを結ぶ直線とがなす角度が第2所定角度以下か否かを制御対象のすべての人間について判断することにより、制御対象のすべての人間がコミュニケーションロボット(12)に注目しているかどうかを判断するのである。第2コミュニケーション行動実行手段(76,S49−S55)は、集団注目判断手段(76,S47)によって自身の方を見ていない制御対象の人間が存在することが判断されたとき、つまり制御対象の人間のうち、いずれか1人でも自身に注目していない場合には、制御対象のすべての人間を自身に注目させる第2コミュニケーション行動を実行する。たとえば、コミュニケーションロボット(12)は、周囲を見渡しながら、自身に注目するように、集団に対して呼び掛ける。
請求項1の発明によれば、周囲に存在する人間の人数に応じて異なる注意制御を実行するので、適切な注意制御を実行することができる。
また、いずれか1人でも自身の前方の第1所定角度以内に存在しない場合には、制御対象のすべての人間を第1所定角度以内に移動させるコミュニケーション行動を実行するので、所定人数以上の集団を自身の前方へ移動させることができる。
さらに、いずれか1人でも自身に注目していない場合には、制御対象のすべての人間を自身に注目させるコミュニケーション行動を実行するので、所定人数以上の集団を自身に注目させることができる。
請求項の発明は請求項に従属し、集団注目判断手段は、第1コミュニケーション行動実行手段によって第1コミュニケーション行動が第1所定回数実行されたとき、集団存在判断手段の判断結果に拘わらず、制御対象のすべての人間が自身の方を見ているか否かを判断する。
請求項の発明では、集団注目判断手段(76,S47)は、第1コミュニケーション行動実行手段(76,S35−S39)によって第1コミュニケーション行動が第1所定回数実行されたとき(S45で“YES”)、集団存在判断手段(76,S33)の判断結果に拘わらず、制御対象のすべての人間が自身の方を見ているか否かを判断する。つまり、制御対象の人間が、第1コミュニケーション行動によるコミュニケーションロボット(12)の誘導に従わない場合、その誘導に従わない人間を無視することにより、第1コミュニケーションが半永久的に繰り返されてしまうのを回避してある。
請求項の発明によれば、同じコミュニケーション行動が半永久的に繰り返されるのを回避するので、適切なコミュニケーション行動を実行することができる。
請求項の発明は請求項またはに従属し、集団注意制御手段は、集団注目判断手段によって制御対象のすべての人間が自身の方を見ていることが判断されたとき、当該制御対象のすべての人間との距離が一定範囲内であるか否かを判断する集団距離判断手段、および集団距離判断手段の判断結果に基づいて制御対象のすべての人間を一定範囲内に移動させる第3コミュニケーション行動を実行する第3コミュニケーション行動実行手段をさらに含む。
請求項の発明では、集団注意制御手段(76,S15)は、集団距離判断手段(76,S61,S75)および第3コミュニケーション実行手段(76,S63,S65,S67,S69,S77,S79,S81,S83)を備える。集団距離判断手段(76,S61,S75)は、集団注目判断手段(76,S47)によって制御対象のすべての人間が自身の方を見ていることが判断されたとき、つまり制御対象のすべての人間が自身を注目しているとき、当該制御対象のすべての人間との距離が一定範囲内であるか否かを判断する。第3コミュニケーション行動実行手段(76,S63−S69,S77−S83)は、集団距離判断手段(76,S61,S75)の判断結果に基づいて制御対象のすべての人間を一定範囲内に移動させる第3コミュニケーション行動を実行する。たとえば、いずれか1人でも、コミュニケーションロボット(12)から遠すぎたり、近すぎたりすると、周囲を見渡しながら、制御対象のすべての人間に自身に近づくように呼び掛けたり、制御対象のすべての人間に自身から少し離れるように呼び掛けたりする。
請求項の発明によれば、いずれか1人でも一定範囲内に存在しない場合には、制御対象のすべての人間を一定範囲内に移動させるコミュニケーション行動を実行するので、制御対象のすべての人間を一定範囲内に移動させることができる。
請求項の発明は請求項に従属し、集団距離判断手段は、第2コミュニケーション行動実行手段によって第2コミュニケーション行動が第2所定回数実行されたとき、集団注目判断手段の判断結果に拘わらず、制御対象のすべての人間との距離が一定範囲内であるか否かを判断する。
請求項の発明では、集団距離判断手段(76,S61,S75)は、第2コミュニケーション行動実行手段(76,S49−S55)によって第2コミュニケーション行動が第2所定回数実行されたとき(S59で“YES”)、集団注目判断手段(76,S47)の判断結果に拘わらず、制御対象のすべての人間との距離が一定範囲内であるか否かを判断する。つまり、制御対象の人間が、第2コミュニケーション行動によるコミュニケーションロボット(12)の誘導に従わない場合、その誘導に従わない人間を無視することにより、第2コミュニケーションが半永久的に繰り返されてしまうのを回避してある。
請求項の発明によれば、請求項の発明と同様に、適切なコミュニケーション行動を実行することができる。
請求項の発明は請求項に従属し、集団注意制御手段は、第3コミュニケーション行動実行手段によって第3コミュニケーション行動が第3所定回数実行されたとき、制御対象のすべての人間についての注意の制御を終了する。
請求項の発明では、集団注意制御手段(76,S15)は、第3コミュニケーション行動実行手段(76,S63−S69,S77−S83)によって第3コミュニケーション行動が第3所定回数実行されたとき(S87で“YES”)、制御対象のすべての人間についての注意の制御を終了する。
請求項の発明においても、請求項の発明と同様に、適切なコミュニケーション行動を実行することができる。
請求項の発明は請求項1に従属し、個人注意制御手段は、周囲に存在する人間が前方の第3所定角度以内に存在するか否かを判断する個人存在判断手段、および個人存在判断手段によって制御対象の人間が前方の第3所定角度以内に存在しないことが判断されたとき、制御対象の人間を第3所定角度以内に移動させる第4コミュニケーション行動を実行する第4コミュニケーション行動実行手段を含む。
請求項の発明では、個人注意制御手段(76,S19)は、個人存在判断手段(76,S103)および第4コミュニケーション行動実行手段(76,S105,S107)を含む。個人存在判断手段(76,S103)は、周囲に存在する人間が前方の第3所定角度以内に存在するか否かを判断する。つまり、注意制御すべき人間が自身の前方の第3所定角度以内に存在するかどうかを判断するのである。第4コミュニケーション行動実行手段(76,S105,S107)は、個人存在判断手段(76,S103)によって制御対象の人間が前方の第3所定角度以内に存在しないことが判断されたとき制御対象の人間を第3所定角度以内に移動させる第4コミュニケーション行動を実行する。たとえば、コミュニケーションロボット(12)は、制御対象の人間の方を見て、自身の前方に移動するように呼び掛ける。
請求項の発明によれば、制御対象の人間が自身の前方の第3所定角度以内に存在しない場合には、当該制御対象の人間第3所定角度以内に移動させるコミュニケーション行動を実行するので、当該制御対象の人間を自身の前方へ移動させることができる。
請求項の発明は請求項に従属し、個人注意制御手段は、個人存在判断手段によって制御対象の人間が前方の第3所定角度以内に存在することが判断されたとき、水平面において、当該制御対象の人間の視線方向と、当該制御対象の人間の眼の位置と自身の位置とを結ぶ直線とがなす角度が第4所定角度以下かどうかを判断することにより、当該制御対象の人間が自身の方を見ているか否かを判断する個人注目判断手段、および個人注目判断手段によって制御対象の人間が自身の方を見ていないことが判断されたとき、当該制御対象の人間を自身に注目させる第5コミュニケーション行動を実行する第5コミュニケーション行動実行手段をさらに含む。
請求項の発明では、個人注意制御手段(76,S19)は、個人注目判断手段(76,S113)および第5コミュニケーション行動実行手段(76,S115,S117)をさらに含む。個人注目判断手段(76,S113)は、個人存在判断手段(76,S103)によって制御対象の人間が前方の第3所定角度以内に存在することが判断されたとき、水平面において、当該制御対象の人間の視線方向と、当該制御人間の眼の位置と自身の位置とを結ぶ直線とがなす角度が第4所定角度以下かどうかを判断することにより、当該制御対象の人間が自身の方を見ているか否かを判断する。つまり、制御対象の人間が自身に注目しているかどうかを判断するのである。第5コミュニケーション行動実行手段(76,S115,S117)は、個人注目判断手段(76,S113)によって制御対象の人間が自身の方を見ていないことが判断されたとき、当該制御対象の人間を自身に注目させる第5コミュニケーション行動を実行する。たとえば、コミュニケーションロボット(12)は、制御対象の人間の方を見て、自身の方を見るように呼び掛ける。
請求項の発明によれば、制御対象の人間が自身に注目していない場合には、当該制御対象の人間を自身に注目させるコミュニケーション行動を実行するので、当該制御対象の人間を自身に注目させることができる。
請求項の発明は請求項に従属し、個人注目判断手段は、第4コミュニケーション行動実行手段によって第4コミュニケーション行動が第4所定回数実行されたとき、個人存在判断手段の判断結果に拘わらず、制御対象の人間が自身の方を見ているか否かを判断する。
請求項の発明では、個人注目判断手段(76,S113)は、第4コミュニケーション行動実行手段(76,S105,S107)によって第4コミュニケーション行動が第4所定回数実行されたとき(S111で“YES”)、個人存在判断手段(S103)の判断結果に拘わらず、制御対象の人間が自身の方を見ているか否かを判断する。
請求項の発明によれば、請求項の発明と同様に、適切なコミュニケーション行動を実行することができる。
請求項の発明は請求項またはに従属し、個人注意制御手段は、個人注目判断手段によって制御対象の人間が自身の方を見ていることが判断されたとき、当該制御対象の人間との距離が一定範囲内であるか否かを判断する個人距離判断手段、および個人距離判断手段の判断結果に基づいて人間を一定範囲内に移動させる第6コミュニケーション行動を実行する第6コミュニケーション行動実行手段をさらに含む。
請求項の発明では、個人注意制御手段(76,S19)は、個人距離判断手段(76,S123,S133)および第6コミュニケーション行動実行手段(76,S125,S127,S135,S137)をさらに含む。個人距離判断手段(76,S123,S133)は、個人注目判断手段(76,S113)によって制御対象の人間が自身の方を見ていることが判断されたとき、当該制御対象の人間との距離が一定範囲内であるか否かを判断する。つまり、制御対象の人間がコミュニケーションロボット(12)の位置から一定範囲内に存在するかどうかを判断するのである。第6コミュニケーション行動実行手段(76,S125,S127,S135,S137)は、個人距離判断手段(76,S123,S133)の判断結果に基づいて人間を一定範囲内に移動させる第6コミュニケーション行動を実行する。たとえば、制御対象の人間が、コミュニケーションロボット(12)から遠すぎたり、近すぎたりすると、当該制御対象の人間の方を見て、自身に近づくように呼び掛けたり、自身から少し離れるように呼び掛けたりする。
請求項の発明によれば、制御対象の人間が一定範囲内に存在しない場合には、当該制御対象の人間を一定範囲内に移動させるコミュニケーション行動を実行するので、当該制御対象の人間を一定範囲内に移動させることができる。
請求項10の発明は請求項に従属し、個人距離判断手段は、第5コミュニケーション行動実行手段によって第5コミュニケーション行動が第5所定回数実行されたとき、個人注目判断手段の判断結果に拘わらず、制御対象の人間との距離が一定範囲内であるか否かを判断する。
請求項10の発明では、個人距離判断手段(76,S123,S133)は、第5コミュニケーション行動実行手段(76,S115,S117)によって第5コミュニケーション行動が第5所定回数実行されたとき(S121で“YES”)、個人注目判断手段(76,S113)の判断結果に拘わらず、制御対象の人間との距離が一定範囲内であるか否かを判断する。
請求項10の発明においても、請求項の発明と同様に、適切なコミュニケーション行動を実行することができる。
請求項11の発明は請求項に従属し、個人注意制御手段は、第6コミュニケーション行動実行手段によって第6コミュニケーション行動が第6所定回数実行されたとき、制御対象の人間についての注意の制御を終了する。
請求項11の発明では、個人注意制御手段(76,S19)は、第6コミュニケーション行動実行手段(76,S125,S127,S135,S137)によって第6コミュニケーション行動が第6所定回数実行されたとき(S141で“YES”)、制御対象の人間についての注意の制御を終了する。
請求項11の発明においても、請求項の発明と同様に、適切なコミュニケーション行動を実行することができる。
請求項12の発明は、身体動作および音声の少なくとも一方を用いて人間との間でコミュニケーション行動するコミュニケーションロボットを用いて人間の注意を制御する注意制御システムである。注意制御システムは、コミュニケーションロボットの周囲に存在する人間の人数を検出する人数検出手段を備える。コミュニケーションロボットは、周囲に存在する所定人数以上の人間の注意を制御する集団注意制御手段、および周囲に存在する所定人数未満の人間の注意を個別に制御する個人注意制御手段を備え、人数検出手段の検出結果に基づいて集団注意制御手段または個人注意制御手段を選択的に実行し、集団注意制御手段は、周囲に存在する制御対象のすべての人間が前方の第1所定角度以内に存在するか否かを判断する集団存在判断手段、集団存在判断手段によって前記前方の第1所定角度外に前記制御対象の人間が存在することが判断されたとき、前記制御対象のすべての人間を当該第1所定角度以内に移動させる第1コミュニケーション行動を実行する第1コミュニケーション行動実行手段、集団存在判断手段によって前記制御対象のすべての人間が前記前方の第1所定角度以内に存在することが判断されたとき、水平面において、前記制御対象の人間の視線方向と、当該制御対象の人間の眼の位置と自身の位置とを結ぶ直線とがなす角度が第2所定角度以下か否かを前記制御対象のすべての人間について判断することにより、当該制御対象のすべての人間が自身の方を見ているか否かを判断する集団注目判断手段、および集団注目判断手段によって自身の方を見ていない前記制御対象の人間が存在することが判断されたとき、前記制御対象のすべての人間を自身に注目させる第2コミュニケーション行動を実行する第2コミュニケーション行動実行手段を含む。
請求項14の発明では、注意制御システム(10)は、コミュニケーションロボット(12)を用いて人間の注意を制御する。このコミュニケーションロボット(12)は、身体動作および音声の少なくとも一方を用いて人間との間でコミュニケーション行動する。人数検出手段(14,16,76,S11)は、コミュニケーションロボット(12)の周囲に存在する人間の人数を検出する。コミュニケーションロボット(12)は、集団注意制御手段(76,S15)および個人注意制御手段(76,S19)を備え、人数検出手段(14,16,76,S11)の検出結果に基づいていずれか一方を選択的に実行する。集団注意制御手段(76,S15)は、周囲に存在する所定人数以上の人間を1つの集団として注意制御する。また、個人注意制御手段(76,S19)は、周囲に存在する所定数未満の人間の注意を個別に制御する。たとえば、集団注意制御手段(76,S15)を実行すると、コミュニケーションロボット(12)は、制御対象のすべての人間(全体)を見渡しながら、周囲に存在するすべての人間に話し掛けるように行動する。一方、個人注意制御手段(76,S19)を実行すると、コミュニケーションロボット(12)は、制御対象の人間を見て、個別に話し掛けるように行動する。集団注意制御手段(76,S15)は、集団存在判断手段(76,S33)、第1コミュニケーション行動実行手段(76,S35,S37,S39,S41)、集団注目判断手段および第2コミュニケーション行動実行手段(76,S49,S51,S53,S55)を含む。集団存在判断手段(76,S33)は、周囲に存在する制御対象のすべての人間が前方の第1所定角度以内に存在するか否かを判断する。第1コミュニケーション行動実行手段(76,S35−S41)は、集団存在判断手段(76,S33)によって前方の第1所定角度外に制御対象の人間が存在することが判断されたとき、つまり制御対象の人間のうち、いずれか1人でも自身の前方の第1所定角度以内に存在しない場合には、制御対象のすべての人間を第1所定角度以内に移動させる第1コミュニケーション行動を実行する。たとえば、コミュニケーションロボット(12)は、周囲を見渡しながら、自身の前に集まるように、集団(制御対象のすべての人間)に対して呼び掛ける。集団注目判断手段(76,S47)は、集団存在判断手段(S33)によって制御対象のすべての人間が自身の前方の第1所定角度以内に存在するとき、当該制御対象のすべての人間が自身の方を見ているか否かを判断する。ここでは、水平面において、制御対象の人間の視線方向と、当該制御対象の人間の眼の位置と自身の位置とを結ぶ直線とがなす角度が第2所定角度以下か否かを制御対象のすべての人間について判断することにより、制御対象のすべての人間がコミュニケーションロボット(12)に注目しているかどうかを判断するのである。第2コミュニケーション行動実行手段(76,S49−S55)は、集団注目判断手段(76,S47)によって自身の方を見ていない制御対象の人間が存在することが判断されたとき、つまり制御対象の人間のうち、いずれか1人でも自身に注目していない場合には、制御対象のすべての人間を自身に注目させる第2コミュニケーション行動を実行する。たとえば、コミュニケーションロボット(12)は、周囲を見渡しながら、自身に注目するように、集団に対して呼び掛ける。
請求項12の発明においても、請求項1の発明と同様に、適切な注意制御を実行することができる。
この発明によれば、周囲に存在する人間の人数に応じて異なる注意制御を選択的に実行するので、適切な注意制御を実行することができる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1を参照して、この実施例の注意制御システム(以下、単に「システム」という。)10は、コミュニケーションロボット(以下、単に「ロボット」という。)12を備える。ロボット12は、人間との間で、身振り手振りのような身体動作ないし行動(以下、「コミュニケーション行動」ということがある。)を取ることができる。ただし、コミュニケーション行動としては、ロボット12と人間との間における会話(発話)が含まれる場合もある。
また、システム10はPC或いはワークステーションのような汎用のコンピュータ14を含み、このコンピュータ14は図示しない無線LANのようなネットワークを介して、ロボット12に通信可能に接続される。ただし、後述するように、コンピュータ14からロボット12に座標信号を送信するだけなので、ネットワークを介さずに、直接的に信号を送信するようにしてもよい。かかる場合には、コンピュータ14は、たとえば、Bluetooth(登録商標)のような近距離無線によって座標信号を送信することができる。
さらに、システム10は床センサ16を含み、この床センサ16がコンピュータ14に接続される。図示は省略するが、床センサ(床圧力センサ)16は多数の検出素子(感圧センサ)を含み、この多数の検出素子はシステム10が適用される部屋ないし会場の床に埋め込まれる(敷き詰められる)。この実施例では、床センサ16は、ロボット12や人間が部屋ないし会場に存在するとき、その圧力による信号(検出信号)をコンピュータ14に出力する。コンピュータ14は、検出信号に基づいて2次元座標を検出し、検出した2次元座標の信号(座標信号)をロボット12に送信する。この座標信号によって、ロボット12は、自身の周囲に人間が存在するか否かを知ることができ、さらに、人間が存在する場合にはその人数および各人間との距離を知ることができる。
なお、ロボット12は、このシステム10が適用される会場等のマップデータ(2次元データ)を内部メモリ(メモリ80:図3参照)に記憶している。そして、ロボット12は、任意に設定された原点位置を基準として、マップデータを参照して、会場内を移動する。ただし、ロボット12が参照するマップデータの座標系と、コンピュータ14で算出される2次元座標の座標系とは同じに設定される。
また、詳細な説明は省略するが、この実施例では、ロボット12の周囲には、立った状態で人間が存在することを前提とするため、コンピュータ14は、床センサ16からの出力に基づいて、2本の足の中点についての座標を人間の座標として算出するようにしてある。また、コンピュータ14は、2つの車輪34(図2参照)の中点についての座標をロボット12の位置座標として算出する。
ロボット12は、人間のような身体を有し、その身体を用いてコミュニケーションのために必要な複雑な身体動作を生成する。具体的には、図2を参照して、ロボット12は台車32を含み、この台車32の下面には、このロボット12を自律移動させる車輪34が設けられる。この車輪34は、車輪モータ(ロボット12の内部構成を示す図3において参照番号「36」で示す。)によって駆動され、台車32すなわちロボット12を前後左右任意の方向に動かすことができる。
なお、図2では示さないが、この台車32の前面には、衝突センサ(図3において参照番号「38」で示す。)が取り付けられ、この衝突センサ38は、台車32への人や他の障害物の接触を検知する。そして、ロボット12の移動中に障害物との接触を検知すると、直ちに車輪34の駆動を停止してロボット12の移動を急停止させる。
また、ロボット12の背の高さは、この実施例では、人、特に子供に威圧感を与えることがないように、100cm程度とされている。ただし、この背の高さは任意に変更可能である。
台車32の上には、多角形柱のセンサ取付パネル40が設けられ、このセンサ取付パネル40の各面には、超音波距離センサ42が取り付けられる。この超音波距離センサ42は、取付パネル40すなわちロボット12の周囲の主として人との間の距離を計測するものである。
台車32の上には、さらに、ロボット12の胴体が、その下部が上述の取付パネル40に囲まれて、直立するように取り付けられる。この胴体は下部胴体44と上部胴体46とから構成され、これら下部胴体44および上部胴体46は、連結部48によって連結される。連結部48には、図示しないが、昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体46の高さすなわちロボット12の高さを変化させることができる。昇降機構は、後述のように、腰モータ(図3において参照番号「50」で示す。)によって駆動される。上で述べたロボット12の身長100cmは、上部胴体46をそれの最下位置にしたときの値である。したがって、ロボット12の身長は100cm以上にすることができる。
上部胴体46のほぼ中央には、1つの全方位カメラ52と、1つのマイク16とが設けられる。全方位カメラ52は、ロボット12の周囲を撮影するもので、後述の眼カメラ54と区別される。マイク16は、周囲の音、とりわけ人の声を取り込む。
上部胴体46の両肩には、それぞれ、肩関節56Rおよび56Lによって、上腕58Rおよび58Lが取り付けられる。肩関節56Rおよび56Lは、それぞれ3軸の自由度を有する。すなわち、右肩関節56Rは、X軸,Y軸およびZ軸の各軸廻りにおいて上腕58Rの角度を制御できる。Y軸は、上腕58Rの長手方向(または軸)に平行な軸であり、X軸およびZ軸は、そのY軸に、それぞれ異なる方向から直交する軸である。左肩関節56Lは、A軸,B軸およびC軸の各軸廻りにおいて上腕58Lの角度を制御できる。B軸は、上腕58Lの長手方向(または軸)に平行な軸であり、A軸およびC軸は、そのB軸に、それぞれ異なる方向から直交する軸である。
上腕58Rおよび58Lのそれぞれの先端には、肘関節60Rおよび60Lを介して、前腕62Rおよび62Lが取り付けられる。肘関節60Rおよび60Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕62Rおよび62Lの角度を制御できる。
なお、上腕58Rおよび58Lならびに前腕62Rおよび62L(いずれも図2)の変位を制御するX,Y,Z,W軸およびA,B,C,D軸では、「0度」がホームポジションであり、このホームポジションでは、上腕58Rおよび58Lならびに前腕62Rおよび62Lは下方向に向けられる。
また、図2では示さないが、上部胴体46の肩関節56Rおよび56Lを含む肩の部分や上述の上腕58Rおよび58Lならびに前腕62Rおよび62Lを含む腕の部分には、それぞれ、タッチセンサ(図3において参照番号64で包括的に示す。)が設けられていて、これらのタッチセンサ64は、人がロボット12のこれらの部位に接触したかどうかを検知する。
前腕62Rおよび62Lのそれぞれの先端には、手に相当する球体66Rおよび66Lがそれぞれ固定的に取り付けられる。なお、この球体66Rおよび66Lに代えて、この実施例のロボット12と異なり指の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。
上部胴体46の中央上方には、首関節68を介して、頭部70が取り付けられる。この首関節68は、3軸の自由度を有し、S軸,T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上に向かう軸であり、T軸およびU軸は、それぞれ、このS軸に対して異なる方向で直交する軸である。頭部70には、人の口に相当する位置に、スピーカ72が設けられる。スピーカ72は、ロボット12が、それの周囲の人に対して音声または声によってコミュニケーションを図るために用いられる。ただし、スピーカ72は、ロボット12の他の部位たとえば胴体に設けられてもよい。
また、頭部70には、目に相当する位置に眼球部74Rおよび74Lが設けられる。眼球部74Rおよび74Lは、それぞれ眼カメラ54Rおよび54Lを含む。なお、右の眼球部74Rおよび左の眼球部74Lをまとめて眼球部74といい、右の眼カメラ54Rおよび左の眼カメラ54Lをまとめて眼カメラ54ということもある。眼カメラ54は、ロボット12に接近した人の顔や他の部分ないし物体等を撮影してその映像信号を取り込む。
なお、上述の全方位カメラ52および眼カメラ54のいずれも、たとえばCCDやCMOSのような固体撮像素子を用いるカメラであってよい。
たとえば、眼カメラ54は眼球部74内に固定され、眼球部74は眼球支持部(図示せず)を介して頭部70内の所定位置に取り付けられる。眼球支持部は、2軸の自由度を有し、α軸およびβ軸の各軸廻りに角度制御可能である。α軸およびβ軸は頭部70に対して設定される軸であり、α軸は頭部70の上へ向かう方向の軸であり、β軸はα軸に直交しかつ頭部70の正面側(顔)が向く方向に直交する方向の軸である。この実施例では、頭部70がホームポジションにあるとき、α軸はS軸に平行し、β軸はU軸に平行するように設定されている。このような頭部70において、眼球支持部がα軸およびβ軸の各軸廻りに回転されることによって、眼球部74ないし眼カメラ54の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。
なお、眼カメラ54の変位を制御するα軸およびβ軸では、「0度」がホームポジションであり、このホームポジションでは、図2に示すように、眼カメラ54のカメラ軸は頭部70の正面側(顔)が向く方向に向けられ、視線は正視状態となる。
図3には、ロボット12の内部構成を示すブロック図が示される。この図3に示すように、ロボット12は、全体の制御のためにマイクロコンピュータまたはCPU76を含み、このCPU76には、バス78を通して、メモリ80,モータ制御ボード82,センサ入力/出力ボード84および音声入力/出力ボード86が接続される。
メモリ80は、図示しないが、ROMやHDD、RAM等を含み、ROMまたはHDDにはこのロボット12の制御プログラムおよびデータ等が予め格納されている。CPU76は、このプログラムに従って処理を実行する。具体的には、ロボット12の身体動作を制御するための複数のプログラム(行動モジュールと呼ばれる。)が記憶される。たとえば、行動モジュールが示す身体動作としては、「握手」、「抱っこ」、「万歳」…などがある。行動モジュールが示す身体動作が「握手」である場合には、当該行動モジュールを実行すると、ロボット12は、たとえば、右手を前に差し出す。また、行動モジュールが示す身体動作が「抱っこ」である場合には、当該行動モジュールを実行すると、ロボット12は、たとえば、両手を前に差し出す。さらに、行動モジュールが示す身体動作が「万歳」である場合には、当該行動モジュールを実行すると、ロボット12は、たとえば、両手を数回(たとえば、2回)上下させる。また、RAMは、一時記憶メモリとして用いられるとともに、ワーキングメモリとして利用され得る。
モータ制御ボード82は、たとえばDSP(Digital Signal Processor)で構成され、右腕、左腕、頭および眼等の身体部位を駆動するためのモータを制御する。すなわち、モータ制御ボード82は、CPU76からの制御データを受け、右肩関節56RのX,YおよびZ軸のそれぞれの角度を制御する3つのモータと右肘関節60Rの軸Wの角度を制御する1つのモータを含む計4つのモータ(図3ではまとめて、「右腕モータ」として示す。)88の回転角度を調節する。また、モータ制御ボード82は、左肩関節56LのA,BおよびC軸のそれぞれの角度を制御する3つのモータと左肘関節60LのD軸の角度を制御する1つのモータとを含む計4つのモータ(図3ではまとめて、「左腕モータ」として示す。)90の回転角度を調節する。モータ制御ボード82は、また、首関節68のS,TおよびU軸のそれぞれの角度を制御する3つのモータ(図3ではまとめて、「頭部モータ」として示す。)92の回転角度を調節する。モータ制御ボード82は、また、腰モータ50、および車輪34を駆動する2つのモータ(図3ではまとめて、「車輪モータ」として示す。)36を制御する。さらに、モータ制御ボード82は、右眼球部74Rのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図3ではまとめて、「右眼球モータ」として示す。)94の回転角度を調節し、また、左眼球部74Lのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図3ではまとめて、「左眼球モータ」として示す。)96の回転角度を調節する。
なお、この実施例の上述のモータは、車輪モータ36を除いて、制御を簡単化するためにそれぞれステッピングモータまたはパルスモータであるが、車輪モータ36と同様に、直流モータであってよい。
センサ入力/出力ボード84も、同様に、DSPで構成され、各センサやカメラからの信号を取り込んでCPU76に与える。すなわち、超音波距離センサ42の各々からの反射時間に関するデータがこのセンサ入力/出力ボード84を通して、CPU76に入力される。また、全方位カメラ52からの映像信号が、必要に応じてこのセンサ入力/出力ボード84で所定の処理が施された後、CPU76に入力される。眼カメラ54からの映像信号も、同様にして、CPU76に与えられる。また、タッチセンサ64からの信号がセンサ入力/出力ボード84を介してCPU76に与えられる。
スピーカ72には音声入力/出力ボード86を介して、CPU76から、合成音声データが与えられ、それに応じて、スピーカ72からはそのデータに従った音声または声が出力される。また、マイク24からの音声入力が、音声入力/出力ボード86を介してCPU76に取り込まれる。
また、CPU76には、バス78を通して、通信LANボード98が接続される。この通信LANボード98も、同様に、DSPで構成され、CPU76から与えられた送信データを無線通信装置100に与え、無線通信装置100から送信データを送信させる。また、通信LANボード98は無線通信装置100を介してデータを受信し、受信データをCPU76に与える。
たとえば、ロボット12は、或る会場の展示物を説明したり、或る会場の道案内をしたりするなどのサービスを提供する。図4は、ロボット12が或る展示物OBを複数の人間(ここでは、3人の人間A,B,C)に説明している様子を示す。
このようなサービスを提供するロボット12では、少数の人間(たとえば、1〜2人程度)に対しては、個別に注意を制御(以下、「個人注意制御」という。)し、多数の人間(たとえば、3人以上)に対しては、多数の人間を1つの集団と考えて、当該集団の注意を制御(以下、「集団注意制御」という。)して、展示物OBやロボット12に注目させる。このように、人間の数に応じた注意制御を実行するので、自然な注意制御が可能である。これは、たとえば、個人注意制御のみを行う場合には、30人の人間であっても、個別に注意を制御することとなり、注意制御に多大な時間がかかってしまうためである。また、たとえば、集団注意制御のみを行う場合には、人間が1人であっても、1つの集団として注意を制御することとなり、注意を制御される人間に、違和感を与えてしまったり、親しみを感じさせられなかったりする恐れがあるためでもある。
図5〜図7を用いて、ロボット12の注意制御について説明する。ただし、図5〜図7においては、ロボット12(R)および人間(H)は二等辺三角形で模式的に示し、その底辺から垂直に頂点に向かう方向がロボット12および人間の正面方向(視線方向)と仮定する。また、二等辺三角形の頂点が視点(眼)の位置であり、二等辺三角形の中心(重心)がロボット12ないし人間の位置である。
まず、ロボット12は、自身を中心として、半径Rm(たとえば、6m)以内に人間が存在するか否かを判断する。具体的には、コンピュータ14から送信されるロボット12の2次元座標を(x,y)とし、同じくコンピュータ14から送信される人間の2次元座標を(x,y)とすると、数1に従って半径Rm以内に人間が存在するか否かが判断される。ただし、ロボット12の2次元座標は、ロボット12自身がマップデータに従って移動するため、自身で更新(管理)している2次元座標を用いるようにしてもよい。
[数1]
(x−x+(y−y≦R
ここで、半径Rm以内に人間が存在する場合には、ロボット12は、その人数に応じて、個人注意制御または集団注意制御を選択的に実行する。この実施例では、上述したように、人間が3人未満(1〜2人)であれば、個人注意制御が実行され、人間が3人以上であれば、集団注意制御が実行される。ただし、個人注意制御と集団注意制御とを選択するための人数(閾値)は、3人に限定されるべきではなく、2人以上であれば、ロボット12を用いて提供するサービスに応じて任意に設定することができる。また、人間が存在しない場合には、一定時間(たとえば、2〜3分)が経過した後に、再度半径Rm以内に人間が存在するか否かを判断する。
図5(A)に示すように、ロボット12の周囲であり、半径Rm以内に人間が3人存在する場合には、集団注意制御が実行される。集団注意制御が開始されると、まず、注意制御する対象(制御対象)の人間がすべて自身の前方に存在するかどうかを判断する。この実施例では、ロボット12は、自身が正面を向いた状態を基準(0度)として、その右方向および左方向に第1所定角度Degf(たとえば、60度)以内に人間が存在するとき、当該人間が自身の前方に存在すると判断するようにしてある。
具体的には、数2に従って算出された直線と、ロボット12の正面方向を基準とする直線となす角度θFが60度以下かどうかを判断する。つまり、数3を満たすかどうかを判断する。ただし、この実施例では、ロボット12の正面方向を基準として、第1所定角度DegFおよび角度θFの符号を、右前方をプラスとし、左前方をマイナスとしてある。
[数2]
Y=(x−x)/(y−y)×X
[数3]
θF≦DegF
ここで、制御対象のうち、いずれか1人でも、第1所定角度DegF以内に存在しない場合には、制御対象のすべての人間を自身の前方の第1所定角度DegF以内に移動させるコミュニケーション行動を実行する。
たとえば、前方の左端に存在する人間を見て、両手を広げて、「皆、僕の前に集まってよ」と発話して、前方の右端に存在する人間を見た後、正面を向く。具体的には、CPU76は、頭部モータ92を駆動制御して、首関節68をS軸周りに角度θLeftMaxだけ回動させる。以下、ロボット12の向きを変える場合、つまり首を動かす場合には、同様の処理が実行される。これにより、ロボット12は、前方の左端に存在する人間の方を見る。ここで、角度θLeftMaxは、図5(A)に示すように、ロボット12の正面方向を基準として、ロボット12の位置座標とロボット12の前方の左端に存在する人間の位置座標とを結ぶ直線がなす角度である。ただし、前方の左端に存在する人間は、半径Rm以内に存在する人間である。次に、CPU76は、右腕モータ88および左腕モータ90を駆動制御して、肩関節56Rおよび肩関節56Lを回動させる。これと同時或いは略同時に、CPU76は、「皆、僕の前に集まってよ」に対応する合成音声を再生し、スピーカ72から出力する。以下、同様にして、ロボット12は発話する。これにより、ロボット12は、両手を広げて、「皆、僕の前に集まってよ」と発話する。そして、CPU76は、首の角度をθRightMaxに設定し、首の角度を0度に設定する。これにより、ロボット12は、前方の右端に存在する人間を見た後、正面を向く。ここで、角度θRightMaxは、図5(A)に示すように、ロボット12の正面方向を基準として、ロボット12の位置座標とロボット12の前方の右端に存在する人間の位置座標とを結ぶ直線がなす角度である。ただし、前方の右端に存在する人間は、半径Rm以内に存在する人間である。
なお、上述した制御対象のすべての人間を自身の前方に移動させるコミュニケーション行動は単なる例示であり、これに限定されるべきではない。他の例としては、右端から左端を見渡すようにしてもよく、「皆、こっちに集まってよ」と発話するようにしてもよい。
制御対象のすべての人間がロボット12の前方の第1所定角度DegF以内に存在(移動)すると、ロボット12は、当該制御対象のすべての人間が自身を見ているかどうかを判断する。この実施例では、図6(A)に示すように、人間の視線方向と、人間の眼の位置とロボットの位置とを結ぶ直線の方向とがなす角度θLが第2所定角度(この実施例では、±10度)以下である場合には、当該人間は自身(ロボット12)を見ていると判断する。しかし、角度θLが第2所定角度以上であれば、当該人間は自身を見ていないと判断する。
ここで、いずれか1人でも、自身(ロボット12)を見ていないと判断すると、制御対象のすべての人間を自身に注目させるコミュニケーション行動を実行する。たとえば、ロボット12は、前方の左端の人間を見て、両手を広げて、「皆、僕の方を見てね」と発話し、前方の右端の人間を見て、その後、正面を向く。
なお、上述した制御対象のすべての人間を自身に注目させるコミュニケーション行動は単なる例示であり、これに限定されるべきではない。他の例としては、右端から左端を見渡すようにしてもよく、「皆、こっちを見てよ」と発話するようにしてもよい。
制御対象のすべての人間がロボット12に注目すると、ロボット12は、当該すべての人間が適当な距離に存在するかどうかを判断する。これは、ロボット12が複数の人間に対してサービスの説明を行う(提供する)場合に、当該人間がロボット12から離れ過ぎると、当該ロボット12の音声が聴こえ難く、一方、当該人間がロボット12に近づき過ぎると、ロボット12の手が人間に当たってしまうなどの不都合が発生してしまう恐れがあるからである。
そこで、ロボット12は、各人間との距離dが、図6(B)に示すような最小距離DistMin(たとえば、0.5m)と最大距離DistMax(たとえば、3m)とで決定される範囲内であるかどうかを判断するようにしてある。具体的には、数4に従って、ロボット12と各人間との距離dをそれぞれ算出し、算出した各距離dが数5を満たすかどうかを判断する。
[数4]
d=√{(x−x+(y−y
[数5]
DistMin≦d≦DistMax
たとえば、いずれか1人でも、数5の中辺と右辺とで示される条件を満たさない場合には、ロボット12は、制御対象のすべての人間を自身に近づかせるコミュニケーション行動を実行する。具体的には、ロボット12は、前方の左端の人間を見て、両手を広げて、「皆、もう少し近づいてね」と発話し、前方の右端の人間を見て、その後、正面を向く。
なお、上述した制御対象のすべての人間を自身に近づかせるコミュニケーション行動は単なる例示であり、これに限定されるべきではない。他の例としては、右端から左端を見渡すようにしてもよく、「後ろの人は前に詰めてね」と発話するようにしてもよい。
一方、いずれか1人でも、数5の左辺と中辺とで示される条件を満たさない場合には、ロボット12は、制御対象のすべての人間を自身から離れさせるコミュニケーション行動を実行する。具体的には、ロボット12は、前方の左端の人間を見て、両手を広げて、「皆、もう少し離れてね」と発話し、前方の右端の人間を見て、その後、正面を向く。
なお、上述した制御対象のすべての人間を自身から離れさせるコミュニケーション行動は単なる例示であり、これに限定されるべきではない。他の例としては、右端から左端を見渡すようにしてもよく、「前の人は少し下がってね」と発話するようにしてもよい。
なお、上述したように、集団注意制御では、制御対象のすべての人間が自身の前方に移動したり、自身に注目したり、自身との距離を一定範囲内に移動したりすることを前提として説明した。ただし、制御対象のすべての人間がロボット12の誘導に従わない場合も当然にあり得る。かかる場合に、同じコミュニケーション行動を何度も繰り返すことは適切でない場合もある。したがって、この実施例では、同じコミュニケーション行動を所定回数実行すると、制御対象のすべての人間がロボット12の前方に存在していなかったり、ロボット12に注目していなかったり、ロボット12との距離が一定範囲内でなかったりしても、当該コミュニケーション行動を実行しないようにようにしてある。たとえば、制御対象の人間が10人存在し、そのうち8人の人間が自身の前方に移動したが、前方に移動させるコミュニケーション行動を所定回数(たとえば、3回)実行しても、他の2人はロボット12の前方に移動しない場合には、当該前方に移動させるコミュニケーション行動は実行せずに、制御対象のすべての人間が自身に注目しているか否かを判断するようにしてある。このことは、手段注意制御における他のコミュニケーション行動についても同様である。また、かかる場合には、ロボット12の誘導(コミュニケーション行動)に従って移動等した人間を、それ以降における制御対象の人間としてもよい。
また、ロボット12は、半径Rm以内に人間が1〜2人存在する場合には、個人注意制御を実行する。個人注意制御は、集団注意制御とほぼ同じであるため、以下では簡単に説明するが、注意制御の対象が複数(ここでは、2人)であっても、個別に注意制御を実行する点で大きく異なる。この個人注意制御では、個別に注意制御を実行するため、ロボット12は、現在注意制御を行っている人間の方を見て、コミュニケーション行動を実行するようにしてある。具体的には、図7に示すように、ロボット12は、正面方向を基準として、自身の位置と制御対象の人間の位置とを結ぶ直線がなす角度θHDegを算出し、この角度θHDegだけ首を動かし、当該人間の方を見るようにしてある。
たとえば、制御対象の人間が自身の前方の第1所定角度DegF以内に存在しない場合には、当該人間を自身の前方の第1所定角度DegF以内に移動させるコミュニケーション行動を実行する。たとえば、首の角度をθHDegに設定し、手を角度θHDegに向けて、「ねえ、僕の前に来てよ」と発話する。つまり、CPU76は、頭部モータ92を駆動制御して、首関節68をS軸周りに角度θHDegだけ回動させる。次に、CPU76は、右腕モータ88または左腕モータ90を駆動制御して、肩関節56Rまたは肩関節56Lを回動させる。これと同時或いは略同時に、CPU76は、「ねぇ、僕の前に来てよ」に対応する合成音声を再生し、スピーカ72から出力する。以下、同様である。
このようにして、ロボット12が当該人間の方を向き、さらに指差しながら声を掛けて、自身の前方に当該人間を移動させるコミュニケーション行動が実行される。ただし、これは単なる例示であり、限定されるべきではない。他の例としては、手をθHDegに向けた後に、手招きさせるようにしてもよい。また、「〇〇さん、僕の前に来てよ」と名前を用いて発話するようにしてもよい。かかる場合には、たとえば、各人間に無線タグ(周波数タグ、ICタグなど)を装着(所持)させておき、ロボット12側で当該無線タグの情報を読み取って、個人を識別可能にしておく必要がある。以下、同様である。
また、制御対象の人間が自身の前方の第1所定角度DegF以内に存在(移動)するが、自身の方を見ていない(自身に注目していない)場合には、ロボット12は、当該人間を自身に注目させるコミュニケーション行動を実行する。たとえば、首の角度をθHDegに設定し、手を角度θHDegに向けて、「ねえねえ、僕を見て」と発話する。つまり、ロボット12は、制御対象の人間の方を見て、当該人間を指差しながら声を掛けて、自身に注意を向けるように促しているのである。
なお、上述した制御対象の人間を自身に注目させるコミュニケーション行動は単なる例示であり、これに限定されるべきではない。他の例としては、手を角度θHDegに向けた後に、自身の顔を指差しさせるようにしてもよく、「〇〇さん、僕を見て」と名前を用いて発話するようにしてもよい。
そして、制御対象の人間が自身の前方の第1所定角度DegF以内であり、自身に注目すると、ロボット12は、当該人間との距離dを算出する。算出した距離dが数5を満たさない場合には、サービスを説明するための適切な距離に移動させるコミュニケーション行動を実行する。具体的には、ロボット12と人間との距離dが数5の中辺と右辺とで示される条件を満たさない場合には、ロボット12は、首の角度をθHDegに設定し、手をθHDegに向けて、「ねえ、もう少し近づいて」と発話する。つまり、制御対象の人間を見て、指差しながら声を掛けて、自身に近づくように、当該人間に促している。ただし、これは単なる例示であり、限定されるべきではない。他の例としては、手を角度θHDegn向けた後に、手招きさせるようにしてもよく、「〇〇さん、もう少し近づいて」と名前を用いて発話するようにしてもよい。
一方、ロボット12と人間との距離dが数5の左辺と中辺とで示される条件を満たさない場合には、ロボット12は、首の角度をθHDegに設定し、手をθHDegに向けて、「ねえ、もう少し離れてね」と発話する。つまり、制御対象の人間を見て、指差しながら声を掛けて、自身から少し離れるように、当該人間に促している。ただし、これは単なる例示であり、限定されるべきではない。他の例としては、手を角度θHDegに向けた後に、当該手を少し上げさせるようにしてもよく、「〇〇さん、もう少し離れてね」と名前を用いて発話するようにしてもよい。
なお、個人注意制御の場合にも、必ず制御対象の人間がロボット12の誘導に従って、ロボット12の前方に移動し、ロボット12に注目し、ロボット12との距離が一定範囲になるように移動する前提で説明した。しかし、上述したように、集団注意制御の場合と同様に、同じコミュニケーション行動を所定回数実行した場合には、制御対象の人間がロボット12の誘導に従わない場合であっても、当該コミュニケーション行動の実行を終了するようにしてある。
以上のようにして、注意制御の対象である人間の人数に応じて、異なる注意制御処理が実行される。注意が制御されると、システム10(ロボット12)が提供するサービスの説明が実行される。たとえば、サービスの説明としては、或る展示物についての説明であったり、或る遊戯具の説明であったりなど様々である。また、サービスの説明についてのコミュニケーション行動は、説明対象の人数に応じて異なるようにしてもよく、同じでもよく、サービスの内容に応じて代えるようにしてもよい。
図8は図3に示したCPU76の全体処理を示すフロー図である。この図8を参照して、CPU76は全体処理を開始すると、ステップS1で、オペレータによる停止命令があるかどうかを判断する。たとえば、停止命令は、コンピュータ14を用いて遠隔的に入力することができ、ロボット12に運転/停止ボタンを設けておき、これを操作することにより入力することもできる。ステップS1で“YES”であれば、つまりオペレータによる停止命令があれば、そのまま全体処理を終了する。一方、ステップS1で“NO”であれば、つまりオペレータによる停止命令がなければ、ステップS3で、周囲に人間が存在するかどうかを判断する。具体的には、コンピュータ14からロボット12についての座標データ以外の座標データが入力されたか否かで、周囲に人間が存在するかどうかを判断する。
ステップS3で“YES”であれば、つまり周囲に人間が存在すれば、ステップS5で、後述する注意制御およびサービスの提供処理(図9参照)を実行して、ステップS1に戻る。一方、ステップS3で“NO”であれば、つまり周囲に人間が存在しなければ、ステップS7で、待機行動を実行して、ステップS1に戻る。たとえば、ステップS7では、CPU76は、頭部モータ92を駆動制御して、首関節68をS軸周りに回動させる。これにより、ロボット12が、首を左右に振って周りを見渡しているように動作させることができる。
図9は図8に示したステップS5の注意制御およびサービスの提供処理を示すフロー図である。図9に示すように、CPU76は、注意制御およびサービスの提供処理を開始すると、ステップS11で、周囲に存在する人間の人数を検出する。ここでは、コンピュータ14から入力される座標信号の個数をカウントし、そのカウント値から1減算した数を人間の人数として決定(検出)する。つまり、ロボット12の数が排除される。続くステップS13では、ロボット12の半径Rm(たとえば、6m)以内にN人(たとえば、3人)以上の人間が存在するかどうかを判断する。ここでは、ロボット12は、自身の座標信号と人間の座標信号とが示す位置座標を用いて、自身と人間との距離が数1を満たすかどうかを判断し、数1を満たす人間が3人以上存在するかどうかを判断するのである。
ステップS13で“YES”であれば、つまり半径6m以内に3人以上の人間が存在する場合には、ステップS15で、後述する集団注意制御処理(図10および図11参照)を実行し、ステップS17で、サービスの説明を行うコミュニケーション行動を実行し、注意制御およびサービスの提供処理をリターンする。
一方、ステップS13で“NO”であれば、つまり半径6m以内に1〜2人の人間が存在する場合には、ステップS19で、後述する個人注意制御処理(図12および図13参照)を実行し、ステップS21で、周囲に存在する制御対象のすべての人間についての注意を制御したかどうかを判断する。ステップS21で“NO”であれば、つまり周囲に存在する制御対象のすべての人間についての注意を制御していなければ、次の人間(未だ注意を制御していない人間)の注意を制御すべく、ステップS19に戻る。詳細な説明は省略するが、たとえば、ロボット12は、人間との距離が近い順に個人注意制御処理を実行する。一方、ステップS21で“YES”であれば、つまり周囲に存在する制御対象のすべての人間についての注意を制御すれば、ステップS23で、サービスの説明を行うコミュニケーション行動を実行し、注意制御およびサービスの提供処理をリターンする。
図10〜図13は、図9に示したステップS15の集団注意制御処理を示すフロー図である。図10を参照して、CPU76は、集団注意制御処理を開始すると、ステップS31で、変数a,b,c,dを初期化する(a,b,c,d=0)。つまり、前方に制御対象のすべての人間を集めるコミュニケーション行動の実行回数a、制御対象のすべての人間を自身に注目させるコミュニケーション行動の実行回数b、制御対象のすべての人間との距離dをDistMax以下にするコミュニケーション行動の実行回数c、および制御対象のすべての人間との距離dをDistMin以下にするコミュニケーション行動の実行回数dが「0」に設定される。
続くステップS33では、前方の第1所定角度DegF内に制御対象のすべての人間が存在するかどうかを判断する。つまり、制御対象のすべての人間について、数2に従って算出した角度θFが数3を満たすかどうかを判断する。ただし、ここで言う「制御対象のすべての人間」は、ロボット12からの距離がRm以内と判断された人間を意味する。以下、集団注意制御処理において同様である。ただし、上述したように、ロボット12がコミュニケーション行動を実行して制御対象の人間を誘導したが、それに応じなかった人間は制御対象から外される場合もある。
ステップS33で“YES”であれば、つまり前方の第1所定角度DegF内に制御対象のすべての人間が存在する場合には、そのまま図11に示すステップS47に進む。しかし、ステップS33で“NO”であれば、つまり前方の第1所定角度DegF内にいずれか1人でも存在していなければ、前方に制御対象のすべての人間を集める(移動させる)コミュニケーション行動を実行する。具体的には、ステップS35で、首の角度をθLeftMaxに設定する。次にステップS37で、両手を広げて、「皆、僕の前に集まってよ」と発話する。続いて、ステップS39で、首の角度をθRightMaxに設定し、その後、ステップS41で、首の角度を0度に設定する。このように、ステップS35〜ステップS41の処理によって、両手を広げてすべての人間に自身の前方に集まるように声を掛けながら、前方で最も左端に存在する人間から右端に存在する人間を見渡し、その後、前を向くといったコミュニケーション行動が実行される。
そして、ステップS43で、前方に制御対象のすべての人間を移動させるコミュニケーション行動の実行回数aをインクリメント(a=a+1)して、ステップS45で、実行回数aが所定回数M1(たとえば、3)以上であるかどうかを判断する。つまり、ロボット12が前方に制御対象のすべての人間を移動させるコミュニケーション行動を3回(以上)実行したかどうかを判断する。ステップS45で“NO”であれば、つまり実行回数aが2以下であれば、そのままステップS33に戻る。一方、ステップS45で“YES”であれば、つまり実行回数aが3以上であれば、前方の第1所定角度DegF内に制御対象のすべての人間が存在するか否かに拘わらず、ステップS47に進む。
図11に示すステップS47では、制御対象のすべての人間が自身を見ているかどうかを判断する。つまり、制御対象のすべての人間について、算出した角度θLの絶対値が第2所定角度DegL(10度)以下であるかどうかを判断する。ステップS47で“YES”であれば、つまりすべての人間が自身を見ている(自身に注目している)場合には、そのまま図12に示すステップS61に進む。しかし、ステップS47で“NO”であれば、つまりいずれか1人でも自身を見ていない(自身に注目していない)場合には、制御対象のすべての人間を自身に注目させるコミュニケーション行動を実行する。
具体的には、ステップS49で、首の角度をθLeftMaxに設定し、ステップS51で、両手を広げて、「皆、僕を見てね」と発話し、ステップS53で、首の角度をθRightMaxに設定し、そして、ステップS55で、首の角度を0度に設定する。つまり、ステップS49〜ステップS55の処理によって、両手を広げて制御対象のすべての人間に自身の方を見るように声を掛けながら、前方で最も左端に存在する人間から右端に存在する人間を見渡し、その後、前を向くといったコミュニケーション行動が実行される。
そして、ステップS57で、制御対象のすべての人間を自身に注目させるコミュニケーション行動の実行回数bをインクリメントする(b=b+1)。続くステップS59では、実行回数bが所定回数M2(たとえば、3)以上であるかどうかを判断する。つまり、ロボット12が、制御対象のすべての人間を自身に注目させるコミュニケーション行動を3回(以上)実行したかどうかを判断する。ステップS59で“NO”であれば、つまり実行回数bが2以下であれば、そのままステップS47に戻る。一方、ステップS59で“YES”であれば、つまり実行回数bが3以上であれば、制御対象のすべての人間が自身に注目しているか否かに拘わらず、ステップS61に進む。
図12に示すように、ステップS61では、制御対象のすべての人間との距離dがDistMax(たとえば、3m)以下であるかどうかを判断する。つまり、制御対象のすべての人間について、数4を用いて算出した距離dが数5の中辺および右辺で示される不等式(条件)を満たすかどうかを判断する。ステップS61で“YES”であれば、つまり制御対象のすべての人間との距離が3m以下であれば、そのまま図13に示すステップS75に進む。一方、ステップS61で“NO”であれば、つまりいずれか1人でもロボット12との距離dが3mを超えていれば、制御対象のすべての人間との距離dを3m以下にするコミュニケーション行動を実行する。
具体的には、ステップS63で、首の角度をθLeftMaxに設定し、ステップS65で、両手を広げて、「皆、もう少し近づいてね」と発話し、ステップS67で、首の角度をθRightMaxに設定し、そして、ステップS69で、首の角度を0度に設定する。つまり、ステップS63〜ステップS69の処理によって、両手を広げてすべての人間に自身に近づくように声を掛けながら、前方で最も左端に存在する人間から右端に存在する人間を見渡し、その後、前を向くといったコミュニケーション行動が実行される。
そして、ステップS71で、制御対象のすべての人間との距離dを3m以下にするコミュニケーション行動の実行回数cをインクリメントする(c=c+1)。次のステップS73では、実行回数cが所定回数M3(たとえば、3)以上であるかどうかを判断する。つまり、ロボット12が、制御対象のすべての人間との距離dを3m以下にするコミュニケーション行動を3回(以上)実行したかどうかを判断するのである。ステップS73で“NO”であれば、つまり実行回数cが2以下であれば、ステップS61に戻る。一方、ステップS73で“YES”であれば、つまり実行回数cが3以上であれば、制御対象のすべての人間との距離dが3m以下であるか否かに拘わらず、ステップS75に進む。
図13に示すステップS75では、制御対象のすべての人間との距離dがDistMin(たとえば、0.5m)以上であるかどうかを判断する。つまり、制御対象のすべての人間について、数4に従って算出した距離dが数5の左辺および中辺で示される不等式(条件)を満たすかどうかを判断する。ステップS61で“YES”であれば、つまり制御対象のすべての人間との距離dが0.5m以上であれば、制御対象のすべての人間が自身の前方に存在し、自身に注目し、一定範囲内に存在すると判断して、集団注意制御処理をリターンする。
しかし、ステップS75で“NO”であれば、つまりいずれかの人間との距離dが0.5m未満であれば、制御対象のすべての人間との距離dを0.5m以上にするコミュニケーション行動を実行する。具体的には、ステップS77で、首の角度をθLeftMaxに設定し、ステップS79で、両手を広げて、「皆、もう少し離れてね」と発話し、ステップS81で、首の角度をθRightMaxに設定し、そして、ステップS83で、首の角度を0度に設定する。つまり、ステップS77〜ステップS83の処理によって、両手を広げてすべての人間に自身から離れるように声を掛けながら、前方で最も左端に存在する人間から右端に存在する人間を見渡し、その後、前を向くといったコミュニケーション行動が実行される。
そして、ステップS85で、制御対象のすべての人間との距離dを0.5m以上にするコミュニケーション行動の実行回数dが所定回数M4(たとえば、3)以上であるかどうかを判断する。つまり、ロボット12が、制御対象のすべての人間との距離dを0.5m以上にするコミュニケーション行動を3回(以上)実行したかどうかを判断するのである。ステップS87で“NO”であれば、つまり実行回数dが2以下であれば、ステップS75に戻る。一方、ステップS87で“YES”であれば、つまり実行回数dが3以上であれば、制御対象のすべての人間との距離dが0.5m以上であるか否かに拘わらず、集団注意制御処理をリターンする。
図14〜図16は、図9に示したステップS19の個人注意制御処理を示すフロー図である。ただし、個人注意制御処理においては、集団注意制御処理に含まれる処理と同様の処理については、簡単に説明することにする。図14を参照して、CPU76は、個人注意制御処理を開始すると、ステップS101で、変数e,f,g,hを初期化する(e,f,g,h=0)。つまり、自身の前方に当該人間を移動させるコミュニケーション行動の実行回数e、当該人間の注意を自身に向けさせるコミュニケーション行動の実行回数f、自身に当該人間を近づかせるコミュニケーション行動の実行回数g、および自身から当該人間を少し遠ざけるためのコミュニケーション行動の実行回数hが「0」に設定される。
続くステップS103では、前方の第1所定角度DegF内に制御対象の人間(以下、「当該人間」という。)が存在するかどうかを判断する。ステップS103で“YES”であれば、つまり前方の第1所定角度DegF内に当該人間が存在する場合には、そのまま図15に示すステップS113に進む。
しかし、ステップS103で“NO”であれば、つまり前方の第1所定角度DegF内に当該人間が存在しない場合には、ステップS105で、首の角度をθHDegに設定し、ステップS107で、手を角度θHDegに向けて、「ねぇ、僕の前に来てよ」と発話する。このようにして、ロボット12が当該人間の方を向き、さらに指差しながら声を掛けて、自身の前方に当該人間を移動させるコミュニケーション行動が実行される。
そして、ステップS109で、自身の前方に当該人間を移動させるコミュニケーション行動の実行回数eをインクリメントする(e=e+1)。続くステップS111では、実行回数eが所定回数N1(たとえば、3)以上であるかどうかを判断する。つまり、ロボット12が、自身の前方に当該人間を移動させるコミュニケーション行動を3回(以上)実行したか否かを判断するのである。ステップS111で“NO”であれば、つまり実行回数eが2以下であれば、ステップS103に戻る。一方、ステップS111で“YES”であれば、つまり実行回数eが3以上であれば、自身の前方に当該人間が存在するか否かに拘わらず、ステップS113に進む。
図15に示すように、ステップS113では、当該人間が自身の方を見ているかどうかを判断する。ステップS113で“YES”であれば、つまり当該人間が自身の方を見ている(自身に注目している)場合には、そのままステップS123に進む。一方、ステップS113で“NO”であれば、つまり当該人間が自身の方を見ていない(自身に注目していない)場合には、当該人間の注意を自身に向けさせるコミュニケーション行動を実行する。具体的には、ステップS115で、首の角度をθHDegに設定し、ステップS117で、手を角度θHDegに向けて、「ねえねえ、僕を見て」と発話する。このようにして、ロボット12が当該人間の方を向き、さらに指差しながら声を掛けて、自身の方に当該人間を注目させるコミュニケーション行動が実行される。
そして、ステップS119で、当該人間の注意を自身に向けさせるコミュニケーション行動の実行回数fをインクリメントする(f=f+1)。続くステップS121では、実行回数fが所定回数N2(たとえば、3)以上であるかどうかを判断する。つまり、ロボット12が、当該人間の注意を自身に向けさせるコミュニケーション行動を3回(以上)実行したかどうかを判断するのである。ステップS121で“NO”であれば、つまり実行回数fが2以下であれば、そのままステップS113に戻る。一方、ステップS121で“YES”であれば、つまり実行回数fが3以上であれば、当該人間が自身に注目しているか否かにかかわらず、ステップS123に進む。
ステップS123では、当該人間との距離dがDistMax(たとえば、3m)以下であるかどうかを判断する。ステップS123で“YES”であれば、つまり当該人間との距離dが3m以下であれば、そのまま図16に示すステップS133に進む。しかし、ステップS123で“NO”であれば、つまり当該人間との距離dが3mを越えていれば、当該人間を自身に近づかせるコミュニケーション行動を実行する。具体的には、ステップS125で、首の角度をθHDegに設定し、ステップS127で、手をθHDegに向けて、「ねえ、もう少し近づいて」と発話する。このようにして、ロボット12が当該人間の方を向き、さらに指差しながら声を掛けて、自身に当該人間を近づかせるコミュニケーション行動が実行される。
そして、ステップS129で、自身に当該人間を近づかせるコミュニケーション行動の実行回数gをインクリメントする(g=g+1)。続くステップS131では、実行回数gが所定回数N3(たとえば、3)以上であるか動かを判断する。つまり、ロボット12が、自身に当該人間を近づかせるコミュニケーション行動を3回(以上)実行したか否かを判断するのである。ステップS131で“NO”であれば、つまり実行回数gが2以下であれば、ステップS123に戻る。一方、ステップS131で“YES”であれば、つまり実行回数gが3以上であれば、当該人間との距離dが3mを超えていても、ステップS133に進む。
図16に示すように、ステップS133では、当該人間との距離dがDistMin(たとえば、0.5m)以上かどうかを判断する。ステップS133で“YES”であれば、つまり当該人間との距離dが0.5m以上であれば、当該人間が自身の前方に存在し、自身に注目し、一定範囲内に存在すると判断して、個人注意制御処理をリターンする。
一方、ステップS133で“NO”であれば、つまり当該人間との距離dが0.5m未満であれば、当該人間を自身から少し遠ざけるためのコミュニケーション行動を実行する。具体的には、ステップS135で、首の角度をθHDegに設定し、ステップS137で、手を角度θHDegに向けて、「ねえ、もう少し離れてね」と発話する。このようにして、ロボット12が当該人間の方を向き、さらに指差しながら声を掛けて、自身から遠ざけるためのコミュニケーション行動が実行される。
そして、ステップS139で、当該人間を自身から少し遠ざけるためのコミュニケーション行動の実行回数hをインクリメントする(h=h+1)。続くステップS141では、実行回数hが所定回数N4(たとえば、3)以上であるかどうかを判断する。つまり、ロボット12が、当該人間を自身から少し遠ざけるためのコミュニケーション行動を3回(以上)実行したか否かを判断するのである。ステップS141で“NO”であれば、つまり実行回数hが2以下であれば、ステップS133に戻る。一方、ステップS141で“YES”であれば、つまり実行回数hが3以上であれば、当該人間との距離dが0.5m未満であっても、個人注意制御処理をリターンする。
この実施例によれば、制御対象の人数に応じて、注意制御を選択的に実行するので、適切な注意制御が可能である。したがって、ロボットが人間社会に自然に解け込むことができる。
なお、この実施例では、人間の存在や位置を検出するために床センサを設け、この床センサの出力に基づいてコンピュータで座標信号を求め、コンピュータからロボットに座標信号を与えるようにした。ただし、ロボットに全方位カメラを設けるようにすれば、床センサおよびコンピュータを用いずに、ロボット単体で注意制御を実行することも可能である。かかる場合には、全方位カメラの映像を解析することにより、ロボットの周囲に存在する人間の人数や前方の所定角度内に存在するかどうかを判断することができる。また、かかる場合には、超音波距離センサ(42)の出力に基づいて、周囲に存在する人間との距離を検出することができる。
また、この実施例では、人間の存在や位置を検出するために床センサを設けるようにしたが、これに限定されるべきでない。たとえば、床センサに代えて、天井カメラを設け、当該天井カメラの映像を解析するようにしてもよい。かかる場合には、人間の向き(ロボットの方を向いているかどうか)も知ることができる。また、無線タグを人間に装着し、当該無線タグのリーダをロボットに装備するようにしてもよい。かかる場合には、システムに含まれるコンピュータを省略することも可能である。
さらに、この実施例では、眼カメラの映像を解析することにより、人間がロボットの方を見ているかどうかを判断するようにした。しかし、人間の視線方向に赤外線を照射する赤外LEDを人間に装着し、赤外カメラをロボットに装備しておけば、赤外光を検出したかどうかで人間がロボットの方を見ているかどうかを判断することもできる。
さらにまた、この実施例では、身長が100cm程度のロボットを用いた場合についての角度や距離を例示した。しかし、それらの数値は適宜変更可能である。
また、この実施例では、注意制御においては、無限ループを回避するため、同一のコミュニケーション行動は所定回数だけ実行するようにして、制御対象の人間がロボット12の誘導に従わない場合であっても、それを無視するようにした。しかし、ロボット12が提供するサービスが機密事項のような重要な事項であり、制御対象の人間がロボット12の誘導(指示や命令)に従うべきものである場合には、すべての人間がロボット12の誘導に従わない限り、同じコミュニケーション行動を繰り返すようにしてもよい。かかる場合には、図10−図13に示した集団注意制御処理において、ステップS31,S43,S45,S57,S59,S71,S73,S83,S85を削除し、図14−図16に示した個人注意制御処理において、ステップS109,S111,S119,S121,S129,S131,S139,S141を削除するようにすればよい。ただし、一部のコミュニケーション行動のみを繰り返し実行するようにしてもよい。たとえば、ロボット12に制御対象の人間が注目するまでは、当該制御対象の人間を自身に注目させるためのコミュニケーション行動を繰り返し実行するが、他のコミュニケーション行動は、所定回数だけ実行するようにすることも可能である。
さらに、この実施例では、所定回数M1〜M4,N1〜N2は、すべての同じ回数にしたが、集団注意制御と個人注意制御とで、異なる回数にしてもよく、提供するサービスに応じて適宜設定するようにしてもよく、さらに、各々異なる回数に設定するようにしてもよい。
図1はこの発明の注意制御システムの一例を示すブロック図である。 図2は図1実施例に示すロボットの外観を説明するための図解図である。 図3は図1および図2に示すロボットの電気的な構成を示す図解図である。 図4はシステムの適用の一例を示す図解図である。 図5はロボットが集団注意制御を実行する方法を説明するための図解図である。 図6はロボットが集団注意制御を実行する方法を説明するための図解図である。 図7はロボットが個人注意制御を実行する方法を説明するための図解図である。 図8は図3に示すCPUの全体処理を示すフロー図である。 図9は図3に示すCPUの注意制御およびサービスの提供処理を示すフロー図である。 図10は図3に示すCPUの集団注意制御処理の一部を示すフロー図である。 図11は図3に示すCPUの集団注意制御処理の他の一部であり、図10に後続するフロー図である。 図12は図3に示すCPUの集団注意制御処理のその他の一部であり、図11に後続するフロー図である。 図13は図3に示すCPUの集団注意制御処理のさらに他の一部であり、図12に後続するフロー図である。 図14は図3に示すCPUの個人注意制御処理の一部を示すフロー図である。 図15は図3に示すCPUの個人注意制御処理の他の一部であり、図14に後続するフロー図である。 図16は図3に示すCPUの個人注意制御処理のその他の一部であり、図15に後続するフロー図である。
符号の説明
10 …注意制御システム
12 …コミュニケーションロボット
14 …コンピュータ
16 …床センサ
38 …衝突センサ
42 …超音波距離センサ
52 …全方位カメラ
54 …眼カメラ
64 …タッチセンサ
76 …CPU
80 …メモリ
82 …モータ制御ボード
84 …センサ入力/出力ボード
86 …音声入力/出力ボード
88−96 …モータ
98 …通信LANボード
100 …無線通信装置

Claims (12)

  1. 身体動作および音声の少なくとも一方を用いて人間との間でコミュニケーション行動して人間の注意を制御するコミュニケーションロボットであって、
    周囲に存在する人間の人数を検出する人数検出手段、
    周囲に存在する所定人数以上の人間の注意を制御する集団注意制御手段、および
    周囲に存在する前記所定人数未満の人間の注意を個別に制御する個人注意制御手段を備え、
    前記人数検出手段の検出結果に基づいて集団注意制御手段または個人注意制御手段を選択的に実行し、
    前記集団注意制御手段は、
    周囲に存在する制御対象のすべての人間が前方の第1所定角度以内に存在するか否かを判断する集団存在判断手段、
    前記集団存在判断手段によって前記前方の第1所定角度外に前記制御対象の人間が存在することが判断されたとき、前記制御対象のすべての人間を当該第1所定角度以内に移動させる第1コミュニケーション行動を実行する第1コミュニケーション行動実行手段、
    前記集団存在判断手段によって前記制御対象のすべての人間が前記前方の第1所定角度以内に存在することが判断されたとき、水平面において、前記制御対象の人間の視線方向と、当該制御対象の人間の眼の位置と自身の位置とを結ぶ直線とがなす角度が第2所定角度以下か否かを前記制御対象のすべての人間について判断することにより、当該制御対象のすべての人間が自身の方を見ているか否かを判断する集団注目判断手段、および
    前記集団注目判断手段によって自身の方を見ていない前記制御対象の人間が存在することが判断されたとき、前記制御対象のすべての人間を自身に注目させる第2コミュニケーション行動を実行する第2コミュニケーション行動実行手段を含む、コミュニケーションロボット。
  2. 前記集団注目判断手段は、前記第1コミュニケーション行動実行手段によって前記第1コミュニケーション行動が第1所定回数実行されたとき、前記集団存在判断手段の判断結果に拘わらず、前記制御対象のすべての人間が自身の方を見ているか否かを判断する、請求項記載のコミュニケーションロボット。
  3. 前記集団注意制御手段は、前記集団注目判断手段によって前記制御対象のすべての人間が自身の方を見ていることが判断されたとき、当該制御対象のすべての人間との距離が一定範囲内であるか否かを判断する集団距離判断手段、および前記集団距離判断手段の判断結果に基づいて前記制御対象のすべての人間を前記一定範囲内に移動させる第3コミュニケーション行動を実行する第3コミュニケーション行動実行手段をさらに含む、請求項1または2記載のコミュニケーションロボット。
  4. 前記集団距離判断手段は、前記第2コミュニケーション行動実行手段によって前記第2コミュニケーション行動が第2所定回数実行されたとき、前記集団注目判断手段の判断結果に拘わらず、前記制御対象のすべての人間との距離が一定範囲内であるか否かを判断する、請求項記載のコミュニケーションロボット。
  5. 前記集団注意制御手段は、前記第3コミュニケーション行動実行手段によって前記第3コミュニケーション行動が第3所定回数実行されたとき、前記制御対象のすべての人間についての注意の制御を終了する、請求項3または4記載のコミュニケーションロボット。
  6. 前記個人注意制御手段は、周囲に存在する制御対象の人間が前方の第3所定角度以内に存在するか否かを判断する個人存在判断手段、および前記個人存在判断手段によって前記制御対象の人間が前記前方の第3所定角度以内に存在しないことが判断されたとき、前記制御対象の人間を前記第3所定角度以内に移動させる第4コミュニケーション行動を実行する第4コミュニケーション行動実行手段を含む、請求項1記載のコミュニケーションロボット。
  7. 前記個人注意制御手段は、前記個人存在判断手段によって前記制御対象の人間が前記前方の第3所定角度以内に存在することが判断されたとき、水平面において、当該制御対象の人間の視線方向と、当該制御対象の人間の眼の位置と自身の位置とを結ぶ直線とがなす角度が第4所定角度以下かどうかを判断することにより、当該制御対象の人間が自身の方を見ているか否かを判断する個人注目判断手段、および前記個人注目判断手段によって前記制御対象の人間が自身の方を見ていないことが判断されたとき、当該制御対象の人間を自身に注目させる第5コミュニケーション行動を実行する第5コミュニケーション行動実行手段をさらに含む、請求項記載のコミュニケーションロボット。
  8. 前記個人注目判断手段は、前記第4コミュニケーション行動実行手段によって前記第4コミュニケーション行動が第4所定回数実行されたとき、前記個人存在判断手段の判断結果に拘わらず、前記制御対象の人間が自身の方を見ているか否かを判断する、請求項記載のコミュニケーションロボット。
  9. 前記個人注意制御手段は、前記個人注目判断手段によって前記制御対象の人間が自身の方を見ていることが判断されたとき、当該制御対象の人間との距離が一定範囲内であるか否かを判断する個人距離判断手段、および前記個人距離判断手段の判断結果に基づいて前記制御対象の人間を前記一定範囲内に移動させる第6コミュニケーション行動を実行する第6コミュニケーション行動実行手段をさらに含む、請求項または記載のコミュニケーションロボット。
  10. 前記個人距離判断手段は、前記第5コミュニケーション行動実行手段によって前記第5コミュニケーション行動が第5所定回数実行されたとき、前記個人注目判断手段の判断結果に拘わらず、前記制御対象の人間との距離が一定範囲内であるか否かを判断する、請求項記載のコミュニケーションロボット。
  11. 前記個人注意制御手段は、前記第6コミュニケーション行動実行手段によって前記第6コミュニケーション行動が第6所定回数実行されたとき、前記制御対象の人間についての注意の制御を終了する、請求項記載のコミュニケーションロボット。
  12. 身体動作および音声の少なくとも一方を用いて人間との間でコミュニケーション行動するコミュニケーションロボットを用いて人間の注意を制御する注意制御システムであって、
    前記コミュニケーションロボットの周囲に存在する人間の人数を検出する人数検出手段を備え、
    前記コミュニケーションロボットは、
    周囲に存在する所定人数以上の人間の注意を制御する集団注意制御手段、および
    周囲に存在する前記所定人数未満の人間の注意を個別に制御する個人注意制御手段を備え、
    前記人数検出手段の検出結果に基づいて集団注意制御手段または個人注意制御手段を選択的に実行し、
    前記集団注意制御手段は、
    周囲に存在する制御対象のすべての人間が前方の第1所定角度以内に存在するか否かを判断する集団存在判断手段、
    前記集団存在判断手段によって前記前方の第1所定角度外に前記制御対象の人間が存在することが判断されたとき、前記制御対象のすべての人間を当該第1所定角度以内に移動させる第1コミュニケーション行動を実行する第1コミュニケーション行動実行手段、
    前記集団存在判断手段によって前記制御対象のすべての人間が前記前方の第1所定角度以内に存在することが判断されたとき、水平面において、前記制御対象の人間の視線方向と、当該制御対象の人間の眼の位置と自身の位置とを結ぶ直線とがなす角度が第2所定角度以下か否かを前記制御対象のすべての人間について判断することにより、当該制御対象のすべての人間が自身の方を見ているか否かを判断する集団注目判断手段、および
    前記集団注目判断手段によって自身の方を見ていない前記制御対象の人間が存在することが判断されたとき、前記制御対象のすべての人間を自身に注目させる第2コミュニケーション行動を実行する第2コミュニケーション行動実行手段を含む、注意制御システム。
JP2005313470A 2005-10-27 2005-10-27 コミュニケーションロボットおよびそれを用いた注意制御システム Active JP4822319B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005313470A JP4822319B2 (ja) 2005-10-27 2005-10-27 コミュニケーションロボットおよびそれを用いた注意制御システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005313470A JP4822319B2 (ja) 2005-10-27 2005-10-27 コミュニケーションロボットおよびそれを用いた注意制御システム

Publications (2)

Publication Number Publication Date
JP2007118129A JP2007118129A (ja) 2007-05-17
JP4822319B2 true JP4822319B2 (ja) 2011-11-24

Family

ID=38142519

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005313470A Active JP4822319B2 (ja) 2005-10-27 2005-10-27 コミュニケーションロボットおよびそれを用いた注意制御システム

Country Status (1)

Country Link
JP (1) JP4822319B2 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009166184A (ja) * 2008-01-17 2009-07-30 Saitama Univ ガイドロボット
JP5157595B2 (ja) * 2008-04-01 2013-03-06 トヨタ自動車株式会社 接客システム及び接客方法
JP5077077B2 (ja) * 2008-05-30 2012-11-21 富士通株式会社 移動説明装置、および、移動説明プログラム
JP5336896B2 (ja) * 2009-03-24 2013-11-06 株式会社国際電気通信基礎技術研究所 対物行動推定装置およびサービス提供システム
JP5751610B2 (ja) * 2010-09-30 2015-07-22 学校法人早稲田大学 会話ロボット
JP2012213828A (ja) * 2011-03-31 2012-11-08 Fujitsu Ltd ロボット制御装置及びプログラム
CN104093527A (zh) * 2012-02-03 2014-10-08 日本电气株式会社 通信引入***、通信引入方法和通信引入程序
JP5439549B2 (ja) * 2012-07-09 2014-03-12 株式会社東芝 情報処理装置、情報処理システム、サービス提供システムおよび情報処理方法
JP5862585B2 (ja) 2013-03-22 2016-02-16 トヨタ自動車株式会社 コミュニケーションシステム及びロボット
JP6142306B2 (ja) * 2013-09-27 2017-06-07 株式会社国際電気通信基礎技術研究所 ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法
JP5948359B2 (ja) * 2014-03-11 2016-07-06 本田技研工業株式会社 ロボット、およびロボットの制御方法
JP6203696B2 (ja) * 2014-09-30 2017-09-27 富士ソフト株式会社 ロボット
EP3451124B1 (en) * 2016-04-28 2021-03-17 Fujitsu Limited Communication control device, method, and system
GB2552981B (en) * 2016-08-17 2020-04-01 Univ Of Hertfordshire Higher Education Corporation An Interactive Humanoid Robot using RFID Tagged Objects
JP6893410B2 (ja) * 2016-11-28 2021-06-23 株式会社G−グロボット コミュニケーションロボット
JP6707671B2 (ja) * 2017-01-19 2020-06-10 シャープ株式会社 言動制御装置、ロボット、制御プログラムおよび言動制御装置の制御方法
JP6726145B2 (ja) * 2017-09-12 2020-07-22 株式会社日立ビルシステム エレベーターの乗場案内システム
JP7174673B2 (ja) * 2019-06-17 2022-11-17 株式会社日立ビルシステム 案内ロボット
CN111273833B (zh) * 2020-03-25 2022-02-01 北京百度网讯科技有限公司 人机交互的控制方法、装置和***、电子设备

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08318052A (ja) * 1995-05-24 1996-12-03 Ricoh Elemex Corp 不特定多数の観客の反応に対応するロボットシステム
JP2993867B2 (ja) * 1995-05-24 1999-12-27 中小企業事業団 観客情報から多様な対応をするロボットシステム
JPH10289006A (ja) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法
JP2002207924A (ja) * 2001-01-12 2002-07-26 Maiteku:Kk 宣伝販売システム、宣伝販売方法、宣伝販売装置、管理装置及び記憶媒体
JP2005131713A (ja) * 2003-10-28 2005-05-26 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP4431757B2 (ja) * 2004-03-30 2010-03-17 株式会社国際電気通信基礎技術研究所 ロボットシステム
JP4206052B2 (ja) * 2004-03-31 2009-01-07 本田技研工業株式会社 検知対象検知システム

Also Published As

Publication number Publication date
JP2007118129A (ja) 2007-05-17

Similar Documents

Publication Publication Date Title
JP4822319B2 (ja) コミュニケーションロボットおよびそれを用いた注意制御システム
JP5033994B2 (ja) コミュニケーションロボット
JP5186723B2 (ja) コミュニケーションロボットシステムおよびコミュニケーションロボットの視線制御方法
JP4639343B2 (ja) ロボット遠隔操作システム
JP5366048B2 (ja) 情報提供システム
JP5070441B2 (ja) ロボット遠隔操作システム
JP4386367B2 (ja) コミュニケーションロボット改良システム
JP4599522B2 (ja) コミュニケーションロボット
JP2006247780A (ja) コミュニケーションロボット
JP6134895B2 (ja) ロボット制御システム、ロボット制御プログラムおよび説明ロボット
JP2010231359A (ja) 遠隔操作装置
JP5145569B2 (ja) 対象物特定方法および装置
JP2007160427A (ja) ロボット制御システム
JP2007196300A (ja) ロボット制御システム
JP4617428B2 (ja) 動作生成システム
JP4565196B2 (ja) コミュニケーションロボット
JP4399603B2 (ja) コミュニケーションロボット
JP2005131713A (ja) コミュニケーションロボット
JP2006205343A (ja) コミュニケーションロボットシステムおよびロボット制御装置
JP2007130691A (ja) コミュニケーションロボット
JP4798581B2 (ja) ロボットシステム
JP4793904B2 (ja) コミュニケーションロボットシステムおよびコミュニケーションロボット
JP2004042151A (ja) コミュニケーションロボット
JP6142306B2 (ja) ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法
JP4779114B2 (ja) コミュニケーションロボット

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110823

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110901

R150 Certificate of patent or registration of utility model

Ref document number: 4822319

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140916

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250