JP2009166184A - ガイドロボット - Google Patents

ガイドロボット Download PDF

Info

Publication number
JP2009166184A
JP2009166184A JP2008007789A JP2008007789A JP2009166184A JP 2009166184 A JP2009166184 A JP 2009166184A JP 2008007789 A JP2008007789 A JP 2008007789A JP 2008007789 A JP2008007789 A JP 2008007789A JP 2009166184 A JP2009166184 A JP 2009166184A
Authority
JP
Japan
Prior art keywords
face
guide robot
utterance
person
explanation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008007789A
Other languages
English (en)
Inventor
Yoshinori Kuno
義徳 久野
Hideaki Kuzuoka
英明 葛岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Saitama University NUC
Original Assignee
Saitama University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Saitama University NUC filed Critical Saitama University NUC
Priority to JP2008007789A priority Critical patent/JP2009166184A/ja
Publication of JP2009166184A publication Critical patent/JP2009166184A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)

Abstract

【課題】展示物を見る人が、その説明を希望している場合に説明するガイドロボットを提供する。
【解決手段】撮影手段50と、映像から入場者90の顔を検出する顔検出手段71と、その顔の向きを検出する顔向き検出手段72と、ロボットの発話内容及び行動を決定する発話・行動決定手段73と、発話データを音声出力する発話手段と、頭部10を回転して顔の向きを変える頭部回転手段とを備え、展示物91の説明過程で頭部10を回転して顔側の向きを変え、そのときの入場者90の顔向きに基づいて、その後の発話内容または行動を決定する。ガイドロボットが説明の途中で入場者90の方に顔を向けると、入場者90は、その動きに反応して顔を展示物91からロボットの方に向ける。ガイドロボットが入場者90の方に顔を向けても、入場者90の反応が見られないときは、その入場者90はロボットの説明を聞いていない、あるいは、興味がないと判定できる。
【選択図】図1

Description

本発明は、美術館や展示会等で入場者に展示品を説明するガイドロボットに関し、相手の反応を確認しながら説明を行うようにしたものである。
人と相互作用を行うコミュニケーションロボットでは、例えば、下記特許文献1に開示されているように、自ら能動的にコミュニケーション行動を人に提示し、それに対する人間の反応を認識して、その認識結果に応じた行動をさらに提示するロボットが開発されている。
特許文献1のコミュニケーションロボットは、たとえば、「こんにちは」と話しかけて返事があった場合に、「握手しよう」と言って一方の腕を前方に差し出す。逆に、返事がなかった場合は、「バイバイ」と言う。また、所定の方向に一方の腕及び手を向けて「あっちを見て」と言い、指差した方向に人の顔が向いたことを眼カメラの画像データで認識すると、相手の顔の向きに合わせて頭部の顔側を回転させる。
また、このロボットは、人に装着された赤外線タグの赤外線を検出する赤外線センサや相手との距離を測定する超音波距離センサを備えており、赤外線タグから放射される赤外線が検出できたときは、相手がロボットの方を向いていると判断し、相手が近くにいるのに赤外線が検出できないときは、相手がロボットの方を向いていないと判断する。
そして、コミュニケーション中の相手がロボットの方を向いていないときは、興味を失っていると判断し、話題の転換を図る。
特開2005−238382号公報
多くの美術館では、作品の解説に音声ガイドが導入されており、ヘッドホンを装着した入館者は、作品の前でヘッドホンから流れる説明に聞き入っている。
本発明者等は、この音声ガイドに代わるガイドロボットの開発に取り組んでいる。ガイドロボットの主目的は、入館者が楽しみながら作品を鑑賞できるようにサポートすることであり、入館者の興味がガイドロボットにだけ集中したのでは、所期の目的が達成できない。
そのため、ガイドロボットの場合は、相手の関心を自らに向けるように動作する特許文献1のロボットとは異なる対応が必要になる。
例えば、作品を鑑賞する入館者は、通常、作品の方に体の正面を向けるから、ガイドロボットと向き合うことはない。それ故、特許文献1のように、体がロボットに正対しているか否かを基準に入館者の反応を識別すると、ガイドロボットの場合は、判断を誤ることになる。
本発明は、こうした事情を考慮して創案したものであり、展示物を見る人が、その説明を希望している場合に、分かり易く説明するガイドロボットを提供することを目的としている。
本発明は、入場者(被説明者)に展示物の説明を行うガイドロボットであって、周囲の状況を撮影する撮影手段と、前記撮影手段が撮影した映像から被説明者の顔を検出する顔検出手段と、前記顔検出手段が検出した顔の向きを検出する顔向き検出手段と、ロボットの発話内容及び行動を決定する発話・行動決定手段と、予め蓄積された発話データの中から前記発話・行動決定手段が決定した発話内容の発話データを音声に変換して出力する発話手段と、前記発話・行動決定手段の決定に従い、頭部を回転して顔側の向きを変える頭部回転手段と、を備え、被説明者に展示物を説明する過程で、前記頭部回転手段が、前記頭部を回転して顔側の向きを変え、前記発話・行動決定手段が、そのときに前記顔向き検出手段により検出された当該被説明者の顔向きに基づいて、その後の発話内容または行動を決定することを特徴とする。
ガイドロボットが説明の途中で人間の方に顔を向けると、説明を聞いていた人間は、その動きに連れて、顔を展示物からロボットの方に向ける。逆に、ガイドロボットが人間の方に顔を向けても、人間の反応が見られないときは、その人間はロボットの説明をあまり聞いていない、あるいは、興味がないと判定できる。このような場合に、説明の打ち切りや、説明内容の変更を行う。
また、本発明のガイドロボットの前記発話・行動決定手段は、前記頭部回転手段が前記頭部を回転して顔側の向きを変えたのに、前記被説明者の顔向きが変わらない回数を非追従回数としてカウントし、前記非追従回数が予め設定した閾値に達したとき、前記説明を打ち切る。
このように、ガイドロボットの動きに反応しない回数が予め設定した回数に達すると、説明の打ち切りを行う。
また、本発明のガイドロボットの前記発話・行動決定手段は、前記頭部回転手段が前記頭部を回転して顔側の向きを変えたのに、前記被説明者の顔向きが変わらないとき、説明の内容を変更する。
このように、説明を打ち切る前に、説明の内容を変えて相手の反応を見る。
また、本発明のガイドロボットは、前記頭部回転手段が、説明の切れ目、または、予め設定された語の発話に合わせて、前記顔側の向きを前記展示物から前記被説明者の方向に変えるように構成している。
また、本発明のガイドロボットでは、前記予め設定された語が、重要な語、難解な語、または、数字である。
人間の説明員の説明態度を分析すると、説明員は、説明の切れ目や、重要な語を言うとき、また難解な語や数字を言うときに入場者の方に顔を向けている。説明員は、そうすることで入場者が自分の説明に付いてきているか、何か質問が無いか等を確認しており、入場者は、こうした説明員の動作が加わることで、説明が理解し易くなる。しかし、説明に興味を持たない人は、説明員の動作に反応しない。従って、説明員の動作に対する反応を検出することで、説明への興味の有無が識別できる。
また、本発明のガイドロボットは、さらに、前記発話・行動決定手段の決定に従い、指定された方向を手で指し示す指示手段を設け、前記指示手段が前記展示物を指示するときに、前記頭部回転手段が、前記指示手段の指示する方向に顔側の向きを変えるように前記頭部を回転し、前記発話・行動決定手段が、そのときに前記顔向き検出手段により検出された当該被説明者の顔向きに基づいて、その後の発話内容または行動を決定するように構成しても良い。
また、本発明のガイドロボットの前記発話・行動決定手段は、前記指示手段が指示したのに、前記被説明者の顔向きが指示した方向に向かないとき、前記指示手段の指示を予め設定された所定回数だけ繰り返し、前記所定回数を繰り返しても前記被説明者の顔向きが指示した方向に向かないとき、前記非追従回数のカウント数を1増やす。
また、本発明のガイドロボットは、前記指示手段が前記展示物を指示するときに、前記発話手段が、前記被説明者に対し、前記指示手段の指示する方向を向くように促す発話を行うように構成しても良い。
また、本発明のガイドロボットは、前記指示手段が、「これ」等の指示語の発話に合わせて、前記展示物の該当箇所を指示するように構成しても良い。
このように、ロボットが方向を示し、且つ、その方向に顔を向けると、被説明者は、それに連れてロボットの指し示す方向を見る。このとき、被説明者がロボットの指示する方向を見なければ、その被説明者はロボットの指示に気付いていないか、説明に対する興味が薄れていると判断できる。
また、本発明のガイドロボットは、前記指示手段が、手の平を広げた状態で指示する方向を指し示し、または、一部の指だけを伸ばした状態で指示する方向を指し示すように構成することができる。
ロボットが「こちらへどうぞ」と相手を案内する場合や、展示物の全体、または、ある程度拡がりのある部分を指し示す場合は、手を広げた形にして、「この絵は・・・」または「この部分は・・・」と発話しながら説明し、展示物の一部分を指示する場合は、人差し指だけを伸ばした手の形で対象部分を指差し、「これは・・・です」と発話しながら説明する。
また、本発明のガイドロボットは、前記顔向き検出手段が、前記顔検出手段により検出された顔から、当該顔の顔向きと、頷く動作とを検出するように構成することができる。
また、本発明のガイドロボットは、前記頭部回転手段が、横を向くように水平方向に頭部を回転し、または、頷くように垂直方向に頭部を回転するように構成することができる。
例えば、ロボットが「お分かりですね」と発話して相手の同意を求めるとき、ロボットが頷く動作を行うと、人間もそれに連れて頷き返す。こうした動作を通じて、人間はロボットの説明に深く聞き入るようになる。逆に、被説明者から、こうした反応が見られないときは、説明に対する興味が薄れていると判断できる。
また、本発明のガイドロボットは、さらに、前記発話・行動決定手段の決定に従い、指定された位置にロボットを移動する移動手段を設け、前記顔検出手段が被説明者の顔を検出すると、前記移動手段が、当該被説明者の近傍への移動を行い、前記発話手段が、展示物の説明の申し出を発話するように構成することができる。
また、本発明のガイドロボットは、前記発話手段により展示物の説明の申し出が行われた後、前記顔向き検出手段により所定時間以上に渡ってロボットの方を向く被説明者の顔向きが検出されると、前記移動手段が、予め定められた説明に適する位置への移動を行い、前記指示手段が、当該被説明者の誘導先の位置を指し示すように構成することができる。
このガイドロボットは、撮影手段が撮影した映像から被説明者の顔を検出すると、その人に近づいて「この作品を説明しましょうか」等と声を掛ける。その人がロボットの方を向き、説明を望んでいると判断できる場合には、ロボットは、説明位置に移動して、展示物の正面の位置を手で指し示し、「こちらへどうぞ」と誘導する。
また、本発明のガイドロボットは、前記発話手段により展示物の説明の申し出が行われても、前記顔向き検出手段によりロボットの方を向く被説明者の顔向きが検出されないとき、前記発話手段が、展示物の説明の申し出を繰り返すように構成することができる。
この場合、相手の顔が検出できているときは、相手がロボットを見るまで、呼掛けを繰り返してもよいし、また、予め定めた回数だけ繰り返し、それでも相手がロボットの方を見なければ、説明が不要だと判定して止めるようにしてもよい。
本発明のガイドロボットは、展示物の説明を希望している人に対し、分かり易い説明を行うことができる。また、その人の反応から、説明に興味を持たない人や、説明の途中で興味が薄れた人を的確に識別することができるため、それらの人に説明を無理強いすること無く、希望者のみに効率的に説明を行うことができる。
本発明の実施形態のガイドロボットについて、図面を基に説明する。図1は、このガイドロボットの外形と機能ブロックとを模式的に示す図、図2は、このガイドロボットの構成を示すブロック図、図3は、このガイドロボットの動作を示すフロー図、また、図4は、このガイドロボットが説明に用いる説明文を示す図である。
このガイドロボットは、図1に示すように、外形的に頭部10と、胴体20と、腕30と、手31と、移動用の車輪40と、ビデオカメラ50とを有しており、頭部10には顔が設けられている。また、図2に示すように、駆動系のハードウエアとして、腕30を動かす腕モータ33、手31の指を動かす指モータ32、胴体20に対して頭部10を回転する頭部モータ11、胴体20の向きを変える腰モータ21、車輪40を回転してロボットを前後左右に移動する車輪モータ41、及び、各モータを制御するモータ制御ボード61を有している。また、センサ系として、距離を測定する超音波距離センサ51、ロボットの周囲の状況を撮影するビデオカメラ50、及び、これらへの信号の入出力を中継するセンサ入力/出力ボード62を有している。また、オーディオ系として、発話データを音声に変換して出力するスピーカ12、及び、スピーカ12への信号出力を中継する音声出力ボード63を有している。また、制御系として、ロボットを制御するCPU64、制御プログラムや各種データが記憶されるメモリ65、及び、ビデオカメラ50の映像に含まれた顔画像を解析するDSP(digital signal processor)から成る顔画像処理装置68を有している。また、通信系として、外部のコンピュータと通信を行う無線通信装置67、及び、通信LANボード66を有している。
なお、通信系は、有線により外部のコンピュータと接続する構成でも良い。メモリ65には、スピーカ12から音声出力される各種の発話データが格納され、また、ロボットの発話や行動の履歴、移動の軌跡などの情報が保持されるが、このメモリ65を外部コンピュータのメモリで代用し、外部コンピュータとロボットとが、通信系を介して、これらの情報をやり取りするようにしても良い。また、顔画像処理装置68は、制御プログラムに従って演算処理を行うCPU64の機能として実現することもできる。また、外部コンピュータの側で顔画像処理装置68を保持し、ロボットが、通信系を介して、ビデオカメラ50の画像データを外部コンピュータに送るようにしても良い。
ビデオカメラ50は、図1に示すように、ロボットの胴体20に固定され、頭部10よりも高い位置にある。そのため、頭部10の回転の影響を受けずに、ロボットの前方を撮り続けることができる。
このガイドロボットは、ビデオカメラ50の映像から人90の顔画像を検出し、それを基に、人90への作品91の説明の仕方について決定する。
この動作を行うために、ガイドロボットは、図1に示すように、機能ブロックとして、ビデオカメラ50の映像から顔画像を検出する顔検出手段71と、検出された顔画像から顔向きを検出する顔向き検出手段72と、顔画像や顔向きに基づいてロボットの発話内容や行動を決定する発話・行動決定手段73と、決定された内容の発話を生成する発話生成手段74とを備えている。顔検出手段71及び顔向き検出手段72は、ビデオカメラ50の映像を処理する顔画像処理装置68により実現され、発話・行動決定手段73は、制御プログラムに従って処理を行うCPU64により実現され、また、発話生成手段74は、メモリ65に予め格納された各種の発話データの中から制御プログラムに従ってCPU64が選択する処理によって実現される。
顔画像の検出には、幾つかの方法が知られている。例えば、図5のフロー図に示すように、ビデオカメラ50の映像から、矩形特徴を利用した識別器を用いて顔に相当する顔矩形を検出し(ステップ1)、また、ビデオカメラ50の映像から、肌色領域を検出し(ステップ2)、顔矩形と肌色領域とが少なくとも一部で重なる場合に(ステップ3)、それを顔画像として検出することができる(ステップ4)。
肌色領域の検出(ステップ2)は、図6に示すように、ビデオカメラ50の映像から、RGBカラースペース(R、G、B各8ビット)での値が、
R>95、G>40、B>20
Max{R.G.B}−Min{R.G.B}>15
|R−G|>15
R>G、R>B
の条件を満たす肌色の画素の範囲を抽出し(ステップ21)、この肌色部分のフレーム間差分を算出して、フレーム間差分の絶対値の総和が閾値を超えるか否かを識別し(ステップ22)、フレーム間差分が閾値以下の肌色部分は、肌色の壁や机等が抽出されたものとして排除し(ステップ24)、フレーム間差分の絶対値の総和が閾値を超える肌色部分を人物の顔の可能性がある肌色領域として検出する(ステップ23)。
図7(a)には、画像から検出された顔矩形711を示している。ここでは、識別器として“OpenCV Haar Classifier”(G. Bradsky, A. kaehler, V. Pisarevskky, “Learning Based Computer Vision with Intel’s Open Source Computer Vision Library,” Intel Technology Journal, Vol.09, 2005)を正面顔を検出するように学習させたものを用いている。図7(b)(c)(d)に示すように、この顔矩形711の水平方向の中心線712は、鼻の位置に一致している。また、図7(b)(c)(d)には、肌色領域の水平方向の境界線を713として示している。
顔向きの検出は、図8のフロー図に示すように、顔矩形の検出(ステップ1)と肌色領域の検出(ステップ2)との検出結果を用いて、顔矩形711の水平方向の中心位置(中心線712の位置)と肌色領域(境界線713の間の領域)の水平方向の中心位置との差分を算出して求めることができる(ステップ6)。
ガイドロボットの方を向く正面顔は、ステップ6で求めた差分値と予め設定した閾値とを比較し(ステップ7)、差分値が閾値未満である場合に、正面顔と識別することができる(ステップ8)。差分値が閾値を超えていれば、正面顔ではないと識別できる(ステップ9)。
図7(c)は、人物がビデオカメラ50の正面を向いたときの顔矩形711と肌色領域713との関係を示し、また、図7(b)は、ビデオカメラ50の多少右側を向いたとき、図7(d)は、ビデオカメラ50の多少左側を向いたときの顔矩形711と肌色領域713との関係を示している。
顔検出手段71及び顔向き検出手段72は、こうした処理により顔画像の検出と顔向きの検出とを継続的に行う。
次に、このガイドロボットの動作について、図3のフロー図を用いて説明する。
ガイドロボットの顔検出手段71は、ビデオカメラ50の画像から人の顔を検出する(ステップ31)。顔画像が検出されると、発話・行動決定手段73は、その人への接近を指令する(ステップ32)。
このガイドロボットは、自分の存在位置を知ることが可能である。例えば、会場内に固定されている2以上の物体を基準指標とし、それらとの距離を超音波距離センサ51で測定すれば、会場内での位置が算出できる。また、絵画91の大きさや床からの掲示の高さ、ビデオカメラ50の取り付け位置が既知であれば、絵画91の隅の位置を撮影したビデオカメラ50の画像からガイドロボットの立ち位置を求めることもできる。また、床に圧力センサを設けたり、天井や壁に位置算出用のマークを付けたりしても、位置を求める手段は実現できる。
ガイドロボットは、現在位置から、顔画像が検出された人の位置まで、例えば、移動軌跡が少し弧を描くように近付き、超音波距離センサ51で測定したその人との距離が所定値に縮まった時点で停止する。なお、最初に人間に近付く場合、直線的に近付くと、人間が後ずさりしてしまうことがある。しかし、弧を描いて近付くと、そのようなことが少ない。
人に近付いたガイドロボットは、発話・行動決定手段73の指令に従って、スピーカ12から「この作品を説明しましょうか」などと発話し、説明の申し出を行う(ステップ33)。
説明の申し出を受けた人が、ガイドロボットの方を所定時間直視した場合、即ち、正面顔が所定時間検出されたときは(ステップ34でYes)、説明を希望しているものと判断する。ガイドロボットは、説明を始めるために、説明に適した位置に移動し(ステップ35)、また、「こちらへどうぞ」と発話して、広げた手31で鑑賞に適した位置を指し示し、その人をその場所に誘導する(ステップ36)。
一般に絵画作品の鑑賞は、絵画全体の見易さから、絵画の中央正面であって、絵画の対角線の長さに相当する距離だけ離れた位置で見るのが適している。ガイドロボットが移動する“説明に適した位置”は、腕30及び手31を伸ばして、鑑賞に適した位置に人間を導くことができる位置である。この鑑賞位置及び説明位置は、予め作品ごとに定めて、メモリ65に記憶しておくことができる。
ステップ34において、人がガイドロボットの方を見ないとき、即ち、顔画像は検出されているが、正面顔が検出されていないときは、作品に興味を抱いているが、ロボットの発話に気が付かなかった、あるいは、ロボットの発話には気づいたが、どうしようか考慮中である、と考えられるので、申し出回数Kを1つインクリメントし(ステップ38)、その回数Kが閾値(K0)を超えていなければ(ステップ39でNo)、説明の申し出を繰り返す(ステップ33)。このとき、メモリ65に格納された複数の発話データの中から、前回と異なる発話内容の発話データを選択し、例えば「どうですか。この作品に興味はございませんか」などと言って説明を勧誘する。
こうした発話の使い分けを行うため、メモリ65には、幾通りもの発話データが用意され、また、ガイドロボットの発話の履歴や行動の履歴が記憶される。
申し出回数Kが閾値(K0)を超えた場合は(ステップ39でYes)、ガイドロボットの説明が不要と判断し、この人への説明を断念して、ステップ31に戻る。
また、鑑賞位置に誘導した人が、その位置に移動しない場合、即ち、鑑賞位置から顔画像が検出できない場合は(ステップ37でNo)、誘導回数Lを1つインクリメントし(ステップ41)、その回数Lが閾値(L0)を超えていなければ(ステップ41でNo)、再び「こちらへどうぞ」と発話し、腕30及び手31を伸ばして誘導動作を繰り返す(ステップ33)。
誘導回数Lが閾値(L0)を超えた場合は(ステップ41でYes)、ガイドロボットの説明が聞きたくないものと判断し、この人への説明を止めて、ステップ31に戻る。
鑑賞位置に誘導した人が、その位置に移動すると(ステップ37でYes)、作品91の説明を開始する(ステップ42)。
メモリ65に格納された説明文には、図4に示すように、(a)(a1)(b1)(b2)等の制御記号が含まれている。ここで、(a)は、説明の切れ目に、ガイドロボットの顔を入場者の方向に向けるように指示する制御記号である。(a1)は、予め設定された重要な語、難解な語、数字などが出現したとき、その語を発話しながら、ガイドロボットの顔を入場者の方向に向けるように指示する制御記号である。(b1)は、「これ」等の指示語が出現したとき、腕を指示語で表される対象物の方向に伸ばす(手は全ての指を伸ばした状態とする)とともに、その方向にガイドロボットの顔を向けるように指示する制御記号である。また、(b2)は、指示語が出現したとき、腕を指示語で表される対象物の方向に伸ばす(手は人差し指だけを伸ばした状態とする)とともに、その方向にガイドロボットの顔を向けるように指示する制御記号である。
ガイドロボットは、この説明文を音声に変換してスピーカ12から音声出力する。それと同時に、制御記号(a)が挿入された“説明の切れ目”であるか否かを識別し(ステップ43)、説明の切れ目であれば、頭部モータ11を駆動して頭部10の顔の側を人90の方に向ける(ステップ46)。
また、ステップ43において、説明の切れ目でないときは、制御記号(a1)が挿入された設定語であるか否かを識別し(ステップ44)、設定語であれば、頭部モータ11を駆動して頭部10の顔の側を人90の方に向ける(ステップ46)。
このように説明者が、説明を受けている人(鑑賞者)90の顔を見ると、鑑賞者90が興味を持って説明を聞いている場合、説明者の動作に反応して、鑑賞者90も説明者の顔を見ることが本発明の発明者等の観察で確かめられている (Y. Kuno, K. Sadazuka, M. Kawashima, K. Yamazaki, A. Yamazaki, and H. Kuzuoka, Museum guide robot based on sociological interaction analysis, Proc. CHI2007, pp.1191-1194, 2007 及び Y. Kuno, K. Sadazuka, M. Kawashima, S.Tsuruta, K. Yamazaki, and A. Yamazaki, Effective head gestures for museum guide robots in interaction with humans, Proc. RO-MAN2007, pp.151-156, 2007)。
逆に、説明者の動作に鑑賞者90が反応しない場合は、説明者の説明をあまり聞いていない状態、説明に興味が無い状態と判定できる。
ガイドロボットの顔向き検出手段72は、鑑賞者90の方に顔を向けたときに(ステップ46)、鑑賞者90がガイドロボットの方を向いたか否かを識別する(ステップ47)。鑑賞者90がガイドロボットの方を向いた場合は、興味を持って説明を聞いているものと見て、説明を続ける(ステップ42)。また、ステップ47において、鑑賞者90がガイドロボットの方を向かないときは、非追従回数Nを1つインクリメントする(ステップ54)。
また、ステップ44において、設定語で無いときは、制御記号(b1)または(b2)が挿入された指示語であるか否かを識別する(ステップ45)。指示語であれば、制御記号(b1)または(b2)に従い、全ての指を伸ばした手の形で、または、人差し指だけを伸ばした手の形で、指示語で表されるものを指し示し(ステップ48)、その方向にガイドロボットの顔を向ける(ステップ49)。
鑑賞者90が興味を持って説明を聞いている場合は、このガイドロボットの動作に反応して、指示された方向に顔を向ける。逆に、ガイドロボットの動作に鑑賞者90が反応しない場合は、ガイドロボットの説明をあまり聞いていない状態、説明に興味が無い状態と判定できる。ガイドロボットの顔向き検出手段72は、鑑賞者90がガイドロボットの指示する方向を向いたか否かを識別する(ステップ50)。鑑賞者90がガイドロボットの指示する方向を向いた場合は、興味を持って説明を聞いているものと見て、説明を続ける(ステップ42)。
また、ステップ50において、鑑賞者90がガイドロボットの指示する方向を向かないときは、この指示に気付かない場合もあるので、指示回数Mを1つインクリメントし(ステップ51)、その回数Mが閾値(M0)を超えていなければ(ステップ52でNo)、一旦、指示する手を下ろした後に、再び手で指示を行う(ステップ53)。また、ステップ52において、指示回数Mが閾値(M0)を超えた場合は(ステップ52でYes)、非追従回数Nを1つインクリメントする(ステップ54)。
そして、非追従回数Nの合計が閾値(N0)を超えた場合(ステップ55でYes)、鑑賞者90は、ガイドロボットの説明に興味がないと判断し、「それでは、次の作品に行きましょうか」などと言って、説明を途中で打ち切る(ステップ56)。また、説明文を予め幾つかの部分に分けて置き、次の切れ目まで発話して、終了するようにしても良い。
また、ステップ45において、指示語でも無いときは、説明が完了しているか否かを識別し(ステップ57)、完了していれば説明を終了し、完了していなければ説明を続ける(ステップ42)。
このように、このガイドロボットは、ガイドロボットの説明を希望する人にだけ、説明を行うことができる。
なお、ガイドロボットの頭部モータ11を、頭部10の水平方向の回転だけでなく、垂直方向にも回転できるように構成すれば、ガイドロボットの動作に“頷く所作”を加えることができる。このガイドロボットが、例えば、「お分かりですね」と発話して鑑賞者の同意を求めるとき、頷く動作を併せて行うと、鑑賞者も、それに反応して頷き返す。こうした動作を通じて、鑑賞者はガイドロボットの説明に深く聞き入るようになる。逆に、鑑賞者から、こうした反応が見られないときは、説明に対する興味が薄れていると判断できる。
そのため、ガイドロボットの顔向き検出手段72が、鑑賞者の水平方向の顔向きとともに、頷くときの垂直方向の顔向きを検出するように構成すれば、鑑賞者がガイドロボットの説明を望んでいるか否かを、頷く動作からも識別できる。なお、頷く動作は、顔画像のフレーム差分を取ることで簡単に検出可能である。
また、ガイドロボットの腕30及び手30を動かして作品91やその一部を指し示すとき、「こちらを見て下さい」とか「もっと近付いて見て下さい」などと、鑑賞者の行動を促す発話を併せて行うようにすれば、鑑賞者を作品の説明に、より強く引き入れることができる。このとき、鑑賞者から発話に応じた反応が見られなければ、説明に対する興味が薄れていることを明確に識別できる。
また、こうした指示動作の際に、ガイドロボット自身が作品の指示する箇所に近付いたり、指示する対象に応じて、手の形や腕の振り方を変えたりすることにより、ガイドロボットの説明に対する鑑賞者の注目度を高めることができる。
例えば、「こちらへどうぞ」と相手を案内するときは手を広げる。また、絵全体、あるいは、ある程度広がりのある部分を指し示すときは、手を広げ、腕をその辺りで円を描くように動かす。狭い部分を指し示すときは、手を握って人差し指だけを伸ばし、腕は、その部分を指し続ける。
こうした動作に対して鑑賞者の反応が無ければ、説明に対する興味が薄れていることを明確に識別できる。
ガイドロボットの手(手の付いた腕を単に手と言う。)や指の動きは、説明を受ける相手に強い印象を与えるため、その動作をきめ細かく設定することも重要である。
例えば、ロボットは「これは・・・です」というような“部分”を示す発話の少し前から手でその部分の指差しに入る。この指差しに対して、相手の顔の向きが作品の方に向けば、手を下ろす(相手がすぐ向いた場合なども考慮して、一定の時間は指差すようにしてもよい)。言い換えれば、作品の方を向くまで指差しを続ける。しかし、指示の発話が終了しても相手が顔を作品の方に向けない場合は(ロボットはこの時点で手をおろす)、相手が指示に気づかないか、説明そのものに興味が薄れてきているかもしれないので、再度、指を指しながら、「これは・・・です」と繰り返す。この場合も説明の開始場面と同様に、繰り返しの際の表現を変えるようにしてもよい。
ガイドロボットのこれらの動作は、全てプログラムで指定して行わせる。
また、非追従回数Nに基づいて説明を打ち切る前の段階で、あるいは、あらかじめ定めておいた首振りや指差し箇所での反応がなかったときに、説明の内容を別のものに変えて相手の関心を惹くことを試みるようにしても良い。つまり、打ち切りの前に、興味を引くかもしれない別の内容の説明に切り替えて相手の様子をみる動作や、ここは説明のポイントで普通は受けるはずだというところで、反応がなければ、説明を変えてみる動作をガイドロボットに行わせる。
なお、ここでは、ビデオカメラを用いて鑑賞者を撮影しているが、鑑賞者の顔画像を連続的に撮影できる撮影装置であればどれでも使用可能である。
また、この撮影装置の設置位置は、ガイドロボットの頭部の回転や腕の動きに邪魔されずに、ガイドロボットの正面前方が撮影できる位置であれば、どこでも良い。
また、ここで紹介した顔画像の検出方法や顔向きの検出方法は、一例であって、本発明は、それに限定されるものではない。
また、ここでは、ガイドロボットが絵画作品を説明する場合について例示したが、このガイドロボットは、商品や新製品、展示品、展示パネルなど、各種の展示物の説明に用いることができる。
本発明のガイドロボットは、美術館や博物館のガイドロボット、展示会やイベントのガイドロボット、駅等のガイドロボット、介護ロボット、店員ロボット、ウェーターロボット等として広い分野で用いることができる。
本発明の実施形態に係るガイドロボットの外形と機能ブロックとを模式的に示す図 図1のガイドロボットの構成を示すブロック図 図1のガイドロボットの動作を示すフロー図 図1のガイドロボットが説明する説明文を示す図 図1の顔検出手段の顔画像検出手順を示すフロー図 図5のフロー図の肌色領域検出手順を示すフロー図 検出された顔矩形及び肌色領域を示す図 図1の顔向き検出手段の顔向き画像検出手順を示すフロー図
符号の説明
10 頭部
11 頭部モータ
12 スピーカ
20 胴体
21 腰モータ
30 腕
31 手
32 指モータ
33 腕モータ
40 車輪
41 車輪モータ
50 ビデオカメラ
51 超音波距離センサ
61 モータ制御ボード
62 センサ入力/出力ボード
63 音声出力ボード
64 CPU
65 メモリ
66 通信LANボード
67 無線通信装置
68 顔画像処理装置
711 顔矩形
712 顔矩形中心線
713 肌色領域境界線

Claims (15)

  1. 被説明者に展示物の説明を行うガイドロボットであって、
    周囲の状況を撮影する撮影手段と、
    前記撮影手段が撮影した映像から被説明者の顔を検出する顔検出手段と、
    前記顔検出手段が検出した顔の向きを検出する顔向き検出手段と、
    ロボットの発話内容及び行動を決定する発話・行動決定手段と、
    予め蓄積された発話データの中から前記発話・行動決定手段が決定した発話内容の発話データを音声に変換して出力する発話手段と、
    前記発話・行動決定手段の決定に従い、頭部を回転して顔側の向きを変える頭部回転手段と、
    を備え、被説明者に展示物を説明する過程で、前記頭部回転手段が、前記頭部を回転して顔側の向きを変え、前記発話・行動決定手段が、そのときに前記顔向き検出手段により検出された当該被説明者の顔向きに基づいて、その後の発話内容または行動を決定することを特徴とするガイドロボット。
  2. 請求項1に記載のガイドロボットであって、前記発話・行動決定手段は、前記頭部回転手段が前記頭部を回転して顔側の向きを変えたのに、前記被説明者の顔向きが変わらない回数を非追従回数としてカウントし、前記非追従回数が予め設定した閾値に達したとき、前記説明を打ち切ることを特徴とするガイドロボット。
  3. 請求項1に記載のガイドロボットであって、前記発話・行動決定手段は、前記頭部回転手段が前記頭部を回転して顔側の向きを変えたのに、前記被説明者の顔向きが変わらないとき、説明の内容を変更することを特徴とするガイドロボット。
  4. 請求項1から3のいずれかに記載のガイドロボットであって、前記頭部回転手段が、説明の切れ目、または、予め設定された語の発話に合わせて、前記顔側の向きを前記展示物から前記被説明者の方向に変えることを特徴とするガイドロボット。
  5. 請求項4に記載のガイドロボットであって、前記予め設定された語が、重要な語、難解な語、または、数字であることを特徴とするガイドロボット。
  6. 請求項1から5のいずれかに記載のガイドロボットであって、さらに、前記発話・行動決定手段の決定に従い、指定された方向を手で指し示す指示手段を備え、前記指示手段が前記展示物を指示するときに、前記頭部回転手段が、前記指示手段の指示する方向に顔側の向きを変えるように前記頭部を回転し、前記発話・行動決定手段が、そのときに前記顔向き検出手段により検出された当該被説明者の顔向きに基づいて、その後の発話内容または行動を決定することを特徴とするガイドロボット。
  7. 請求項6に記載のガイドロボットであって、前記発話・行動決定手段は、前記指示手段が指示したのに、前記被説明者の顔向きが指示した方向に向かないとき、前記指示手段の指示を予め設定された所定回数だけ繰り返し、前記所定回数を繰り返しても前記被説明者の顔向きが指示した方向に向かないとき、前記非追従回数のカウント数を1増やすことを特徴とするガイドロボット。
  8. 請求項6または7に記載のガイドロボットであって、前記指示手段が前記展示物を指示するときに、前記発話手段が、前記被説明者に対し、前記指示手段の指示する方向を向くように促す発話を行うことを特徴とするガイドロボット。
  9. 請求項6または7に記載のガイドロボットであって、前記指示手段が、「これ」等の指示語の発話に合わせて、前記展示物の該当箇所を指示することを特徴とするガイドロボット。
  10. 請求項6または7に記載のガイドロボットであって、前記指示手段が、手の平を広げた状態で指示する方向を指し示し、または、一部の指だけを伸ばした状態で指示する方向を指し示すことを特徴とするガイドロボット。
  11. 請求項1から10のいずれかに記載のガイドロボットであって、前記顔向き検出手段が、 前記顔検出手段により検出された顔から、当該顔の顔向きと、頷く動作とを検出することを特徴とするガイドロボット。
  12. 請求項1から11のいずれかに記載のガイドロボットであって、前記頭部回転手段が、横を向くように水平方向に頭部を回転し、または、頷くように垂直方向に頭部を回転することを特徴とするガイドロボット。
  13. 請求項1から12のいずれかに記載のガイドロボットであって、さらに、前記発話・行動決定手段の決定に従い、指定された位置にロボットを移動する移動手段を備え、前記顔検出手段が被説明者の顔を検出すると、前記移動手段が、当該被説明者の近傍への移動を行い、前記発話手段が、展示物の説明の申し出を発話することを特徴とするガイドロボット。
  14. 請求項13に記載のガイドロボットであって、前記発話手段により展示物の説明の申し出が行われた後、前記顔向き検出手段により所定時間以上に渡ってロボットの方を向く被説明者の顔向きが検出されると、前記移動手段が、予め定められた説明に適する位置への移動を行い、前記指示手段が、当該被説明者の誘導先の位置を指し示すことを特徴とするガイドロボット。
  15. 請求項13に記載のガイドロボットであって、前記発話手段により展示物の説明の申し出が行われても、前記顔向き検出手段によりロボットの方を向く被説明者の顔向きが検出されないとき、前記発話手段が、展示物の説明の申し出を繰り返すことを特徴とするガイドロボット。
JP2008007789A 2008-01-17 2008-01-17 ガイドロボット Pending JP2009166184A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008007789A JP2009166184A (ja) 2008-01-17 2008-01-17 ガイドロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008007789A JP2009166184A (ja) 2008-01-17 2008-01-17 ガイドロボット

Publications (1)

Publication Number Publication Date
JP2009166184A true JP2009166184A (ja) 2009-07-30

Family

ID=40967960

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008007789A Pending JP2009166184A (ja) 2008-01-17 2008-01-17 ガイドロボット

Country Status (1)

Country Link
JP (1) JP2009166184A (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013239209A (ja) * 2013-09-04 2013-11-28 Advanced Telecommunication Research Institute International コミュニケーションロボット、ロボット制御プログラムおよびロボット制御方法
JP2015066622A (ja) * 2013-09-27 2015-04-13 株式会社国際電気通信基礎技術研究所 ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法
JP2015066624A (ja) * 2013-09-27 2015-04-13 株式会社国際電気通信基礎技術研究所 ロボット制御システム、ロボット制御プログラムおよび説明ロボット
JP2015066621A (ja) * 2013-09-27 2015-04-13 株式会社国際電気通信基礎技術研究所 ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法
JP2018051701A (ja) * 2016-09-29 2018-04-05 トヨタ自動車株式会社 コミュニケーション装置
CN108732948A (zh) * 2018-03-21 2018-11-02 北京猎户星空科技有限公司 智能设备控制方法、装置、智能设备及介质
JP2019000495A (ja) * 2017-06-19 2019-01-10 株式会社長谷工アネシス 体操支援方法、体操支援システム、及び体操支援プログラム
JP2019193964A (ja) * 2018-05-02 2019-11-07 国立大学法人豊橋技術科学大学 ロボット
KR20200054362A (ko) * 2018-11-05 2020-05-20 현대자동차주식회사 차량 전시 매장의 서비스 제공 로봇 및 이의 동작 방법
KR20200055819A (ko) * 2018-11-08 2020-05-22 현대자동차주식회사 서비스 로봇 및 그의 운용 방법
US20220305665A1 (en) * 2021-03-24 2022-09-29 Toyota Jidosha Kabushiki Kaisha Robot, communication system, communication method, and computer readable medium
WO2024053767A1 (ko) * 2022-09-08 2024-03-14 엘지전자 주식회사 안내 로봇 및 안내 로봇의 동작방법

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001188551A (ja) * 1999-12-28 2001-07-10 Sony Corp 情報処理装置および方法、並びに記録媒体
JP2004034274A (ja) * 2002-07-08 2004-02-05 Mitsubishi Heavy Ind Ltd 会話ロボット及びその動作方法
JP2005022065A (ja) * 2003-07-03 2005-01-27 Sony Corp 音声対話装置及び方法並びにロボット装置
JP2005199373A (ja) * 2004-01-14 2005-07-28 Toshiba Corp コミュニケーション装置及びコミュニケーション方法
JP2005238382A (ja) * 2004-02-26 2005-09-08 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2006247780A (ja) * 2005-03-10 2006-09-21 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2006272471A (ja) * 2005-03-28 2006-10-12 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2007072719A (ja) * 2005-09-06 2007-03-22 Nec Corp ストーリー出力システム、ロボット装置およびストーリー出力方法
JP2007118129A (ja) * 2005-10-27 2007-05-17 Advanced Telecommunication Research Institute International コミュニケーションロボットおよびそれを用いた注意制御システム
JP2007216363A (ja) * 2006-02-20 2007-08-30 Saitama Univ コミュニケーションロボット
JP2007229814A (ja) * 2006-02-27 2007-09-13 Toyota Motor Corp 自律移動型ロボット
JP2007265329A (ja) * 2006-03-30 2007-10-11 Advanced Telecommunication Research Institute International 道案内システム

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001188551A (ja) * 1999-12-28 2001-07-10 Sony Corp 情報処理装置および方法、並びに記録媒体
JP2004034274A (ja) * 2002-07-08 2004-02-05 Mitsubishi Heavy Ind Ltd 会話ロボット及びその動作方法
JP2005022065A (ja) * 2003-07-03 2005-01-27 Sony Corp 音声対話装置及び方法並びにロボット装置
JP2005199373A (ja) * 2004-01-14 2005-07-28 Toshiba Corp コミュニケーション装置及びコミュニケーション方法
JP2005238382A (ja) * 2004-02-26 2005-09-08 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2006247780A (ja) * 2005-03-10 2006-09-21 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2006272471A (ja) * 2005-03-28 2006-10-12 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2007072719A (ja) * 2005-09-06 2007-03-22 Nec Corp ストーリー出力システム、ロボット装置およびストーリー出力方法
JP2007118129A (ja) * 2005-10-27 2007-05-17 Advanced Telecommunication Research Institute International コミュニケーションロボットおよびそれを用いた注意制御システム
JP2007216363A (ja) * 2006-02-20 2007-08-30 Saitama Univ コミュニケーションロボット
JP2007229814A (ja) * 2006-02-27 2007-09-13 Toyota Motor Corp 自律移動型ロボット
JP2007265329A (ja) * 2006-03-30 2007-10-11 Advanced Telecommunication Research Institute International 道案内システム

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013239209A (ja) * 2013-09-04 2013-11-28 Advanced Telecommunication Research Institute International コミュニケーションロボット、ロボット制御プログラムおよびロボット制御方法
JP2015066622A (ja) * 2013-09-27 2015-04-13 株式会社国際電気通信基礎技術研究所 ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法
JP2015066624A (ja) * 2013-09-27 2015-04-13 株式会社国際電気通信基礎技術研究所 ロボット制御システム、ロボット制御プログラムおよび説明ロボット
JP2015066621A (ja) * 2013-09-27 2015-04-13 株式会社国際電気通信基礎技術研究所 ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法
JP2018051701A (ja) * 2016-09-29 2018-04-05 トヨタ自動車株式会社 コミュニケーション装置
JP2019000495A (ja) * 2017-06-19 2019-01-10 株式会社長谷工アネシス 体操支援方法、体操支援システム、及び体操支援プログラム
CN108732948A (zh) * 2018-03-21 2018-11-02 北京猎户星空科技有限公司 智能设备控制方法、装置、智能设备及介质
JP2019193964A (ja) * 2018-05-02 2019-11-07 国立大学法人豊橋技術科学大学 ロボット
JP7133836B2 (ja) 2018-05-02 2022-09-09 国立大学法人豊橋技術科学大学 ロボット
KR20200054362A (ko) * 2018-11-05 2020-05-20 현대자동차주식회사 차량 전시 매장의 서비스 제공 로봇 및 이의 동작 방법
KR102610737B1 (ko) 2018-11-05 2023-12-07 현대자동차주식회사 차량 전시 매장의 서비스 제공 로봇 및 이의 동작 방법
KR20200055819A (ko) * 2018-11-08 2020-05-22 현대자동차주식회사 서비스 로봇 및 그의 운용 방법
KR102673293B1 (ko) 2018-11-08 2024-06-11 현대자동차주식회사 서비스 로봇 및 그의 운용 방법
US20220305665A1 (en) * 2021-03-24 2022-09-29 Toyota Jidosha Kabushiki Kaisha Robot, communication system, communication method, and computer readable medium
WO2024053767A1 (ko) * 2022-09-08 2024-03-14 엘지전자 주식회사 안내 로봇 및 안내 로봇의 동작방법

Similar Documents

Publication Publication Date Title
JP2009166184A (ja) ガイドロボット
JP6551507B2 (ja) ロボット制御装置、ロボット、ロボット制御方法およびプログラム
JP5456832B2 (ja) 入力された発話の関連性を判定するための装置および方法
JP4976903B2 (ja) ロボット
US20160189733A1 (en) System and method for enhancing speech activity detection using facial feature detection
US9263044B1 (en) Noise reduction based on mouth area movement recognition
WO2014125791A1 (en) Voice recognition device, voice recognition method, and program
KR20150112337A (ko) 디스플레이 장치 및 그 사용자 인터랙션 방법
KR20070029794A (ko) 유저와 시스템 사이에 통신을 하기 위한 방법 및 시스템
JP2009045692A (ja) コミュニケーションロボットとその動作方法
JP7340063B2 (ja) 警備システム及び監視表示装置
TWI777229B (zh) 互動對象的驅動方法、裝置、顯示設備、電子設備以及電腦可讀儲存介質
KR20240042222A (ko) 디지털 어시스턴트를 이용한 오디오 정보 제공
US7984010B2 (en) Action agenda determining apparatus
JP6443419B2 (ja) 音声対話装置及びその制御方法
JP2007160427A (ja) ロボット制御システム
WO2019142418A1 (ja) 情報処理装置および情報処理方法
JP2004234631A (ja) ユーザと対話型実体エージェントとの間の対話を管理するシステムおよび対話型実体エージェントによるユーザとの対話を管理する方法
JP6874437B2 (ja) コミュニケーションロボット、プログラム及びシステム
JP2006263873A (ja) コミュニケーションロボットシステムおよびコミュニケーションロボット
JP2007142957A (ja) 遠隔対話方法及び装置
JP2015150620A (ja) ロボット制御システムおよびロボット制御プログラム
JP2021135363A (ja) 制御システム、制御装置、制御方法及びコンピュータプログラム
KR102613040B1 (ko) 영상 통화 방법 및 이를 구현하는 로봇
WO2021153303A1 (ja) 情報処理装置、及び情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Effective date: 20100222

Free format text: JAPANESE INTERMEDIATE CODE: A621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110719

A131 Notification of reasons for refusal

Effective date: 20110726

Free format text: JAPANESE INTERMEDIATE CODE: A131

A521 Written amendment

Effective date: 20110926

Free format text: JAPANESE INTERMEDIATE CODE: A523

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120117