JP2009166184A - ガイドロボット - Google Patents
ガイドロボット Download PDFInfo
- Publication number
- JP2009166184A JP2009166184A JP2008007789A JP2008007789A JP2009166184A JP 2009166184 A JP2009166184 A JP 2009166184A JP 2008007789 A JP2008007789 A JP 2008007789A JP 2008007789 A JP2008007789 A JP 2008007789A JP 2009166184 A JP2009166184 A JP 2009166184A
- Authority
- JP
- Japan
- Prior art keywords
- face
- guide robot
- utterance
- person
- explanation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Manipulator (AREA)
Abstract
【解決手段】撮影手段50と、映像から入場者90の顔を検出する顔検出手段71と、その顔の向きを検出する顔向き検出手段72と、ロボットの発話内容及び行動を決定する発話・行動決定手段73と、発話データを音声出力する発話手段と、頭部10を回転して顔の向きを変える頭部回転手段とを備え、展示物91の説明過程で頭部10を回転して顔側の向きを変え、そのときの入場者90の顔向きに基づいて、その後の発話内容または行動を決定する。ガイドロボットが説明の途中で入場者90の方に顔を向けると、入場者90は、その動きに反応して顔を展示物91からロボットの方に向ける。ガイドロボットが入場者90の方に顔を向けても、入場者90の反応が見られないときは、その入場者90はロボットの説明を聞いていない、あるいは、興味がないと判定できる。
【選択図】図1
Description
特許文献1のコミュニケーションロボットは、たとえば、「こんにちは」と話しかけて返事があった場合に、「握手しよう」と言って一方の腕を前方に差し出す。逆に、返事がなかった場合は、「バイバイ」と言う。また、所定の方向に一方の腕及び手を向けて「あっちを見て」と言い、指差した方向に人の顔が向いたことを眼カメラの画像データで認識すると、相手の顔の向きに合わせて頭部の顔側を回転させる。
また、このロボットは、人に装着された赤外線タグの赤外線を検出する赤外線センサや相手との距離を測定する超音波距離センサを備えており、赤外線タグから放射される赤外線が検出できたときは、相手がロボットの方を向いていると判断し、相手が近くにいるのに赤外線が検出できないときは、相手がロボットの方を向いていないと判断する。
そして、コミュニケーション中の相手がロボットの方を向いていないときは、興味を失っていると判断し、話題の転換を図る。
本発明者等は、この音声ガイドに代わるガイドロボットの開発に取り組んでいる。ガイドロボットの主目的は、入館者が楽しみながら作品を鑑賞できるようにサポートすることであり、入館者の興味がガイドロボットにだけ集中したのでは、所期の目的が達成できない。
そのため、ガイドロボットの場合は、相手の関心を自らに向けるように動作する特許文献1のロボットとは異なる対応が必要になる。
例えば、作品を鑑賞する入館者は、通常、作品の方に体の正面を向けるから、ガイドロボットと向き合うことはない。それ故、特許文献1のように、体がロボットに正対しているか否かを基準に入館者の反応を識別すると、ガイドロボットの場合は、判断を誤ることになる。
ガイドロボットが説明の途中で人間の方に顔を向けると、説明を聞いていた人間は、その動きに連れて、顔を展示物からロボットの方に向ける。逆に、ガイドロボットが人間の方に顔を向けても、人間の反応が見られないときは、その人間はロボットの説明をあまり聞いていない、あるいは、興味がないと判定できる。このような場合に、説明の打ち切りや、説明内容の変更を行う。
このように、ガイドロボットの動きに反応しない回数が予め設定した回数に達すると、説明の打ち切りを行う。
このように、説明を打ち切る前に、説明の内容を変えて相手の反応を見る。
人間の説明員の説明態度を分析すると、説明員は、説明の切れ目や、重要な語を言うとき、また難解な語や数字を言うときに入場者の方に顔を向けている。説明員は、そうすることで入場者が自分の説明に付いてきているか、何か質問が無いか等を確認しており、入場者は、こうした説明員の動作が加わることで、説明が理解し易くなる。しかし、説明に興味を持たない人は、説明員の動作に反応しない。従って、説明員の動作に対する反応を検出することで、説明への興味の有無が識別できる。
このように、ロボットが方向を示し、且つ、その方向に顔を向けると、被説明者は、それに連れてロボットの指し示す方向を見る。このとき、被説明者がロボットの指示する方向を見なければ、その被説明者はロボットの指示に気付いていないか、説明に対する興味が薄れていると判断できる。
ロボットが「こちらへどうぞ」と相手を案内する場合や、展示物の全体、または、ある程度拡がりのある部分を指し示す場合は、手を広げた形にして、「この絵は・・・」または「この部分は・・・」と発話しながら説明し、展示物の一部分を指示する場合は、人差し指だけを伸ばした手の形で対象部分を指差し、「これは・・・です」と発話しながら説明する。
例えば、ロボットが「お分かりですね」と発話して相手の同意を求めるとき、ロボットが頷く動作を行うと、人間もそれに連れて頷き返す。こうした動作を通じて、人間はロボットの説明に深く聞き入るようになる。逆に、被説明者から、こうした反応が見られないときは、説明に対する興味が薄れていると判断できる。
このガイドロボットは、撮影手段が撮影した映像から被説明者の顔を検出すると、その人に近づいて「この作品を説明しましょうか」等と声を掛ける。その人がロボットの方を向き、説明を望んでいると判断できる場合には、ロボットは、説明位置に移動して、展示物の正面の位置を手で指し示し、「こちらへどうぞ」と誘導する。
この場合、相手の顔が検出できているときは、相手がロボットを見るまで、呼掛けを繰り返してもよいし、また、予め定めた回数だけ繰り返し、それでも相手がロボットの方を見なければ、説明が不要だと判定して止めるようにしてもよい。
ビデオカメラ50は、図1に示すように、ロボットの胴体20に固定され、頭部10よりも高い位置にある。そのため、頭部10の回転の影響を受けずに、ロボットの前方を撮り続けることができる。
この動作を行うために、ガイドロボットは、図1に示すように、機能ブロックとして、ビデオカメラ50の映像から顔画像を検出する顔検出手段71と、検出された顔画像から顔向きを検出する顔向き検出手段72と、顔画像や顔向きに基づいてロボットの発話内容や行動を決定する発話・行動決定手段73と、決定された内容の発話を生成する発話生成手段74とを備えている。顔検出手段71及び顔向き検出手段72は、ビデオカメラ50の映像を処理する顔画像処理装置68により実現され、発話・行動決定手段73は、制御プログラムに従って処理を行うCPU64により実現され、また、発話生成手段74は、メモリ65に予め格納された各種の発話データの中から制御プログラムに従ってCPU64が選択する処理によって実現される。
肌色領域の検出(ステップ2)は、図6に示すように、ビデオカメラ50の映像から、RGBカラースペース(R、G、B各8ビット)での値が、
R>95、G>40、B>20
Max{R.G.B}−Min{R.G.B}>15
|R−G|>15
R>G、R>B
の条件を満たす肌色の画素の範囲を抽出し(ステップ21)、この肌色部分のフレーム間差分を算出して、フレーム間差分の絶対値の総和が閾値を超えるか否かを識別し(ステップ22)、フレーム間差分が閾値以下の肌色部分は、肌色の壁や机等が抽出されたものとして排除し(ステップ24)、フレーム間差分の絶対値の総和が閾値を超える肌色部分を人物の顔の可能性がある肌色領域として検出する(ステップ23)。
ガイドロボットの方を向く正面顔は、ステップ6で求めた差分値と予め設定した閾値とを比較し(ステップ7)、差分値が閾値未満である場合に、正面顔と識別することができる(ステップ8)。差分値が閾値を超えていれば、正面顔ではないと識別できる(ステップ9)。
顔検出手段71及び顔向き検出手段72は、こうした処理により顔画像の検出と顔向きの検出とを継続的に行う。
ガイドロボットの顔検出手段71は、ビデオカメラ50の画像から人の顔を検出する(ステップ31)。顔画像が検出されると、発話・行動決定手段73は、その人への接近を指令する(ステップ32)。
このガイドロボットは、自分の存在位置を知ることが可能である。例えば、会場内に固定されている2以上の物体を基準指標とし、それらとの距離を超音波距離センサ51で測定すれば、会場内での位置が算出できる。また、絵画91の大きさや床からの掲示の高さ、ビデオカメラ50の取り付け位置が既知であれば、絵画91の隅の位置を撮影したビデオカメラ50の画像からガイドロボットの立ち位置を求めることもできる。また、床に圧力センサを設けたり、天井や壁に位置算出用のマークを付けたりしても、位置を求める手段は実現できる。
ガイドロボットは、現在位置から、顔画像が検出された人の位置まで、例えば、移動軌跡が少し弧を描くように近付き、超音波距離センサ51で測定したその人との距離が所定値に縮まった時点で停止する。なお、最初に人間に近付く場合、直線的に近付くと、人間が後ずさりしてしまうことがある。しかし、弧を描いて近付くと、そのようなことが少ない。
説明の申し出を受けた人が、ガイドロボットの方を所定時間直視した場合、即ち、正面顔が所定時間検出されたときは(ステップ34でYes)、説明を希望しているものと判断する。ガイドロボットは、説明を始めるために、説明に適した位置に移動し(ステップ35)、また、「こちらへどうぞ」と発話して、広げた手31で鑑賞に適した位置を指し示し、その人をその場所に誘導する(ステップ36)。
一般に絵画作品の鑑賞は、絵画全体の見易さから、絵画の中央正面であって、絵画の対角線の長さに相当する距離だけ離れた位置で見るのが適している。ガイドロボットが移動する“説明に適した位置”は、腕30及び手31を伸ばして、鑑賞に適した位置に人間を導くことができる位置である。この鑑賞位置及び説明位置は、予め作品ごとに定めて、メモリ65に記憶しておくことができる。
こうした発話の使い分けを行うため、メモリ65には、幾通りもの発話データが用意され、また、ガイドロボットの発話の履歴や行動の履歴が記憶される。
また、鑑賞位置に誘導した人が、その位置に移動しない場合、即ち、鑑賞位置から顔画像が検出できない場合は(ステップ37でNo)、誘導回数Lを1つインクリメントし(ステップ41)、その回数Lが閾値(L0)を超えていなければ(ステップ41でNo)、再び「こちらへどうぞ」と発話し、腕30及び手31を伸ばして誘導動作を繰り返す(ステップ33)。
誘導回数Lが閾値(L0)を超えた場合は(ステップ41でYes)、ガイドロボットの説明が聞きたくないものと判断し、この人への説明を止めて、ステップ31に戻る。
鑑賞位置に誘導した人が、その位置に移動すると(ステップ37でYes)、作品91の説明を開始する(ステップ42)。
また、ステップ43において、説明の切れ目でないときは、制御記号(a1)が挿入された設定語であるか否かを識別し(ステップ44)、設定語であれば、頭部モータ11を駆動して頭部10の顔の側を人90の方に向ける(ステップ46)。
逆に、説明者の動作に鑑賞者90が反応しない場合は、説明者の説明をあまり聞いていない状態、説明に興味が無い状態と判定できる。
また、ステップ44において、設定語で無いときは、制御記号(b1)または(b2)が挿入された指示語であるか否かを識別する(ステップ45)。指示語であれば、制御記号(b1)または(b2)に従い、全ての指を伸ばした手の形で、または、人差し指だけを伸ばした手の形で、指示語で表されるものを指し示し(ステップ48)、その方向にガイドロボットの顔を向ける(ステップ49)。
そして、非追従回数Nの合計が閾値(N0)を超えた場合(ステップ55でYes)、鑑賞者90は、ガイドロボットの説明に興味がないと判断し、「それでは、次の作品に行きましょうか」などと言って、説明を途中で打ち切る(ステップ56)。また、説明文を予め幾つかの部分に分けて置き、次の切れ目まで発話して、終了するようにしても良い。
また、ステップ45において、指示語でも無いときは、説明が完了しているか否かを識別し(ステップ57)、完了していれば説明を終了し、完了していなければ説明を続ける(ステップ42)。
このように、このガイドロボットは、ガイドロボットの説明を希望する人にだけ、説明を行うことができる。
そのため、ガイドロボットの顔向き検出手段72が、鑑賞者の水平方向の顔向きとともに、頷くときの垂直方向の顔向きを検出するように構成すれば、鑑賞者がガイドロボットの説明を望んでいるか否かを、頷く動作からも識別できる。なお、頷く動作は、顔画像のフレーム差分を取ることで簡単に検出可能である。
また、こうした指示動作の際に、ガイドロボット自身が作品の指示する箇所に近付いたり、指示する対象に応じて、手の形や腕の振り方を変えたりすることにより、ガイドロボットの説明に対する鑑賞者の注目度を高めることができる。
例えば、「こちらへどうぞ」と相手を案内するときは手を広げる。また、絵全体、あるいは、ある程度広がりのある部分を指し示すときは、手を広げ、腕をその辺りで円を描くように動かす。狭い部分を指し示すときは、手を握って人差し指だけを伸ばし、腕は、その部分を指し続ける。
こうした動作に対して鑑賞者の反応が無ければ、説明に対する興味が薄れていることを明確に識別できる。
例えば、ロボットは「これは・・・です」というような“部分”を示す発話の少し前から手でその部分の指差しに入る。この指差しに対して、相手の顔の向きが作品の方に向けば、手を下ろす(相手がすぐ向いた場合なども考慮して、一定の時間は指差すようにしてもよい)。言い換えれば、作品の方を向くまで指差しを続ける。しかし、指示の発話が終了しても相手が顔を作品の方に向けない場合は(ロボットはこの時点で手をおろす)、相手が指示に気づかないか、説明そのものに興味が薄れてきているかもしれないので、再度、指を指しながら、「これは・・・です」と繰り返す。この場合も説明の開始場面と同様に、繰り返しの際の表現を変えるようにしてもよい。
ガイドロボットのこれらの動作は、全てプログラムで指定して行わせる。
また、この撮影装置の設置位置は、ガイドロボットの頭部の回転や腕の動きに邪魔されずに、ガイドロボットの正面前方が撮影できる位置であれば、どこでも良い。
また、ここで紹介した顔画像の検出方法や顔向きの検出方法は、一例であって、本発明は、それに限定されるものではない。
また、ここでは、ガイドロボットが絵画作品を説明する場合について例示したが、このガイドロボットは、商品や新製品、展示品、展示パネルなど、各種の展示物の説明に用いることができる。
11 頭部モータ
12 スピーカ
20 胴体
21 腰モータ
30 腕
31 手
32 指モータ
33 腕モータ
40 車輪
41 車輪モータ
50 ビデオカメラ
51 超音波距離センサ
61 モータ制御ボード
62 センサ入力/出力ボード
63 音声出力ボード
64 CPU
65 メモリ
66 通信LANボード
67 無線通信装置
68 顔画像処理装置
711 顔矩形
712 顔矩形中心線
713 肌色領域境界線
Claims (15)
- 被説明者に展示物の説明を行うガイドロボットであって、
周囲の状況を撮影する撮影手段と、
前記撮影手段が撮影した映像から被説明者の顔を検出する顔検出手段と、
前記顔検出手段が検出した顔の向きを検出する顔向き検出手段と、
ロボットの発話内容及び行動を決定する発話・行動決定手段と、
予め蓄積された発話データの中から前記発話・行動決定手段が決定した発話内容の発話データを音声に変換して出力する発話手段と、
前記発話・行動決定手段の決定に従い、頭部を回転して顔側の向きを変える頭部回転手段と、
を備え、被説明者に展示物を説明する過程で、前記頭部回転手段が、前記頭部を回転して顔側の向きを変え、前記発話・行動決定手段が、そのときに前記顔向き検出手段により検出された当該被説明者の顔向きに基づいて、その後の発話内容または行動を決定することを特徴とするガイドロボット。 - 請求項1に記載のガイドロボットであって、前記発話・行動決定手段は、前記頭部回転手段が前記頭部を回転して顔側の向きを変えたのに、前記被説明者の顔向きが変わらない回数を非追従回数としてカウントし、前記非追従回数が予め設定した閾値に達したとき、前記説明を打ち切ることを特徴とするガイドロボット。
- 請求項1に記載のガイドロボットであって、前記発話・行動決定手段は、前記頭部回転手段が前記頭部を回転して顔側の向きを変えたのに、前記被説明者の顔向きが変わらないとき、説明の内容を変更することを特徴とするガイドロボット。
- 請求項1から3のいずれかに記載のガイドロボットであって、前記頭部回転手段が、説明の切れ目、または、予め設定された語の発話に合わせて、前記顔側の向きを前記展示物から前記被説明者の方向に変えることを特徴とするガイドロボット。
- 請求項4に記載のガイドロボットであって、前記予め設定された語が、重要な語、難解な語、または、数字であることを特徴とするガイドロボット。
- 請求項1から5のいずれかに記載のガイドロボットであって、さらに、前記発話・行動決定手段の決定に従い、指定された方向を手で指し示す指示手段を備え、前記指示手段が前記展示物を指示するときに、前記頭部回転手段が、前記指示手段の指示する方向に顔側の向きを変えるように前記頭部を回転し、前記発話・行動決定手段が、そのときに前記顔向き検出手段により検出された当該被説明者の顔向きに基づいて、その後の発話内容または行動を決定することを特徴とするガイドロボット。
- 請求項6に記載のガイドロボットであって、前記発話・行動決定手段は、前記指示手段が指示したのに、前記被説明者の顔向きが指示した方向に向かないとき、前記指示手段の指示を予め設定された所定回数だけ繰り返し、前記所定回数を繰り返しても前記被説明者の顔向きが指示した方向に向かないとき、前記非追従回数のカウント数を1増やすことを特徴とするガイドロボット。
- 請求項6または7に記載のガイドロボットであって、前記指示手段が前記展示物を指示するときに、前記発話手段が、前記被説明者に対し、前記指示手段の指示する方向を向くように促す発話を行うことを特徴とするガイドロボット。
- 請求項6または7に記載のガイドロボットであって、前記指示手段が、「これ」等の指示語の発話に合わせて、前記展示物の該当箇所を指示することを特徴とするガイドロボット。
- 請求項6または7に記載のガイドロボットであって、前記指示手段が、手の平を広げた状態で指示する方向を指し示し、または、一部の指だけを伸ばした状態で指示する方向を指し示すことを特徴とするガイドロボット。
- 請求項1から10のいずれかに記載のガイドロボットであって、前記顔向き検出手段が、 前記顔検出手段により検出された顔から、当該顔の顔向きと、頷く動作とを検出することを特徴とするガイドロボット。
- 請求項1から11のいずれかに記載のガイドロボットであって、前記頭部回転手段が、横を向くように水平方向に頭部を回転し、または、頷くように垂直方向に頭部を回転することを特徴とするガイドロボット。
- 請求項1から12のいずれかに記載のガイドロボットであって、さらに、前記発話・行動決定手段の決定に従い、指定された位置にロボットを移動する移動手段を備え、前記顔検出手段が被説明者の顔を検出すると、前記移動手段が、当該被説明者の近傍への移動を行い、前記発話手段が、展示物の説明の申し出を発話することを特徴とするガイドロボット。
- 請求項13に記載のガイドロボットであって、前記発話手段により展示物の説明の申し出が行われた後、前記顔向き検出手段により所定時間以上に渡ってロボットの方を向く被説明者の顔向きが検出されると、前記移動手段が、予め定められた説明に適する位置への移動を行い、前記指示手段が、当該被説明者の誘導先の位置を指し示すことを特徴とするガイドロボット。
- 請求項13に記載のガイドロボットであって、前記発話手段により展示物の説明の申し出が行われても、前記顔向き検出手段によりロボットの方を向く被説明者の顔向きが検出されないとき、前記発話手段が、展示物の説明の申し出を繰り返すことを特徴とするガイドロボット。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008007789A JP2009166184A (ja) | 2008-01-17 | 2008-01-17 | ガイドロボット |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008007789A JP2009166184A (ja) | 2008-01-17 | 2008-01-17 | ガイドロボット |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009166184A true JP2009166184A (ja) | 2009-07-30 |
Family
ID=40967960
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008007789A Pending JP2009166184A (ja) | 2008-01-17 | 2008-01-17 | ガイドロボット |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009166184A (ja) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013239209A (ja) * | 2013-09-04 | 2013-11-28 | Advanced Telecommunication Research Institute International | コミュニケーションロボット、ロボット制御プログラムおよびロボット制御方法 |
JP2015066622A (ja) * | 2013-09-27 | 2015-04-13 | 株式会社国際電気通信基礎技術研究所 | ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法 |
JP2015066624A (ja) * | 2013-09-27 | 2015-04-13 | 株式会社国際電気通信基礎技術研究所 | ロボット制御システム、ロボット制御プログラムおよび説明ロボット |
JP2015066621A (ja) * | 2013-09-27 | 2015-04-13 | 株式会社国際電気通信基礎技術研究所 | ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法 |
JP2018051701A (ja) * | 2016-09-29 | 2018-04-05 | トヨタ自動車株式会社 | コミュニケーション装置 |
CN108732948A (zh) * | 2018-03-21 | 2018-11-02 | 北京猎户星空科技有限公司 | 智能设备控制方法、装置、智能设备及介质 |
JP2019000495A (ja) * | 2017-06-19 | 2019-01-10 | 株式会社長谷工アネシス | 体操支援方法、体操支援システム、及び体操支援プログラム |
JP2019193964A (ja) * | 2018-05-02 | 2019-11-07 | 国立大学法人豊橋技術科学大学 | ロボット |
KR20200054362A (ko) * | 2018-11-05 | 2020-05-20 | 현대자동차주식회사 | 차량 전시 매장의 서비스 제공 로봇 및 이의 동작 방법 |
KR20200055819A (ko) * | 2018-11-08 | 2020-05-22 | 현대자동차주식회사 | 서비스 로봇 및 그의 운용 방법 |
US20220305665A1 (en) * | 2021-03-24 | 2022-09-29 | Toyota Jidosha Kabushiki Kaisha | Robot, communication system, communication method, and computer readable medium |
WO2024053767A1 (ko) * | 2022-09-08 | 2024-03-14 | 엘지전자 주식회사 | 안내 로봇 및 안내 로봇의 동작방법 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001188551A (ja) * | 1999-12-28 | 2001-07-10 | Sony Corp | 情報処理装置および方法、並びに記録媒体 |
JP2004034274A (ja) * | 2002-07-08 | 2004-02-05 | Mitsubishi Heavy Ind Ltd | 会話ロボット及びその動作方法 |
JP2005022065A (ja) * | 2003-07-03 | 2005-01-27 | Sony Corp | 音声対話装置及び方法並びにロボット装置 |
JP2005199373A (ja) * | 2004-01-14 | 2005-07-28 | Toshiba Corp | コミュニケーション装置及びコミュニケーション方法 |
JP2005238382A (ja) * | 2004-02-26 | 2005-09-08 | Advanced Telecommunication Research Institute International | コミュニケーションロボット |
JP2006247780A (ja) * | 2005-03-10 | 2006-09-21 | Advanced Telecommunication Research Institute International | コミュニケーションロボット |
JP2006272471A (ja) * | 2005-03-28 | 2006-10-12 | Advanced Telecommunication Research Institute International | コミュニケーションロボット |
JP2007072719A (ja) * | 2005-09-06 | 2007-03-22 | Nec Corp | ストーリー出力システム、ロボット装置およびストーリー出力方法 |
JP2007118129A (ja) * | 2005-10-27 | 2007-05-17 | Advanced Telecommunication Research Institute International | コミュニケーションロボットおよびそれを用いた注意制御システム |
JP2007216363A (ja) * | 2006-02-20 | 2007-08-30 | Saitama Univ | コミュニケーションロボット |
JP2007229814A (ja) * | 2006-02-27 | 2007-09-13 | Toyota Motor Corp | 自律移動型ロボット |
JP2007265329A (ja) * | 2006-03-30 | 2007-10-11 | Advanced Telecommunication Research Institute International | 道案内システム |
-
2008
- 2008-01-17 JP JP2008007789A patent/JP2009166184A/ja active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001188551A (ja) * | 1999-12-28 | 2001-07-10 | Sony Corp | 情報処理装置および方法、並びに記録媒体 |
JP2004034274A (ja) * | 2002-07-08 | 2004-02-05 | Mitsubishi Heavy Ind Ltd | 会話ロボット及びその動作方法 |
JP2005022065A (ja) * | 2003-07-03 | 2005-01-27 | Sony Corp | 音声対話装置及び方法並びにロボット装置 |
JP2005199373A (ja) * | 2004-01-14 | 2005-07-28 | Toshiba Corp | コミュニケーション装置及びコミュニケーション方法 |
JP2005238382A (ja) * | 2004-02-26 | 2005-09-08 | Advanced Telecommunication Research Institute International | コミュニケーションロボット |
JP2006247780A (ja) * | 2005-03-10 | 2006-09-21 | Advanced Telecommunication Research Institute International | コミュニケーションロボット |
JP2006272471A (ja) * | 2005-03-28 | 2006-10-12 | Advanced Telecommunication Research Institute International | コミュニケーションロボット |
JP2007072719A (ja) * | 2005-09-06 | 2007-03-22 | Nec Corp | ストーリー出力システム、ロボット装置およびストーリー出力方法 |
JP2007118129A (ja) * | 2005-10-27 | 2007-05-17 | Advanced Telecommunication Research Institute International | コミュニケーションロボットおよびそれを用いた注意制御システム |
JP2007216363A (ja) * | 2006-02-20 | 2007-08-30 | Saitama Univ | コミュニケーションロボット |
JP2007229814A (ja) * | 2006-02-27 | 2007-09-13 | Toyota Motor Corp | 自律移動型ロボット |
JP2007265329A (ja) * | 2006-03-30 | 2007-10-11 | Advanced Telecommunication Research Institute International | 道案内システム |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013239209A (ja) * | 2013-09-04 | 2013-11-28 | Advanced Telecommunication Research Institute International | コミュニケーションロボット、ロボット制御プログラムおよびロボット制御方法 |
JP2015066622A (ja) * | 2013-09-27 | 2015-04-13 | 株式会社国際電気通信基礎技術研究所 | ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法 |
JP2015066624A (ja) * | 2013-09-27 | 2015-04-13 | 株式会社国際電気通信基礎技術研究所 | ロボット制御システム、ロボット制御プログラムおよび説明ロボット |
JP2015066621A (ja) * | 2013-09-27 | 2015-04-13 | 株式会社国際電気通信基礎技術研究所 | ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法 |
JP2018051701A (ja) * | 2016-09-29 | 2018-04-05 | トヨタ自動車株式会社 | コミュニケーション装置 |
JP2019000495A (ja) * | 2017-06-19 | 2019-01-10 | 株式会社長谷工アネシス | 体操支援方法、体操支援システム、及び体操支援プログラム |
CN108732948A (zh) * | 2018-03-21 | 2018-11-02 | 北京猎户星空科技有限公司 | 智能设备控制方法、装置、智能设备及介质 |
JP2019193964A (ja) * | 2018-05-02 | 2019-11-07 | 国立大学法人豊橋技術科学大学 | ロボット |
JP7133836B2 (ja) | 2018-05-02 | 2022-09-09 | 国立大学法人豊橋技術科学大学 | ロボット |
KR20200054362A (ko) * | 2018-11-05 | 2020-05-20 | 현대자동차주식회사 | 차량 전시 매장의 서비스 제공 로봇 및 이의 동작 방법 |
KR102610737B1 (ko) | 2018-11-05 | 2023-12-07 | 현대자동차주식회사 | 차량 전시 매장의 서비스 제공 로봇 및 이의 동작 방법 |
KR20200055819A (ko) * | 2018-11-08 | 2020-05-22 | 현대자동차주식회사 | 서비스 로봇 및 그의 운용 방법 |
KR102673293B1 (ko) | 2018-11-08 | 2024-06-11 | 현대자동차주식회사 | 서비스 로봇 및 그의 운용 방법 |
US20220305665A1 (en) * | 2021-03-24 | 2022-09-29 | Toyota Jidosha Kabushiki Kaisha | Robot, communication system, communication method, and computer readable medium |
WO2024053767A1 (ko) * | 2022-09-08 | 2024-03-14 | 엘지전자 주식회사 | 안내 로봇 및 안내 로봇의 동작방법 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009166184A (ja) | ガイドロボット | |
JP6551507B2 (ja) | ロボット制御装置、ロボット、ロボット制御方法およびプログラム | |
JP5456832B2 (ja) | 入力された発話の関連性を判定するための装置および方法 | |
JP4976903B2 (ja) | ロボット | |
US20160189733A1 (en) | System and method for enhancing speech activity detection using facial feature detection | |
US9263044B1 (en) | Noise reduction based on mouth area movement recognition | |
WO2014125791A1 (en) | Voice recognition device, voice recognition method, and program | |
KR20150112337A (ko) | 디스플레이 장치 및 그 사용자 인터랙션 방법 | |
KR20070029794A (ko) | 유저와 시스템 사이에 통신을 하기 위한 방법 및 시스템 | |
JP2009045692A (ja) | コミュニケーションロボットとその動作方法 | |
JP7340063B2 (ja) | 警備システム及び監視表示装置 | |
TWI777229B (zh) | 互動對象的驅動方法、裝置、顯示設備、電子設備以及電腦可讀儲存介質 | |
KR20240042222A (ko) | 디지털 어시스턴트를 이용한 오디오 정보 제공 | |
US7984010B2 (en) | Action agenda determining apparatus | |
JP6443419B2 (ja) | 音声対話装置及びその制御方法 | |
JP2007160427A (ja) | ロボット制御システム | |
WO2019142418A1 (ja) | 情報処理装置および情報処理方法 | |
JP2004234631A (ja) | ユーザと対話型実体エージェントとの間の対話を管理するシステムおよび対話型実体エージェントによるユーザとの対話を管理する方法 | |
JP6874437B2 (ja) | コミュニケーションロボット、プログラム及びシステム | |
JP2006263873A (ja) | コミュニケーションロボットシステムおよびコミュニケーションロボット | |
JP2007142957A (ja) | 遠隔対話方法及び装置 | |
JP2015150620A (ja) | ロボット制御システムおよびロボット制御プログラム | |
JP2021135363A (ja) | 制御システム、制御装置、制御方法及びコンピュータプログラム | |
KR102613040B1 (ko) | 영상 통화 방법 및 이를 구현하는 로봇 | |
WO2021153303A1 (ja) | 情報処理装置、及び情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Effective date: 20100222 Free format text: JAPANESE INTERMEDIATE CODE: A621 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110719 |
|
A131 | Notification of reasons for refusal |
Effective date: 20110726 Free format text: JAPANESE INTERMEDIATE CODE: A131 |
|
A521 | Written amendment |
Effective date: 20110926 Free format text: JAPANESE INTERMEDIATE CODE: A523 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120117 |