JP2007265329A - 道案内システム - Google Patents

道案内システム Download PDF

Info

Publication number
JP2007265329A
JP2007265329A JP2006092934A JP2006092934A JP2007265329A JP 2007265329 A JP2007265329 A JP 2007265329A JP 2006092934 A JP2006092934 A JP 2006092934A JP 2006092934 A JP2006092934 A JP 2006092934A JP 2007265329 A JP2007265329 A JP 2007265329A
Authority
JP
Japan
Prior art keywords
robot
destination
route
person
route guidance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006092934A
Other languages
English (en)
Other versions
JP4962940B2 (ja
Inventor
Masahiro Shiomi
昌裕 塩見
Takayuki Kanda
崇行 神田
Tomohito Koizumi
智史 小泉
Hiroshi Ishiguro
浩 石黒
Norihiro Hagita
紀博 萩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2006092934A priority Critical patent/JP4962940B2/ja
Publication of JP2007265329A publication Critical patent/JP2007265329A/ja
Application granted granted Critical
Publication of JP4962940B2 publication Critical patent/JP4962940B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Abstract

【構成】 道案内システム100は、コミュニケーションロボット10と表示装置12とを含む。たとえば、床センサ18の検出結果に基づいて表示装置12の近傍に存在する人間Aを検出すると、ロボット10が当該人間に道案内が必要か否かを質問する。道案内が必要であれば、ロボット10は、さらに当該人間に目的地を質問する。コンピュータ14はロボット10から目的地情報を取得すると、表示装置12に、現在地から目的地までの経路を要所(経路ポイント)毎に順次表示する。また、コンピュータ14は、ロボット10に適宜制御コマンドを送信して、要所毎に、人間が進行すべき方向を、発話およびジェスチャによって伝達(説明)する。
【効果】 現在地から目的地までの経路を表示したり、進行すべき経路を身振り手振りで人間に説明したりするので、ロボットが人間と一緒に目的地まで移動することなく、分かり易く目的地までの経路を説明することができる。
【選択図】図1

Description

この発明は道案内システムに関し、特にたとえば、音声および身体動作を用いて情報提示を行うコミュニケーションロボットと地図情報の可視表示によって情報提示を行う表示装置とが連携して道案内を実行する、道案内システムに関する。
背景技術の一例が特許文献1に開示される。この特許文献1のユーザ誘導装置の技術は、第1のディスプレイを有する移動ロボットと、第2のディスプレイを有する携帯端末装置と、ロボット管理サーバとによって構成される。ユーザが携帯端末装置に目的地を入力すると、第2のディスプレイには、目的地に至る道、ユーザおよび目的地方向を示す矢印がCGキャラクタとして表示される。ロボット管理サーバは、携帯端末装置に目的地が入力されたことに応じて、ユーザの近くに移動ロボットが存在するかどうかを判断する。ユーザの近くに移動ロボットが存在しない場合、或いは他のユーザを誘導中である場合には、ユーザは、そのまま第2のディスプレイに表示されたCGキャラクタに従って目的地まで移動する。一方、ユーザの近くに空いている移動ロボットが存在する場合には、第2のディスプレイに表示されたCGキャラクタが消去されるとともに、第1のディスプレイに同じCGキャラクタが表示される。これによって、携帯端末上の情報が移動ロボットに移ったことをユーザに知らせることができる。この後、移動ロボットは、ユーザとともに移動することによって、目的地までユーザを誘導する。
特開2000−99871号公報[G08G 1/005]
特許文献1の技術では、ディスプレイにCGキャラクタを表示することによって、分かり易く目的地までユーザを案内することができる。ユーザにとって親切ではあるが、移動ロボットが目的地までユーザとともに移動するので、1人の人間を道案内するのに時間がかかってしまう。つまり、非効率的である。
また、地図を理解することが苦手な人間は、たとえば現在地および目的地並びにその経路が地図上に示されていても、現在自分がどちらの方向を向いているのか分からなかったり、どちらの方向に進めばよいのか分からなかったりして、目的地まで辿り着けないということがある。
それゆえに、この発明の主たる目的は、効率よく道案内を実行することができる、道案内システムを提供することである。
この発明の他の目的は、地図を理解することが苦手な人間にとっても分かり易く道案内を実行することができる、道案内システムを提供することである。
本発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。
請求項1の発明は、少なくとも地図を表示装置に表示する地図表示手段、道案内の目的地を示す目的地情報を取得する目的地情報取得手段、目的地情報取得手段によって目的地情報が取得されたとき、表示装置の設置された現在地から目的地までの経路を要所に従って地図上に可視表示する経路表示手段、および経路表示手段によって経路が可視表示されるとき、要所毎に人間が進行すべき方向を音声および身体動作によって当該人間に説明するコミュニケーションロボットを制御する制御手段を備える、道案内システムである。
請求項1の発明では、道案内システム(100)は、音声(発話)および身体動作(ジェスチャ)を用いた情報提示(説明)によって道案内を行うコミュニケーションロボット(10)と地図情報(地図や経路に関する情報)を可視表示することによって道案内を行う表示装置(12)とが、たとえばコンピュータ(14)を介して連携を取り、道案内を実行する。地図表示手段(12,14,S13)は、少なくとも地図を表示装置の画面に表示する。たとえば、現在地(たとえば、表示装置が設置される地点)を含む地図を表示する。目的地情報取得手段(10,14,S11)は、人間から道案内の目的地情報を取得する。たとえば、人間の発話やタッチパネル操作に基づいて目的地情報を取得してよい。経路表示手段(12,14,S13,S25,S29)は、目的地情報取得手段によって目的地情報が取得されたとき、表示装置の画面に表示された地図上に、現在地から目的地までの経路を要所に従って(道順に従って)可視表示する。ここで、要所とは、曲がり角や交差点などの人間が方向転換(右折や左折)を行う地点を意味する。ただし、要所には、現在地および目的地も含まれる。制御手段(14,S27,S31,S37)は、たとえば制御コマンドをコミュニケーションロボットに送信することによって、コミュニケーションロボットの動作(発話やジェスチャ)を制御する。たとえば、経路表示手段によって経路が道順に従って可視表示されるとき、それに対応(連携)させて、コミュニケーションロボットに、要所毎に人間が進行すべき方向を発話させたり、ジェスチャで提示させたりして、目的地までの経路を説明させる。
請求項1の発明によれば、現在地から目的地までの経路を表示したり、進行すべき経路を発話やジェスチャで人間に説明したりするので、コミュニケーションロボットが人間と一緒に目的地まで移動することなく、地図を理解することが苦手な人間にとっても分かり易く当該経路を説明することができる。したがって、効率よく道案内を実行することができる。
請求項2の発明は、請求項1に従属し、少なくとも表示装置の近傍に存在する人間を検出する人間検出手段をさらに備え、制御手段は、人間検出手段によって人間が検出されたとき、当該人間に対して道案内が必要であるかどうかをコミュニケーションロボットに質問させ、その質問に対する人間の反応に基づいてコミュニケーションロボットの動作を制御する。
請求項2の発明では、人間検出手段(14,18,S3)をさらに備える。人間検出手段は、少なくとも表示装置の近傍(表示装置の画面に表示される内容を確認できる程度の距離、たとえば2m以内)に存在する人間(つまり、道を探していそうな人間)を検出する。制御手段(14,S5)は、人間検出手段によって人間が検出されたとき、当該人間に対して道案内が必要であるかどうかをコミュニケーションロボットに質問させる。つまり、検出した人間に対してコミュニケーションロボットが積極的に働きかける。そして、この質問に対する人間の反応(発話や特定の行動など)に基づいてコミュニケーションロボットの動作を制御する。たとえば、コミュニケーションロボットに当該人間に対して目的地を質問させたり、当該人間に対する働きかけを終了させたりする。したがって、表示装置の近傍で道を探していそうな人間にも積極的に働きかけ、道案内を実行することができる。
この発明によれば、人間と一緒にコミュニケーションロボットが目的地まで移動することなく、地図を理解することが苦手な人間にとっても分かり易く目的地までの経路を説明することができる。つまり、効率よく道案内を実行することができる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1を参照して、この実施例の道案内システム(以下、単に「システム」という。)100は、コミュニケーションロボット(以下、単に「ロボット」という。)10、表示装置12、コンピュータ14、データベース(DB)16および床センサ18を含む。このシステム100は、たとえばコンピュータ14を介して、ロボット10と表示装置12とが連携を取り、道案内サービスを提供する。図1からも分かるように、システム100では、たとえば、ロボット10は、無線によって通信可能にコンピュータ14に接続され、このコンピュータ14には、表示装置12、DB16および床センサ18が有線によって接続される。
なお、ロボット10とコンピュータ14とは、無線によって接続されるようにしてあるが、有線で接続されるようにしてもよい。
ロボット10は、主として人間のようなコミュニケーションの対象とコミュニケーションを実行することを目的とした相互作用指向のもので、音声および身振り手振りなどの身体動作を用いてコミュニケーションを実行する機能を備えている。ロボット10は、詳細は後述するが、音声(発話)と身体動作(ジェスチャ)とによって、道案内を必要とする人間に対して目的地までの経路(道順)を説明する。また、ロボット10の外観ないし電気的な構成については、後で詳細に説明することにする。
表示装置12は、たとえばCRTディスプレイや液晶ディスプレイであり、上述したように、コンピュータ14が接続され、このコンピュータ14によって表示制御される。この表示装置12には、道案内サービスを提供する範囲に相当する地図が表示される。また、表示装置12は、道案内を実行するとき、地図上の現在地および目的地を判別可能に表示したり、現在地から目的地までの経路を可視表示したりする。
なお、現在地および目的地を判別可能に表示するとは、その位置に色を付して示したり、その位置を光の明滅で示したりすることなどを意味する。また、経路の可視表示については後で詳細に説明する。
コンピュータ14は、汎用のパーソナルコンピュータ(PC)やワークステーションのようなコンピュータであり、上述したように、表示装置12の表示を制御したり、ロボット10のコミュニケーション行動を制御したりする。
DB16は、システム100が道案内サービスを提供する範囲(環境)についての地図の情報(地図情報)を記憶する。図示は省略するが、この地図情報は、地図についての画像データおよび曲がり角や交差点などの人間が方向転換(右折や左折)を行う可能性の有る全ての地点、環境内の目的地となり得る全ての地点のような要所を示す要所データを含む。ただし、要所データが示す要所には、現在地(たとえば、表示装置12が設置される地点)も含まれる。また、DB16には、地図情報に関連して、各目的地に対応付けて、現在地から該当する目的地までの最短距離となる経路(道順)およびその経路における要所の情報とを含む経路情報が記憶される。ただし、経路における各要所は、現在地から目的地までの道順に従う順序で記憶される。したがって、コンピュータ14は、地図情報と経路情報とに基づいて、表示装置12の表示を制御する。たとえば、コンピュータ14は、地図情報に基づいて、道案内サービスを提示する範囲についての地図を表示装置12に表示し、道案内を実行する場合には、地図情報と経路情報とに基づいて、現在地から目的地までの経路を道順に従って地図上に表示する。
また、DB16には、ロボット10の動作を制御するための制御コマンドのコマンド名が記憶されている。このコマンド名は、ロボット10の行動モジュールの名称である。したがって、コンピュータ14は、道案内サービスを提供する場合には、ロボット10の制御コマンド(行動モジュール名)をロボット10に送信(指示)する。ロボット10は、コンピュータ14からの制御コマンドに従って、コミュニケーション行動すなわち道案内を実行する。たとえば、コンピュータ14は、地図情報と経路情報とに基づいて、表示装置12に現在地から目的地までの経路を道順に従って地図上に表示するとき、ロボット10に、要所毎の進行方向を発話させたり、身振り手振り(ジェスチャ)で提示させたりする。
床センサ(床圧力センサ)18は多数の検出素子(感圧センサ)を含み、この多数の検出素子は、たとえば、表示装置12の近傍(人間が表示装置12に表示された内容を確認できる程度の距離内)の床に埋め込まれる(敷き詰められる)。この実施例では、床センサ18は、表示装置12の近傍に人間が存在するとき、その圧力による信号(検出信号)をコンピュータ14に出力する。したがって、コンピュータ14は、床センサ18からの検出信号の有無に基づいて、表示装置12の近傍に人間が存在するか否かを知ることができる。
図2はロボット10の外観を示す正面図であり、この図2を参照して、ロボット10のハードウェアの構成について説明する。ロボット10は台車20を含み、この台車20の下面にはロボット10を自律移動させる2つの車輪22および1つの従輪24が設けられる。2つの車輪22は車輪モータ26(図3参照)によってそれぞれ独立に駆動され、台車20すなわちロボット10を前後左右任意の方向に動かすことができる。また、従輪24は車輪22を補助する補助輪である。したがって、ロボット10は、配置された空間内を自由に移動することができる。
台車20の上には、円柱形のセンサ取付パネル28が設けられ、このセンサ取付パネル28には、赤外線距離センサ30が取り付けられる。この赤外線距離センサ30は、センサ取付パネル28すなわちロボット10の周囲の物体(人間や障害物など)との距離を計測するものである。
また、センサ取付パネル28の上には、胴体32が直立するように設けられる。胴体32の前方中央上部(胸に相当する位置)には、上述した赤外線距離センサ30がさらに設けられる。これは、ロボット10の前方の主として人間との距離を計測する。また。胴体32には、1つの全方位カメラ34が設けられる。全方位カメラ34は、たとえば背面側上端部のほぼ中央から延びる支柱36上に設けられる。全方位カメラ34は、ロボット10の周囲を撮影するものであり、後述する眼カメラ60とは区別される。この全方位カメラ34としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。なお、これら赤外線距離センサ30および全方位カメラ34の設置位置は当該部位に限られず適宜変更され得る。
胴体32の両側面上端部(肩に相当する位置)には、それぞれ、肩関節38Rおよび38Lによって、上腕40Rおよび40Lが設けられる。図示は省略するが、肩関節38Rおよび38Lは、それぞれ、直交する3軸の自由度を有する。すなわち、肩関節38Rは、直交する3軸のそれぞれの軸廻りにおいて上腕40Rの角度を制御できる。肩関節38Rの或る軸(ヨー軸)は、上腕40Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸、ロール軸)は、それにそれぞれ異なる方向から直交する軸である。同様に、肩関節38Lは、直交する3軸のそれぞれの軸廻りにおいて上腕40Lの角度を制御できる。肩関節38Lの或る軸(ヨー軸)は、上腕40Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸、ロール軸)は、それにそれぞれ異なる方向から直交する軸である。
また、上腕40Rおよび40Lのそれぞれの先端には、肘関節42Rおよび42Lを介して、前腕44Rおよび44Lが設けられる。図示は省略するが、肘関節42Rおよび42Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸廻りにおいて前腕44Rおよび44Lの角度を制御できる。
前腕44Rおよび44Lのそれぞれの先端には、手に相当する球体46Rおよび46Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人間の手の形をした「手」を用いることも可能である。
また、図示は省略するが、台車20の前面、肩関節38R,38Lを含む肩に相当する部位、上腕40R,40L、前腕44R,44Lおよび球体46R,46Lには、それぞれ、接触センサ(図3で包括的に示す。:48)が設けられている。台車20の前面の接触センサ48は、台車20への人間や他の障害物の接触を検知する。したがって、ロボット10の移動中に障害物との接触があると、それを検知し、直ちに車輪22の駆動を停止してロボット10の移動を急停止させることができる。また、その他の接触センサ48は、主に、人間がロボット10の当該各部位に触れたかどうかを検知する。なお、接触センサ48の設置位置はこれらに限定されず、適宜な位置(胸、腹、脇、背中、腰、頭など)に設けられてよい。
胴体32の中央上部(首に相当する位置)には首関節50が設けられ、さらにその上には頭部52が設けられる。図示は省略するが、首関節50は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット10の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。
頭部52には、口に相当する位置に、スピーカ54が設けられる。スピーカ54は、ロボット10が、それの周辺の人間に対して音声ないし音によってコミュニケーションを取るために用いられる。また、耳に相当する位置には、マイク56Rおよび56Lが設けられる。以下、右耳に相当するマイク56Rと左耳に相当するマイク56Lとをまとめてマイク56ということがある。マイク56は、周囲の音、とりわけコミュニケーションを実行する対象である人間の声を取り込む。さらに、目に相当する位置には、眼球部58Rおよび58Lが設けられる。眼球部58Rおよび58Lは、それぞれ眼カメラ60Rおよび60Lを含む。以下、右の眼球部58Rと左の眼球部58Lとをまとめて眼球部58ということがあり、また、右の眼カメラ60Rと左の眼カメラ60Lとをまとめて眼カメラ60ということがある。
眼カメラ60は、ロボット10に接近した人間の顔や他の部分ないし物体等を撮影して、それに対応する映像信号を取り込む。眼カメラ60としては、上述した全方位カメラ34と同様のカメラを用いることができる。たとえば、眼カメラ60は眼球部58内に固定され、眼球部58は眼球支持部(図示せず)を介して頭部52内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部52の上へ向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部52の正面側(顔)が向く方向に直交する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部58ないし眼カメラ60の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。
なお、上述のスピーカ54、マイク56および眼カメラ60の設置位置は、これらに限定されず、適宜な位置に設けてよい。
図3はロボット10の電気的な構成を示すブロック図であり、この図3を参照して、ロボット10は、全体を制御するCPU62を含む。CPU62は、マイクロコンピュータ或いはプロセサとも呼ばれ、バス64を介して、メモリ66、モータ制御ボード68、センサ入力/出力ボード70および音声入力/出力ボード72に接続される。
メモリ66は、図示は省略するが、ROMやHDDおよびRAMを含み、ROMやHDDには、ロボット10の制御プログラム(人間との間でコミュニケーションを実行するための行動制御プログラム)が予め記憶されるとともに、コミュニケーションを実行する際にスピーカ54から発生すべき音声または声の音声データ(音声合成データ)および所定の身振りを提示するための角度データなども記憶される。ただし、ロボット10は、1または複数の行動制御プログラムに従って、人間との間でコミュニケーションを行い、すなわちジェスチャや発話を実行し、当該人間に対して道案内を行う。また、ROMやHDDには、外部コンピュータ(コンピュータ14など)との間で必要な情報を送受信するための通信プログラムなどが記録される。また、RAMは、ワークメモリやバッファメモリとして用いられる。
たとえば、道案内を行うための行動制御プログラム(行動モジュール)としては、“質問A”,“質問B”,…,“道案内A”,“道案内B”,…がある。ただし、“”内は、行動モジュールの名称である。ロボット10が、行動モジュール“質問A”を実行すると、たとえば、「道案内は必要ですか?」と発話して、首を傾げる。具体的には、CPU62は、メモリ66から「道案内は必要ですか?」に対応する音声データ(合成音声データ)を読み出し、音声入力/出力ボード72を介してスピーカ54から出力する。これと同時或いはほぼ同時に、CPU62は、メモリ66から首を傾げる場合の角度データを読み出し、モータ制御ボード68に与える。すると、首を傾げるように、頭部モータ82が回転される。
また、ロボット10が、行動モジュール“質問B”を実行すると、たとえば、「どこに行きたいの?」と発話して、首を傾げる。具体的には、CPU62は、メモリ66から「どこに行きたいの?」に対応する音声データを読み出し、音声入力/出力ボード72を介してスピーカ54から出力する。これと同時或いはほぼ同時に、CPU62は、メモリ66から首を傾げる場合の角度データを読み出し、モータ制御ボード68に与える。すると、首を傾げるように、頭部モータ82が回転される。
さらに、ロボット10が、行動モジュール“道案内A”を実行すると、たとえば、右手を前方に挙げ、右方向に90度旋回して、「この方向を直進して、直ぐの突き当たりを」と発話する。具体的には、CPU62は、メモリ66から右手を前方に挙げる場合の角度データおよび右方向に90度旋回するための角度データを読み出し、モータ制御ボード68に与える。すると、右手を前方に挙げるように右腕モータ78が所定角度だけ回転され、右方向に90度旋回するように車輪モータ26が回転される。その後、CPU62は、メモリ66から「この方向を直進して、直ぐの突き当たりを」に対応する音声データを読み出し、音声入力/出力ボード72を介してスピーカ54から出力する。
さらにまた、ロボット10が、行動モジュール“道案内B”を実行すると、たとえば、左方向に90度旋回して、「左に曲がり、直ぐの交差点を」と発話する。具体的には、CPU62は、メモリ66から左方向に90度旋回するための角度データを読み出し、モータ制御ボード68に与える。すると、左方向に90度旋回するように車輪モータ26が回転される。その後、CPU62は、メモリ66から「左に曲がり、直ぐの交差点を」に対応する音声データを読み出し、音声入力/出力ボード72を介してスピーカ54から出力する。
なお、これらの行動モジュールおよびそのコミュニケーション行動は、単なる例示であり、ロボット10が配置される環境や状況などに応じて、開発者ないし設計者によって、適宜設定される。
モータ制御ボード68は、たとえばDSPで構成され、各腕や首関節および眼球部等の各軸モータの駆動を制御する。すなわち、モータ制御ボード68は、CPU62からの制御データを受け、右眼球部58Rの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ」と示す。)74の回転角度を制御する。同様に、モータ制御ボード68は、CPU62からの制御データを受け、左眼球部58Lの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ」と示す。)76の回転角度を制御する。
また、モータ制御ボード68は、CPU62からの制御データを受け、右肩関節38Rの直交する3軸のそれぞれの角度を制御する3つのモータと右肘関節42Rの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ」と示す。)78の回転角度を調節する。同様に、モータ制御ボード68は、CPU62からの制御データを受け、左肩関節38Lの直交する3軸のそれぞれの角度を制御する3つのモータと左肘関節42Lの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ」と示す。)80の回転角度を調節する。
さらに、モータ制御ボード68は、CPU62からの制御データを受け、首間接50の直交する3軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ」と示す。)82の回転角度を制御する。さらにまた、モータ制御ボード68は、CPU62からの制御データを受け、車輪22を駆動する2つのモータ(図3では、まとめて「車輪モータ」と示す。)26の回転角度を制御する。
なお、この実施例では、車輪モータ26を除くモータは、制御を簡素化するために、ステッピングモータ或いはパルスモータを用いるようにしてある。ただし、車輪モータ26と同様に、直流モータを用いるようにしてもよい。
センサ入力/出力ボード70もまた、同様に、DSPで構成され、各センサからの信号を取り込んでCPU62に与える。すなわち、赤外線距離センサ30のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード70を通してCPU62に入力される。また、全方位カメラ34からの映像信号が、必要に応じてこのセンサ入力/出力ボード70で所定の処理を施された後、CPU62に入力される。眼カメラ60からの映像信号も、同様にして、CPU62に入力される。また、上述した複数の接触センサ(図3では、まとめて「接触センサ48」と示す。)からの信号がセンサ入力/出力ボード70を介してCPU62に与えられる。
音声入力/出力ボード72もまた、同様に、DSPで構成され、CPU62から与えられる音声合成データに従った音声または声がスピーカ54から出力される。たとえば、後述する相対座標系による情報提示(目的地までの経路の説明)などが音声または声としてスピーカ54から発せられる。また、マイク56からの音声入力が、音声入力/出力ボード56を介してCPU62に取り込まれる。
また、CPU62は、バス64を介して通信LANボード84に接続される。通信LANボード84は、DSPで構成され、CPU62から送られる送信データを無線通信装置86に与え、無線通信装置86から送信データを、たとえば、無線LANのようなネットワークを介して、外部コンピュータ(図1および図4ではコンピュータ14)などに送信する。また、通信LANボード84は、無線通信装置86を介してデータを受信し、受信したデータをCPU62に与える。つまり、この通信LANボード84および無線通信装置86によって、ロボット10はコンピュータ14などと無線通信を行うことができる。ただし、ロボット10とコンピュータ14とは、近距離無線(Bluetooth(登録商標))や有線によって直接通信可能に接続するようにしてもよい。
このような構成のシステム100は、或る地下街(ショッピングモール)やイベント会場などに適用され、道案内サービスを提供する。図4は、ロボット10と表示装置12とが連携して、人間(ここでは、人間A)に道案内を行っている様子の一例を示す。たとえば、表示装置12は、或る地下街の道案内所に設置される。ロボット10は、この表示装置12の近傍に固定的に設置される。また、ロボット10は自律移動できるため、表示装置12の周辺を移動可能に設置されてもよい。ただし、ロボット10は、後述するように、地図に従って人間が進行するときの方向を中心(基準)として、相対的な方向(真っ直ぐ、右、左等)を含む語句ないし言葉を発話するとともに、その方向を指差しするなどのジェスチャを実行することにより、道案内(情報提示)を行うので、固定的に設置される場合であっても、旋回可能に(自身の向きを変えられるように)設けられる。さらに、上述したように、表示装置12が設置される地点(場所)の近傍には床センサ18が埋め込まれている。
なお、図4では、コンピュータ14およびDB16は省略するが、図1に示したように、ロボット10、表示装置12および床センサ18は、コンピュータ14に接続され、このコンピュータ14にDB16が接続される。
図5は、表示装置12が提供する道案内(画面に表示する表示内容)の一例を示す。表示装置12には、たとえば、道案内を実行していない場合、図5(A)に示すように、現在地p1を含む地図が表示される。ただし、図5(A)(図5(B)−図5(F)も同じ。)では、三角印によって、人間の位置を、経路に従って表示するようにしてある。また、ここでは、簡単のため、表示装置12には、道案内を行う全範囲についての地図が固定的に表示されているものとする。ただし、道案内を行う範囲が広範である場合には、適宜、画面を縮小したり、拡大したり、または、スクロールしたりして、表示範囲を変更できるようにしてもよい。図5(A)に示す状態において、人間から目的地を取得すると、図5(B)に示すように、さらに目的地pnが地図上に表示される。ここで、pi(i=1,2,…,n)は、現在地p1から目的地pnまでの要所(経路ポイント)を意味し、現在地p1および目的地pnを含む。したがって、nは要所の総数である。また、図5(B)(図5(C)−図5(F)も同じ。)では、目的地pnをその文字を付すとともに、背景を白色にすることによって示してあるが、上述したように、実際には、色を付したり、光を明滅させたりすることによって、目的地pnを表示するようにしてもよい。
これ以降では、現在地p1から目的地pnまでの経路(最短経路)に従って、要所を示しながら、地図上の三角印の位置を更新する。まず、図5(C)では、地図上で、現在地p1から下向きに進行し、突き当りとなる(方向転換すべき)要所p2までの経路が示される。次に、図5(D)に示すように、地図上で、要所p2から左方向に進行し、分岐点となる(方向転換すべき)要所p3までの経路が示される。続いて、図5(E)に示すように、地図上で、要所p3から上方向に進行し、左折する地点となる要所p4までの経路が示される。そして、図5(F)に示すように、地図上で、要所p4から左方向に進行し、目的地pnに到着するまでの経路が示される。
一方、ロボット10は、音声(発話)および身振り手振りのような身体動作(ジェスチャ)を用いて、目的地までの経路を説明する。ただし、上述したように、ロボット10は、人間の進行方向を基準として、相対的に決定される方向を用いて発話したり、当該方向を身体動作で指示したりする。たとえば、人間が北方を向いているときは北方が基準となり、人間が南方を向いているときは南方が基準となる。したがって、たとえば、ロボット10は、道案内に際して、「その交差点を右に行って、次の十字路を左に…」のように、人間が実際に道を進んでいる状況を想定した発話やジェスチャを実行することができる。
具体的には、図5(C)−図5(F)で示したように、地図上で、人間の進行方向が示されるとき、ロボット10は、適宜、人間が進行する場合を想定して、道案内を実行する。まず、図5(C)に示したように、地図上で、現在地p1から要所p2までの経路が示されるとき、ロボット10は、要所p2の方向に旋回するとともに、当該方向を指差しながら、「この方向を直進して、突き当りを」などと発話する。次に、図5(D)に示したように、地図上で、要所p2から要所p3の経路が示されるとき、ロボット10は、「右に曲がり、しばらく直進して、その突き当りを」などと発話しながら、右方向(現在地p1から要所p2に向かう方向を基準とした場合の右方向)を向くように旋回する。さらに、図5(E)に示したように、地図上で、要所p3から要所p4までの経路が示されるとき、ロボット10は、「右に曲がり、20mほど行くと」などと発話しながら、右方向(要所p2から要所p3に向かう方向を基準とした場合の右方向)に旋回する。また、図5(F)に示したように、地図上で、要所p4から目的地pnまでの経路が示されるとき、ロボット10は、「左手が目的地です。」と発話しながら、左方向(要所p3から要所p4に向かう方向を基準とした場合の左方向)を指差しする。
つまり、図5(C)−図5(F)に示すように、地図上で、現在地p1から目的地pnまでの経路が順次示されるとき、それに対応させて、ロボット10は、「この方向を直進して、直ぐの突き当りを右に曲がり、しばらく直進して、その突き当りを右に曲がり、20mほど行くと左手が目的地です。」と発話するとともに、当該発話に応じたジェスチャを行うのである。このように、ロボット10は、人間が実際に道を進んでいる状況を想定した道案内を実行するので、地図を理解することが苦手な人間に対しても、分かり易く目的地までの経路を説明することができる。
なお、詳細な説明は省略するが、ロボット10の説明を聞いている人間は、ロボット10のコミュニケーション行動(発話やジェスチャ)に応じて、適宜自身の体や顔の向きを変えると想定してある。
上述のようなシステム100の動作をフロー図に従って説明する。具体的には、コンピュータ14が図6に示すフロー図に従って全体処理を実行し、道案内サービスを提供する。図6に示すように、コンピュータ14は、全体処理を開始すると、ステップS1で、停止命令が有るか否かを判断する。たとえば、停止命令は、システム100の管理者等が、コンピュータ14の入力装置(キーボード,コンピュータマウスなど)を用いて入力する。ステップS1で“YES”のとき、すなわち停止命令が有る場合には、道案内サービスの提供を終了すべく、そのまま全体処理を終了する。一方、ステップS1で“NO”のとき、すなわち停止命令が無い場合には、ステップS3で、表示装置12の近傍に人間が存在するか否かを判断する。すなわち、たとえば床センサ18の検出結果に基づいて、表示装置12の近傍(表示装置12の画面に表示される地図情報が確認できる程度の距離、たとえば、2m以内)に人間を検出したかどうかを判断する。
ステップS3で“NO”のとき、すなわち表示装置12の近傍に人間が存在しない場合には、ステップS1に戻る。一方ステップS3で“YES”のとき、すなわち表示装置12の近傍に人間が存在する場合には、ステップS5で、ロボット10に制御コマンドを送信する。この制御コマンドは、その人間が道案内を必要としているかどうかを、ロボット10に質問させるための行動モジュール“質問A”である。図示は省略するが、ロボット10は、この制御コマンドを受信すると、CPU62が当該制御コマンドに対応した動作(道案内が必要であるかどうかを質問する動作)を実行する。したがって、たとえば、ロボット10は、「道案内は必要ですか?」と発話して、首を傾げたり、「道案内が必要な場合は、僕の肩に触れてください。」と発話したりして、道案内が必要であるかどうかを人間に質問する。
次のステップS7では、道案内が必要であるか否かを判断する。ただし、この実施例では、ロボット10が、道案内が必要であるか否かを判断し、その結果をコンピュータ14に送信するようにしてある。たとえば、ロボット10は、制御コマンドに従って道案内が必要であるかどうかを人間に質問し、これに応じて、人間が肯定的な返答(たとえば、「はい」)を発話したり、ロボット10の肩に触れたりすると、道案内が必要であると判断する。ただし、ロボット10は、制御コマンドに従って道案内が必要であるかどうかを人間に質問し、これに対して、何らリアクションが無い場合には、道案内が不要であると判断する。
ステップS7で“NO”のとき、すなわち道案内が不要である場合には、そのままステップS1に戻る。一方、ステップS7で“YES”のとき、すなわち道案内が必要である場合には、ステップS9で、制御コマンドを送信する。この制御コマンドは、ロボット10に、人間に対して目的地を質問させるための行動モジュール“質問B”である。ロボット10は、この制御コマンドを受信すると、当該制御コマンドに対応したコミュニケーション行動(目的地を質問する動作)を実行する。たとえば、ロボット10は、「どこに行きたいの?」と発話するとともに、首を傾げて、人間に目的地を聞く(質問する)。
次のステップS11では、道案内の目的地情報を取得する。ただし、この実施例では、ロボット10が人間に目的地を聞くため、ここでは、コンピュータ14は、ロボット10から目的地情報を取得するのである。たとえば、ロボット10は、人間が返答(発話)した場所を音声認識することによって目的地情報を取得する。
続いて、ステップS13では、現在地p1と目的地pnとを含む地図を表示装置12に表示する。つまり、図5(B)に示したように、図5(A)に示した地図に、目的地pnが表示される。たとえば、コンピュータ14のVRAM(図示せず)上に展開された地図データのうち、目的地に相当する位置(一定の領域ないし範囲)に、pnの文字が表示されるとともに、その背景として色(たとえば、赤色)が付される。したがって、表示装置12に、目的地pnが示される。次のステップS15では、目的地pnに対応した経路情報および制御コマンド情報をDB16から取得する。そして、ステップS17で、後述する道案内処理(図7参照)を実行して、ステップS1に戻る。
図7は、図6に示したステップS17の道案内処理を示すフロー図である。図7に示すように、コンピュータ14は、道案内処理を開始すると、ステップS21で、変数jを初期化する(j=1)。この変数jは、道案内(処理)を実行した回数を示す。続くステップS23では、変数iを初期化する(i=1)。つまり、要所piを現在地p1に設定する。
次のステップS25では、表示装置12に現在地p1を点滅表示する。つまり、地図上に表示されている現在地p1を示す三角印を点滅させることによって、現在地p1を人間に対して分かり易いように示す。ただし、上述したように、その位置に色を付したり、その位置の光を明滅させたりして、現在地p1を示してもよい。続くステップS27では、ロボット10に制御コマンドを送信する。この制御コマンドは、ロボット10に、地図上の現在地p1を説明させるための行動モジュールである。ロボット10は、この制御コマンドを受信すると、たとえば、地図上の現在地p1を指差し、「今はここだよ」と発話する。このステップS25およびステップS27の処理によって、人間は、地図上における現在地p1を確認する(知る)ことができる。
次のステップS29では、表示装置12に、要所piから要所pi+1までの経路を表示する。したがって、表示装置12の画面には、要所piおよび要所pi+1を示す三角印およびそれらを進行方向に結ぶ矢印が地図上に表示される。たとえば、i=1では、図5(C)に示したように、現在地p1および要所p2のそれぞれが三角印で表示されるとともに、現在地p1から要所p2に向かう経路を示す矢印が地図上に表示される。続くステップS31では、ロボット10に制御コマンドを送信する。この制御コマンドは、ロボット10に要所piから要所pi+1までの経路を説明させるための行動モジュール(“案内A”,“案内B”,…)である。たとえば、i=1では、図5(C)に示した現在地p1から要所p2までの経路が表示されるとき、ロボット10は、要所p2の方向に旋回するとともに、当該方向を指差しながら、「この方向を直進して、突き当りを」などと発話する。このステップS29およびステップS31の処理によって、人間は、要所piから要所pi+1までの経路を知ることができる。
続いて、ステップS33では、変数iがn−1以上であるかどうかを判断する。ここで、上述したように、nは当該目的地までの最短経路に含まれる要所(経路ポイント)の総数であり、変数iがn−1以上であれば、目的地pnまでの経路を全て説明したことを意味する。ステップS33で“NO”のとき、すなわち、未だ目的地pnまでの経路を全て説明していない場合には、ステップS35で、変数iをインクリメント(i=i+1)して、ステップS29に戻る。一方、ステップS33で“YES”のとき、すなわち、目的地までの経路を全て説明した場合には、ステップS37で、ロボット10に制御コマンドを送信する。この制御コマンドは、ロボット10に、地図上の目的地pnを説明させるためのものである。ロボット10は、この制御コマンドを受信すると、たとえば、地図上の目的地pnを指差し、「ここが目的地だよ」と発話する。このステップS37の処理によって、人間は地図上での目的地を確認することができる。
次のステップS39では、人間が目的地までの経路を理解したかどうかを判断する。ただし、ロボット10が、人間に質問するため、コンピュータ14は、ロボット10から人間が経路を理解したか否かの判断結果を取得する。たとえば、ロボット10は、「分かりましたか?」などと発話し、これに応じて、人間が肯定的な返答(たとえば、「はい」)を発話した場合には、それを音声認識することによって当該人間が目的地までの経路を理解したと判断することができる。ただし、人間が否定的な返答(たとえば、「いいえ」,「分からない」)を発話した場合には、当該人間が目的地までの経路を理解していないと判断することができる。
ステップS39で“YES”のとき、すなわち、人間が目的地までの経路を理解した場合には、そのままステップS45に進む。一方、ステップS39で“NO”のとき、すなわち人間が目的地までの経路を理解していない場合には、ステップS41で、変数jが説明限度回数m以上であるかどうかを判断する。ここで、説明限度回数mは、当該人間について同じ道案内を何回繰り返すかを決定するための回数であり、たとえば2〜3に設定される。ステップS41で“NO”のとき、すなわち、まだ説明限度回数mに達していない場合には、ステップS23に戻り、同じ道案内を繰り返す。一方、ステップS41で“YES”のとき、すなわち、説明限度回数mに達した場合には、ステップS45に進む。
ステップS45では、ロボット10に制御コマンドを送信する。この制御コマンドは、ロボット10に、当該説明が終了したことを人間に対して知らせさせるためのものである。ロボット10は、この制御コマンドを受信すると、「説明は以上です」などと発話する。そして、ステップS45の処理を終了すると、図6に示した全体処理にリターンする。
この実施例によれば、地図上で現在地から目的地までの経路を、要所毎に順次表示装置に表示するとともに、ロボットが発話やジェスチャによって要所毎に道案内を行うので、ロボットと表示装置とが連携して道案内を実行することができる。つまり、地図上で経路を可視表示したり、ロボットのコミュニケーション行動によって人間が進行すべき方向を伝えたりするので、地図を理解することが苦手な人間にとっても分かり易く経路を説明することができる。
また、この実施例では、ロボットが人間を目的地まで誘導するようなことはしないので、効率的よく道案内をすることができる。
なお、上述の実施例では、表示装置12は、地図上に現在地および目的地を含む要所を経路の順番に従って表示するようにしたが、これに限定される必要はない。たとえば、現在地および目的地を含む最短経路および全ての要所および進行方向を示す矢印を最初から表示してもよい。このような場合には、ロボット10の道案内と対応させるべく、ロボット10が説明中の要所および矢印の色を変化させたり、光を明滅させたりすることによって、ロボット10が現在どの地点の説明を行っているのかを人間に対して知らせるようにしてもよい。
また、上述の実施例では、床センサ18を用いて、表示装置12の近くに人間を検出するようにしたが、これに限定されない。たとえば、環境に設置した天井カメラを用いて人間を検出するようにしてもよいし、無線タグ読取システムを用いて人間を検出してもよい。また、ロボット10が備えるセンサによって人間を検出するようにしてもよい。たとえば、赤外線距離センサ30の検出結果に基づいて、人間を検出するようにしてもよい。
また、上述の実施例では、表示装置12の近傍に存在する人間を検出すると、ロボット10が人間に話しかけ、道案内が必要であることを判断してから、目的地情報を取得して、道案内を開始するようにしたが、これに限定されるべきでない。たとえば、表示装置12の近傍に目的地を選択するためのボタンを設けておき、目的地に対応するボタンが選択されたときに当該ボタンに対応する場所を目的地として取得し、道案内を開始するというようにしてもよい。また、たとえば、タッチパネルを表示装置12の画面上に設けるようにすれば、直接的に地図上の目的地を選択することもできる。
さらに、上述の実施例では、簡単のため、表示装置12の近傍に存在する人間を検出して、道案内を実行するようにしたが、これに限定されず、たとえば、表示装置12の表示が見難い位置に存在する人間にも積極的に働きかけて、道案内を実行するようにしてもよい。たとえば、表示装置12が設置される或る部屋(たとえば、道案内サービスセンタ)内の人間を検出するようにして、ロボット10は、この部屋内を自由に移動するようにする。そして、当該部屋に入ってきた人間に対してロボット10が話しかけ、道案内が必要であると判断した場合は、表示装置12の前(表示が見易い地点)まで誘導してから道案内を開始するというようにしてもよい。
また、上述の実施例では、予め各目的地に対応付けて経路情報および操作コマンド情報を生成し記憶しておくようにしたが、これに限定される必要はない。たとえば、取得した目的地に基づいて、既存の経路探索アルゴリズム(ダイナクストラ法やウォーシャルフロイド法など)を用いて最短経路を生成し、この最短経路に含まれる要所(経路ポイント)同士の関係と地図情報とに基づいてロボット10の動作(発話やジェスチャ)や表示装置12の表示内容を自動生成するようにしてもよい。
図1はこの発明の道案内ロボットシステムの一実施例を示す図解図である。 図2は図1に示すコミュニケーションロボットの外観を正面から見た図解図である。 図3は図1に示すコミュニケーションロボットの電気的な構成を示すブロック図である。 図4はこの発明の適用の一実施例を示す図解図である。 図5は図1に示す表示装置が提供する道案内の一例を示す図解図である。 図6は図1に示すコンピュータの全体処理の一例を示すフロー図である。 図7は図1に示すコンピュータの道案内処理の一例を示すフロー図である。
符号の説明
10 …コミュニケーションロボット
12 …表示装置
14 …コンピュータ
16 …データベース
18 …床センサ
54 …スピーカ
56 …マイク
62 …CPU
66 …メモリ
68 …モータ制御ボード
70 …センサ入力/出力ボード
72 …音声入力/出力ボード
84 …通信LANボード
86 …無線通信装置

Claims (2)

  1. 少なくとも地図を表示装置に表示する地図表示手段、
    道案内の目的地を示す目的地情報を取得する目的地情報取得手段、
    前記目的地情報取得手段によって目的地情報が取得されたとき、前記表示装置の設置された現在地から前記目的地までの経路を要所に従って前記地図上に可視表示する経路表示手段、および
    前記経路表示手段によって前記経路が可視表示されるとき、前記要所毎に人間が進行すべき方向を音声および身体動作によって当該人間に説明するコミュニケーションロボットを制御する制御手段を備える、道案内システム。
  2. 少なくとも前記表示装置の近傍に存在する人間を検出する人間検出手段をさらに備え、
    前記制御手段は、前記人間検出手段によって人間が検出されたとき、当該人間に対して道案内が必要であるかどうかを前記コミュニケーションロボットに質問させ、その質問に対する人間の反応に基づいて前記コミュニケーションロボットの動作を制御する、請求項1記載の道案内システム。
JP2006092934A 2006-03-30 2006-03-30 道案内システム Active JP4962940B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006092934A JP4962940B2 (ja) 2006-03-30 2006-03-30 道案内システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006092934A JP4962940B2 (ja) 2006-03-30 2006-03-30 道案内システム

Publications (2)

Publication Number Publication Date
JP2007265329A true JP2007265329A (ja) 2007-10-11
JP4962940B2 JP4962940B2 (ja) 2012-06-27

Family

ID=38638212

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006092934A Active JP4962940B2 (ja) 2006-03-30 2006-03-30 道案内システム

Country Status (1)

Country Link
JP (1) JP4962940B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007149053A (ja) * 2005-10-24 2007-06-14 Shimizu Corp 道案内システムおよび道案内方法
JP2009166184A (ja) * 2008-01-17 2009-07-30 Saitama Univ ガイドロボット
JP2010046780A (ja) * 2008-08-25 2010-03-04 Advanced Telecommunication Research Institute International 道案内ロボット
JP2010188429A (ja) * 2009-02-16 2010-09-02 Advanced Telecommunication Research Institute International 道案内ロボット
JP2011180660A (ja) * 2010-02-26 2011-09-15 Advanced Telecommunication Research Institute International 領域分割装置、領域分割プログラムおよび領域分割方法ならびにコミュニケーションロボット
JP2013239209A (ja) * 2013-09-04 2013-11-28 Advanced Telecommunication Research Institute International コミュニケーションロボット、ロボット制御プログラムおよびロボット制御方法
JP7439572B2 (ja) 2020-03-05 2024-02-28 オムロン株式会社 自走式ロボット、案内方法、および案内プログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108303972B (zh) * 2017-10-31 2020-01-17 腾讯科技(深圳)有限公司 移动机器人的交互方法及装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07239671A (ja) * 1994-02-28 1995-09-12 Temusu:Kk 受付・案内のロボットシステム
JP2000099871A (ja) * 1998-09-22 2000-04-07 Atr Media Integration & Communications Res Lab ユーザ誘導装置
JP2001236137A (ja) * 2000-02-22 2001-08-31 Totoku Electric Co Ltd ガイドロボット、情報処理装置およびガイドロボット付き情報処理装置
JP2002361585A (ja) * 2001-06-07 2002-12-18 Atr Media Integration & Communications Res Lab コミュニケーションロボット
JP2003271243A (ja) * 2002-03-18 2003-09-26 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2005066745A (ja) * 2003-08-22 2005-03-17 Oki Electric Ind Co Ltd 案内ロボットシステム
JP2005103722A (ja) * 2003-09-30 2005-04-21 Toshiba Corp 協調ロボット装置、システム、およびナビゲーションロボット装置
JP2005131713A (ja) * 2003-10-28 2005-05-26 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2005309708A (ja) * 2004-04-21 2005-11-04 Pia Corp 案内システムとそれを実現するためのコンピュータプログラムとその方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07239671A (ja) * 1994-02-28 1995-09-12 Temusu:Kk 受付・案内のロボットシステム
JP2000099871A (ja) * 1998-09-22 2000-04-07 Atr Media Integration & Communications Res Lab ユーザ誘導装置
JP2001236137A (ja) * 2000-02-22 2001-08-31 Totoku Electric Co Ltd ガイドロボット、情報処理装置およびガイドロボット付き情報処理装置
JP2002361585A (ja) * 2001-06-07 2002-12-18 Atr Media Integration & Communications Res Lab コミュニケーションロボット
JP2003271243A (ja) * 2002-03-18 2003-09-26 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2005066745A (ja) * 2003-08-22 2005-03-17 Oki Electric Ind Co Ltd 案内ロボットシステム
JP2005103722A (ja) * 2003-09-30 2005-04-21 Toshiba Corp 協調ロボット装置、システム、およびナビゲーションロボット装置
JP2005131713A (ja) * 2003-10-28 2005-05-26 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2005309708A (ja) * 2004-04-21 2005-11-04 Pia Corp 案内システムとそれを実現するためのコンピュータプログラムとその方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007149053A (ja) * 2005-10-24 2007-06-14 Shimizu Corp 道案内システムおよび道案内方法
JP2009166184A (ja) * 2008-01-17 2009-07-30 Saitama Univ ガイドロボット
JP2010046780A (ja) * 2008-08-25 2010-03-04 Advanced Telecommunication Research Institute International 道案内ロボット
JP2010188429A (ja) * 2009-02-16 2010-09-02 Advanced Telecommunication Research Institute International 道案内ロボット
JP2011180660A (ja) * 2010-02-26 2011-09-15 Advanced Telecommunication Research Institute International 領域分割装置、領域分割プログラムおよび領域分割方法ならびにコミュニケーションロボット
JP2013239209A (ja) * 2013-09-04 2013-11-28 Advanced Telecommunication Research Institute International コミュニケーションロボット、ロボット制御プログラムおよびロボット制御方法
JP7439572B2 (ja) 2020-03-05 2024-02-28 オムロン株式会社 自走式ロボット、案内方法、および案内プログラム

Also Published As

Publication number Publication date
JP4962940B2 (ja) 2012-06-27

Similar Documents

Publication Publication Date Title
JP2007260822A (ja) 道案内ロボット
JP4962940B2 (ja) 道案内システム
JP4639343B2 (ja) ロボット遠隔操作システム
US11338429B2 (en) Robot
US7653458B2 (en) Robot device, movement method of robot device, and program
JP4386367B2 (ja) コミュニケーションロボット改良システム
JP5070441B2 (ja) ロボット遠隔操作システム
JP5366048B2 (ja) 情報提供システム
JP2009241166A (ja) ロボット遠隔操作システム
JP2006297531A (ja) サービスロボット
JP6134895B2 (ja) ロボット制御システム、ロボット制御プログラムおよび説明ロボット
JP5145569B2 (ja) 対象物特定方法および装置
JP2007216363A (ja) コミュニケーションロボット
JP6150429B2 (ja) ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法
US9640199B2 (en) Location tracking from natural speech
JP5776544B2 (ja) ロボットの制御方法、ロボットの制御装置、及びロボット
KR102479585B1 (ko) 무게 중심 이동 힘 인가 장치
JP6134894B2 (ja) ロボット制御システムおよびロボット
JP2007160427A (ja) ロボット制御システム
JP2010082714A (ja) コミュニケーションロボット
JP2017170568A (ja) サービス提供ロボットシステム
JP5115886B2 (ja) 道案内ロボット
JP2004209562A (ja) 移動ロボット
JP5324956B2 (ja) 道案内ロボット
JP6142306B2 (ja) ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120305

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120319

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4962940

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150406

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250