JP2007190641A - コミュニケーションロボット - Google Patents

コミュニケーションロボット Download PDF

Info

Publication number
JP2007190641A
JP2007190641A JP2006010626A JP2006010626A JP2007190641A JP 2007190641 A JP2007190641 A JP 2007190641A JP 2006010626 A JP2006010626 A JP 2006010626A JP 2006010626 A JP2006010626 A JP 2006010626A JP 2007190641 A JP2007190641 A JP 2007190641A
Authority
JP
Japan
Prior art keywords
operator
robot
call
communication
human
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006010626A
Other languages
English (en)
Other versions
JP5033994B2 (ja
Inventor
Takayuki Kanda
崇行 神田
Tomohito Koizumi
智史 小泉
Masahiro Shiomi
昌裕 塩見
Noriaki Mitsunaga
法明 光永
Keiko Miyashita
敬宏 宮下
Hiroshi Ishiguro
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2006010626A priority Critical patent/JP5033994B2/ja
Publication of JP2007190641A publication Critical patent/JP2007190641A/ja
Application granted granted Critical
Publication of JP5033994B2 publication Critical patent/JP5033994B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Toys (AREA)

Abstract

【課題】効率良く、適切なサービスを提供することができるロボット制御システムを提供する。
【解決手段】コミュニケーションロボット10は、周囲や自身の状況を検出する様々なセンサを含み、センサの出力に基づいて、オペレータ呼出条件を満たすか否かを判断する。コミュニケーションロボット10は、通常、自律制御によって、人間との間でコミュニケーション行動を行うなどして、受付や道案内などのサービスを提供し、オペレータ呼出条件を満たすと判断したときに、ネットワーク202を介して、呼出要求をオペレータ端末204に送信する。これに応じて、オペレータは、オペレータ端末204を操作して、コミュニケーションロボット10に、制御コマンドを送信する。すると、コミュニケーションロボット10は、制御コマンドに従うコミュニケーション行動を実行する。
【選択図】図3

Description

この発明はコミュニケーションロボットに関し、特にたとえば、音声および身体動作の少なくとも一方を用いて人間との間でコミュニケーション行動を実行する、コミュニケーションロボットに関する。
従来のこの種のコミュニケーションロボットの一例が特許文献1に開示される。特許文献1の遠隔操作システムによれば、ロボット装置は警備などに利用され、基本的には自律行動を行う。ただし、ロボット動作の修正が必要な場合には自律遠隔協調モードに移行して修正動作を行うことができる。このとき、協調割合が100%遠隔であれば、ロボット装置は完全遠隔動作を行う。
また、この種のコミュニケーションロボットの他の一例が特許文献2に開示される。この特許文献2のメンテナンスロボットシステムでは、メンテナンスロボットは、無人環境や夜間に顧客の施設内で利用されているコンピュータ群を巡回点検し、異常を発見したとき、障害内容を情報管理システムへ報告し、情報管理システムから送られてきた作業手順に従い、該当コンピュータの保守作業を行う。ただし、メンテナンスロボットは、保守作業を3回繰り返し行っても完了しない場合は、コールセンタへ保守員の派遣要請を行い、3回以内に作業が完了した場合は、作業完了をコールセンタへ報告する。
さらに、特許文献3(特許文献4も同様。)には、音声と共に身体動作を伝送することで、遠隔地間の人間同士のコミュニケーションを促進する遠隔地間対話システムが開示されている。特許文献3に開示される意思伝達装置は、話し手又は聞き手として振る舞う共用ロボットと、話し手制御部、聞き手制御部および音声送受信部とから構成され、たとえば電話器に適用される。この意思伝達装置では、電話回線を通じて送受信される音声信号を時系列的な電気信号のON/OFFと捉え、この電気信号のON/OFFから頷き動作タイミングを判断し、ロボットの各部を動作させる。具体的には、話し手としてのロボットは、通話相手の音声信号に応じて、瞬きしたり、口を開閉したり、腕、腰などの身体部位を動かしたりする。一方、聞き手としてのロボットは、本人であるユーザの音声信号に応じて、頷き動作をする。
特開2003−251581号公報[B25J 13/00] 特開2005−153104号公報[B25J 13/00] 特開2000−349920号公報[H04M 11/00] 特開2001−156930号公報[H04M 11/00]
特許文献1の発明では、オペレータは、ロボット装置から送信される各種のセンサ情報をモニタリングして、ロボット装置の動作モードを設定するようにしてあるため、オペレータはロボット装置の状態を常に監視する必要があった。すなわち、非効率であった。
また、特許文献2の発明では、メンテナンスロボットは、保守作業を3回繰り返し行っても完了しない場合は、コールセンタへ保守員の派遣要請を行うだけである。つまり、保守員を現場に呼び出すに過ぎず、オペレータによる遠隔操作によってコンピュータ群の異常を解決しようとするものではなかった。
また、特許文献3および特許文献4の発明は、遠隔地に存在する人間の声や動作に合わせてロボットの頷き動作などが制御(遠隔制御)されるだけであり、必要に応じてオペレータの指示に従ってロボットを遠隔制御するものではなかった。
それゆえに、この発明の主たる目的は、効率良くロボットを遠隔操作できる、コミュニケーションロボットを提供することである。
請求項1の発明は、音声および身体動作の少なくとも一方を用いて人間との間でコミュニケーション行動を実行するコミュニケーションロボットであって、少なくとも人間の声を含む周囲情報を検出する検出手段、オペレータ呼出条件を記憶する記憶手段、検出手段によって検出された周囲情報に基づいて記憶手段に記憶されたオペレータ呼出条件を満たすか否かを判断する呼出判断手段、呼出判断手段によってオペレータ呼出条件を満たすことが判断されたとき、オペレータを呼び出すための呼出信号をオペレータ端末に送信する送信手段、オペレータ端末からの遠隔操作情報を受信する受信手段、および受信手段によって受信された遠隔操作情報に基づくコミュニケーション行動を実行する実行手段を備える、コミュニケーションロボットである。
請求項1の発明では、コミュニケーションロボット(10:実施例で相当する参照番号。以下同じ。)は、音声および身体動作の少なくとも一方を用いて人間との間でコミュニケーション行動を実行する。たとえば、コミュニケーションロボットは、或るイベント会場や会社の受付のような様々な場所や状況に配置され、通常は自律制御によって人間との会話などのコミュニケーション行動を実行し、受付や道案内などの役割を果たす(サービスを提供する)。検出手段(28,32,42,46,48,58,72,98,S23)は、少なくとも人間の声を含む周囲情報、すなわち自身の周囲および自身の状況に関する情報などを検出する。記憶手段(100)は、オペレータ呼出条件を記憶する。ここで、オペレータ呼出条件とは、オペレータを呼び出すか否かを判断するための条件をいう。具体的には、自律制御だけでは対応が困難な状況や事態になり、遠隔操作による対応が必要になったことを示す。呼出判断手段(72,S5,S25〜39)は、検出手段によって検出した周囲情報に基づいて、記憶手段に記憶されたオペレータ呼出条件を満たすか否かを判断する。呼出判断手段によってオペレータ呼出条件を満たすと判断されたときには、送信手段(72,96,S7)は、オペレータを呼び出すための呼出信号を、たとえばネットワーク(202)を介してオペレータ端末(204)に送信する。オペレータ端末では、オペレータが遠隔操作情報(制御コマンド)を入力すると、コミュニケーションロボットに送信される。コミュニケーションロボットでは、受信手段(72,96,S11)が、オペレータによって入力された遠隔操作情報を受信する。実行手段(26,40,72,84〜92,S13)は、受信手段によって受信された遠隔操作情報に基づいて、音声および身体動作の少なくとも一方を含むコミュニケーション行動を実行する。
請求項1の発明によれば、必要に応じてオペレータによる遠隔操作を行えばよいので、効率良くロボットを遠隔操作することができる。
請求項2の発明は、請求項1に従属し、検出手段によって検出された人間の声を認識してキーワードが含まれるか否かを判断するキーワード判断手段をさらに備え、呼出判断手段は、キーワード判断手段によってキーワードが含まれることが判断されたとき、オペレータ呼出条件を満たすと判断する。
請求項2の発明では、キーワード判断手段(72,S25)は、検出手段によって検出された人間の声を認識(音声認識)し、音声認識した人間の声にキーワードが含まれるか否かを判断する。たとえば、キーワードには、人間がコミュニケーションロボットと会話しているときに、困っていることを表現する場合に使用する言葉(単語,語句)が設定される。具体的には、「責任者を呼んで」や「わからない」などの言葉(単語,語句)が含まれてよい。キーワード判断手段によってキーワードが含まれると判断されたときには、呼出判断手段は、オペレータ呼出条件を満たすと判断する。
請求項2の発明によれば、人間が困っている状況などを音声によって認識するので、当該人間の手を煩わすことがなく、適切にオペレータを呼び出すことができる。すなわち、より効率良く遠隔制御することができる。
請求項3の発明は、請求項1または2に従属し、検出手段は、人間の顔の表情を取得する顔表情取得手段を含み、顔表情取得手段によって取得された人間の顔の表情が特定の表情であるか否かを判断する顔表情判断手段をさらに備え、呼出判断手段は、顔表情判断手段によって特定の表情であることが判断されたとき、オペレータ呼出条件を満たすと判断する。
請求項3の発明では、顔表情取得手段(42,48,72,S23)は、人間の顔の表情を取得する。顔表情判断手段(72,S27)は、顔表情取得手段によって取得された人間の顔の表情が特定の表情であるか否かを判断する。特定の表情には、たとえば、コミュニケーションロボットとのコミュニケーション行動がうまくいっていないときに見せる人間の顔の表情を設定することができる。具体的には、怒っている表情や困っている表情などが設定される。顔表情判断手段によって特定の表情であると判断されたときには、呼出判断手段は、オペレータ呼出条件を満たすと判断する。
請求項3の発明によれば、人間とのコミュニケーションが適切に行われていないことを人間の顔の表情によって判断するので、請求項2の発明と同様に、当該人間の手を煩わすことなく、適切にオペレータを呼び出すことができる。
請求項4の発明は、請求項1ないし3のいずれかに従属し、検出手段は、人間を個々に識別する個人識別手段を含み、個人識別手段によって識別された人間が特定の人間であるか否かを判断する人間判断手段をさらに備え、呼出判断手段は、人間判断手段によって特定の人間であることが判断されたとき、オペレータ呼出条件を満たすと判断する。
請求項4の発明では、個人識別手段(42,48,72,98,S23)は、人間を個々に識別する。人間判断手段(72,S29)は、個人識別手段によって識別された人間が特定の人間であるか否かを判断する。ここで、特定の人間とは、オペレータによる遠隔操作で適切に対応することが望ましい人間を意味する。特定の人間には、たとえば、いわゆるVIP(重要な顧客)や自律制御だけでは対応することが難しい人間(たとえば、幼児)が設定される。人間判断手段によって特定の人間であると判断されたときには、呼出判断手段は、オペレータ呼出条件を満たすと判断する。
請求項4の発明によれば、特定の人間を認識した場合には、速やかにオペレータを呼び出すので、より適切に対応することができるとともに、未然にトラブルを防止することもできる。すなわち、状況に応じた適切なサービスを提供することができる。
請求項5の発明は、請求項1ないし4のいずれかに従属し、検出手段は、少なくとも人間を含む対象物との距離を検出する距離検出手段を含み、距離検出手段によって検出された対象物との距離が所定距離以内であるか否かを判断する距離判断手段をさらに備え、呼出判断手段は、距離判断手段によって所定距離以内であることが判断されたとき、オペレータ呼出条件を満たすと判断する。
請求項5の発明では、検出手段は、距離検出手段(32,72,S23)を含み、距離検出手段は、少なくとも人間を含む対象物との距離を検出する。距離判断手段(72,S31,S33)は、距離検出手段によって検出された対象物との距離が所定距離以内であるか否かを判断する。距離判断手段によって所定距離以内であると判断されたときには、呼出判断手段は、オペレータ呼出条件を満たすと判断する。つまり、距離検出手段によって検出される距離に基づいて、オペレータによる対応が必要であるような特定の状況を推測するのである。たとえば、人間との距離が1m以内であり、この状態が5分以上継続している場合には、当該人間とコミュニケーションロボットとが長い間会話しており、コミュニケーションロボットによる受付や道案内がうまくできていないことが推測される。また、たとえば、コミュニケーションロボットの移動中に、人間との距離が50cm以下であり、この状態が10秒以上継続している場合には、当該人間に行く手を塞がれていると推測される。
請求項5の発明によれば、人間との会話がうまくいっていない状況や人間にいたずらされている状況などを推測して、オペレータを呼び出すので、トラブルに対して適切に対応することができる。
この発明によれば、オペレータによる遠隔操作が必要な状況を適切に判断してオペレータを呼び出すので、オペレータは必要に応じて遠隔操作を行えばよい。つまり、効率良くロボットを遠隔操作でき、状況に応じた適切なサービスを提供することができる。
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1を参照して、この実施例のコミュニケーションロボット10(以下、単に「ロボット」ということがある。)は、主として人間のようなコミュニケーションの対象とコミュニケーションすることを目的とした相互作用指向のもので、音声によって人間と対話することが可能である。また、音声に代えて、或いは音声とともに、身振り手振りのような身体動作を用いてコミュニケーションすることもできる。以下、この明細書において、音声および身体動作の少なくとも一方を用いたコミュニケーションの行動ないし動作をコミュニケーション行動という。
このロボット10は、一例として、受付ロボットや道案内ロボットであり、或るイベント会場や会社の受付などの様々な場所や状況に配置され、通常は自律制御によって、受付や道案内などの役割を果たす(サービスを提供する)。しかし、ロボット10は、自律制御だけでは対応することが困難な事態になった場合、たとえば人間との会話がうまくいっていない状況になったり、より細やかな対応が求められる場面になったりした場合などには、オペレータを呼び出す。そして、ロボット10は、呼び出したオペレータによって入力された制御コマンド(遠隔操作情報)を受信し、当該制御コマンドに従うコミュニケーション行動(動作や発話)を実行する。つまり、ロボット10は、オペレータによって必要に応じて遠隔操作される。
図1は、ロボット10の外観を示す正面図である。この図1に示すように、ロボット10は台車22を含み、この台車22の下面にはロボット10を自律移動させる車輪24が設けられる。車輪24は車輪モータ26(図2参照)によって駆動され、台車22すなわちロボット10を前後左右任意の方向に動かすことができる。このように、ロボット10は配置された環境内を移動可能なものであるが、場合によっては環境内の所定位置に固定的に設けられてもよい。
なお、図1においては省略するが、台車22の前面には、衝突センサ28(図2参照)が取り付けられ、この衝突センサ28は台車22への人や他の障害物の接触を検知する。つまり、ロボット10の移動中に障害物との接触を検知すると、直ちに車輪24の駆動を停止してロボット10の移動を急停止させる。
また、この実施例では、ロボット10の背の高さは、人、特に子供に威圧感を与えることのないように、100cm程度とされる。ただし、この背の高さは変更可能である。
台車22の上には、多角形柱のセンサ取付パネル30が設けられ、このセンサ取付パネル30の各面には、超音波距離センサ32が取り付けられる。この超音波距離センサ32は、センサ取付パネル30すなわちロボット10の周囲の主として人との距離を計測するものである。
また、台車22の上には、さらに、その下部がセンサ取付パネル30に囲まれて、ロボット10の胴体が直立するように設けられる。この胴体は、下部胴体34と上部胴体36とによって構成され、下部胴体34および上部胴体36は、連結部38によって互いに連結される。図示は省略するが、連結部38には昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体36の高さすなわちロボット10の背の高さを変化させることができる。昇降機構は、後述するように、腰モータ40(図2参照)によって駆動される。
なお、上述したロボット10の背の高さは、上部胴体36をそれの最下位置にしたときのものである。したがって、ロボット10の背の高さは、100cm以上にすることも可能である。
上部胴体36には、1つの全方位カメラ42が設けられる。全方位カメラ42は、たとえば背面側上端部のほぼ中央からのびる支柱44上に設置される。全方位カメラ42は、ロボット10の周囲を撮影するものであり、後述する眼カメラ48とは区別される。この全方位カメラ42としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。また、上部胴体36の正面側のほぼ中央には、1つのマイク46が設けられる。マイク46は、周囲の音、とりわけコミュニケーション対象である人間の声を取り込む。なお、これら全方位カメラ42およびマイク46の設置位置は上部胴体36に限られず適宜変更され得る。
上部胴体36の両肩には、それぞれ、肩関節50Rおよび50Lによって、上腕52Rおよび52Lが設けられる。肩関節50Rおよび50Lは、それぞれ、3軸の自由度を有する。すなわち、肩関節50Rは、X軸、Y軸およびZ軸のそれぞれの軸廻りにおいて上腕52Rの角度を制御できる。Y軸は、上腕52Rの長手方向(または軸)に平行な軸であり、X軸およびZ軸は、そのY軸に対して、それぞれ異なる方向から直交する軸である。他方、肩関節50Lは、A軸、B軸およびC軸のそれぞれの軸廻りにおいて上腕52Lの角度を制御できる。B軸は、上腕52Lの長手方向(または軸)に平行な軸であり、A軸およびC軸は、そのB軸に対して、それぞれ異なる方向から直交する軸である。
また、上腕52Rおよび52Lのそれぞれの先端には、肘関節54Rおよび54Lを介して、前腕56Rおよび56Lが設けられる。肘関節54Rおよび54Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕56Rおよび56Lの角度を制御できる。
なお、上腕52Rおよび52Lならびに前腕56Rおよび56Lの変位を制御するX軸,Y軸,Z軸,W軸およびA軸,B軸,C軸,D軸では、それぞれ、「0度」がホームポジションであり、このホームポジションでは、図1に示すように、上腕52Rおよび52Lならびに前腕56Rおよび56Lは下方に向けられる。
また、図示は省略するが、上部胴体36の肩関節50Rおよび50Lを含む肩の部分や上述の上腕52Rおよび52Lならびに前腕56Rおよび56Lには、それぞれ、タッチセンサ(図2で包括的に示す。:58)が設けられていて、これらのタッチセンサ58は、人がロボット10の当該各部位に触れたかどうかを検知する。
前腕56Rおよび56Lのそれぞれの先端には、手に相当する球体60Rおよび60Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。
上部胴体36の中央上方には、首関節62を介して頭部64が設けられる。首関節62は、3軸の自由度を有し、S軸、T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上(鉛直上向き)に向かう軸であり、T軸およびU軸は、それぞれ、そのS軸に対して異なる方向で直交する軸である。頭部64には、人の口に相当する位置に、スピーカ66が設けられる。スピーカ66は、ロボット10が、それの周辺の人に対して音声ないし音によってコミュニケーション行動を実行するために用いられる。ただし、スピーカ66は、ロボット10の他の部位、たとえば胴体などに設けられてもよい。
また、頭部64には、目に相当する位置に眼球部68Rおよび68Lが設けられる。眼球部68Rおよび68Lは、それぞれ眼カメラ48Rおよび48Lを含む。以下、右の眼球部68Rと左の眼球部68Lとをまとめて眼球部68ということがあり、また、右の眼カメラ48Rと左の眼カメラ48Lとをまとめて眼カメラ48ということもある。
眼カメラ48は、ロボット10に接近した人間の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。眼カメラ48としては、上述した全方位カメラ42と同様のカメラを用いることができる。
たとえば、眼カメラ48は眼球部68内に固定され、眼球部68は眼球支持部(図示せず)を介して頭部64内の所定位置に取り付けられる。眼球支持部は、2軸の自由度を有し、α軸およびβ軸の各軸廻りに角度制御可能である。α軸およびβ軸は頭部64に対して設けられる軸であり、α軸は頭部64の上へ向かう方向の軸であり、β軸はα軸に直交しかつ頭部64の正面側(顔)が向く方向に直交する方向の軸である。この実施例では、頭部64がホームポジションにあるとき、α軸はS軸と平行であり、β軸はU軸と平行であるように設定される。このような頭部64において、眼球支持部がα軸およびβ軸の各軸廻りに回転されることによって、眼球部68ないし眼カメラ48の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。
なお、眼カメラ48の変位を制御するα軸およびβ軸では、「0度」がホームポジションであり、このホームポジションでは、図1に示すように、眼カメラ48のカメラ軸は頭部64の正面側(顔)が向く方向に向けられ、視線は正視状態となる。
図2はロボット10の電気的な構成を示すブロック図であり、この図2を参照して、ロボット10は、全体を制御するCPU72を含む。CPU72は、マイクロコンピュータ或いはプロセサとも呼ばれ、バス74を介して、メモリ76、モータ制御ボード78、センサ入力/出力ボード80および音声入力/出力ボード82に接続される。
メモリ76は、図示は省略するが、ROMやHDDおよびRAMを含み、ROMやHDDには、ロボット10の動作を制御する制御プログラムなどのプログラムが予め記憶される。他のプログラムとしては、各センサ28,32,42,46,48,58の出力を検出する検出プログラム、オペレータを呼び出すための呼出プログラムおよび外部コンピュータすなわちオペレータ端末204(図3参照)との間で必要なデータないしコマンドを送受信するための通信プログラムなどが該当する。また、メモリ76には、コミュニケーション行動を実行する際にスピーカ66から発生すべき音声または声の音声データ(音声合成データ)および所定の身振りを提示するための角度データなども記憶される。ただし、RAMは、ワークメモリやバッファメモリとして用いられる。
制御プログラムとしては、ロボット10の身体動作を制御するための複数のプログラム(行動モジュールと呼ばれる。)の各々がコマンド名(制御コマンド)に対応して記憶される。たとえば、行動モジュールが示す身体動作としては、「なーに」、「わーい」、「待機」…などがある。
行動モジュールが示す身体動作が「なーに」である場合には、「なーに」と発話して首を傾げる。具体的には、CPU72は、メモリ76から「なーに」に対応する音声データ(音声合成データ)を読み出し、音声入力/出力ボード82を介してスピーカ66から出力する。これと同時或いはほぼ同時に、CPU72は、メモリ76から首62を傾げる場合の角度データを読み出し、モータ制御ボード78に与える。すると、首を傾げるように、頭部モータ92が回転される。
また、行動モジュールが示す身体動作が「わーい」である場合には、「わーい」と発話して両手を挙げる。具体的には、CPU72は、メモリ76から「わーい」に対応する音声合成データを読み出し、音声入力/出力ボード82を介してスピーカ66から出力する。これと同時或いはほぼ同時に、CPU72は、メモリ76から両手を挙げる場合の角度データを読み出し、モータ制御ボード78に与える。すると、両手を挙げるように、右腕モータ88および左腕モータ90が所定角度だけ回転される。
さらに、行動モジュールが示す身体動作が「待機」である場合には、「暇だな」と発話したり、「あそぼ」と発話したり、辺りを見渡すように動作したりする。具体的には、CPU72は、メモリ76から一定時間毎に、「暇だな」或いは「あそぼ」に対応する音声合成データを読みだし、音声入力/出力ボード82を介してスピーカ66から出力する。これと同時或いはほぼ同時に、CPU72は、メモリ76から首62を左右に振る場合の角度データを読み出し、モータ制御ボード78に与える。すると、首62を左右に振るように、頭部モータ92が回転される。
モータ制御ボード78は、たとえばDSPで構成され、各腕や頭部および眼球部などの各軸モータの駆動を制御する。すなわち、モータ制御ボード78は、CPU72からの制御データを受け、右眼球部68Rのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図2では、まとめて「右眼球モータ」と示す。)84の回転角度を制御する。同様に、モータ制御ボード78は、CPU72からの制御データを受け、左眼球部68Lのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図2では、まとめて「左眼球モータ」と示す。)86の回転角度を制御する。
また、モータ制御ボード78は、CPU72からの制御データを受け、右肩関節50RのX軸、Y軸およびZ軸のそれぞれの角度を制御する3つのモータと右肘関節54RのW軸の角度を制御する1つのモータとの計4つのモータ(図2では、まとめて「右腕モータ」と示す。)88の回転角度を調節する。同様に、モータ制御ボード78は、CPU72からの制御データを受け、左肩関節50LのA軸、B軸およびC軸のそれぞれの角度を制御する3つのモータと左肘関節54LのD軸の角度を制御する1つのモータとの計4つのモータ(図2では、まとめて「左腕モータ」と示す。)90の回転角度を調整する。
さらに、モータ制御ボード78は、CPU72からの制御データを受け、頭部64のS軸、T軸およびU軸のそれぞれの角度を制御する3つのモータ(図2では、まとめて「頭部モータ」と示す。)92の回転角度を制御する。さらにまた、モータ制御ボード78は、CPU72からの制御データを受け、腰モータ40および車輪24を駆動する2つのモータ(図2では、まとめて「車輪モータ」と示す。)26の回転角度を制御する。
なお、この実施例では、車輪モータ26を除くモータは、制御を簡素化するために、ステッピングモータ或いはパルスモータを用いるようにしてある。ただし、車輪モータ26と同様に、直流モータを用いるようにしてもよい。
センサ入力/出力ボード80もまた、同様に、DSPで構成され、各センサからの信号を取り込んでCPU72に与える。すなわち、超音波距離センサ32のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード80を通してCPU72に入力される。また、全方位カメラ42からの映像信号が、必要に応じてこのセンサ入力/出力ボード80で所定の処理を施された後、CPU72に入力される。眼カメラ48からの映像信号も、同様にして、CPU72に入力される。また、上述した複数のタッチセンサ(図2では、まとめて「タッチセンサ58」と示す。)、および衝突センサ28からの信号がセンサ入力/出力ボード80を介してCPU72に与えられる。
音声入力/出力ボード82もまた、同様に、DSPで構成され、CPU72から与えられる音声合成データに従った音声または声がスピーカ66から出力される。また、マイク46からの音声入力が、音声入力/出力ボード82を介してCPU72に取り込まれる。
また、CPU72は、バス74を介して通信LANボード94および無線通信装置96に接続される。また、通信LANボード94および無線通信装置96は、図示は省略するが、たとえば、無線LANアクセスポイントを介してLANやインターネットのようなネットワーク202(図3参照)に接続される。通信LANボード94は、DSPで構成され、CPU72から送られる送信データを無線通信装置96に与え、無線通信装置96から送信データを、ネットワーク202を介してオペレータ端末204に送信する。また、通信LANボード94は、無線通信装置96を介してオペレータ端末204からの遠隔操作情報(制御コマンド)を受信し、受信した遠隔操作情報をCPU72に与える。なお、ロボット10が移動不可能に設置されている場合には、ネットワーク202へは有線で接続されてもよい。また、ロボット10とオペレータ端末204とが無線もしくは有線により直接通信するように構成してもよい。
また、CPU72には無線タグ読取装置98が接続される。無線タグ読取装置98は、無線タグ(RFIDタグ)から送信される識別情報の重畳された電波を、アンテナを介して受信し、電波信号を増幅し、当該電波信号から識別情報を分離し、当該識別情報を復調(デコード)してCPU72に与える。無線タグはイベント会場や会社などにいる人間に装着されており、無線タグ読取装置98は通信可能範囲内の無線タグを検出する。なお、無線タグはアクティブ型であってもよいし、無線タグ読取装置98から発信される電波に応じて駆動されるパッシブ型であってもよい。
さらに、CPU72は、バス74を介して呼出条件データベース(呼出条件DB)100に接続される。呼出条件DB100は、オペレータを呼び出すか否かを判断するための条件(オペレータ呼出条件)を記憶したデータベースである。ここで、オペレータ呼出条件は、上述したように、トラブル(音声認識が不能など)が生じたり、より細やかな対応(コミュニケーションなど)が求められる場面になったりしたことを判断するための条件である。
たとえば、オペレータ呼出条件は、(1)或るキーワードを検出したり、(2)人間の怒っている表情や困っている表情のような特定の表情を取得したり、(3)特定の人間を検出したり、(4)人間と長時間会話したり、(5)行く手を塞がれたり、(6)周囲にたくさんの人間が居たり、(7)オペレータ呼出ボタンが操作されたりすると、満たすと判断される。
(1)具体的には、ロボット10は、マイク46を通して入力される人間の声(音声)を検出し、これを認識する。図示は省略するが、メモリ76には、音声認識用の辞書データが記憶されており、この辞書データを参照して、DPマッチング或いはHMM(隠れマルコフモデル)の方法により、入力された音声を認識する。ここで、たとえば、「責任者を呼んで」、「違う」、「そうじゃない」、「わからない」などの特定のキーワードを検出すると、オペレータ呼出条件を満たすと判断する。ただし、特定のキーワードは、メモリ76に予め登録される。また、特定のキーワードは単なる例示であり、限定されるべきではなく、ロボット10の適応環境などによって適宜変更(決定)される。さらに、特定のキーワードは、1つでもよく、複数であってもよい。さらに、キーワード毎に回数を設定しておき、キーワードを検出した回数が設定した回数(設定回数)になったときに、オペレータの呼出条件を満たすと判断するようにしてもよい。たとえば、「責任者を呼んで」のように、直接的にオペレータを呼び出すようなキーワードの場合には、設定回数が「1」に設定される。また、「違う」、「そうじゃない」、「わからない」などのように、間接的にオペレータを呼び出すようなキーワードの場合には、設定回数が「3」に設定される。
(2)また、ロボット10は、全方位カメラ42ないし眼カメラ48で撮影された顔画像に基づいて顔の表情を取得し、特定の表情であるか否かを判断することができる。上述したように、特定の顔の表情は、人間が怒っている顔の表情や困っている顔の表情などであり、このような特定の表情を取得すると、オペレータ呼出条件を満たすと判断する。顔の表情を認識する手法は、たとえば、“電子情報通信学会論文誌D-II,Vol.J80-D-II,No.6,pp.1547-1554(1997年6月)”に発表されている。簡単に説明すると、2次元離散コサイン変換によって画像を空間周波数領域に変換し、顔部位の変化に対応する各周波数帯域での電力変化を捉えることによって、顔の表情を認識するものである。つまり、目および口の形状変化を検出することで、顔の表情の認識を行う。
ただし、人間が怒っていることは、顔の表情を取得することに変えて、マイク46で検出される音声に基づいて判断することもできる。たとえば、一定値以上の音量の音声が一定時間(たとえば、5秒)以上継続して入力される場合には、人間が怒鳴っていると推測して、人間が怒っていると判断することができる。
(3)さらに、ロボット10は、無線タグ読取装置98を用いて、各人間が装着ないし所持している無線タグの識別情報(たとえば、RFID)を検出する。図示は省略するが、ロボット10は、メモリ76に識別情報に対応する人間の名称やその属性(性別、年齢、重要度など)を記憶しており、検出した識別情報に基づいて、人間の名称およびその属性の少なくとも一方を知ることができる。ここで、たとえば、いわゆるVIP(重要な顧客)や対応が困難な人間(幼児など)のような特定の人間を検出すると、オペレータ呼出条件を満たすと判断する。
この実施例では、無線タグを用いて人間を個別に識別するようにしてあるが、映像に基づいて特定の人間か否かを判断するようにしてもよい。かかる場合には、特定の人間についての顔画像を予めメモリ76に登録(記憶)しておき、全方位カメラ42ないし眼カメラ48で撮影された顔画像と比較(同定)することにより、特定の人間か否かを判断することもできる。ただし、映像処理(画像処理)により人間の顔を識別する場合には処理が膨大になるため、たとえば、各人間の衣服に異なる特定のマーク(文字、記号、図形など)を付しておき、当該マークに基づいて特定の人間か否かを判断するようにしてもよい。
(4)さらにまた、ロボット10は、無線タグ検出装置98で検出したRFIDまたは全方位カメラ42ないし眼カメラ48で撮影された顔画像に基づいて人間を特定するとともに、超音波センサ32の出力に基づいて当該人間との距離を検出することができる。したがって、たとえば、人間と長時間会話しているか否かを判断することができる。この実施例では、ロボット10は、人間との距離が1m以内であり、この状態が5分以上継続している場合には、当該人間とロボット10とが長い間会話していると推測して、オペレータ呼出条件を満たすと判断する。長時間の会話には、人間とのコミュニケーションがうまくいっていない可能性や1人の人間によってロボット10が独占されている可能性があるため、オペレータの指示による適切な行動が実行されるべきであるからである。ただし、距離や時間は一例であり、これに限定される必要はない。なお、図2では省略したが、時間は内部タイマでカウントされる。
(5)また、ロボット10は、移動中に、人間との距離が50cm以下であり、この状態が10秒以上継続した場合には、当該人間に行く手を塞がれていると推測して、オペレータ呼出条件を満たすと判断する。かかる場合にも、人間がロボット10に接近し過ぎるのを回避したり、人間によってロボット10の行く手を塞がれた状態から脱出したりするために、オペレータの指示による適切な行動が実行されるべきだからである。
(6)さらに、ロボット10は、無線タグ読出装置98で検出されるRFIDの数が所定値(たとえば、5)以上であれば、周囲に人間が多数存在すると判断し、オペレータ呼出条件を満たすと判断する。これは、人間が多数存在する場合には、音声認識が困難であり、各人間に対して適切に対応することができないからである。ただし、人間が多数存在するか否かは、全方位カメラ42や眼カメラ48で撮影された映像に基づいて判断するようにしてもよい。
(7)さらにまた、図1および図2では省略したが、ロボット10に設けられたオペレータ呼出ボタンが操作された(押された)場合にもオペレータ呼出条件を満たすと判断する。ただし、オペレータ呼出ボタンはロボット10に設ける必要はなく、その周囲(環境)に設けるようにしてもよい。
なお、これらは単なる例示であり、オペレータ呼出条件としては、上述のいずれか1つ以上が採用されればよく、また、他の条件を設定することも可能である。たとえば、ロボット10は、上述の(4)の場合において、人間との距離が10cm以内であり、この状態が10秒以上継続した場合には、当該人間と接近し過ぎているため、オペレータ呼出条件を満たすと判断する。これは、たとえば、人間の衣服がロボット10の手などに引っかかってしまうなどの危険な状態になってしまう恐れがあり、かかる場合には、オペレータの指示に従って適切な行動が実行されるべきであるからである。
また、図示は省略するが、ロボット10に、タッチセンサ58に代えてピエゾ素子を用いたシート状の圧力センサを設ければ、その出力(圧力)に基づいて、叩かれたり殴られたりするような状況を判断することができる。このような状況についてもオペレータ呼出条件を満たすと判断する。かかる場合には、ロット10の損壊を防止すべく、オペレータが対処すべきだからである。
さらに、図示は省略するが、ロボット10に振動センサを設ければ、ロボット10が揺さぶられている状況を判断し、上述の場合と同様に、ロボット10の損壊を防止すべく、オペレータ呼出条件を満たすと判断することができる。
このような構成のロボット10は、たとえば、上述したように、受付ロボット或いは道案内ロボットとして機能し、図3に示すようなシステム200に適用される。このシステム200はロボット10を含み、ロボット10はインターネットやLANのようなネットワーク202を介してオペレータ端末204に接続される。
なお、オペレータ端末204は、汎用のパーソナルコンピュータ或いはワークステーションまたはPDAのようなコンピュータであり、図示は省略するが、オペレータ端末204には、CRTやLCDのような表示装置、キーボードやコンピュータマウスなどの入力装置、スピーカおよび通信装置などが接続される。オペレータ端末204は、通信装置を介してネットワーク202に有線または無線で接続されている。また、オペレータ端末204に内蔵されるHDDないしROMのようなメモリには、ロボット10を遠隔制御するための制御プログラムおよび必要なデータが記憶される。
また、この実施例では、ロボット10とオペレータ端末204とはネットワーク202を介して接続されるようにしてあるが、直接的に接続するようにしてもよい。かかる場合には、Bluetooth(登録商標)のような近距離無線を利用することができる。
上述したように、ロボット10は、通常は自律制御によって、人間との間で対話などのコミュニケーション行動を行い、受付や道案内などを行う。たとえば、ロボット10は、自律制御を行っている場合には、ランダムに選択された制御コマンドに従うコミュニケーション行動を実行したり、人間とのインタラクションに応じて選択された制御コマンドに従うコミュニケーション行動を実行したりする。後者の具体例としては、ロボット10は、人間に肩を触れられると、「なーに」と発話して首を傾げる。つまり、CPU72は、タッチセンサ58の出力に基づいて肩を触られていることを検出すると、「なーに」に対応する制御コマンドを選択し、これに従うコミュニケーション行動を実行する。ただし、これは単なる一例であり、限定されるべきでなく、ロボット10は様々な自律行動が可能である。
しかし、上述したようなオペレータ呼出条件を満たす場合には、人間(ユーザ)とのコミュニケーション行動が円滑に行われていなかったり、自律制御だけでは解決することが難しい問題が生じていたりすると考えられるため、ロボット10が自律制御を行うことは妥当ではないと言える。
これを回避するため、この実施例では、ロボット10は、オペレータ呼出条件を満たすと判断した場合には、オペレータ端末204に呼出要求を送信するようにしてある。簡単に説明すると、CPU72が、オペレータの呼出要求を、通信LANボード94および無線通信装置96を介して出力する。すると、ネットワーク202を経由して、オペレ−タ端末204に送信される。
オペレータ端末204では、ロボット10からの呼出要求を受信すると、上述した制御プログラムが起動され、表示装置(図示せず)に、図4に示すような遠隔操作画面210が表示される。これによって、オペレータ端末204のオペレータは呼出要求が有る旨を知ることができる。ただし、オペレータ端末204に設けられた(接続された)スピーカから警告音を出力するようにして、オペレータに対して遠隔操作の必要性を通知することもできる。かかる場合には、制御プログラムは、オペレータが入力装置を用いて起動するようにしてもよい。そして、オペレータはロボット10の遠隔操作を開始する。
ここで、図4に示すように、遠隔操作画面210は、表示領域212、214および216を含む。表示領域212は、たとえばロボット10の眼カメラ48で撮影した画像(ロボットカメラ画像)を表示する。表示領域214は、ロボット情報を表示する。たとえば、ロボット情報は、ロボット10の配置された場所(施設、会場、会社など)の名称(ここでは、受付や玄関)、当該ロボット10の名前(もしくは識別情報)、当該ロボット10の配置された場所の地図および当該ロボット10が対話している人間の情報(名前、年齢および重要度など)などである。また、ロボット10と人間とが会話している場合には、ロボット10はそのマイク46から入力される音声を検出して、その音声信号をオペレータ端末204に送信するようにしてもよい。このようにすれば、オペレータ端末204では、ロボット10と会話している人間の音声を再生することができ、オペレータはその内容を把握して、適切な対応をすることができるからである。なお、これらオペレータに提示される情報は一例であり、遠隔操作画面210には適宜適切な情報が表示される。
したがって、オペレータは、表示領域212および214を見ながら、ロボット10の遠隔操作を行うことができる。表示領域216は、ロボット10を遠隔操作する場合に、当該ロボット10に送信する制御コマンドを入力するための操作パネルを表示する。操作パネルには、制御コマンドが記載された複数のアイコンないしボタン(GUI)が表示される。たとえば、移動を指示するためのボタン(前進、後退など)、コミュニケーション行動を指示するためのボタン(お辞儀、右指差しなど)および遠隔操作の終了を指示するためのボタンなどが設けられる。オペレータが、入力装置を用いて、いずれかのボタンを指示することにより、指示されたボタンに対応する所望の制御コマンドを入力することができる。そして、入力された制御コマンドが、ネットワーク202を介してロボット10に送信される。ロボット10は、オペレータ端末204から送信された制御コマンドを受信すると、当該制御コマンドに従うコミュニケーション行動を実行する。
なお、図示は省略するが、ロボットカメラ画像やロボット情報に含まれる映像(画像)は、ロボット10や環境カメラからネットワーク202を介してオペレータ端末204に送信される。


具体的には、図2に示したCPU72が図5に示すフロー図に従って全体処理を実行する。図5に示すように、CPU72は、全体処理を開始すると、ステップS1で、停止命令が有るかどうかを判断する。たとえば、停止命令は、オペレータの操作に従ってオペレータ端末204からネットワーク202を介してロボット10に送信される。ただし、ロボット10に停止ボタンを設けておき、当該ボタンを操作するようにしてもよい。ステップS1で“YES”であれば、つまり、停止命令が有れば、そのまま全体処理を終了する。一方、ステップS1で“NO”であれば、つまり、停止命令が無ければ、ステップS3に進む。
次のステップS3では、後述する、オペレータ呼出条件判定処理(図6参照)を実行し、ステップS5では、オペレータの呼出フラグがオンであるか否かを判断する。図示は省略するが、オペレータの呼出フラグは、1ビットのレジスタで構成され、メモリ76(RAM)に設けられる。この呼出フラグは、オペレータ呼出条件判定処理を実行することにより、オン/オフされる。具体的には、オペレータ呼出条件を満たす場合には、呼出フラグはオンされ、逆に、オペレータ呼出条件を満たさない場合には、呼出フラグはオフされる。呼出フラグがオンされると、レジスタにデータ値「1」が設定され、逆に、呼出フラグがオフされると、レジスタにデータ値「0」が設定される。
ステップS5で“NO”であれば、つまり呼出フラグがオフであれば、ステップS9で、自律行動処理を実行し、ステップS1に戻る。なお、上述したように、ステップS9では、CPU72は、自律制御によって、必要に応じて人間との間でコミュニケーション行動を実行する。たとえば、人間に道案内を求められた場合は、道案内を行う。一方、ステップS5で“YES”であれば、つまり呼出フラグがオンであれば、ステップS7で、オペレータを呼び出す。つまり、CPU72は、オペレータ端末204に対して呼出要求を送信する。
続くステップS11では、オペレータ端末204から制御コマンドが有るか否かを判断する。ステップS11で“NO”であれば、つまり制御コマンドが無ければ、そのままステップS15に進む。一方、ステップS11で“YES”であれば、つまり制御コマンドが有れば、ステップS13で制御コマンドに従うコミュニケーション行動を実行して、ステップS15に進む。
ステップS15では、オペレータ端末204からの遠隔操作の終了要求(終了コマンド)が有るかどうかを判断する。ステップS15で“NO”であれば、つまり終了コマンドが無ければ、遠隔操作を継続すると判断して、ステップS11に戻る。一方、ステップS15で“YES”であれば、つまり終了コマンドが有れば、遠隔操作を終了すると判断して、ステップS1に戻る。
なお、この実施例では、オペレータ端末204からの制御コマンドが有ると、直に当該制御コマンドに従うコミュニケーション行動を実行するようにしてある。ただし、オペレータ端末204からの制御コマンドを受信したときに、コミュニケーション行動を実行中である場合には、当該コミュニケーション行動の実行を終了してから、制御コマンドに従うコミュニケーション行動を実行するようにしてもよい。
図6は、図5に示したステップS3のオペレータ呼出条件判定処理のフロー図である。図6に示すように、CPU72は、オペレータ呼出条件判定処理を開始すると、ステップS21で、呼出条件フラグをオフし、ステップS23で、周囲情報を検出する。このステップS23では、CPU72は、オペレータ呼出条件の判定に必要なセンサ(超音波距離センサ32、全方位カメラ42、マイク46、眼カメラ48、タッチセンサ58、無線タグ読取装置98)の出力を検出し、周囲および自身の状況(状態)を認識する。
続くステップS25では、特定のキーワードを検出したか否かを判断する。ステップS25で“YES”であれば、つまり、特定のキーワードを検出すれば、オペレータ呼出条件を満たすと判断して、ステップS39で、呼出条件フラグをオンして、オペレータ呼出条件判定処理を全体処理のプログラムにリターンする。一方、ステップS25で“NO”であれば、つまり特定のキーワードを検出していなければ、ステップS27で、特定の顔の表情を取得したか否かを判断する。ステップS27で“YES”であれば、つまり、特定の顔の表情を取得すれば、オペレータ呼出条件を満たすと判断して、ステップS39に進む。
しかし、ステップS27で“NO”であれば、つまり、特定の顔の表情を取得していなければ、ステップS29で、特定の人間を検出したか否かを判断する。ステップS29で“YES”であれば、つまり特定の人間を検出すれば、オペレータ呼出条件を満たすと判断して、ステップS39に進む。一方、ステップS29で“NO”であれば、つまり特定の人間を検出していなければ、ステップS31で、人間と長時間会話している状況であるか否かを判断する。
ステップS31で“YES”であれば、つまり人間と長時間会話している状況であれば、オペレータ呼出条件を満たすと判断して、ステップS39に進む。一方、ステップS31で“NO”であれば、つまり人間と長時間会話している状況でなければ、ステップS33で、行く手を塞がれた状況であるか否かを判断する。ステップS33で“YES”であれば、つまり行く手を塞がれた状況であれば、オペレータ呼出条件を満たすと判断して、ステップS39に進む。一方、ステップS33で“NO”であれば、つまり行く手を塞がれていない状況であれば、ステップS35で、周囲に人が多く存在する状況であるか否かを判断する。
ステップS35で“YES”であれば、つまり周囲に人が多く存在する状況であれば、オペレータ呼出条件を満たすと判断して、ステップS39に進む。一方、ステップS35で“NO”であれば、つまり周囲に人が多く存在していない状況であれば、ステップS37で、オペレータ呼出ボタンが押されたかどうかを判断する。ステップS37で“YES”であれば、つまりオペレータ呼出ボタンが押されていれば、オペレータ呼出条件を満たすと判断して、ステップS39に進む。一方、ステップS37で“NO”であれば、つまりオペレータ呼出ボタンが押されていなければ、オペレータ呼出条件判定処理を全体処理のプログラムにリターンする。
この実施例によれば、必要に応じてオペレータ呼び出し、オペレータからの指示に従ってコミュニケーション行動(動作や発話)を実行するので、適切なサービスを提供することができる。また、常にオペレータが操作する必要はないため、効率良く遠隔操作することができる。さらには、1人のオペレータが複数のロボットを担当するような効率化を図ることもできる。
なお、この実施例では、オペレータ呼出条件は、予め設定してデータベースに記憶するようにしておいたが、ロボットと人間とのインタラクションに基づいて、ロボット自身がオペレータ呼出条件を登録(追加)するようにしてもよい。たとえば、「オペレータ呼出ボタン」が押される前に頻繁に行われる動作(人間の動作)を記憶しておけば、当該動作を検出したときに、オペレータ呼出条件を満たすと判断することができる。
また、この実施例では、1台のロボットの遠隔操作を1台のオペレータ端末(1人のオペレータ)が担当するようにした。ただし、ロボットからの呼び出しが有った場合にのみ、オペレータは当該ロボットを遠隔操作すれば足りるため、1台のオペレータ端末に対してロボットを複数台設けるようにしてもよい。
さらに、この実施例では、ロボットが発話する際には、予めメモリに記憶した音声合成データを読み出して出力するようにした。しかし、オペレータ端末にオペレータの声(音声)を入力するマイクを設け、オペレータの音声をロボットに送信して、これをロボットのスピーカから出力するようにしてもよい。かかる場合には、オペレータがロボットの会話相手と直接会話することができる。
図1はこの発明の一実施例のコミュニケーションロボットの外観を示す図解図である。 図2は図1のコミュニケーションロボットの電気的な構成を示すブロック図である。 図3は図1に示すコミュニケーションロボットが適用されるシステムの一例を示す図解図である。 図4は図3に示すオペレータ端末の表示装置に表示される遠隔操作画面の一例を示す図解図である。 図5は図2に示すCPUが全体処理を行うときの一例を示すフロー図である。 図6は図2に示すCPUがオペレータ呼出条件判定処理を行うときの一例を示すフロー図である。
符号の説明
10 …コミュニケーションロボット
32 …超音波距離センサ
42 …全方位カメラ
46 …マイク
48 …眼カメラ
58 …タッチセンサ
72 …CPU
76 …メモリ
96 …無線通信装置
98 …無線タグ読取装置
100 …データベース
200 …コミュニケーションロボット遠隔操作システム
202 …ネットワーク
204 …オペレータ端末

Claims (5)

  1. 音声および身体動作の少なくとも一方を用いて人間との間でコミュニケーション行動を実行するコミュニケーションロボットであって、
    少なくとも人間の声を含む周囲情報を検出する検出手段、
    オペレータ呼出条件を記憶する記憶手段、
    前記検出手段によって検出された周囲情報に基づいて前記記憶手段に記憶されたオペレータ呼出条件を満たすか否かを判断する呼出判断手段、
    前記呼出判断手段によってオペレータ呼出条件を満たすと判断されたとき、オペレータを呼び出すための呼出信号をオペレータ端末に送信する送信手段、
    前記オペレータ端末からの遠隔操作情報を受信する受信手段、および
    前記受信手段によって受信された遠隔操作情報に基づくコミュニケーション行動を実行する実行手段を備える、コミュニケーションロボット。
  2. 前記検出手段によって検出された人間の声を認識してキーワードが含まれるか否かを判断するキーワード判断手段をさらに備え、
    前記呼出判断手段は、前記キーワード判断手段によってキーワードが含まれることが判断されたとき、前記オペレータ呼出条件を満たすと判断する、請求項1記載のコミュニケーションロボット。
  3. 前記検出手段は、人間の顔の表情を取得する顔表情取得手段を含み、
    前記顔表情取得手段によって取得された人間の顔の表情が特定の表情であるか否かを判断する顔表情判断手段をさらに備え、
    前記呼出判断手段は、前記顔表情判断手段によって特定の表情であることが判断されたとき、前記オペレータ呼出条件を満たすと判断する、請求項1または2記載のコミュニケーションロボット。
  4. 前記検出手段は、人間を個々に識別する個人識別手段を含み、
    前記個人識別手段によって識別された人間が特定の人間であるか否かを判断する人間判断手段をさらに備え、
    前記呼出判断手段は、前記人間判断手段によって特定の人間であることが判断されたとき、前記オペレータ呼出条件を満たすと判断する、請求項1ないし3のいずれかに記載のコミュニケーションロボット。
  5. 前記検出手段は、少なくとも人間を含む対象物との距離を検出する距離検出手段を含み、
    前記距離検出手段によって検出された対象物との距離が所定距離以内であるか否かを判断する距離判断手段をさらに備え、
    前記呼出判断手段は、前記距離判断手段によって所定距離以内であることが判断されたとき、前記オペレータ呼出条件を満たすと判断する、請求項1ないし4のいずれかに記載のコミュニケーションロボット。
JP2006010626A 2006-01-19 2006-01-19 コミュニケーションロボット Active JP5033994B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006010626A JP5033994B2 (ja) 2006-01-19 2006-01-19 コミュニケーションロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006010626A JP5033994B2 (ja) 2006-01-19 2006-01-19 コミュニケーションロボット

Publications (2)

Publication Number Publication Date
JP2007190641A true JP2007190641A (ja) 2007-08-02
JP5033994B2 JP5033994B2 (ja) 2012-09-26

Family

ID=38446722

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006010626A Active JP5033994B2 (ja) 2006-01-19 2006-01-19 コミュニケーションロボット

Country Status (1)

Country Link
JP (1) JP5033994B2 (ja)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009083051A (ja) * 2007-09-28 2009-04-23 Sogo Keibi Hosho Co Ltd 自律移動体、監視システム及び通信方法
JP2009131914A (ja) * 2007-11-29 2009-06-18 Advanced Telecommunication Research Institute International ロボット制御システム
JP2010260141A (ja) * 2009-05-08 2010-11-18 Nec Corp ロボット装置
JP2011067943A (ja) * 2009-09-22 2011-04-07 Gm Global Technology Operations Inc インターアクティブロボット制御システム及び使用方法
JP2011167820A (ja) * 2010-02-22 2011-09-01 Advanced Telecommunication Research Institute International 頭部動作制御情報生成装置
JP2016500533A (ja) * 2012-10-17 2016-01-14 チャイナ インダストリーズ リミテッドChina Industries Limited インタラクティブ玩具
JP2017087411A (ja) * 2015-11-11 2017-05-25 グローリー株式会社 操作ガイダンスシステム、及び、ロボット
JP2017516673A (ja) * 2014-06-05 2017-06-22 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe ヒューマノイドロボットの待機モード
JP2017185605A (ja) * 2016-04-07 2017-10-12 シャープ株式会社 制御端末、ロボット、制御端末の制御方法、および、そのプログラム
JP2017533106A (ja) * 2014-10-24 2017-11-09 フェロー,インコーポレイテッド 顧客サービスロボットおよび関連するシステムおよび方法
US20180047030A1 (en) * 2016-08-10 2018-02-15 Panasonic Intellectual Property Management Co., Ltd. Customer service device, customer service method, and customer service system
CN107731224A (zh) * 2016-08-10 2018-02-23 松下知识产权经营株式会社 待客装置、待客方法以及待客***
JP2018084998A (ja) * 2016-11-24 2018-05-31 田嶋 雅美 接客システム及び接客方法
JP2018142280A (ja) * 2017-02-28 2018-09-13 国立大学法人東北大学 対話支援装置及び対話装置
JP2019051568A (ja) * 2017-09-14 2019-04-04 大日本印刷株式会社 案内装置、案内システム、案内方法及びプログラム
US10311400B2 (en) 2014-10-24 2019-06-04 Fellow, Inc. Intelligent service robot and related systems and methods
US10373116B2 (en) 2014-10-24 2019-08-06 Fellow, Inc. Intelligent inventory management and related systems and methods
US10586082B1 (en) 2019-05-29 2020-03-10 Fellow, Inc. Advanced micro-location of RFID tags in spatial environments
KR20200095516A (ko) * 2018-01-26 2020-08-10 알리바바 그룹 홀딩 리미티드 로봇 고객 서비스로부터 사람 고객 서비스로 전환하기 위한 방법 및 장치
JP2021064299A (ja) * 2019-10-16 2021-04-22 株式会社サイバーエージェント 制御システム、端末装置、制御方法及びコンピュータプログラム
JP2021519633A (ja) * 2018-03-29 2021-08-12 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー 対話型アニメキャラクターヘッドステム及び方法
WO2022080006A1 (ja) * 2020-10-12 2022-04-21 東京ロボティクス株式会社 ロボットシステム、その制御方法及びプログラム並びにシステム
KR102486848B1 (ko) * 2022-05-13 2023-01-10 주식회사 파이엇 고객보호겸용 자율주행 운반용 서비스 로봇
WO2023037801A1 (ja) * 2021-09-10 2023-03-16 株式会社日立ハイテク 自動分析支援ロボット及び自動分析システム

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63204A (ja) * 1986-06-20 1988-01-05 株式会社クボタ 自動走行作業車の走行制御装置
JPH03178789A (ja) * 1989-12-02 1991-08-02 Ryoichi Sekiguchi ロボットの通信制御装置
JPH03191470A (ja) * 1989-12-21 1991-08-21 Toshiba Corp 交番システム
JPH1034570A (ja) * 1996-07-19 1998-02-10 Fujitsu Ltd ロボット遠隔制御システム
JP2003050559A (ja) * 2001-08-07 2003-02-21 Honda Motor Co Ltd 自律移動ロボット
JP2004114178A (ja) * 2002-09-24 2004-04-15 Honda Motor Co Ltd 受付案内ロボット装置
JP2004299026A (ja) * 2003-04-01 2004-10-28 Honda Motor Co Ltd 受付案内システム
JP2005305631A (ja) * 2004-03-25 2005-11-04 Nec Corp ロボットおよびその制御方法
JP2005313303A (ja) * 2004-04-30 2005-11-10 Japan Science & Technology Agency ロボット遠隔制御システム
JP2005319526A (ja) * 2004-05-07 2005-11-17 Fujitsu Ltd ネットワークロボットの機能提供システム
JP2006003263A (ja) * 2004-06-18 2006-01-05 Hitachi Ltd 視覚情報処理装置および適用システム

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63204A (ja) * 1986-06-20 1988-01-05 株式会社クボタ 自動走行作業車の走行制御装置
JPH03178789A (ja) * 1989-12-02 1991-08-02 Ryoichi Sekiguchi ロボットの通信制御装置
JPH03191470A (ja) * 1989-12-21 1991-08-21 Toshiba Corp 交番システム
JPH1034570A (ja) * 1996-07-19 1998-02-10 Fujitsu Ltd ロボット遠隔制御システム
JP2003050559A (ja) * 2001-08-07 2003-02-21 Honda Motor Co Ltd 自律移動ロボット
JP2004114178A (ja) * 2002-09-24 2004-04-15 Honda Motor Co Ltd 受付案内ロボット装置
JP2004299026A (ja) * 2003-04-01 2004-10-28 Honda Motor Co Ltd 受付案内システム
JP2005305631A (ja) * 2004-03-25 2005-11-04 Nec Corp ロボットおよびその制御方法
JP2005313303A (ja) * 2004-04-30 2005-11-10 Japan Science & Technology Agency ロボット遠隔制御システム
JP2005319526A (ja) * 2004-05-07 2005-11-17 Fujitsu Ltd ネットワークロボットの機能提供システム
JP2006003263A (ja) * 2004-06-18 2006-01-05 Hitachi Ltd 視覚情報処理装置および適用システム

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009083051A (ja) * 2007-09-28 2009-04-23 Sogo Keibi Hosho Co Ltd 自律移動体、監視システム及び通信方法
JP2009131914A (ja) * 2007-11-29 2009-06-18 Advanced Telecommunication Research Institute International ロボット制御システム
JP2010260141A (ja) * 2009-05-08 2010-11-18 Nec Corp ロボット装置
JP2011067943A (ja) * 2009-09-22 2011-04-07 Gm Global Technology Operations Inc インターアクティブロボット制御システム及び使用方法
JP2011167820A (ja) * 2010-02-22 2011-09-01 Advanced Telecommunication Research Institute International 頭部動作制御情報生成装置
JP2016500533A (ja) * 2012-10-17 2016-01-14 チャイナ インダストリーズ リミテッドChina Industries Limited インタラクティブ玩具
US10671903B2 (en) 2012-10-17 2020-06-02 China Industries Limited Interactive toy
US10576632B2 (en) 2014-06-05 2020-03-03 Softbank Robotics Europe Standby mode of a humanoid robot
JP2017516673A (ja) * 2014-06-05 2017-06-22 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe ヒューマノイドロボットの待機モード
JP2017533106A (ja) * 2014-10-24 2017-11-09 フェロー,インコーポレイテッド 顧客サービスロボットおよび関連するシステムおよび方法
US10373116B2 (en) 2014-10-24 2019-08-06 Fellow, Inc. Intelligent inventory management and related systems and methods
US10311400B2 (en) 2014-10-24 2019-06-04 Fellow, Inc. Intelligent service robot and related systems and methods
JP2017087411A (ja) * 2015-11-11 2017-05-25 グローリー株式会社 操作ガイダンスシステム、及び、ロボット
JP2017185605A (ja) * 2016-04-07 2017-10-12 シャープ株式会社 制御端末、ロボット、制御端末の制御方法、および、そのプログラム
US20180047030A1 (en) * 2016-08-10 2018-02-15 Panasonic Intellectual Property Management Co., Ltd. Customer service device, customer service method, and customer service system
CN107731224A (zh) * 2016-08-10 2018-02-23 松下知识产权经营株式会社 待客装置、待客方法以及待客***
CN107731225A (zh) * 2016-08-10 2018-02-23 松下知识产权经营株式会社 待客装置、待客方法以及待客***
JP2018027613A (ja) * 2016-08-10 2018-02-22 パナソニックIpマネジメント株式会社 接客装置、接客方法及び接客システム
JP2018084998A (ja) * 2016-11-24 2018-05-31 田嶋 雅美 接客システム及び接客方法
JP2018142280A (ja) * 2017-02-28 2018-09-13 国立大学法人東北大学 対話支援装置及び対話装置
JP7045020B2 (ja) 2017-02-28 2022-03-31 国立大学法人東北大学 対話支援装置及び対話装置
JP2019051568A (ja) * 2017-09-14 2019-04-04 大日本印刷株式会社 案内装置、案内システム、案内方法及びプログラム
JP7000759B2 (ja) 2017-09-14 2022-01-19 大日本印刷株式会社 案内装置、案内システム、案内方法及びプログラム
KR20200095516A (ko) * 2018-01-26 2020-08-10 알리바바 그룹 홀딩 리미티드 로봇 고객 서비스로부터 사람 고객 서비스로 전환하기 위한 방법 및 장치
JP2021524071A (ja) * 2018-01-26 2021-09-09 アドバンスド ニュー テクノロジーズ カンパニー リミテッド ロボットの顧客サービスから人間の顧客サービスへの移行のための方法および装置
JP6991341B2 (ja) 2018-01-26 2022-01-12 アドバンスド ニュー テクノロジーズ カンパニー リミテッド ロボットの顧客サービスから人間の顧客サービスへの移行のための方法および装置
KR102445992B1 (ko) * 2018-01-26 2022-09-21 어드밴스드 뉴 테크놀로지스 씨오., 엘티디. 로봇 고객 서비스로부터 사람 고객 서비스로 전환하기 위한 방법 및 장치
JP2021519633A (ja) * 2018-03-29 2021-08-12 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー 対話型アニメキャラクターヘッドステム及び方法
JP7295136B2 (ja) 2018-03-29 2023-06-20 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー 対話型アニメキャラクターヘッドステム及び方法
US10586082B1 (en) 2019-05-29 2020-03-10 Fellow, Inc. Advanced micro-location of RFID tags in spatial environments
JP2021064299A (ja) * 2019-10-16 2021-04-22 株式会社サイバーエージェント 制御システム、端末装置、制御方法及びコンピュータプログラム
WO2022080006A1 (ja) * 2020-10-12 2022-04-21 東京ロボティクス株式会社 ロボットシステム、その制御方法及びプログラム並びにシステム
WO2023037801A1 (ja) * 2021-09-10 2023-03-16 株式会社日立ハイテク 自動分析支援ロボット及び自動分析システム
KR102486848B1 (ko) * 2022-05-13 2023-01-10 주식회사 파이엇 고객보호겸용 자율주행 운반용 서비스 로봇

Also Published As

Publication number Publication date
JP5033994B2 (ja) 2012-09-26

Similar Documents

Publication Publication Date Title
JP5033994B2 (ja) コミュニケーションロボット
JP4639343B2 (ja) ロボット遠隔操作システム
JP5429462B2 (ja) コミュニケーションロボット
JP4822319B2 (ja) コミュニケーションロボットおよびそれを用いた注意制御システム
JP4386367B2 (ja) コミュニケーションロボット改良システム
JP5366048B2 (ja) 情報提供システム
JP5732632B2 (ja) ロボットシステムおよびそれに用いる空間陣形認識装置
US7689319B2 (en) Communication robot control system
JP4599522B2 (ja) コミュニケーションロボット
JP7243110B2 (ja) 情報処理装置及び情報処理方法、コンピュータプログラム、並びに荷物受け取り支援システム
US11338429B2 (en) Robot
JP2009241166A (ja) ロボット遠隔操作システム
JP4024683B2 (ja) コミュニケーションロボット
KR20130060952A (ko) 서비스로봇 원격제어 시스템
JP5145569B2 (ja) 対象物特定方法および装置
JP2007160427A (ja) ロボット制御システム
JP2007152470A (ja) 自己診断機能付きロボット
JP7102169B2 (ja) 装置、ロボット、方法、及びプログラム
JP4677593B2 (ja) コミュニケーションロボット
JP2005131713A (ja) コミュニケーションロボット
JP4793904B2 (ja) コミュニケーションロボットシステムおよびコミュニケーションロボット
JP2007152445A (ja) 自走式ロボット
JP4798581B2 (ja) ロボットシステム
JP2007156689A (ja) 光源位置検出装置、これを用いた顔認識装置及び自走式ロボット
JP2006243555A (ja) 対応決定システム、ロボット、イベント出力サーバ、および対応決定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101028

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120424

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120502

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150713

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5033994

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250