JP2007222968A - コミュニケーションロボット - Google Patents

コミュニケーションロボット Download PDF

Info

Publication number
JP2007222968A
JP2007222968A JP2006044246A JP2006044246A JP2007222968A JP 2007222968 A JP2007222968 A JP 2007222968A JP 2006044246 A JP2006044246 A JP 2006044246A JP 2006044246 A JP2006044246 A JP 2006044246A JP 2007222968 A JP2007222968 A JP 2007222968A
Authority
JP
Japan
Prior art keywords
robot
humans
human
interest information
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006044246A
Other languages
English (en)
Other versions
JP4599522B2 (ja
Inventor
Takayuki Kanda
崇行 神田
Hiroshi Ishiguro
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2006044246A priority Critical patent/JP4599522B2/ja
Publication of JP2007222968A publication Critical patent/JP2007222968A/ja
Application granted granted Critical
Publication of JP4599522B2 publication Critical patent/JP4599522B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【構成】 コミュニケーションロボット10は、スピーカ62およびディスプレイ94を含み、複数の人間p1,p2・・・が存在する或るパーティ会場や国際会議場などに配置される。コミュニケーションロボット10は、互いに近くに存在する複数の人間を検出すると、当該複数の人間に近づき、個人識別の許可を要求する。コミュニケーションロボット10の要求に応じて人間が個人識別の許可を与えると、コミュニケーションロボット10は、当該人間を個々に識別する。そして、個人識別した複数の人間が共通して興味を持つ情報が存在すると、当該情報に応じた話題を、音声でスピーカ62から出力したり、テキストや画像ないし映像でディスプレイ94に表示したりして、当該複数の人間に提示する。
【効果】 人間同士が話し始めるきっかけを作り、また、人間同士の会話を促進することができる。したがって、人間関係の構築や発展を支援することができる。
【選択図】図1

Description

この発明はコミュニケーションロボットに関し、特にたとえば、少なくとも音声を用いて人間との間でコミュニケーションを実行する、コミュニケーションロボットに関する。
背景技術の一例が非特許文献1に開示される。非特許文献1のアウェアネス支援システムは、実世界での出会いにおけるアウェアネスを支援する。このアウェアネス支援システムでは、会議場などに大型グラフィックススクリーンが設置され、人々の位置がスクリーン上に影として投影される。投影された各影の上部には、ユーザのプロフィールがそれぞれ表示される。また、各影の中間部には、各ユーザのプロフィールに基づいて共通の話題が表示(提供)される。これによって、ユーザ同士の会話を促すようにしてある。
また、背景技術の他の例が非特許文献2に開示される。この非特許文献2には、何らかの情報を必要としている者が他者に対し積極的に働きかけることによって情報共有を促進する手法が開示される。具体的には、或る建物を利用する人間全員が利用することができる共有スペースにDID(Desired Information Display)が設けられる。また、利用者は、今知りたい情報(要求情報)をDIS(Desired Information Server)に登録しておき、自身の識別情報を登録したトランスポンダ(IDタグ)を携帯しておく。すると、利用者がDID近傍を通りがかった際、当該利用者が予め登録しておいた要求情報がDID上に表示される。これによって、利用者と情報提供者との出会いや会話を促進するようにしてある。
さらに、この種のコミュニケーションロボットの一例が特許文献1に開示される。この特許文献1によれば、コミュニケーションロボットは、複数のユーザに所持させたRFIDタグから送信される識別情報を受信することによって、近傍或いは周囲に存在する複数のユーザを個別に認識し、各ユーザに適したコミュニケーション行動を実行する。
さらにまた、この種のコミュニケーションロボットの他の例が特許文献2に開示される。この特許文献2の関係検知システムでは、コミュニケーションロボットは、無線タグおよび赤外線LEDタグを装着した構成員が、当該ロボットとコミュニケーションを図るために近づいて所定領域内に入ると、各人間を識別し、所定領域における行動の履歴を記録する。この行動履歴に基づいて、構成員の他者との共存の仕方から各構成員間の関係を把握するようにしてある。
岡本昌之,中西英之,西村俊和,石田亨、"Silhouettell:実空間での出会いにおけるアウェアネス支援"、マルチメディア,分散,協調とモーバイルシンポジウム(DiCoMo´98),pp.701−708,1998. 松田完,西本一志、"HuNeAS:大規模組織内での偶発的な出会いを利用した情報共有の促進とヒューマンネットワーク活性化支援の試み"、情報処理学会誌,Vol.43 No.12,2002. 特開2004−216513号公報[B25J 13/00] 特開2005−131748号公報[B25J 13/00]
非特許文献1および2の技術では、2人以上のユーザに共通する話題や自分が知りたい情報をスクリーンなどに開示することによって、各ユーザ間の会話を促進することができる。しかし、ユーザは大型スクリーンなどの前まで自ら移動する必要がある。また、ユーザ間に共通する話題などが提示されるだけなので、ユーザは能動的に(自ら)会話を開始する必要もある。つまり、人間同士の会話を生み出す役割は小さかった。また、知らない人間同士においては尚更である。
また、特許文献1の技術では、コミュニケーションロボットは、複数のユーザを個々に認識して、各ユーザに適したコミュニケーション行動を実行することができたが、ユーザ同士のコミュニケーション行動を支援するものではなかった。
さらに、特許文献2の技術では、各構成員間の関係を把握することができるが、特許文献1の技術と同様に、各構成員間の会話を促進しようとするものではなかった。
それゆえに、この発明の主たる目的は、人間関係の形成を積極的に支援できる、コミュニケーションロボットを提供することである。
請求項1の発明は、少なくとも音声を用いて人間との間でコミュニケーションを実行するコミュニケーションロボットであって、各人間の興味情報を個別に記憶する興味情報記憶手段、周囲に存在する人間との位置関係を検出する位置検出手段、位置検出手段の検出結果に基づいて互いに近くに存在する複数の人間を検出したとき、当該複数の人間を個別に識別する個人識別手段、個人識別手段によって互いに近くに存在する複数の人間を識別した結果と、興味情報記憶手段によって記憶された興味情報とに基づいて、当該複数の人間に共通する興味情報が有るかどうかを判断する判断手段、および判断手段によって共通する興味情報が有ることが判断されたとき、当該興味情報に基づく話題を互いに近くに存在する複数の人間に対して提示する提示手段を備える、コミュニケーションロボットである。
請求項1の発明では、コミュニケーションロボット(10:実施例で相当する参照番号。以下同じ。)は、少なくとも音声を用いて人間との間でコミュニケーションを実行する。ただし、コミュニケーションには身振り手振りなどの身体動作が含まれてもよい。コミュニケーションロボットは、たとえば、或るパーティ会場や国際会議場などの社交的な場(環境)に配置される。興味情報記憶手段(102)は、たとえばコミュニケーションロボットが配置される環境に存在する各人間についての興味情報を記憶する。ここで、興味情報とは、少なくとも各個人が興味を持つ情報(話題や事柄)を含む情報を意味し、この興味を持つ情報としては、関心の有る話題ないし事柄、趣味および得意分野などが含まれてよい。位置検出手段(30,66,S1)は、自身の位置を基準として、周囲に存在する人間との位置関係を検出する。具体的には、位置検出手段は、人間との距離および或る方向(たとえば、自身の正面方向)を基準とした場合における人間との角度を検出する。個人識別手段(40,44,66,96)は、位置検出手段の検出結果に基づいて互いに近く(たとえば、互い(人間同士)の距離が1m以内)に存在する複数の人間が検出されたとき、当該複数の人間を個別に識別する。判断手段(66,S23)は、個人識別手段によって識別された互いに近くに存在する複数の人間についての興味情報(興味情報記憶手段によって記憶された興味情報)を比較し、当該複数の人間に共通する興味情報(共通興味情報)が有るかどうかを判断する。提示手段(62,66,94,S25,S27)は、判断手段によって共通興味情報が有ることが判断されたとき、当該共通興味情報に基づく話題を互いに近くに存在する複数の人間(当該共通興味情報に興味を持つ複数の人間)に対して提示する。この提示は、音声出力(発話)によって行われてよい。また、音声出力に代えて、或いは音声出力とともに画像(映像)表示によって話題を提示(可視表示)してもよい。たとえば、コミュニケーションロボットは、互いに近くに存在する複数の人間の共通興味情報が「映画鑑賞」であった場合、「最近、映画は何を見た?」などと発話したり、テキスト表示したりする。
請求項1の発明によれば、互いに近くに存在する複数の人間が共通して興味を持つ話題を発話や画像表示などによって提示するので、人間同士が話し始めるきっかけを作ることができ、また、人間同士の会話を促進することができる。したがって、人間関係の形成を積極的に支援することができる。たとえば、発話によって話題を提示する場合には、人間に対して自然に話題(情報)を提供することができる。また、あまり知らない人間同士が会話を開始するには、最初の一言を発するのに勇気がいるものであるが、人間は、コミュニケーションロボットの発話(情報の提示)に対して返答する形で(すなわち、受動的に)発話することができ、最初の一言を発するという人間の負担を軽く(除く)ことができる。また、たとえば、画像や映像によって話題を可視表示する場合には、音声だけでは伝わりにくい話題も確実に人間に伝えることができ、より多種多様な話題を人間に対して提供することができる。
請求項2の発明は、請求項1に従属し、提示手段は、判断手段によって共通する興味情報が無いことが判断されたとき、興味情報に関係しない別の話題を提示する。
請求項2の発明では、互いに近くに存在する複数の人間に共通する興味情報(共通興味情報)が無いときは、興味情報に関係しない別の話題を提示する。たとえば、最新の話題やその他差し障りのない適宜の話題(情報)を提供する。
請求項2の発明によれば、検出した互いに近くに存在する複数の人間の共通して興味を持つ話題が不明であるときでも、適宜の話題を提供することができる。
請求項3の発明は、請求項1または2に従属し、互いに近くに存在する複数の人間の近傍に移動する移動手段、および移動手段によって人間の近傍に移動した後に当該人間に対して個人識別の許可を要求する識別許可要求手段をさらに備え、個人識別手段は、人間の識別情報を検出する識別情報検出手段を含み、識別情報検出手段は識別許可要求手段によって個人識別の許可を要求した後に人間の識別情報の検出を試みる。
請求項3の発明では、移動手段(22,24,66,S7)および識別許可要求手段(62,66,94,S9,S15)をさらに備える。移動手段は、たとえば位置検出手段によって互いに近くに存在する複数の人間が検出されたとき、当該複数の人間の近傍(たとえば、コミュニケーションロボットと各人間との距離がそれぞれ1m以内)まで移動する(人間に近づく)。識別許可要求手段は、移動手段によって互いに近くに存在する複数の人間に近づいた後、当該複数の人間それぞれに対して個人の識別をしてもよいか否かの判断(つまり、個人識別の許可)を要求する。当該要求は、たとえば音声や身体動作によって示されてもよいし、画像(映像)によって示されてもよい。個人識別手段は、識別情報検出手段(40,44,66,96,S11,S17)を含み、識別情報検出手段は、識別許可要求手段によって人間に対して個人識別の許可を要求した後に、当該人間の識別情報の検出(個人識別)を試みる。たとえば、音声や身体動作、画像などによって人間に対して働きかける(個人識別の許可を要求する)ことで、当該人間を識別するための識別情報を当該人間自身に意図的に示してもらい、その後当該識別情報を検出することによって当該人間を識別するようにしてもよい。なお、人間を個別に識別する方法としては、たとえば、複数の人間にそれぞれ識別情報の異なる無線タグ(12)を所持もしくは装着させ、この無線タグから送信される識別情報を検出することによって個人識別するという方法を採用してもよい。
請求項3の発明によれば、人間に対して識別許可を要求した後に当該人間の個人識別を試みるので、人間にとって不意に(必要の無いときに)個人識別されることはない。したがって、人間にとって必要の無いときに、共通興味情報に基づく話題が提示されることもない。また、自ら人間に近づくので、より積極的に人間とのコミュニケーションを実行することができる。したがって、より積極的に人間同士の会話を促進することができる。
この発明によれば、互いに近くに存在する複数の人間に対して、当該複数の人間が共通して興味を持つ話題を提示するので、人間同士が会話をするきっかけを作ることができる。つまり、人間同士の会話を積極的に支援することができるので、人間関係の構築ないし発展に役立つことができる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1を参照して、この実施例のコミュニケーションロボット(以下、単に「ロボット」とも言う。)10は、主として人間のようなコミュニケーションの対象とコミュニケーションを実行することを目的とした相互作用指向のもので、少なくとも音声を用いてコミュニケーションを実行する機能を備えている。ただし、コミュニケーションには、身振り手振りなどの身体動作が含まれる場合もある。
このロボット10は、たとえば、或るパーティ会場や国際会議場などの社交的な場(環境)に配置され、その周囲には、複数の人間が存在する。ロボット10は、そのような環境において、たとえば見知らぬ人間同士の会話のきっかけを作ったり、知り合い同士の会話を発展させたりする。
なお、図1では、簡単のため、2人の人間(人間p1およびp2)を示してあるが、これに限定される必要はなく、2人以上であれば何人でも構わない。
また、各人間は、たとえば、無線タグ12を所持ないし装着し、ロボット10は、無線タグ12の識別情報を検出して、各人間を識別する。この実施例では、無線タグ12としては、パッシブ型のRFIDタグを用いるようにしてある。
図2はロボット10の外観を示す正面図であり、この図2を参照して、ロボット10のハードウェアの構成について説明する。ロボット10は台車20を含み、この台車20の下面にはロボット10を自律移動させる車輪22が設けられる。車輪22は車輪モータ24(図3参照)によって駆動され、台車20すなわちロボット10を前後左右任意の方向に動かすことができる。このように、ロボット10は配置された環境(空間)内を移動することが可能である。
なお、図2においては省略するが、台車20の前面には、衝突センサ26(図3参照)が取り付けられ、この衝突センサ26は台車20への人間や他の障害物の接触を検知する。つまり、ロボット10の移動中に障害物との接触を検知すると、直ちに車輪22の駆動を停止してロボット10の移動を急停止させる。
また、この実施例では、ロボット10の背の高さは、人間、特に子供に威圧感を与えることのないように、100cm程度とされる。ただし、この背の高さは変更可能である。
台車20の上には、多角形柱のセンサ取付パネル28が設けられ、このセンサ取付パネル28の各面には、超音波距離センサ30が取り付けられる。この超音波距離センサ30は、センサ取付パネル28すなわちロボット10の周囲の主として人間との距離を計測するものである。
また、台車20の上には、さらに、その下部がセンサ取付パネル28に囲まれて、ロボット10の胴体が直立するように設けられる。この胴体は、下部胴体32と上部胴体34とによって構成され、下部胴体32および上部胴体34は、連結部36によって互いに連結される。図示は省略するが、連結部36には昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体34の高さすなわちロボット10の背の高さを変化させることができる。昇降機構は、後述するように、腰モータ38(図3参照)によって駆動される。
なお、上述したロボット10の背の高さは、上部胴体34をそれの最下位置にしたときのものである。したがって、ロボット10の背の高さは、100cm以上にすることも可能である。
上部胴体34には、1つの全方位カメラ40が設けられる。全方位カメラ40は、たとえば背面側上端部のほぼ中央から延びる支柱98上に設けられる。全方位カメラ40は、ロボット10の周囲を撮影するものであり、後述する眼カメラ44とは区別される。この全方位カメラ40としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。また、上部胴体34の正面側の中央部には、1つのマイク42および1つのディスプレイ94が設けられる。マイク42は、周囲の音、とりわけコミュニケーション対象である人間の声を取り込む。ディスプレイ94は、画像もしくは映像を表示する。ディスプレイ94としては、たとえば、CRTディスプレイや液晶ディスプレイを採用することができる。なお、これら全方位カメラ40、マイク42およびディスプレイ94の設置位置は上部胴体34に限られず適宜変更され得る。
上部胴体34の両肩には、それぞれ、肩関節46Rおよび46Lによって、上腕48Rおよび48Lが設けられる。肩関節46Rおよび46Lは、それぞれ、3軸の自由度を有する。すなわち、肩関節46Rは、X軸、Y軸およびZ軸のそれぞれの軸廻りにおいて上腕48Rの角度を制御できる。Y軸は、上腕48Rの長手方向(または軸)に平行な軸であり、X軸およびZ軸は、そのY軸に対して、それぞれ異なる方向から直交する軸である。他方、肩関節46Lは、A軸、B軸およびC軸のそれぞれの軸廻りにおいて上腕48Lの角度を制御できる。B軸は、上腕48Lの長手方向(または軸)に平行な軸であり、A軸およびC軸は、そのB軸に対して、それぞれ異なる方向から直交する軸である。
また、上腕48Rおよび48Lのそれぞれの先端には、肘関節50Rおよび50Lを介して、前腕52Rおよび52Lが設けられる。肘関節50Rおよび50Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕52Rおよび52Lの角度を制御できる。
なお、上腕48Rおよび48Lならびに前腕52Rおよび52Lの変位を制御するX軸,Y軸,Z軸,W軸およびA軸,B軸,C軸,D軸では、それぞれ、「0度」がホームポジションであり、このホームポジションでは、図2に示すように、上腕48Rおよび48Lならびに前腕52Rおよび52Lは下方に向けられる。
また、図示は省略するが、上部胴体34の肩関節46Rおよび46Lを含む肩の部分や上述の上腕48Rおよび48Lならびに前腕52Rおよび52Lには、それぞれ、タッチセンサ(図3で包括的に示す。:54)が設けられていて、これらのタッチセンサ54は、人間がロボット10の当該各部位に触れたかどうかを検知する。
前腕52Rおよび52Lのそれぞれの先端には、手に相当する球体56Rおよび56Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人間の手の形をした「手」を用いることも可能である。
また、たとえば手に相当する球体56R(右手先)には、無線タグ読取装置96が設けられる。無線タグ読取装置96は、たとえば人間が所持した無線タグ12から送信される識別情報が重畳された電磁波ないし電波を受信する。また、球体56Rとは別に、球体56L(左手先)にも無線タグ読取装置96を設けるようにしてもよい。つまり、両手先に無線タグ読取装置96を設けるようにしてもよい。ただし、無線タグ読取装置96は、ロボット10の他の部位、たとえば肩部に設けられてもよい。また、無線タグ読取装置96は、ロボット10の外部に取り付けるようにしてもよいし、ロボット10に内蔵するようにしてもよい。
上部胴体34の中央上方には、首関節58を介して頭部60が設けられる。首関節58は、3軸の自由度を有し、S軸、T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上(鉛直上向き)に向かう軸であり、T軸およびU軸は、それぞれ、そのS軸に対して異なる方向で直交する軸である。頭部60には、人間の口に相当する位置に、スピーカ62が設けられる。スピーカ62は、ロボット10が、それの周辺の人間に対して音声ないし音によってコミュニケーションを実行するために用いられる。ただし、スピーカ62は、ロボット10の他の部位、たとえば胴体などに設けられてもよい。
また、頭部60には、目に相当する位置に眼球部64Rおよび64Lが設けられる。眼球部64Rおよび64Lは、それぞれ眼カメラ44Rおよび44Lを含む。以下、右の眼球部64Rと左の眼球部64Lとをまとめて眼球部64ということがあり、また、右の眼カメラ44Rと左の眼カメラ44Lとをまとめて眼カメラ44ということがある。
眼カメラ44は、ロボット10に接近した人間の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。眼カメラ44としては、上述した全方位カメラ40と同様のカメラを用いることができる。
たとえば、眼カメラ44は眼球部64内に固定され、眼球部64は眼球支持部(図示せず)を介して頭部60内の所定位置に取り付けられる。眼球支持部は、2軸の自由度を有し、α軸およびβ軸の各軸廻りに角度制御可能である。α軸およびβ軸は頭部60に対して設けられる軸であり、α軸は頭部60の上へ向かう方向の軸であり、β軸はα軸に直交しかつ頭部60の正面側(顔)が向く方向に直交する方向の軸である。この実施例では、頭部60がホームポジションにあるとき、α軸はS軸と平行であり、β軸はU軸と平行であるように設定される。このような頭部60において、眼球支持部がα軸およびβ軸の各軸廻りに回転されることによって、眼球部64ないし眼カメラ44の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。
なお、眼カメラ44の変位を制御するα軸およびβ軸では、「0度」がホームポジションであり、このホームポジションでは、図2に示すように、眼カメラ44のカメラ軸は頭部60の正面側(顔)が向く方向に向けられ、視線は正視状態となる。
図3はロボット10の電気的な構成を示すブロック図であり、この図3を参照して、ロボット10は、全体を制御するCPU66を含む。CPU66は、マイクロコンピュータ或いはプロセサとも呼ばれ、バス68を介して、メモリ70、モータ制御ボード72、センサ入力/出力ボード74、音声入力/出力ボード76および画像出力ボード92に接続される。
メモリ70は、図示は省略するが、ROMやHDDおよびRAMを含み、ROMやHDDにはロボット10の制御プログラム(人間との間でコミュニケーションを実行するための行動制御プログラム)が予め記憶されるとともに、コミュニケーションを実行する際にスピーカ62から発生すべき音声または声の音声データ(音声合成データ)および所定の身振りを提示するための各関節(モータ)の角度データなども記憶される。また、ROMやHDDには、人間を個別に識別するための識別プログラム、識別した人間に共通する興味情報(共通興味情報)が有るかどうかを判断するための判断プログラム、共通興味情報に基づく(関する)話題を提示するための提示プログラムおよび外部コンピュータと通信するための通信プログラムなどが記録される。さらに、ROMやHDDには、ロボット10が配置されるパーティ会場や国際会議場などの地図データが予め記憶される。RAMは、ワークメモリやバッファメモリとして用いられ、上述したようなプログラムやデータがロードされる。
モータ制御ボード72は、たとえばDSPで構成され、各腕や頭部および眼球部などの各軸モータの駆動を制御する。すなわち、モータ制御ボード72は、CPU66からの制御データを受け、右眼球部64Rのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ」と示す。)78の回転角度を制御する。同様に、モータ制御ボード72は、CPU66からの制御データを受け、左眼球部64Lのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ」と示す。)80の回転角度を制御する。
また、モータ制御ボード72は、CPU66からの制御データを受け、右肩関節46RのX軸、Y軸およびZ軸のそれぞれの角度を制御する3つのモータと右肘関節50RのW軸の角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ」と示す。)82の回転角度を調節する。同様に、モータ制御ボード72は、CPU66からの制御データを受け、左肩関節46LのA軸、B軸およびC軸のそれぞれの角度を制御する3つのモータと左肘関節50LのD軸の角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ」と示す。)84の回転角度を調整する。
さらに、モータ制御ボード72は、CPU66からの制御データを受け、頭部60のS軸、T軸およびU軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ」と示す。)86の回転角度を制御する。さらにまた、モータ制御ボード72は、CPU66からの制御データを受け、腰モータ38および車輪22を駆動する2つのモータ(図3では、まとめて「車輪モータ」と示す。)24の回転角度を制御する。
なお、この実施例では、車輪モータ24を除くモータは、制御を簡素化するために、ステッピングモータ或いはパルスモータを用いるようにしてある。ただし、車輪モータ24と同様に、直流モータを用いるようにしてもよい。
センサ入力/出力ボード74もまた、同様に、DSPで構成され、各センサからの信号を取り込んでCPU66に与える。すなわち、超音波距離センサ30のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード74を通してCPU66に入力される。また、全方位カメラ40からの映像信号が、必要に応じてこのセンサ入力/出力ボード74で所定の処理を施された後、CPU66に入力される。眼カメラ44からの映像信号も、同様にして、CPU66に入力される。また、上述した複数のタッチセンサ(図3では、まとめて「タッチセンサ54」と示す。)からの信号がセンサ入力/出力ボード74を介してCPU66に与えられる。さらに、上述した衝突センサ26からの信号も、同様にして、CPU66に与えられる。
音声入力/出力ボード76もまた、同様に、DSPで構成され、CPU66から与えられる音声合成データに従った音声または声がスピーカ62から出力される。すなわち、共通興味情報に基づく話題などが音声または声としてスピーカ62から発せられる。また、マイク42からの音声入力が、音声入力/出力ボード76を介してCPU66に取り込まれる。
画像出力ボード92もまた、同様に、DSPで構成され、CPU66から与えられる画像(映像)データに従った画像もしくは映像がディスプレイ94から出力される。
また、CPU66は、バス68を介して通信LANボード88および無線タグ読取装置96に接続される。通信LANボード88は、DSPで構成され、CPU66から送られる送信データを無線通信装置90に与え、無線通信装置90から送信データを、図示は省略するが、たとえば、無線LANのようなネットワークを介して外部コンピュータ20に送信する。また、通信LANボード88は、無線通信装置90を介してデータを受信し、受信したデータをCPU66に与える。つまり、この通信LANボード88および無線通信装置90によって、ロボット10は外部コンピュータなどと無線通信を行うことができる。
無線タグ読取装置96は、上述したように、パッシブ型のRFIDタグ読取装置であり、内蔵されるアンテナ(図示せず)から図1に示した人間p1およびp2が所持する無線タグ12に対して電波を発信して当該無線タグ12を電磁誘導する。これに応じて無線タグ12から発信(送信)される識別情報の重畳された電波を、無線タグ読取装置96は内蔵されたアンテナを介して受信し、電波信号を増幅し、当該電波信号から識別情報を分離し、当該識別情報を復調(デコード)してCPU66に与える。
なお、図示は省略するが、RFIDタグは、識別情報を記憶するためのメモリや通信用の制御回路などを備えるICチップおよびアンテナなどを含む。この実施例では、後述するように、ロボット10は自身の近傍に存在する人間が所持等する無線タグ12の識別情報(RFID)を検出するようにしてあるため、比較的交信範囲の狭い(1m弱)パッシブタイプのタグを用いるようにしてある。したがって、たとえば、通信距離の比較的短い静電結合方式(数mm程度)や電磁結合方式(数cm程度)の近接型のRFIDタグを使用することも可能である。また、使用環境(ロボット10を配置する環境)によっては、比較的交信範囲の広いアクティブタイプのタグを使用することも可能である。
さらに、CPU66は、バス68を介して、ユーザ情報データベース(以下、「ユーザ情報DB」という。)100および興味情報データベース(以下「興味情報DB」という。)102に接続される。ただし、これらのデータベースは、ロボット10に内蔵する必要はなく、ロボット10がアクセス可能であれば、たとえば、ネットワーク(図示せず)上のような外部に設けることもできる。
ユーザ情報DB100は、図4に示すようなユーザ情報テーブル100aを記録するデータベースである。図4に示すように、ユーザ情報テーブル100aでは、人間の識別情報(ID)または名前に対応付けて、当該人間が所持等する無線タグ12の識別情報(RFID)が記述される。ロボット10は、RFIDを検出すると、このユーザ情報テーブル100aを参照して、人間を識別(特定)することができる。具体的には、RFID「AAAA」を検出すると、ID「a」の人間であると識別することができる。また、RFID「BBBB」を検出すると、ID「b」の人間であると識別することができる。さらに、RFID「CCCC」を検出すると、ID「c」の人間であると識別することができる。
興味情報DB102は、図5に示すような、人間の興味に関する情報(以下、「興味情報」という。)テーブル102aを記録するデータベースである。図5に示すように、興味情報テーブル102aでは、人間の識別情報(ID)または名前に対応付けて、当該人間の興味情報が記述される。この実施例では、興味情報としては、関心の有る話題ないし事柄或いは趣味が該当する。ただし、興味情報としては、その人間の得意分野や出身地など、その人間が話し易いと思われる内容(話題や事柄)を適宜含むようにしてもよい。したがって、図5に示す興味情報テーブル102aからは、ID「a」の人間の興味情報は、プロ野球および映画鑑賞であることが分かる。また、ID「b」の人間の興味情報は、ロボットおよび映画鑑賞であることが分かる。さらに、ID「c」の人間の興味情報は、プロ野球および読書であることが分かる。
また、図示は省略するが、興味情報DB102には、各興味情報に対応付けて、ロボット10が人間に対して提示する話題(発話や画像表示の内容)についてのデータ(音声合成データ、テキストデータ、画像(映像)データ)も記憶される。たとえば、「映画鑑賞」という興味情報には、これに対応付けて、「最近、映画は何を見た?」、「一番好きな映画は何?」、「今まで見た中で一番印象に残っている作品は?」などの音声合成データやテキストデータが記憶されたり、或る映画のワンシーンの映像データないし画像データが記憶されたりする。また、「プロ野球」という興味情報には、これに対応付けて、「プロ野球ではどの球団が好き?」、「今年はどのプロ野球チームが優勝するかな?」、「昨日、〇〇(チーム名)は勝った?」などの音声合成データやテキストデータが記憶されたり、或る選手のプレーの映像や画像が記憶されたりする。また、興味情報に関係なく、単に人間に対して提示される話題も記憶されている。たとえば、「最近、□□が流行っているね」や「もうすぐ春ですね」などの音声合成データやテキストデータが記憶されたり、□□の映像データや画像データが記憶されたりする。ただし、これらは単なる例示であり、これに限定される必要はない。
このような構成のロボット10は、上述したように、或るパーティ会場や国際会議場のような環境に配置され、人間同士の会話のきっかけを作り、見知らぬ者同士の人間関係の構築や知り合い同士の人間関係の発展を支援する。ただし、ロボット10は、環境内を巡回しながら人間を検出したり、或る場所に一定時間留まって人間を検出したりする。
具体的には、ロボット10は、超音波距離センサ30の検出結果に基づいて、互いに近くに存在する複数(たとえば、2人)の人間を検出すると、当該複数の人間に近づく。ただし、上述したように、ロボット10は、自身が配置された場所(環境)の地図データを予めメモリ70に記憶しているため、当該環境内に存在する障害物(壁や椅子、机など)の位置を把握でき、衝突や走行障害などを回避できる。
なお、この実施例では、互いに近くに存在する人間が2人の場合について説明するが、これに限定される必要はなく、3ないし4人の人間が互いに近くに存在していてもよい。
また、ロボット10は、たとえば、超音波距離センサ30の検出結果に基づいて、地図に存在しないもの(障害物)を検出すると、それを人間とみなし、自身の周囲に存在する人間を認識することができる。また、このとき、ロボット10は、自身の位置を基準として、周囲に存在する人間との位置関係を検出する。この実施例では、ロボット10は、人間との距離および自身の正面方向を基準とした場合における方向(角度)を検出する。ロボット10は、自身と2人の人間との位置関係をそれぞれ検出すると、当該2人の人間との位置関係(距離および角度についての検出データ)に基づいて当該2人の人間同士の距離を検出する。この実施例では、人間同士の距離が1m以内である場合に、互いに近くに存在する2人の人間を検出したと判断するようにしてある。これは、人間同士のコミュニケーションを引き起こすためには、人間同士の距離が近いことが必要だからである。
また、ロボット10は、互いに近くに存在する2人の人間を検出したとき、各人間との距離が所定距離(たとえば、1m)を超えている場合には、各人間との距離がともに所定距離以内になるまで移動する。つまり、この2人の人間に近づく。たとえば、ロボット10は、互いに近くに存在する2人の人間の中間方向に移動する。ここで、中間方向は、一方の人間との角度(方向)がθ1であり、他方の人間との角度(方向)がθ2である場合には、(θ1+θ2)/2で算出される方向である。たとえば、位置関係を検出するときに、ロボット10の正面方向を0度として、右方向をプラスの角度とし、左方向をマイナスの角度とすればよい。詳細な説明は省略するが、この実施例では、ロボット10の背面側に人間が存在する場合には、ロボット10は、180度回転して、2人の人間が自身の前方にくるようにしてある。これは、中間方向を簡単に算出するとともに、その後、2人の人間の中間方向に移動するためである。したがって、ロボット10は、180度回転した後、2人の人間との位置関係を検出し直し、中間方向を算出する。
なお、この実施例では、人間との位置関係を検出するために、超音波距離センサ30を用いるようにしたが、これに限定される必要はない。他の実施例として、レーザレンジファインダや赤外線センサを用いるようにしてもよい。かかる場合には、ロボット10には、超音波距離センサ30に代えて、或いは超音波距離センサ30とともに、レーザレンジファインダや赤外線センサが設けられる。ただし、ロボット10自身が人間との位置関係を検出する必要はなく、当該位置関係を外部から取得するようにしてもよい。たとえば、外部コンピュータが管理する、環境に設置したセンサ(床センサや天井カメラなど)によってロボット10と人間との位置関係を検出し、その検出結果を外部コンピュータからロボット10に与えるようにしてもよい。または、位置同定機能付のアクティブ型無線タグ読取システムによって、ロボット10と人間との位置関係を検出し、当該検出結果を当該システムからロボット10に与えるようにしてもよい。
ロボット10は、検出した2人の人間に近づく(人間との距離が所定距離以内になる)と、個人識別をしてもよいか否かを各人間に対して質問する。つまり、ロボット10は、個人識別の許可を各人間に対して要求する。これは、人間がコミュニケーションを取りたくない場合もあると考えられるからである。この実施例では、ロボット10は、「タグをかざしてね」と発話して、人間の方向(θ1またはθ2)に頭部を向け、手を出す。具体的には、CPU66は、「タグをかざしてね」に対応する音声合成データをメモリ70から読み出し、音声入力/出力ボード76を介してスピーカ62から「タグをかざしてね」の音声を出力する。また、CPU66は、メモリ70から右腕モータ82(または左腕モータ84)および頭部モータ86についての角度データを読み出し、モータ制御ボード72に与える。これによって、ロボット10の頭部の向きを制御し、手の動きや手の差出位置ないし方向を制御することができる。
このロボット10の質問ないし要求に応じて、人間が特定の行動(個人識別の許可)を示した場合には、つまり人間が無線タグ12をロボット10の手にかざした場合には、ロボット10は当該人間の個人識別を実行する。具体的には、無線タグ読取装置96からの電波によって電磁誘導された、無線タグ12から発信(送信)される識別情報(RFID信号)を無線タグ読取装置96で検出する。ロボット10では、無線タグ読取装置96によってRFIDが取得されると、CPU66がユーザ情報DB100を参照して、個人を識別(特定)する。
また、ロボット10は、2人の人間を個別に識別すると、興味情報DB102に記録した興味情報テーブル102aを参照して、当該識別した2人の人間に共通する興味情報(共通興味情報)が有るかどうかを判断する。共通興味情報が無い場合には、興味情報に関係ない話題が各人間に対して提示される。たとえば、図5を参照して、ロボット10がID「b」の人間と「c」の人間とを検出した場合には、何ら興味情報が一致しないことが分かる。かかる場合には、興味情報に関係のない話題が提供される。たとえば、ロボット10は、「最近、□□が流行っているね」と発話する。ただし、話題をテキストまたは画像(映像)によって、ディスプレイ94に表示するようにしてもよい。または、発話と表示とを行うようにしてもよい。
しかし、共通興味情報が有る場合には、当該共通興味情報に関する話題が各人間に対して提示される。たとえば、図5を参照して、ロボット10がID「a」の人間とID「b」の人間とを検出した場合には、共通興味情報が「映画鑑賞」であることが分かる。すると、ロボット10は、「映画鑑賞」という興味情報に応じた話題を提供する。たとえば、ロボット10は、「最近、映画は何を見た?」と発話する。ただし、話題をテキストまたは画像(映像)によって、ディスプレイに表示するようにしてもよい。または、発話と表示とを行うようにしてもよい。
具体的には、図3に示したCPU66が図6および図7に示すフロー図に従って全体処理を実行する。図6を参照して、CPU66は、全体処理を開始すると、ステップS1で、周囲に存在する人間との位置関係を取得する。つまり、超音波距離センサ30の検出結果に基づいて、周囲に存在する複数の人間との各距離および各角度を取得する。
次のステップS3では、互いに近くに存在する2人の人間(p1,p2)を検出したか否かを判断する。つまり、ステップS1で取得した複数の人間との各距離および各角度に基づいて、各人間同士の距離を取得し、互いに近く(たとえば、1m以内)に存在する2人の人間を検出したか否かを判断する。ステップS3で“NO”であれば、すなわち互いに近くに存在する2人の人間を検出しなかった場合には、そのまま図7に示すステップS29に進む。一方、ステップS3で“YES”であれば、すなわち互いに近くに存在する2人の人間を検出した場合には、ステップS5に進む。
ステップS5では、人間p1との距離d1および人間p2との距離d2がともに所定距離以内(たとえば、1m以内)であるか否かを判断する。すなわち、検出した2人の人間とのコミュニケーションを実行できる程度の距離であるか否かを判断する。ステップS5で“NO”であれば、すなわち距離d1およびd2のどちらか一方でも所定範囲内でない場合は、ステップS7で、(θ1+θ2)/2の方向に移動して、ステップS5に戻る。つまり、ステップS7では、2人の人間の中間方向に一定距離移動して、2人に近づく。ここで、θ1は自身の正面方向を基準とした場合における人間p1との角度である。同様に、θ2は人間p2との角度である。
なお、フロー図では省略するが、上述したように、ロボット10の背面側に人間p1およびp2が存在する場合には、ステップS7の処理を実行する前に、ロボット10は180度回転し、人間p1およびp2との位置関係を検出し直す。
また、ステップS5で“YES”であれば、すなわち距離d1およびd2がともに所定範囲内である場合には、ステップS9に進み、「タグをかざしてね」と発話して、θ1の方向に頭を向け、手を差し出す。つまり、人間p1に対して個人識別の許可を要求し、ステップS11に進む。
ステップS11では、人間p1の識別情報を検出したか否かを判断する。すなわち、ステップS9での個人識別の許可の要求に応じて、人間p1が無線タグ12をロボット10の手にかざす(無線タグ12と無線タグ読取装置96とを通信可能範囲内に近づける)ことによって送信される、無線タグ12からのRFID信号を検出したかどうかを判断する。ステップS11で“YES”であれば、すなわち人間p1の識別情報を検出した場合には、図7に示すステップS15に進む。一方、ステップS11で“NO”であれば、すなわち人間p1の識別情報を検出しなかった場合には、ステップS13で、前回の発話から所定時間が経過したか否かを判断する。図示は省略するが、ロボット10の内部タイマをステップS9の処理を実行してからスタート(リセットおよびスタート)し、所定時間(たとえば、30秒)が経過したかどうかを判断する。これは、ロボット10の要求に対して人間が応じるか否かを判断し、要求に応じる場合に、無線タグ12をかざすまでの時間が最大で30秒程度と考えられるためである。
ステップS13で“NO”であれば、すなわち所定時間が経過していない場合には、ステップS11に戻る。一方、ステップS13で“YES”であれば、すなわち所定時間が経過した場合には、人間p1は無線タグ12を提示する意思が無く、個人識別の要求に応じない(個人識別を拒否された)と判断して、図7に示すステップS21に進む。
また、図7に示すように、ステップS15では、「タグをかざしてね」と発話して、θ2の方向に頭を向け、手を差し出す。つまり、人間p2に対して個人識別の許可を要求し、ステップS17に進む。ステップS17では、人間p2の識別情報を検出したか否かを判断する。ステップS17で“YES”であれば、すなわち人間p2の識別情報を検出した場合には、ステップS23に進む。一方、ステップS17で“NO”であれば、すなわち人間p2の識別情報を検出しない場合には、ステップS19に進み、前回の発話から所定時間が経過したか否かを判断する。ステップS15において要求を実行したときに、図示しない内部タイマをスタート(リセットおよびスタート)させる点は、上述の場合と同じである。ステップS19で“NO”であれば、すなわち所定時間が経過していない場合には、ステップS17に戻る。一方、ステップS19で“YES”であれば、すなわち所定時間が経過した場合には、個人識別を拒否されたと判断してステップS21に進む。
ステップS21では、「バイバイ」と発話して、手を振る。すなわち、ステップS13もしくはステップS19で人間に個人識別の要求を拒否された場合は、人間p1およびp2の少なくとも一方がコミュニケーションしたくない状況であると判断し、話題の提供を行わずに、人間に別れの挨拶を行って、ステップS29に進む。
一方、ステップS23では、興味情報DB102に人間p1およびp2に共通興味情報が有るか否かを判断する。すなわち、興味情報DB102に記憶される興味情報テーブル102aを参照して、人間p1とp2とに共通する興味情報が有るか否かを判断する。ステップS23で“YES”であれば、すなわち人間p1とp2とに共通する興味情報が有る場合は、ステップS25で、人間p1およびp2に対して、当該共通興味情報に応じた話題を提供して、ステップS29に進む。たとえば、ステップS25では、共通興味情報が「映画鑑賞」である場合には、「最近、映画は何を見た?」と発話したり、そのテキストを表示したり、映画に関する画像や映像を表示したりする。これらは、複合的に実行されてもよい。一方、ステップS23で“NO”であれば、すなわち人間p1とp2とに共通する興味情報が無い場合には、ステップS27で、人間p1およびp2に対して、興味情報に関係のない別の話題(たとえば、最近の話題やその他差し障りの無い適宜の話題)を提供して、ステップS29に進む。たとえば、ステップS27では、「最近□□が流行っているね」と発話したり、そのテキストを表示したり、その□□についての画像や映像を表示したりする。これらは、複合的に実行されてもよい。
ステップS29では、停止命令が有るか否かを判断する。停止命令が有るか否かは、たとえば、ロボット10に停止ボタンを設けておき、当該ボタンが操作されたか否かで判断するようにしてもよいし、オペレータが音声によって停止命令を入力するようにしておき、当該音声が入力されたか否かで判断するようにしてもよい。ステップS29で“YES”であれば、すなわち停止命令が有る場合には、そのまま全体処理を終了する。一方、ステップS29で“NO”であれば、すなわち停止命令が無い場合には、図6に示したステップS1に戻る。なお、図示は省略するが、ステップS1に戻る前に、ロボット10は他の場所に移動するようにしてもよい。
この実施例によれば、互いに近くに存在する複数の人間を検出すると、当該複数の人間に自ら近づき、複数の人間に共通する話題(情報)を提示するので、人間同士が話し始めるきっかけを作ることができ、また、人間同士の会話を促進することができる。つまり、見知らぬ人間同士の会話を引き起こしたり、知り合い同士の会話を発展させたりすることによって、人間関係の構築ないし形成を支援することができる。
なお、この実施例では、人間に対して個人識別の許可を要求し、その要求に応じた人間のみを識別して、共通興味情報に基づく話題を提示するようにしたので、人間にとって不意に(もしくは必要の無いときに)話題が提示されることがない。
また、上述の実施例では、パッシブタイプの無線タグを用いて、人間を個々に識別するようにしたが、これに限定される必要はない。たとえば、人間の顔画像や人間の衣服に付したマーク(文字、図形または記号或いはこれらの組み合わせ)を、眼カメラ44などを用いて撮影し、これによって、人間を識別するようにしてもよい。かかる場合には、ユーザ情報DBには、人間のIDに対応して、顔画像やマークのデータが識別情報として記憶される。ただし、人間に名刺を提示してもらい、この名刺の画像を検出し、画像処理によって氏名を検出するようにしてもよい。また、たとえば、ロボット10にバイオメトリック認証装置を備えて、生体情報(指紋や網膜)を検出し、これを用いて個人識別するようにしてもよい。かかる場合には、ユーザ情報DBには、人間のIDに対応して、生体情報(指紋や網膜の情報)が記憶される。
また、上述の各実施例では、個人識別の許可を要求し、その要求に応じて人間が特定の行動を示したときに個人識別するようにしたが、これに限定されず、人間に対して許可を要求せずに、個人識別を行うようにしてもよい。この場合の個人識別には、たとえば、通信距離の比較的長い電磁誘導方式(最大1m程度)またはマイクロ波方式(最大5m程度)のRFIDタグを使用することができる。
また、人間に許可を要求せずに個人識別する場合には、たとえば、共通興味情報に応じた話題を提示する前に当該話題を提示する許可を人間に対して要求し、許可を得た場合にのみ話題を提供するようにしてもよい。このようにすれば、人間の許可を得てから個人識別する場合と同様に、人間にとって不意に(もしくは必要の無いときに)話題が提示されることがない。
さらにまた、人間に許可を要求せずに個人識別を行う場合には、個人識別の許可を要求するために人間の近傍まで移動する必要がない。したがって、互いに近くに存在する複数の人間に共通する興味情報が有ると判断したときのみに、当該複数の人間の近傍まで移動し、当該興味情報に基づく話題を当該人間に対して提示するようにしてもよい。また、このような場合には、たとえば単一の情報のみを提示するロボットが、当該情報に興味を持つ複数の人間が互いに近くに存在することを検出したときに、当該人間の近くに移動し情報を提示するというようにしてもよい。たとえば、車の模型についての情報のみを提示するロボットが、車の模型に興味を持つ互いに近くに存在する2人以上の人間を検出したときに、当該車の模型に関する情報を発話や画面表示によって提示するというようにしてもよい。かかる場合には、たとえば移動台車に車の模型の実物を乗せ、ロボットが当該移動台車を押して当該車の模型に興味を持つ2人以上の人間の前に移動するようにしてもよい。
また、上述の各実施例では、個人識別の許可の要求は、発話および身体動作によって実行したが、これに限定されず、発話のみで行ってもよいし、ディスプレイに個人識別の許可の要求に関する内容をテキストで表示するようにしてもよい。ただし、これらは複合的に実行するようにしてもよい。
また、上述の各実施例では、ロボットが提示する話題(共通興味情報に応じた話題)は、ロボットに内蔵のもしくは外部にアクセス可能に設置したデータベースに予め記憶しておくようにしてあるが、これに限定される必要はない。たとえば、話題を提供するとき、WWW(World Wide Web)上のサーチエンジンを用いて、共通興味情報に関する話題や興味情報に関連しない話題(時事情報)を検索し、提示するようにしてもよい。
図1はこの発明の一実施例のコミュニケーションロボットおよび当該コミュニケーションロボットが存在する現実空間の様子を示す図解図である。 図2は図1に示すコミュニケーションロボットの外観を正面から見た図解図である。 図3は図1に示すコミュニケーションロボットの電気的な構成を示すブロック図である。 図4は図3に示すユーザ情報DBの内容の一例を示す図解図である。 図5は図3に示す興味情報DBの内容の一例を示す図解図である。 図6は図3に示すCPUの全体処理の一部を示すフロー図である。 図7は図3に示すCPUの全体処理の他の一部であって、図6に後続するフロー図である。
符号の説明
10 …コミュニケーションロボット
12 …無線タグ
30 …超音波距離センサ
62 …スピーカ
66 …CPU
70 …メモリ
94 …ディスプレイ
96 …無線タグ読取装置
100,102 …データベース

Claims (3)

  1. 少なくとも音声を用いて人間との間でコミュニケーションを実行するコミュニケーションロボットであって、
    各人間の興味情報を個別に記憶する興味情報記憶手段、
    周囲に存在する人間との位置関係を検出する位置検出手段、
    前記位置検出手段の検出結果に基づいて互いに近くに存在する複数の人間を検出したとき、当該複数の人間を個別に識別する個人識別手段、
    前記個人識別手段によって前記互いに近くに存在する複数の人間を識別した結果と、前記興味情報記憶手段によって記憶された興味情報とに基づいて、当該複数の人間に共通する興味情報が有るかどうかを判断する判断手段、および
    前記判断手段によって前記共通する興味情報が有ることが判断されたとき、当該興味情報に基づく話題を前記互いに近くに存在する複数の人間に対して提示する提示手段を備える、コミュニケーションロボット。
  2. 前記提示手段は、前記判断手段によって前記共通する興味情報が無いことが判断されたとき、興味情報に関係しない別の話題を提示する、請求項1記載のコミュニケーションロボット。
  3. 前記互いに近くに存在する複数の人間の近傍に移動する移動手段、および
    前記移動手段によって前記人間の近傍に移動した後に当該人間に対して個人識別の許可を要求する識別許可要求手段をさらに備え、
    前記個人識別手段は、前記人間の識別情報を検出する識別情報検出手段を含み、前記識別情報検出手段は前記識別許可要求手段によって個人識別の許可を要求した後に前記人間の識別情報の検出を試みる、請求項1または2記載のコミュニケーションロボット。
JP2006044246A 2006-02-21 2006-02-21 コミュニケーションロボット Expired - Fee Related JP4599522B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006044246A JP4599522B2 (ja) 2006-02-21 2006-02-21 コミュニケーションロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006044246A JP4599522B2 (ja) 2006-02-21 2006-02-21 コミュニケーションロボット

Publications (2)

Publication Number Publication Date
JP2007222968A true JP2007222968A (ja) 2007-09-06
JP4599522B2 JP4599522B2 (ja) 2010-12-15

Family

ID=38545248

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006044246A Expired - Fee Related JP4599522B2 (ja) 2006-02-21 2006-02-21 コミュニケーションロボット

Country Status (1)

Country Link
JP (1) JP4599522B2 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010110864A (ja) * 2008-11-06 2010-05-20 Nec Corp ロボットシステム、コミュニケーション活性化方法及びプログラム
JP2011055137A (ja) * 2009-08-31 2011-03-17 Nec Corp アイスブレイク話題提供システム、方法及びプログラム
JP2012076162A (ja) * 2010-09-30 2012-04-19 Waseda Univ 会話ロボット
JP2014083658A (ja) * 2012-10-25 2014-05-12 Panasonic Corp 音声エージェント装置、及びその制御方法
JP2015171737A (ja) * 2014-03-11 2015-10-01 本田技研工業株式会社 ロボット、およびロボットの制御方法
CN105437211A (zh) * 2015-12-11 2016-03-30 塔米智能科技(北京)有限公司 一种双面表情服务机器人
WO2016125326A1 (ja) * 2015-02-08 2016-08-11 学校法人塚本学院 大阪芸術大学 生活支援伸縮自在ロボット
JP2017169839A (ja) * 2016-03-24 2017-09-28 大日本印刷株式会社 アバターロボット接続管理システム
CN107728152A (zh) * 2017-08-25 2018-02-23 杭州仁盈科技股份有限公司 基于超声波的服务响应方法、电子设备、存储介质、***
WO2018043114A1 (ja) * 2016-08-29 2018-03-08 ソニー株式会社 情報処理装置、情報処理方法、プログラム
JP2018124645A (ja) * 2017-01-30 2018-08-09 株式会社東芝 情報提供システム及び情報提供方法
EP3950498A4 (en) * 2019-03-29 2022-04-27 Panasonic Intellectual Property Management Co., Ltd. MOBILE BODY WITHOUT PILOT AND INFORMATION PROCESSING METHOD

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104511902A (zh) * 2013-09-29 2015-04-15 哈尔滨咏棠传祺广告传媒有限公司 多功能迎宾机器人装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001129777A (ja) * 1999-11-02 2001-05-15 Atr Media Integration & Communications Res Lab 自律移動ロボット
JP2001282805A (ja) * 2000-03-28 2001-10-12 Fuji Xerox Co Ltd ユーザ情報提示装置
JP2002024779A (ja) * 2000-07-10 2002-01-25 Sony Corp Icカード
JP2003115951A (ja) * 2001-10-09 2003-04-18 Casio Comput Co Ltd 話題情報提供システムおよび話題情報提供方法
JP2003140688A (ja) * 2001-11-07 2003-05-16 Matsushita Electric Ind Co Ltd 情報配信システムおよび情報配信方法
JP2004021509A (ja) * 2002-06-14 2004-01-22 Mitsubishi Heavy Ind Ltd 情報共有型ロボット
JP2004216513A (ja) * 2003-01-15 2004-08-05 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2004299026A (ja) * 2003-04-01 2004-10-28 Honda Motor Co Ltd 受付案内システム
JP2007160473A (ja) * 2005-12-15 2007-06-28 Fujitsu Ltd ロボットにおける対話相手識別方法およびロボット

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001129777A (ja) * 1999-11-02 2001-05-15 Atr Media Integration & Communications Res Lab 自律移動ロボット
JP2001282805A (ja) * 2000-03-28 2001-10-12 Fuji Xerox Co Ltd ユーザ情報提示装置
JP2002024779A (ja) * 2000-07-10 2002-01-25 Sony Corp Icカード
JP2003115951A (ja) * 2001-10-09 2003-04-18 Casio Comput Co Ltd 話題情報提供システムおよび話題情報提供方法
JP2003140688A (ja) * 2001-11-07 2003-05-16 Matsushita Electric Ind Co Ltd 情報配信システムおよび情報配信方法
JP2004021509A (ja) * 2002-06-14 2004-01-22 Mitsubishi Heavy Ind Ltd 情報共有型ロボット
JP2004216513A (ja) * 2003-01-15 2004-08-05 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2004299026A (ja) * 2003-04-01 2004-10-28 Honda Motor Co Ltd 受付案内システム
JP2007160473A (ja) * 2005-12-15 2007-06-28 Fujitsu Ltd ロボットにおける対話相手識別方法およびロボット

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010110864A (ja) * 2008-11-06 2010-05-20 Nec Corp ロボットシステム、コミュニケーション活性化方法及びプログラム
JP2011055137A (ja) * 2009-08-31 2011-03-17 Nec Corp アイスブレイク話題提供システム、方法及びプログラム
JP2012076162A (ja) * 2010-09-30 2012-04-19 Waseda Univ 会話ロボット
US9324326B2 (en) 2012-10-25 2016-04-26 Panasonic Intellectual Property Management Co., Ltd. Voice agent device and method for controlling the same
JP2014083658A (ja) * 2012-10-25 2014-05-12 Panasonic Corp 音声エージェント装置、及びその制御方法
JP2015171737A (ja) * 2014-03-11 2015-10-01 本田技研工業株式会社 ロボット、およびロボットの制御方法
JP2016144545A (ja) * 2015-02-08 2016-08-12 学校法人塚本学院 大阪芸術大学 生活支援伸縮自在ロボット
WO2016125326A1 (ja) * 2015-02-08 2016-08-11 学校法人塚本学院 大阪芸術大学 生活支援伸縮自在ロボット
CN105437211A (zh) * 2015-12-11 2016-03-30 塔米智能科技(北京)有限公司 一种双面表情服务机器人
JP2017169839A (ja) * 2016-03-24 2017-09-28 大日本印刷株式会社 アバターロボット接続管理システム
WO2018043114A1 (ja) * 2016-08-29 2018-03-08 ソニー株式会社 情報処理装置、情報処理方法、プログラム
JPWO2018043114A1 (ja) * 2016-08-29 2019-06-24 ソニー株式会社 情報処理装置、情報処理方法、プログラム
JP7063269B2 (ja) 2016-08-29 2022-05-09 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム
JP2018124645A (ja) * 2017-01-30 2018-08-09 株式会社東芝 情報提供システム及び情報提供方法
CN107728152A (zh) * 2017-08-25 2018-02-23 杭州仁盈科技股份有限公司 基于超声波的服务响应方法、电子设备、存储介质、***
EP3950498A4 (en) * 2019-03-29 2022-04-27 Panasonic Intellectual Property Management Co., Ltd. MOBILE BODY WITHOUT PILOT AND INFORMATION PROCESSING METHOD

Also Published As

Publication number Publication date
JP4599522B2 (ja) 2010-12-15

Similar Documents

Publication Publication Date Title
JP4599522B2 (ja) コミュニケーションロボット
JP5033994B2 (ja) コミュニケーションロボット
JP5429462B2 (ja) コミュニケーションロボット
JP4024683B2 (ja) コミュニケーションロボット
JP4639343B2 (ja) ロボット遠隔操作システム
JP4949969B2 (ja) コミュニケーションロボットとその動作方法
JP4822319B2 (ja) コミュニケーションロボットおよびそれを用いた注意制御システム
JP5366048B2 (ja) 情報提供システム
JP4014044B2 (ja) コミュニケーションロボットおよびそれを用いたコミュニケーションシステム
JP4386367B2 (ja) コミュニケーションロボット改良システム
US9848166B2 (en) Communication unit
KR102463806B1 (ko) 이동이 가능한 전자 장치 및 그 동작 방법
JP6134895B2 (ja) ロボット制御システム、ロボット制御プログラムおよび説明ロボット
EP4261659A1 (en) Method for human-computer interaction and device for human-computer interaction
JP2007160473A (ja) ロボットにおける対話相手識別方法およびロボット
Abidi et al. Human pointing as a robot directive
KR20070029794A (ko) 유저와 시스템 사이에 통신을 하기 위한 방법 및 시스템
JP5145569B2 (ja) 対象物特定方法および装置
JP6150429B2 (ja) ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法
JP4677593B2 (ja) コミュニケーションロボット
JP2005131713A (ja) コミュニケーションロボット
JP2009131914A (ja) ロボット制御システム
JP2007160427A (ja) ロボット制御システム
JP2015066623A (ja) ロボット制御システムおよびロボット
JP3942599B2 (ja) コミュニケーションロボット

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100615

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100817

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100830

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131008

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4599522

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees