JP2009131914A - ロボット制御システム - Google Patents

ロボット制御システム Download PDF

Info

Publication number
JP2009131914A
JP2009131914A JP2007308144A JP2007308144A JP2009131914A JP 2009131914 A JP2009131914 A JP 2009131914A JP 2007308144 A JP2007308144 A JP 2007308144A JP 2007308144 A JP2007308144 A JP 2007308144A JP 2009131914 A JP2009131914 A JP 2009131914A
Authority
JP
Japan
Prior art keywords
robot
information
age
communication
variable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007308144A
Other languages
English (en)
Inventor
Masahiro Shiomi
昌裕 塩見
Keiko Miyashita
敬宏 宮下
Kazuhiko Shinosawa
一彦 篠沢
Norihiro Hagita
紀博 萩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2007308144A priority Critical patent/JP2009131914A/ja
Publication of JP2009131914A publication Critical patent/JP2009131914A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【構成】ロボット制御システム10はロボット12を含み、このロボット12は、コミュニケーション行動の動作履歴情報を中央制御装置14に送信する。中央制御装置14は、ロボット12からの動作履歴情報のうち遠隔操作によるものに基づいて、個人用ビヘービア遷移DB,年代・性別依存ビヘービア遷移DBおよび場所依存ビヘービア遷移DBを構築する。そして、ロボット12は、対話相手の名前、年代・性別、または場所に応じたDBを選択し、選択したDBを参照して、現在のロボット12の動作を示すコマンドと、そのロボット12の動作に対する対話相手の行動とに一致する動作履歴情報に基づいて、次のコミュニケーション行動を決定する。
【効果】遠隔操作の動作履歴情報に基づいて自律行動を行うので、オペレータの遠隔操作の回数をできるだけ減らすことができる。
【選択図】図1

Description

この発明は、ロボット制御システムに関し、特にたとえば人間との間でコミュニケーション行動を実行するロボットを用いた、ロボット制御システムに関する。
この種の従来のロボット制御システムの一例が、特許文献1に開示されている。この特許文献1のコミュニケーションロボットは、自律的に動作を行う第1のモードと、専門家によって指示された動作を実行する第2のモードと、専門家の動作を反映する行動を実行し、対象者と専門家とのコミュニケーションを媒介する第3のモードとを実行する。また、第2のモードおよび第3のモードでは、専門家の遠隔操作によってコミュニケーションロボットは動作する。通常、コミュニケーションロボットは、第1のモードで対象者とコミュニケーションを行うが、コミュニケーションの状況などに応じて、第2のモードまたは第3のモードに切り替わり遠隔操作される。
たとえば、このコミュニケーションロボットは、博物館などに設置され、博物館に来館した人に対してコミュニケーションを行う。専門家が操作側装置によってコミュニケーションロボットに指示を出せば、コミュニケーションロボットは、第1のモードから第2のモードに切り替わる。また、対象者(コミュニケーションロボットの周囲の人間)から話しかけられれば(質問されれば)、コミュニケーションロボットは、第1のモードから第3のモードに切り替わる。
特開2007−216363[B25J 13/08, B25J 5/00]
この特許文献1に示すコミュニケーションロボットは、たとえば、博物館などに設置されるため、博物館に来館した不特定多数の対象者とコミュニケーションを行うことになる。このような状況下では、コミュニケーションロボットは、対象者に話しかけられることが多いと推測される。このため、コミュニケーションロボットは、第3のモードで動作する頻度が高くなる。したがって、このコミュニケーションロボットを遠隔操作する専門家の負担が増加することになる。
それゆえに、この発明の主たる目的は、新規な、ロボット制御システムを提供することである。
この発明の他の目的は、オペレータによる遠隔操作の回数をできるだけ減らすことができる、ロボット制御システムを提供することである。
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。
第1の発明は、遠隔操作または自律制御により、人間との間で身体動作および音声の少なくとも一方によるコミュニケーション行動を行うロボットと、ネットワークを介してロボットの遠隔操作を行う操作端末と、ネットワークを介してロボットと操作端末とを仲介する中央制御装置とを備える、ロボット制御システムである。このロボット制御システムでは、ロボットは、操作端末からの遠隔操作に従ってコミュニケーション行動を実行する遠隔操作モードと、コミュニケーションの状況に応じたコミュニケーション行動についてのデータベースを参照して自律制御によるコミュニケーション行動を実行する自律制御モードとを切り替える切替手段、および切替手段によって切り替えられた遠隔操作モードまたは自律制御モードにおけるコミュニケーション行動についての動作履歴情報を中央制御装置に送信する送信手段を備え、中央制御装置は、送信手段によって送信された動作履歴情報を受信する受信手段、受信手段によって受信された動作履歴情報についてのコミュニケーション行動が遠隔操作によって実行されたかどうかを判断する判断手段、判断手段によって遠隔操作であることが判断された動作履歴情報を記憶装置に記憶する記憶手段、および記憶手段によって記憶された遠隔操作による動作履歴情報に基づいてデータベースを構築する構築手段を備えることを特徴とする。
第1の発明では、ロボット制御システム(10)は、遠隔操作または自律制御により、人間との間で身体動作および音声の少なくとも一方によるコミュニケーション行動を行うロボット(12)と、ネットワークを介してロボットの遠隔操作を行う操作端末(16)と、ネットワークを介してロボットと操作端末とを仲介する中央制御装置(14)とを備える。ロボットでは、切替手段(80,S313,S319,S321)は、操作端末からの遠隔操作に従ってコミュニケーション行動を実行する遠隔操作モードと、コミュニケーションの状況に応じたコミュニケーション行動についてのデータベースを参照して自律制御によるコミュニケーション行動を実行する自律制御モードとを切り替える。送信手段(80,102,104,S329)は、切替手段によって切り替えられた遠隔操作モードまたは自律制御モードにおけるコミュニケーション行動についての動作履歴情報を中央制御装置に送信する。中央制御装置では、受信手段(S3)は、送信手段によって送信された動作履歴情報を受信する。判断手段(S13)は、受信手段によって受信された動作履歴情報についてのコミュニケーション行動が遠隔操作によって実行されたかどうかを判断する。記憶手段(S7,S9,S15)は、判断手段によって遠隔操作であることが判断された動作履歴情報を記憶装置(14a)に記憶する。構築手段(S37,S41,S45)は、記憶手段によって記憶された遠隔操作による動作履歴情報に基づいてデータベースを構築する。たとえば、動作履歴情報は、遠隔操作履歴記録テーブルなどの名称で中央制御装置のメモリに記憶される。
第1の発明によれば、遠隔操作によってロボットが過去に振舞った同じ動作を経験として記憶しておくので、自律行動を行う場合に、記憶しておいた経験に基づいて自律行動を行うことができる。これによって、オペレータによる遠隔操作の回数をできるだけ減らすことができる。
第2の発明は、第1の発明に従属し、中央制御装置は、ロボットがコミュニケーション行動を実行する対象である人間の属性情報を取得する属性情報取得手段をさらに備え、構築手段は、属性情報に応じたデータベースを構築する。
第2の発明では、属性情報取得手段(S9)は、ロボットがコミュニケーション行動を実行する対象である人間の属性情報を取得する。そして、構築手段では、属性情報に応じたデータベースが構築される。つまり、コミュニケーション行動を行う対象の人間の属性情報が取得される場合に、構築手段は、属性情報が取得された人間に対して行われた遠隔操作の動作情報履歴からデータベースを構築する。
第2の発明によれば、ロボットは、属性情報が取得された人間に対して過去に行った行動、つまり経験に基づいて自律行動を行うことができる。
第3の発明は、第2の発明に従属し、属性情報は、人間の名称の情報を含み、構築手段は、人間の名称の情報が示す名称毎にデータベースを構築する。
第3の発明では、属性情報には、人間の名称の情報が含まれる。そして、構築手段では、人間の名称の情報が示す名称毎にデータベースが構築される。たとえば、第3の発明で構築されるデータベースは、個人用ビヘービア遷移DBの名称で記憶される。また、個人名が山田一郎である場合に、個人用ビヘービア遷移DBは、山田一郎専用のデータベースとなる。つまり、属性情報に人間の名称の情報が含まれるため、構築手段は、名称の異なる人間に対して行った遠隔操作の動作情報履歴毎にデータベースを構築する。
第3の発明によれば、ロボットは、コミュニケーション行動を行う対象の人間の名称を取得することで、その人間に対して過去に行った行動、つまり経験にもとづいて自律行動を行うことができる。さらに、個人用のデータベースが中央制御装置に記憶されている人間は、ロボット制御システムが導入されている場所であれば、初めて訪れる場所であっても、ロボットと円滑にコミュニケーションを行うことができる。
第4の発明は、第2の発明または第3の発明に従属し、属性情報は、人間の年齢および性別の情報を含み、構築手段は、人間の年齢および性別の情報が示す年齢および性別毎にデータベースを構築する。
第4の発明では、属性情報には、人間の年齢(年代)および性別の情報が含まれる。そして、構築手段では、人間の年齢および性別の情報が示す年齢および性別毎にデータベースが構築される。たとえば、第4の発明で構築されるデータベースは、年齢・性別依存ビヘービア遷移DBの名称で記憶される。
第4の発明によれば、ロボットは、個人名が特定できない場合であっても、年齢・性別が取得された人間に対して過去に行った行動、つまり経験にもとづいて自律行動を行うことができる。さらに、年齢および性別のデータベースが中央制御装置に記憶されている人間は、ロボット制御システムの使用者は、デパートや百貨店などの様々な年代の人間が集まる場所で構築された年齢・性別データベースを、新たにデパートや百貨店などにロボット制御システムを導入する場合に、活用することができる。
第5の発明は、第1の発明ないし第4の発明のいずれかに従属し、中央制御装置は、ロボットがコミュニケーション行動を行ったときに当該人間が存在した場所の情報を取得する場所情報取得手段をさらに備え、構築手段は、場所の情報が示す場所毎にデータベースを構築する。
第5の発明では、中央制御装置では、場所情報取得手段(S5)は、ロボットがコミュニケーション行動を行ったときに当該人間が存在した場所の情報を取得する。そして、構築手段では、場所の情報が示す場所毎にデータベースが構築される。たとえば、第5の発明で構築されるデータベースは、場所依存ビヘービア遷移DBの名称で記憶される。
第5の発明によれば、コミュニケーション行動を行う対象の人間の属性情報が取得できなくても、構築手段は、ロボットが遠隔操作の動作を行った場所の情報に基づいてデータベースを構築する。これによって、コミュニケーション行動を行う対象の人間の属性情報が取得できない場合であっても、ロボットは、コミュニケーション行動を行う場所で過去に行った行動、つまり経験に基づいて自律行動を行うことができる。さらに、ロボット制御システムの使用者は、様々な所で開催される、内容がほぼ同一のイベント会場でロボット制御システムを導入する場合に、過去に開催したイベントで構築した場所データベースを利用することができる。
第6の発明は、第5の発明に従属し、ロボットは、人間との間でコミュニケーション行動を行う状況を検出する検出手段、および検出手段によって検出された状況に応じたデータベースを選択する選択手段をさらに備える。
第6の発明では、ロボットの検出手段(80,S313)は、人間との間でコミュニケーション行動を行う状況を検出する。選択手段(80,S303,S307)は、検出手段によって検出された状況に応じたデータベースを選択する。たとえば、検索手段は、現在のロボットの動作に対応するデータを検索する。
第6の発明によれば、ロボットは、現在の動作に応じて選択された過去に振舞った同じ動作のデータベースを検索することができる。これによって、ロボットは、オペレータを呼び出すことなく、自律行動によって人間とのコミュニケーション行動を行うことができる。
第7の発明は、第6の発明に従属し、コミュニケーション行動を行う状況は、人間の名称と、人間の年齢および性別と、人間の存在場所との少なくとも1つを含む。
第7の発明では、コミュニケーション行動を行う状況には、人間の名称と、人間の年齢および性別と、人間の存在場所との少なくとも1つが含まれる。つまり、ロボットは、人間の名称と、人間の年齢および性別と、人間の存在場所との少なくとも1つに基づいて、データベースを選択することができる。
第7の発明によれば、ロボットは、人間の名称と、人間の年齢および性別と、人間の存在場所との少なくとも1つに基づいて、データベースを選択することができる。
この発明によれば、ロボットが過去に振舞った同じ動作を経験として記憶しておくので、自律行動を行う場合に、記憶しておいた経験に基づいて自律行動を行うことができる。これによって、オペレータによる遠隔操作の回数をできるだけ減らすことができる。
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1を参照して、この実施例のロボット制御システム10は、ロボット12を含む。このロボット12は、ネットワーク200を介して、中央制御装置14および操作端末16に接続される。ロボット12は、相互作用指向のロボット(コミュニケーションロボット)であり、主として人間Aのようなコミュニケーションの対象(コミュニケーション対象)との間で、身振り手振りのような身体動作および音声の少なくとも一方を含むコミュニケーション行動を実行する機能を備えている。ロボット12は、一例として、受付ロボット,子守ロボットおよび介護ロボットなどであり、たとえば会社の受付や一般家庭の居間などの様々な場所および状況に配置され、通常は自律制御によって接客,道案内,子守および介護などの役割を果たす(自律制御モード)。
なお、図1では、簡単のため、1台のロボット12および1台の操作端末16を示してあるが、いずれも2台以上であってよい。また、人間は1人に限定される必要はなく、複数であってよい。
ロボット12は、自律制御だけでは対応することが難しい事態や人間によってより細やかな対応(コミュニケーション等)が必要な事態になると、オペレータを呼び出す。具体的には、ロボット12は、オペレータの呼出要求(遠隔操作の依頼)を、ネットワーク200を介して中央制御装置14に送信する。中央制御装置14は、ロボット12からの呼出要求を受けて、対応(遠隔操作)可能なオペレータが操作する操作端末16を選択する。そして、中央制御装置14は、選択された操作端末16に、ロボット12の通信情報(IPアドレス)を通知する。すると、操作端末16のオペレータの操作により、ロボット12と操作端末16とがネットワーク200を介して通信可能に接続される。つまり、中央制御装置14は、ロボット12と操作端末16とを仲介する。その後、オペレータが操作端末16を用いてロボット12を遠隔操作する。たとえば、オペレータが操作端末16を用いて操作コマンドをロボット12に送信すると、ロボット12はその操作コマンドを受信し、受信した操作コマンドに従って動作(コミュニケーション行動)を実行する(遠隔操作モード)。
図2を参照して、ロボット12のハードウェアの構成について説明する。また、図2はこの実施例のロボット12の外観を示す正面図である。ロボット12は台車30を含み、台車30の下面にはロボット12を自律移動させる2つの車輪32および1つの従輪34が設けられる。2つの車輪32は車輪モータ36(図3参照)によってそれぞれ独立に駆動され、台車30すなわちロボット12を前後左右の任意方向に動かすことができる。また、従輪34は車輪32を補助する補助輪である。したがって、ロボット12は、配置された空間内を自律制御によって移動可能である。ただし、ロボット12は、或る場所に固定的に配置されても構わない。
台車30の上には、円柱形のセンサ取り付けパネル38が設けられ、このセンサ取り付けパネル38には、多数の赤外線距離センサ40が取り付けられる。これらの赤外線距離センサ40は、センサ取り付けパネル38すなわちロボット12の周囲の物体(人間や障害物など)との距離を測定するものである。
なお、この実施例では、距離センサとして、赤外線距離センサを用いるようにしてあるが、赤外線距離センサに代えて、超音波距離センサやミリ波レーダなどを用いることもできる。
センサ取り付けパネル38の上には、胴体42が直立するように設けられる。また、胴体42の前方中央上部(人の胸に相当する位置)には、上述した赤外線距離センサ40がさらに設けられ、ロボット12の前方の主として人間との距離を計測する。また、胴体42には、その側面側上端部のほぼ中央から伸びる支柱44が設けられ、支柱44の上には、全方位カメラ46が設けられる。全方位カメラ46は、ロボット12の周囲を撮影するものであり、後述する眼カメラ70とは区別される。この全方位カメラ46としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。なお、これら赤外線距離センサ40および全方位カメラ46の設置位置は、当該部位に限定されず適宜変更され得る。
胴体42の両側面上端部(人の肩に相当する位置)には、それぞれ、肩関節48Rおよび肩関節48Lによって、上腕50Rおよび上腕50Lが設けられる。図示は省略するが、肩関節48Rおよび肩関節48Lは、それぞれ、直交する3軸の自由度を有する。すなわち、肩関節48Rは、直交する3軸のそれぞれの軸廻りにおいて上腕50Rの角度を制御できる。肩関節48Rの或る軸(ヨー軸)は、上腕50Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。同様にして、肩関節48Lは、直交する3軸のそれぞれの軸廻りにおいて上腕50Lの角度を制御できる。肩関節48Lの或る軸(ヨー軸)は、上腕50Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。
また、上腕50Rおよび上腕50Lのそれぞれの先端には、肘関節52Rおよび肘関節52Lが設けられる。図示は省略するが、肘関節52Rおよび肘関節52Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸回りにおいて前腕54Rおよび前腕54Lの角度を制御できる。
前腕54Rおよび前腕54Lのそれぞれの先端には、人の手に相当する球体56Rおよび球体56Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人間の手の形をした「手」を用いることも可能である。また、図示は省略するが、台車30の前面,肩関節48Rと肩関節48Lとを含む肩に相当する部位,上腕50R,上腕50L,前腕54R,前腕54L,球体56Rおよび球体56Lには、それぞれ、接触センサ58(図3で包括的に示す)が設けられる。台車30の前面の接触センサ58は、台車30への人間や他の障害物の接触を検知する。したがって、ロボット12は、その自身の移動中に障害物との接触が有ると、それを検知し、直ちに車輪32の駆動を停止してロボット12の移動を急停止させることができる。また、その他の接触センサ58は、当該各部位に触れたかどうかを検知する。なお、接触センサ58の設置位置は、当該部位に限定されず、適宜な位置(人の胸,腹,脇,背中および腰に相当する位置)に設けられてもよい。
胴体42の中央上部(人の首に相当する位置)には首関節60が設けられ、さらにその上には頭部62が設けられる。図示は省略するが、首関節60は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット12の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。
頭部62には、人の口に相当する位置に、スピーカ64が設けられる。スピーカ64は、ロボット12が、それの周辺の人間に対して音声ないし音によってコミュニケーションを取るために用いられる。また、人の耳に相当する位置には、マイク66Rおよびマイク66Lが設けられる。以下、右のマイク66Rと左のマイク66Lとをまとめてマイク66ということがある。マイク66は、周囲の音、とりわけコミュニケーションを実行する対象である人間の音声を取り込む。さらに、人の目に相当する位置には、眼球部68Rおよび眼球部68Lが設けられる。眼球部68Rおよび眼球部68Lは、それぞれ眼カメラ70Rおよび眼カメラ70Lを含む。以下、右の眼球部68Rと左の眼球部68Lとをまとめて眼球部68ということがある。また、右の眼カメラ70Rと左の眼カメラ70Lとをまとめて眼カメラ70ということがある。
眼カメラ70は、ロボット12に接近した人間の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。また、眼カメラ70は、上述した全方位カメラ46と同様のカメラを用いることができる。たとえば、眼カメラ70は、眼球部68内に固定され、眼球部68は、眼球支持部(図示せず)を介して頭部62内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部62の上に向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部62の正面側(顔)が向く方向に直行する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部68ないし眼カメラ70の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。なお、上述のスピーカ64,マイク66および眼カメラ70の設置位置は、当該部位に限定されず、適宜な位置に設けられてよい。
このように、この実施例のロボット12は、車輪32の独立2軸駆動,肩関節48の3自由度(左右で6自由度),肘関節52の1自由度(左右で2自由度),首関節60の3自由度および眼球支持部の2自由度(左右で4自由度)の合計17自由度を有する。
図3はロボット12の電気的な構成を示すブロック図である。この図3を参照して、ロボット12は、CPU80を含む。CPU80は、マイクロコンピュータ或いはプロセッサとも呼ばれ、バス82を介して、メモリ84,モータ制御ボード86,センサ入力/出力ボード88および音声入力/出力ボード90に接続される。
メモリ84は、図示は省略をするが、ROM,HDDおよびRAMを含む。ROMおよびHDDには、ロボット12の動作を制御するための制御プログラムが予め記憶される。たとえば、各センサの出力(センサ情報)を検知するための検知プログラムや、外部コンピュータ(中央制御装置14および操作端末16など)との間で必要なデータやコマンドを送受信するための通信プログラムなどが記録される。また、RAMは、ワークメモリやバッファメモリとして用いられる。
モータ制御ボード86は、たとえばDSPで構成され、各腕や首関節および眼球部などの各軸モータの駆動を制御する。すなわち、モータ制御ボード86は、CPU80からの制御データを受け、右眼球部68Rの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ92」と示す)の回転角度を制御する。同様にして、モータ制御ボード86は、CPU80からの制御データを受け、左眼球部68Lの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ94」と示す)の回転角度を制御する。
また、モータ制御ボード86は、CPU80からの制御データを受け、肩関節48Rの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Rの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ96」と示す)の回転角度を制御する。同様にして、モータ制御ボード86は、CPU80からの制御データを受け、肩関節48Lの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Lの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ98」と示す)の回転角度を制御する。
さらに、モータ制御ボード86は、CPU80からの制御データを受け、首関節60の直交する3軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ100」と示す)の回転角度を制御する。そして、モータ制御ボード86は、CPU80からの制御データを受け、車輪32を駆動する2つのモータ(図3では、まとめて「車輪モータ36」と示す)の回転角度を制御する。なお、この実施例では、車輪モータ36を除くモータは、制御を簡素化するためにステッピングモータ(すなわち、パルスモータ)を用いる。ただし、車輪モータ36と同様に直流モータを用いるようにしてもよい。また、ロボット12の身体部位を駆動するアクチュエータは、電流を動力源とするモータに限らず適宜変更された、たとえば、他の実施例では、エアアクチュエータが適用されてもよい。
センサ入力/出力ボード88は、モータ制御ボード86と同様に、DSPで構成され、各センサからの信号を取り込んでCPU80に与える。すなわち、赤外線距離センサ40のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード88を通じてCPU80に入力される。また、全方位カメラ46からの映像信号が、必要に応じてセンサ入力/出力ボード88で所定の処理を施してからCPU80に入力される。眼カメラ70からの映像信号も、同様にして、CPU80に入力される。また、上述した複数の接触センサ58(図3では、まとめて「接触センサ58」と示す)からの信号がセンサ入力/出力ボード88を介してCPU80に与えられる。音声入力/出力ボード90もまた、同様に、DSPで構成され、CPU80から与えられる音声合成データに従った音声または声がスピーカ64から出力される。また、マイク66からの音声入力が、音声入力/出力ボード90を介してCPU80に与えられる。
また、CPU80は、バス82を介して通信LANボード102に接続される。通信LANボード102は、たとえばDSPで構成され、CPU80から与えられた送信データを無線通信装置104に与え、無線通信装置104は送信データを、ネットワーク200を介して外部コンピュータ(中央制御装置14および操作端末16)に送信する。また、通信LANボード102は、無線通信装置104を介してデータを受信し、受信したデータをCPU80に与える。たとえば、送信データとしては、ロボット12から中央制御装置14へのオペレータ呼出要求の信号(コマンド)であったり、ロボット12が行ったコミュニケーション行動についての動作履歴情報(履歴データ)などであったりする。このように、コマンドのみならず履歴データを送信するのは、メモリ84の容量を少なくするためと、消費電力を抑えるためである。この実施例では、履歴データはコミュニケーション行動が実行される度に、中央制御装置14に送信されたが、一定時間または一定量の単位で中央制御装置14に送信されるようにしてもよい。
さらに、CPU80は、バス82を介して無線タグ読取装置106が接続される。無線タグ読取装置106は、アンテナ(図示せず)を介して、無線タグ18(RFIDタグ)から送信される識別情報の重畳された電波を受信する。そして、無線タグ読取装置106は、受信した電波信号を増幅し、当該電波信号から識別信号を分離し、当該識別情報を復調(デコード)してCPU80に与える。図1によれば無線タグ18は、ロボット12が配置された会社の受付や一般家庭の居間などに居る人間(人間A)に装着され、無線タグ読取装置106は、通信可能範囲内の無線タグ18を検出する。なお、無線タグ18は、アクティブ型であってもよいし、無線タグ読取装置106から送信される電波に応じて駆動されるパッシブ型であってもよい。
図1に戻って、中央制御装置14は、当該ロボット遠隔操作システム10におけるオペレータの呼び出しを制御するコンピュータであり、ロボット12および操作端末16の状態を示す情報を管理する。中央制御装置14は、図示は省略するがCPUを含み、CPUにはメモリ14a,表示装置,入力装置および通信装置などが接続されている。中央制御装置14は、通信装置を介してネットワーク200に有線または無線で接続されている。メモリ14aには、当該中央制御装置14の動作を制御するための制御プログラムおよび必要なデータが記憶される。制御プログラムは、たとえば、ロボット12および操作端末16のそれぞれとの間で必要なデータやコマンドを送受信するための通信プログラムおよびロボット12からオペレータの呼出要求があったときに、オペレータ(操作端末16)を呼び出すための呼出プログラムなどを含む。
また、操作端末16は、コンピュータであり、図示は省略するがCPUを含み、CPUにはメモリ,表示装置,入力装置,スピーカ,マイクおよび通信装置などが接続される。操作端末16は、通信装置を介してネットワーク200に有線または無線で接続されている。メモリには、当該操作端末16の動作を制御するための制御プログラムおよび必要なデータが記録される。制御プログラムは、たとえば、ロボット12および中央制御装置14との間で必要なデータやコマンドを送受信するための通信プログラム、入力装置から入力された操作コマンドを検出する検出プログラムおよび表示装置に画像などを表示するための表示プログラムなどを含む。
ここで、中央制御装置14のメモリ14aには、ロボット12から送信されるコミュニケーション行動の履歴データなどが記録される。この実施例では、コミュニケーション行動の履歴データとしては、ビヘービア(行動)履歴記録テーブルデータおよび遠隔操作履歴記録テーブルデータの2種類がメモリ14aに記録される。ビヘービア履歴記録テーブルは、自律制御およびオペレータの遠隔操作によるロボット12のコミュニケーション行動についての履歴を記録し、遠隔操作履歴記録テーブルは、オペレータの遠隔操作によるロボット12のコミュニケーション行動についての履歴を記録する。
図4はビヘービア履歴記録テーブルの一例を示す図解図である。この図4を参照して、ビヘービア履歴記録テーブルには、BEFORE,VALUE,AFTER,場所,名前,年代および性別などの情報が記録される。BEFORE(変化前のビヘービア名)の欄には、後述するVALUEの値が変化される前においてロボット12が対話相手に対して行ったコミュニケーション行動(ビヘービア)のコマンド名が記録される。たとえば、「GREET」,「HEAR」および「AKUSHU」などのコマンド名が記録される。
ここで、GREETのコマンドが実行されると、ロボット12は挨拶についてのコミュニケーション行動を実行する。たとえば、ロボット12は、「おはよう」,「こんにちは」または「こんばんは」と発話しながら、お辞儀する。HEARのコマンドが実行されると、ロボット12は質問についてのコミュニケーション行動を実行する。たとえば、ロボット12は、「何をして遊ぼうか」または「どうかしましたか」と発話して、その後、対話相手の返答を待つ。AKUSHUのコマンドが実行されると、ロボット12は握手についてのコミュニケーション行動を実行する。たとえば、ロボット12は、手を差し出す。
また、図4では示されていないが、他にも「GOCHISOUSAMA」,「ZYAN」および「HUG」などのコマンドがある。GOCHISOUSAMAのコマンドが実行されると、ロボット12は食事の終了を意味する挨拶についてのコミュニケーション行動を実行する。たとえば、ロボット12は、「ごちそうさま」と発話しながら、手を合わせる。ZYANのコマンドが実行されると、ロボット12はジャンケンについてのコミュニケーション行動を実行する。たとえば、ロボット12は、「じゃんけん ぽん」と発話しながら、手を前に出す。HUGのコマンドが実行されると、ロボット12は抱擁についてのコミュニケーション行動を実行する。たとえば、ロボット12は、両手を前に出す。
図4に戻って、VALUE(戻り値)の欄には、BEFOREの欄に記録されたコマンドに従ったコミュニケーション行動に対する対話相手の行動や反応などが対応する数値で記録される。VALUEの数値は、それぞれ異なる意味や内容であり、各コマンド(コミュニケーション行動)に対応して予め決められている。この実施例では、変化前のビヘービア(コミュニケーション行動)に対する対話相手の反応(反応の有無も含む)について、予め実験等により得られた意味や内容を数値で識別可能にメモリ14a等に記録してある。
たとえば、GREETのコマンドが実行された場合には、対話相手の反応(反応なしを含む)に関らず、VALUEには「1(常に)」が記録される。
また、HEARのコマンドが実行された場合に、対話相手が「遊ぼう」などと言うと、VALUEには「1(遊ぼうといわれた)」が記録される。同様の場合に、対話相手が「○○に行きたいのですが」などと言うと、VALUEには「2(道案内を頼まれた)」が記録される。詳細な説明は省略するが、ロボット12は音声認識機能を備えており、たとえば、マイク66を通して入力された対話相手の音声に対応する音声信号をDPマッチング法やHMM(隠れマルコフモデル)法を用いて音声認識することにより、その対話相手の発話内容を認識することができる。
さらに、AKUSHUのコマンドが実行された場合に、対話相手がロボット12の球体56に触れると、VALUEには「1(握手された)」が記録される。同様の場合に、対話相手がロボット12の手に触れなければ、VALUEには「2(触れられなかった)」が記録される。ただし、ロボット12は、手つまり球体56Rまたは球体56Lに設けられた接触センサ58からの入力に基づいて握手された(触られた)かどうかを判断する。
また、図4では示されていない、「GOCHISOUSAMA」,「ZAYN」および「HUG」についても同様である。GOCHISOUSAMAのコマンドが実行された場合には、対話相手の反応(反応なしを含む)に関らず、VALUEには「1(常に)」が記録される。また、ZYANのコマンドが実行された場合には、対話相手の反応(反応なしを含む)に関らず、VALUEには「1(常に)」が記録される。さらに、HUGのコマンドが実行された場合には、対話相手の反応(反応なしを含む)に関らず、VALUEには「1(常に)」が記録される。
図4に戻って、AFTER(変化後のビヘービア名)の欄には、VALUEの欄に記録した対話相手の行動(反応なしを含む)の後に、ロボット12が行ったコミュニケーション行動のコマンド名が記録される。たとえば、「AKUSHU」,「GUIDE」,「NAME」,「BYE」および「HUG」などが記録される。
ここで、GUIDEのコマンドが実行されると、ロボット12は道案内についてのコミュニケーション行動を実行する。たとえば、ロボット12は、HEARのコマンドを実行することで得た(質問された)目的地まで対話相手を案内する。ただし、ロボット12は、予め決められている目的地まで対話相手を案内するようにしてもよい。また、NAMEのコマンドが実行されると、そのロボット12自身の名前を発話するコミュニケーション行動を実行する。たとえば、ロボット12は、或る対話相手に自身の名前(ロボビーR1など)を伝える。また、BYEのコマンドが実行されると、コミュニケーション終了についてのコミュニケーション行動を実行する。たとえば、ロボット12は、「さよなら」,「またね」または「ありがとうございました」と発話する。
なお、「AKUSHU」および「HUG」のコマンドは、上述したとおりであるため、重複した説明は省略する。
また、図4では示されていないが、他にも「SONG」,「DRAG」,「FROM」,「PATROL」および「KISS」などのコマンドがある。SONGのコマンドが実行されると、ロボット12は歌唱についてのコミュニケーション行動を実行する。たとえば、ロボット12は、メモリ84に記録された音楽データ(たとえば、mp3ファイル形式などのデータ)に再生処理を施し、スピーカ64から音声として出力する。また、DRAGのコマンドが実行されると、ロボット12は薬の服用についてのコミュニケーション行動を実行する。たとえば、ロボット12は、或る対話相手に対して「薬を飲んでね」と発話することにより、薬を服用するように促す。また、FROMのコマンドが実行されると、ロボット12は出身地の質問についてのコミュニケーション行動を実行する。たとえば、ロボット12は、「どこからいらっしゃいましたか」と発話して、その後、対話相手の返答を待つ。また、PATROLのコマンドが実行されると、ロボット12は巡回についてのコミュニケーション行動を実行する。たとえば、ロボット12は、自身が置かれている空間(環境)を、予め決められたコースで移動する。さらに、KISSのコマンドが実行されると、ロボット12はスキンシップについてのコミュニケーション行動を実行する。たとえば、ロボット12は、対話相手とだっこなどの遊びを行い、「キスしてね」と発話する。
図4に戻って、場所の欄には、ロボット12が配置されている場所(対応するビヘービアを行った場所)が記録される。たとえば、「外」および「家庭内」などが記録される。「外」は、ロボット12が配置されている場所が、屋外で行われる或るイベント会場や家以外の建物などであることを意味する。「家庭内」は、ロボット12が配置されている場所が、或る家の中であることを意味する。名前の欄には、ロボット12がビヘービア(コミュニケーション行動)を行った対話相手の名前が記録される。たとえば、「佐藤三郎」,「大村四郎」,「山田一郎」および「鈴木二郎」などが記述される。年代の欄には、対話相手の年代が記録される。たとえば、年代は、対話相手の年齢に基づいて、「大人」または「子ども」に分けて記録される。ただし、年代は、「10代」,「20代」,…,「60代以上」などのように細かく分けるようにしてもよい。性別の欄には、対話相手の性別が記録される。具体的には、「男性」,「女性」に分けて記憶される。
ここで、ビヘービア履歴記録テーブル(後述する遠隔操作履歴テーブルの場合も同様)に記録される名前,年代および性別の情報は、対話相手が所持する無線タグ18から送信される識別情報(タグID)に基づいて取得される。たとえば、中央制御装置14のメモリ14aなどにタグIDに対応して名前,年代(年齢)および性別の情報が記憶される。これは、中央制御装置14(ロボット制御装置システム10)の管理者がロボット12の対話相手となり得る者(ロボット12のサービスの提供を受ける者)からそのような情報を取得して、中央制御装置14に登録する。ただし、対話相手となり得る者の名前,年代および性別の情報は、中央制御装置14がアクセス可能なデータベース(図示せず)に登録されるようにしてもよい。
後述するように、ロボット12は対話相手が所持する無線タグ18のタグIDを検出して、中央制御装置14に送信する。中央制御装置14は、タグIDを受信すると、これに対応する名前,年代および性別の情報をメモリ14a等から取得し、ビヘービア履歴記録テーブルに記録する。
ただし、場所、名前、年代および性別のような対話相手に関する情報(属性情報)のうち、名前、年代および性別の情報については、取得できない情報もある。したがって、情報を取得できない場合には、対応する箇所を空欄にしてある。
なお、個人を同定(特定)する手段としては、顔画像認識,静脈認識,虹彩認識および指紋認識などのバイオメトリクス認識を用いてもよい。
このようなロボット制御システム10では、上述したように、自律制御やオペレータの遠隔操作により、ロボット12はコミュニケーション行動を実行する。しかし、オペレータが遠隔操作する場合であっても、同じ状況では、ロボット12に実行させるコミュニケーション行動が繰り返される(同じである)ことがある。したがって、この実施例では、遠隔操作の場合の履歴情報から異なる状況の各々についてのデータベースを生成し、生成したデータベースを選択的に参照して、自律制御することにより、オペレータによる遠隔操作の回数(頻度)をできるだけ減らすようにしてある。
ただし、この実施例では、状況とは、特定の個人とコミュニケーション行動する場合、特定の年代および性別の対話相手とコミュニケーション行動する場合、および特定の場所でコミュニケーション行動する場合を意味する。
図5は、遠隔操作履歴記録テーブルを示す図解図である。この図5を参照して、遠隔操作履歴記録テーブルには、BEFORE,VALUE,AFTER,場所,名前,年代および性別などの情報が記録される。また、上述したとおり、遠隔操作履歴記録テーブルは、オペレータの遠隔操作によるロボット12のコミュニケーション行動の動作履歴情報を記録する。この実施例では、ビヘービア履歴記録テーブルに記録された動作履歴情報のうち、オペレータによってロボット12の遠隔操作が行われた場合の動作履歴情報のみが遠隔操作履歴記録テーブルに記録される。なお、各欄に記録される情報は、図4に示したビヘービア履歴記録テーブルと同様のため重複した説明は省略する。
この遠隔操作履歴記録テーブルから、3種類のデータセットが抽出される。具体的には、個人名が記録されているデータを抽出したデータセットDp,年齢・性別が記録されているデータを抽出したデータセットDas,他の情報(場所など)が記録されているデータを抽出したデータセットDnである。図6に示すように、データセットDpは、図5に示した遠隔操作履歴記録テーブルにおいて名前が記録されている動作履歴情報を抽出して生成される。また、図7に示すように、データセットDasは、図5に示した遠隔操作履歴記録テーブルにおいて、年代および性別が記録されている動作履歴情報を抽出して生成される。さらに、図8に示すように、データセットDnは、図5に示した遠隔操作履歴テーブルにおいて、場所が記録されている動作履歴情報を抽出して生成される。
次に、上述したように、この実施例では、中央制御装置14は、データセットDp,DasおよびDnのそれぞれから、各状況についてのデータベース(DB)を生成(構築)する。この実施例では、中央制御装置14は、データセットDpに基づいて個人用ビヘービア遷移DBを構築し、データセットDasに基づいて年代・性別依存ビヘービア遷移DBを構築し、そして、データセットDnに基づいて場所依存ビヘービア遷移DBを構築する。
図9は、個人用ビヘービア遷移DBの一例を示す図解図である。この個人用ビヘービア遷移DBは、上述したデータセットDpにおいて、特定の個人(ここでは、山田一郎)についてフィルタリングしたデータに基づいて生成される。図9からも分かるように、個人用ビヘービア遷移DBには、場所,BEFORE,VALUE,AFTERの情報が記録されるとともに、COUNT(回数)の情報が記録される。場所,BEFORE,VALUEおよびAFTERの情報については上述したとおりであるため、重複した説明は省略する。COUNTの情報は、データセットDpを特定の個人についてフィルタリングしたデータにおいて、場所,BEFORE,VALUEおよびAFTERの情報が示す内容が同じものについての回数を示す。
図9に示す例では、場所の情報が「外」である場合に、BEFOREの情報が「AKUSHU」で、「VALUE」の情報が「1(握手された)」で,AFTERの情報が「NAME」であるビヘービアの遷移が20回であることが分かる。また、場所の情報が「家庭内」である場合に、BEFOREの情報が「GOCHISOUSAMA」で、VALUEの情報が「1(常に)」で、AFTERの情報が「DRUG」であるビヘービアが30回であることが分かる。
なお、説明は省略するが、他の場合についても同様である。また、図示は省略するが、他の特定の個人(たとえば、鈴木二郎や佐藤三郎)についても同様の個人用ビヘービア遷移DBを生成することができる。
図10は、年代・性別依存ビヘービア遷移DBである。この年代・性別依存ビヘービア遷移DBは、上述したデータセットDasにおいて、或る年代と性別と(ここでは、大人・男性)についてフィルタリングしたデータに基づいて生成される。図10からも分かるように、年代・性別依存ビヘービア遷移DBには、場所,BEFORE,VALUE,AFTERの情報が記録されるとともに、COUNTの情報が記録される。これらの情報は上述したとおりであるため、重複した説明は省略する。
図10に示す例では、場所の情報が「外」である場合に、BEFOREの情報が「AKUSHU」で、VALUEの情報が「2(触れられなかった)」であり、AFTERの情報が「BYE」であるビヘービアの遷移が5回であることが分かる。また、場所の情報が「家庭内」である場合に、BEFOREの情報が「ZYAN」で、VALUEの情報が「1(常に)」で、AFTERの情報が「PATROL」であるビヘービアの遷移が3回であることが分かる。
なお、説明は省略するが、他の場合についても同様である。また、図示は省略するが、他の年代・性別(大人・女性,子ども・男性,子ども・女性)についても同様の年代・性別依存ビヘービア遷移DBを生成することができる。
図11は、場所依存ビヘービアDBである。この場所依存ビへービア遷移DBは、上述したデータセットDnにおいて、或る場所(ここでは、外)についてフィルタリングしたデータに基づいて生成される。図11からも分かるように,場所依存ビヘービア遷移DBには、BEFORE,VALUE,AFTERの情報が記録されるとともに、COUNTの情報が記録される。これらの情報は上述したとおりであるため、重複した説明は省略する。
図11に示す例では、場所の情報が「外」である場合に、BEFOREの情報が「AKUSHU」で、VALUEの情報が「1(握手された)」であり、AFTERの情報が「FROM」であるビヘービア遷移が5回であることが分かる。また、場所の情報が「外」である場合に、BEFOREの情報が「HUG」で、VALUEの情報が「1(常に)」で、AFTERの情報が「KISS」であるビヘービアの遷移が10回であることが分かる。
なお、説明は省略するが、他の場合についても同様である。また、図示は省略するが、他の場所(家庭内など)についても同様の場所依存ビヘービア遷移DBを生成することができる。
具体的には、中央制御装置14のCPUは、図12−図16に示す処理を含む、複数の処理を並行的に実行することで、複数のデータベースを構築する。また、ロボット12のCPU80は、図17に示す自律行動処理を含む、複数の処理を並列的に実行する。
図12は、履歴記憶処理を示すフロー図である。図12に示すように、中央制御装置14のCPUは、履歴記憶処理を開始すると、ステップS1で、停止命令が有るか否かを判断する。たとえば、中央制御装置14の管理者によって、停止命令の指示が与えられたか否かを判断する。ステップS1でYESであれば、つまり停止命令が有れば、そのまま履歴記憶処理を終了する。一方、ステップS1でNOであれば、つまり停止命令が無ければ、ステップS3で、ロボット12のビヘービアが変化したか否かを判断する。つまり、ロボット12からコミュニケーション行動の動作履歴情報が送信されたか否かを判断する。ステップS3でNOであれば、つまりロボット12のビヘービアが変化していなければ、ステップS1に戻る。一方、ステップS3でYESであれば、つまりロボット12のビヘービアが変化すれば、ステップS5で、BEFORE,VALUE,AFTERおよび場所の値をメモリ14aのバッファ領域に一時的に記録させる。
次のステップS7では、個人同定が行われているか否かを判断する。ここでは、ステップS3においてビヘービアが変化したと判断されたロボット12がコミュニケーションを行う対話相手の名前,年代および性別などの情報が分かるか否かを判断する。上述したように、ロボット12は、対話相手が所持する無線タグ18から送信されるタグIDを受信し、これを中央制御装置14に送信する。中央制御装置14は、メモリ14aを参照して、タグIDに対応する、対話相手の名前,年代および性別などの情報を取得する。ただし、上述したように、名前、年代および性別などの情報は全部または一部について取得できない場合もある。ステップS7でYESであれば、つまり、個人同定が行われていれば、ステップS9で、名前,年代および性別などをメモリ14aのバッファ領域に一時的に記録して、ステップS13に進む。一方、ステップS7でNOであれば、つまり個人同定が行われていなければ、そのままステップS11に進む。
ステップS11では、メモリ14aのバッファ領域に一時的に記録されたデータをビヘービア履歴記録テーブル(図4参照)に記録する。つまり、ステップS7でNOの場合には、BEFORE,VALUE,AFTERおよび場所の情報がビヘービア履歴記録テーブルに記録される。一方、ステップS7でYESの場合には、BEFORE,VALUE,AFTERおよび場所の情報に加えて、対話相手の名前、年代および性別などがビヘービア履歴記録テーブルに記録される。
次のステップS13では、ビヘービア(行動)が遠隔操作によって変化したか否かを判断する。詳細な説明は省略するが、上述したように、中央制御装置14は、ロボット12と操作端末16(オペレータ)とを仲介するため、中央制御装置14では、操作端末16が遠隔操作中であるかどうかの情報やどの操作端末16がどのロボット12を遠隔操作しているかについての情報を管理している。したがって、今回行動履歴情報を送信してきたロボット14が遠隔操作中(遠隔操作モード)であるか否かを知ることができる。これにより、ビヘービアが遠隔操作によって変化したか否かを判断するのである。
ステップS13でNOであれば、つまりビヘービアが遠隔操作によって変化していなければ、ロボット12がオペレータによって遠隔操作されていない(自律制御モード)と判断して、そのままステップS1に戻る。一方、ステップS13でYESであれば、つまりビヘービアが遠隔操作によって変化していれば、ロボット12がオペレータによって遠隔操作されていると判断して、ステップS15で、メモリ14aのバッファ領域に一時的に記録されたデータを遠隔操作履歴記憶テーブルに記録して、ステップS1に戻る。つまり、ステップS15では、ステップS11でビヘービア履歴記憶テーブルに記録したデータを遠隔操作履歴記憶テーブルにも記録しているのである。
図13は、データベース構築処理を示すフロー図である。図13に示すように、中央制御装置14のCPUは、データベース構築処理を実行すると、ステップS31で、中止命令が有るか否か判断する。ここでは、たとえば、中央制御装置14の管理者によって、データベース構築の中止命令の指示が入力されたか否かを判断する。ステップS31でYESであれば、つまり中止命令が有れば、データベース構築処理を終了する。一方、ステップS31でNOであれば、つまり終了指示が無ければ、ステップS33で、遠隔操作履歴記録テーブルに個人名つきの新しい履歴データが記録されたか否かを判断する。つまり、遠隔操作履歴記録テーブルに対話相手の名前を含む動作履歴情報が記録されたか否かを判断する。
ステップS33でYESであれば、つまり遠隔操作履歴記録テーブルに個人名つきの新しい履歴データが記録されれば、ステップS37で、後述するデータセットDpから個人用ビヘービア遷移DBの構築処理(図14参照)を実行して、ステップS39に進む。一方、ステップS33でNOであれば、つまり遠隔操作履歴テーブルに個人名つきの新しい履歴データが記録されていなければ、ステップS35で、遠隔操作履歴記録テーブルに個人名なしの新しい履歴データが記録されたか否かを判断する。つまり、遠隔操作履歴記録テーブルに対話相手の名前の情報を含まない動作履歴情報が記録されたか否かを判断する。ステップS35でNOであれば、つまり遠隔操作履歴記録テーブルに個人名なしの新しい履歴データが記録されていなければ、ステップS31に戻る。一方、ステップS35でYESであれば、つまり遠隔操作履歴記録テーブルに個人名なしの履歴データが記録されれば、ステップS39に進む。
ステップS39では、新しい履歴データに年代および性別の情報が記録さているか否かを判断する。ステップS39でNOであれば、つまり新しい履歴データに年代および性別の情報が記録されていなければ、そのままステップS43に進む。一方、ステップS39でYESであれば、つまり新しい履歴データに年代および性別の情報が記録されていれば、ステップS41で、後述するデータセットDasから年代・性別依存ビヘービアDBの構築処理(図15参照)を実行して、ステップS43に進む。
ステップS43では、年代および性別が記録されていない履歴データが存在するか否かを判断する。ステップS43でNOであれば、つまり年代および性別が記録されていない履歴データが存在しなければ、ステップS31に戻る。一方、ステップS43でYESであれば、つまり年代および性別が記録されていない履歴データが存在すれば、ステップS45で、後述するデータセットDnから場所依存ビヘービア遷移DBの構築処理(図16参照)を実行して、ステップS31に戻る。
なお、この実施例では、新しい動作履歴情報が記録される度にデータベース構築処理(S37,S41,S45)を行うようにしてあるが、中央制御装置14のCPUの処理負荷を軽減するために、一定の時間(たとえば、3時間)が経過するか、または一定の数(たとえば、100個)の新しい動作履歴情報が記録される毎に、データベース構築処理が行われるようにしてもよい。
図14は、図13に示したステップS37の個人用ビヘービア遷移DBの構築処理のフロー図である。図14に示すように、中央制御装置14のCPUは、個人用ビヘービア遷移DBの構築処理を開始すると、ステップS61で、変数nを初期化する(n=1)。この、変数nは、データセットDpに含まれる個人(個人名)NNa(n=1,2,…,Na)を識別するための変数である。ただし、変数iの最大値Naは、データセットDpに含まれる人間の総人数に相当する。
次のステップS63では、変数nが最大値Naより大きいか否かを判断する。つまり、データセットDpに含まれるすべての個人名についての個人用ビヘービア遷移DBを構築したかどうかを判断する。ステップS63でYESであれば、すなわち、変数nが最大値Naより大きければ、図13に示したデータベース構築処理にリターンする。一方、ステップS63でNOであれば、つまり変数nが最大値Na以下であれば、ステップS65で他の変数i,j,k,pを初期化する(i=1,j=1,k=1,p=1)。ここで、変数iは、場所NL(i=1,2,…,L)を識別するための変数である。ただし、変数iの最大値Lは、データセットDpに含まれる場所の種類の総数に相当する。また、変数jは、BEFOREのコマンド名NB(j=1,2,…,B)を識別するための変数である。ただし、変数jの最大値Bは、データセットDpに含まれるBEFOREのコマンド名の種類の総数に相当する。さらに、変数kは、VALUEの戻り値NV(k=1,2,…,V)を識別するための変数である。ただし、変数kの最大値Vは、データセットDpに含まれるVALUEの戻りの最大値に相当する。さらにまた、変数pは、AFTERのコマンド名NAfp(p=1,2,…,Af)を識別するための変数である。ただし、変数pの最大値Afは、データセットDpに含まれるAFTERのコマンド名の総数に相当する。
次のステップS67では、配列Transition[1,2,…,m][1,2,…,m][1,2,…,m][1,2,…,m]を初期化する。つまり、配列Transition[1,2,…,m][1,2,…,m][1,2,…,m][1,2,…,m]のそれぞれの配列に0を設定する。
続いて、ステップS69では、変数iが最大値Lよりも大きいか否かを判断する。つまり、すべての場所NLについて検索したかどうかを判断する。ステップS69でNOであれば、つまり変数iが最大値L以下であれば、ステップS71で、変数jが最大値Bよりも大きいか否かを判断する。つまり、すべてのBEFOREのコマンド名NBについて検索したかどうかを判断する。ステップS71でYESであれば、つまり変数jが最大値Bよりも大きければ、ステップS81で、変数iをインクリメントするとともに、変数j,変数kおよび変数pのそれぞれを初期化(i=1,k=1,p=1)して、ステップ69に戻る。一方、ステップS71でNOであれば、つまり変数jが最大値B以下であれば、ステップS73で変数kが最大値Vよりも大きいか否かを判断する。つまり、VALUEの戻り値NVが最大値を超えたかどうかを判断する。
ステップS73でYESであれば、つまり変数kが最大値Vよりも大きければ、ステップS83で、変数jをインクリメントするとともに、変数kおよび変数pのそれぞれを初期化(k=1,p=1)して、ステップS71に戻る。一方、ステップS73でNOであれば、つまり変数kが最大値V以下であれば、ステップS75で、変数pが最大値Afよりも大きいか否かを判断する。つまり、すべてのAFTERのコマンド名NAfを検索したかどうかを判断する。
ステップS75でYESであれば、つまり変数pが最大値Afより大きければ、ステップS85で、変数kをインクリメントするとともに、変数pを初期化(p=1)して、ステップS73に戻る。一方、ステップS75でNOであれば、つまり変数pが最大値Af以下であれば、ステップS77で、データセットDpに含まれるデータのうち、変数i,j,k,pで指定されるデータの数(個数)を配列Transition[NL][NB][NV][NAf]に対して設定し、ステップS79で、変数pをインクリメントして、ステップS75に戻る。
たとえば、変数(i,j,k,p)=(1,1,1,1)であり、この変数i,j,k,pに対応する、場所NL=外,BEFOREのコマンド名NB=AKUSHU,VALUEの戻り値NV=1(握手された),AFTERのコマンド名NAfp=NAMEであり、データセットDpをサーチした結果、このようなビヘービアの遷移についてのデータの個数が20個見つかった場合には、ステップS77では、配列Transition[NL][NB][NV][NAf]に「20」が設定される。
つまり、ステップS77では、中央制御装置14のCPUは、データセットDpを先頭から末尾までサーチし、変数i,j,k,pで決定されるビヘービアの遷移すなわち配列Transition[NL][NB][NV][NAf]と一致するビヘービアの遷移についてのデータを検出するたびに、当該配列Transition[NL][NB][NV][NAf]に対応する回数(Count)を1加算する。
なお、すべての配列Transition[NL][NB][NV][NAf]についてサーチするため、データセットDpに存在しない配列Transition[NL][NB][NV][NAf]も存在する。かかる場合の回数は「0」である。回数が「0」であるデータに関しては、その後のロボット12の自律制御に利用されることがないため、図9に示したように、個人用ビヘービア遷移DB(年代・性別依存ビヘービア遷移DBと場所依存ビヘービア遷移DBも同様。)では、回数が「0」のビヘービアの遷移についてのデータは削除してある。
図14に戻って、ステップS69でYESであれば、つまり変数iが最大値Lよりも大きければ、ステップS87で、配列Transition[1,2,…,m][1,2,…,m][1,2,…,m][1,2,…,m]の値をテーブルNNaに書き込む。ここで、テーブルNNaとは、変数nで指定される個人名(個人)のテーブルを意味する。たとえば、n=1で指定される個人名が山田一郎である場合に、テーブルNNa1は、山田一郎の個人用ビヘービア遷移DBである。そして、次のステップS89では、変数nをインクリメントして、ステップS63に戻る。つまり、次の(山田一郎とは別の)個人名についての個人用ビヘービア遷移DBの構築処理に移る。
図15は、図13に示したステップS41の年代・性別依存ビヘービア遷移DBの構築処理を示すフロー図である。なお、この年代・性別依存ビヘービア遷移DBの構築処理は、上述した個人用ビヘービア遷移DBの構築処理とほぼ同じであるため、同様の処理については簡単に説明することにする。
図15に示すように、中央制御装置14のCPUは、年代・性別依存ビヘービア遷移DBの構築処理を開始すると、ステップS101で、変数age,sexを初期化する(age=1,sex=1)。この変数ageは、データセットDasに含まれる年代NAgage(age=1,2)を識別するための変数である。この実施例では、年代を子どもと大人と分類してあるため、変数ageは1(子ども)または2(大人)である。また、変数sexは、データセットDasに含まれる性別NSsex(sex=1,2)を識別するための変数である。この実施例では、性別を男性と女性とに分類してあるため、変数sexは1(男性)または2(女性)である。
次のステップS103では、変数sexが最大値2より大きいか否かを判断する。つまり、データセットDasに含まれる男性と女性との両方について検索したかどうかを判断する。ステップS103でNOであれば、つまり変数sexが最大値2以下であれば、ステップS109に進む。一方、ステップS103でYESであれば、つまり変数sexが最大値2よりも大きければ、ステップS105で、変数ageをインクリメントするとともに、変数sexを初期化して(sex=1)、ステップS107で、変数ageが最大値2よりも大きいか否かを判断する。つまり、データセットDasに含まれる子どもと大人との両方について検索したかどうかを判断する。ステップS107でYESであれば、つまり変数ageが最大値2よりも大きければ、図13に示したデータベース構築処理にリターンする。一方、ステップS107でNOであれば、つまり変数ageが最大値2以下であれば、ステップS109に進む。
また、ステップS109では、変数i,j,k,pを初期化する(i=1,j=1,k=1,p=1)。なお、変数i,j,k,pは、いずれも上述の個人用ビヘービア遷移DB構築処理(図14参照)で説明したため、重複した説明は省略する。次のステップS111では、配列Transtion[1,2,…,m][1,2,…,m][1,2,…,m][1,2,…,m]を初期化する。次のステップS113では、変数iが最大値Lよりも大きいか否かを判断する。ステップS113でNOであれば、つまり変数iが最大値L以下であれば、ステップS115で変数jが最大値Bよりも大きいか否かを判断する。ステップS115でYESであれば、つまり変数jが最大値Bよりも大きければ、ステップS125で、変数iをインクリメントするとともに、変数j,変数kおよび変数pのそれぞれを初期化して、ステップ113に戻る。一方、ステップS115でNOであれば、つまり変数jが最大値B以下であれば、ステップS117で、変数kが最大値Vよりも大きいか否かを判断する。
ステップS117でYESであれば、つまり変数kが最大値Vよりも大きければ、ステップS127で、変数jをインクリメントするとともに、変数kおよび変数pのそれぞれを初期化して、ステップS115に戻る。一方、ステップS117でNOであれば、つまり変数kが最大値以下であれば、ステップS119で、変数pが最大値Afよりも大きいか否かを判断する。ステップS119でYESであれば、つまり変数pが最大値Afよりも大きければ、ステップS129で、変数kをインクリメントするとともに、変数pを初期化して、ステップS117に戻る。一方、ステップS119でNOであれば、つまり変数pが最大値Af以下であれば、ステップS121で、データセットDasに含まれるデータのうち、変数i,j,k,pで指定されるデータの数を、配列Transition[NL][NB][NV][NAf]に設定する。そして、ステップS123で、変数pをインクリメントして、ステップS119に戻る。
また、ステップS113でYESであれば、つまり変数iが最大値Lよりも大きければ、ステップS131で、配列Transition[1,2,…,m][1,2,…,m][1,2,…,m][1,2,…,m]の値をテーブルNAgageNSsexに書き込む。ここで、テーブルNAgageNSsexは変数ageおよび変数sexで指定する年代および性別のテーブルを意味する。たとえば、変数(age,sex)=(1,1)であれば、テーブルNAgNSは、子どもの男性についての年代・性別依存ビヘービア遷移DBを意味する。次のステップS133では、変数sexをインクリメントし、ステップS103に戻る。つまり、次の性別(女性)についての年代・性別依存ビヘービア遷移DBの構築処理に移行する。
図16は、図13に示したステップS45の場所依存ビヘービア遷移DBの構築処理を示すフロー図である。なお、この図16に示す場所依存ビヘービア遷移DBの構築処理も、上述した個人用ビヘービア遷移DBの構築処理とほぼ同じであるため、同様の処理については簡単に説明することにする。
図16に示すように、中央制御装置14のCPUは、場所依存ビヘービア遷移DBの構築処理を開始すると、ステップS201で、変数iを初期化する(i=1)。なお、変数iについては、上述してあるため、重複した説明は省略する。次のステップS203では、変数iが最大値Lより大きいか否かを判断する。
ステップS203でYESであれば、つまり変数iが最大値Lよりも大きければ、すべての場所についての場所依存ビヘービア遷移DBを構築したと判断して、図13に示したデータベース構築処理にリターンする。一方、ステップS203でNOであれば、つまり変数iが最大値L以下であれば、ステップS205で、他の変数j,k,pを初期化する(j=1,k=1,p=1)。この変数j,k,pについても上述してあるため、重複した説明は省略する。次のステップS207では、配列TranstionL[1,2,…,m][1,2,…,m][1,2,…,m]を初期化する。つまり、配列TranstionL[1,2,…,m][1,2,…,m][1,2,…,m]のそれぞれの配列に0を設定する。
続いて、ステップS209では、変数jが最大値Bよりも大きいか否かを判断する。ステップS209でNOであれば、つまり変数jが最大値B以下であれば、ステップS211で、変数kが最大値Vよりも大きいか否かを判断する。ステップS211でYESであれば、つまり変数kが最大値Vより大きければ、ステップS219で、変数jをインクリメントするとともに、変数kおよび変数pを初期化して、ステップS209に戻る。一方、ステップS211でNOであれば、つまり変数kが変数Vより大きくなければ、ステップS213で変数pが最大値Afよりも大きいか否かを判断する。
ステップS213でYESであれば、つまり変数pが最大値Afよりも大きければ、ステップS221で、変数kをインクリメントするとともに、変数pを初期化して、ステップS211に戻る。一方、ステップS213でNOであれば、つまり変数pが最大値Af以下であれば、ステップS215で、データセットDnに含まれるデータのうち、変数j,k,pで指定されるデータの数(個数)を、配列TransitionL[NB][NV][NAf]に設定する。次のステップS217では、変数pをインクリメントして、ステップS213に戻る。
また、ステップS209でYESであれば、つまり変数jが最大値Bよりも大きければ、ステップS223で、配列TranstionL[1,2,…,m][1,2,…,m][1,2,…,m]の値をテーブルNLに書き込み、ステップS225で、変数iをインクリメントして、ステップS203に戻る。ただし、ステップS223におけるテーブルNLは、変数iで指定する場所についてのテーブルを意味する。たとえば、i=1で指定する場所が「外」である場合に、テーブルNLは、場所が「外」である場合についてのテーブルを意味する。つまり、場所依存ビヘービア遷移DBには、変数iの最大値Lで示される個数分の(場所毎の)テーブルが記憶される。
図17は、図1に示したロボット12のCPU80の全体処理を示すフロー図である。図17に示すように、ロボット12のCPU80は、全体処理を実行すると、ステップS301で、停止命令が有るか否かを判断する。ここでは、オペレータからの停止命令が入力されたか否かを判断する。ステップS301でYESであれば、つまり停止命令が有れば、ロボット12の全体処理を終了する。一方、ステップS301でNOであれば、つまり停止命令が無ければ、ステップS303で、個人を特定できたか否かを判断する。
ここでは、たとえば、ロボット12は、対話相手が所持する無線タグ18のタグIDを検出し、検出したタグIDを中央制御装置14に送信する。中央制御装置14は、タグIDを受信すると、メモリ14aに記憶された個人名,年代(年齢)および性別に関するデータベース(図示せず)を参照して、タグIDに対応する個人名,年代,性別の情報を検出する。そして、中央制御装置14は、検索した結果を、ロボット12に送信する。このとき、ロボット12は、中央制御装置14から送信された情報に個人名が含まれている場合に、個人を特定できたと判断する。ただし、メモリ14aに、タグIDに対応して個人名,年代,性別のいずれの情報も登録されていない場合には、中央制御装置14は、情報が無い旨のメッセージをロボット12に送信する。
ステップS303でYESであれば、つまり個人を特定できれば、ステップS305で、利用するDBを個人用ビヘービア遷移DBに設定して、図18に示すステップS313に進む。ただし、ここで利用する個人用ビヘービア遷移DBは、特定された個人についてのDBである。一方、ステップS303でNOであれば、つまり個人を特定できなければ、ステップS307で、年代および性別の情報を取得できたか否かを判断する。つまり、中央制御装置14から送信された情報に、個人名は含まれていないが、年代および性別が含まれているか否かを判断する。
ステップS307でYESであれば、つまり年代および性別の情報を取得できれば、ステップS309で、利用するDBを年代・性別依存ビヘービアDBに設定して、ステップS313に進む。ただし、ここで利用する年代・性別依存ビヘービアDBは、取得された年代および性別についてのDBである。一方、ステップS307でNOあれば、つまり年代および性別の情報を取得できなければ、ステップS311で、利用するDBを場所依存ビヘービア遷移DBに設定して、ステップS313に進む。ただし、ここで利用する場所依存ビヘービア遷移DBは、対話相手(ロボット12)が現在存在する場所についてのDBである。詳細な説明は省略するが、このロボット12が現在存在する場所は、ロボット制御システム10の使用者等によって予め設定され、ロボット12内部のメモリ(図示せず)に記憶される。そして、中制御装置14には、ロボット12内部のメモリに記憶された場所の情報が、履歴データとともに送信される。
図18に示すステップS313では、現在のビヘービアとVALUEとに対応するデータがDBに存在するか否かを判断する。つまり、ロボット12が対話相手に行うコミュニケーション行動についてのコマンド名がBEFOREの欄に記述されるとともに、そのコミュニケーション行動に対する対話相手の行動が示す戻り値がVALUEの欄に記述されているデータが設定したDB内に存在するか否かを判断する。ステップS313でNOであれば、つまり現在のビヘービアとVALUEとに対応するデータがDBに存在しなければ、ステップS315で、オペレータを呼び出し、ステップS317で、遠隔操作処理を実行する。つまり、遠隔操作モードに切り替えられる。たとえば、ロボット12は、オペレータの呼出信号を中央制御装置14に送信し、中央制御装置14によって選択されたオペレータが操作端末16を操作することにより、遠隔操作される。なお、遠隔操作処理を終了すると、ステップS329で、履歴データを中央制御装置14に送信して、ステップS301に戻る。
また、ステップS313でYESであれば、つまり現在のビヘービアとVALUEとに対応するデータがDBに存在すれば、ステップS319で、そのデータに対応するCOUNTが一定数X(たとえば、30)より大きいか否かを判断する。ステップS319でYESであれば、つまりCOUNTの値が一定数Xよりも大きければ、そのままステップS323に進む。一方、ステップS319でNOであれば、つまりCOUNTの値が一定数X以下であれば、ステップS321で、COUNTの値の割合がY(たとえば、30)%より大きいか否かを判断する。ただし、COUNTの値の割合は、設定されたDBに記述されたCOUNTの総数に対する当該データに記述されたCOUNTが示す数の割合である。
ステップS321でNOであれば、つまりCOUNTの値の割合がY%以下であれば、ステップS315に進む。一方、ステップS321でYESであれば、つまりCOUNTの値の割合がY%よりも大きければ、自律制御モードに切り替えられ、ステップS323で、対応する遷移情報をDBから取得する。具体的には、ステップS319またはS321でYESと判断されたデータのAFTERに記述されたコマンド名を取得する。そして、ステップS325では、ステップS323で取得した遷移情報(ここでは、AFTERのコマンド名)に従い動作を決定する。図示は省略するが、ここでは、決定されたコマンド名に従うコミュニケーション行動(ビヘービア)が実行される。
次のステップS327では、動作が終了したか否かを判断する。つまり、ロボット12が、ステップS325で決定された動作(コミュニケーション行動)を終了したか否かを判断する。ステップS327でNOであれば、つまり動作が終了していなければ、ステップS327に戻って、動作が終了するのを待機する。一方、ステップS327でYESであれば、つまり動作が終了すれば、ステップS329に進む。
この実施例によれば、遠隔操作による動作履歴情報に基づいて個人名、年代および性別、場所のような環境に応じたデータベースを作成し、いずれかのデータベースを参照して、コミュニケーション行動を決定するので、オペレータの操作なしに自律行動する機会を増加させることができる。このため、オペレータが遠隔操作する回数や頻度を出切るだけ低減することができる。
なお、この実施例では、個人用ビヘービア遷移DB,年代・性別依存ビヘービア遷移DBおよび場所依存ビヘービア遷移DBを作成し、これらを選択的に利用するため、たとえば、異なる場所にこのロボット制御システム(ロボット)が配置される場合であっても、ロボットは、特定に個人や特定の年代・個人に応じたサービスを提供することができ、また、個人や年代・性別を知ることができなくても、場所毎に適切なサービスを提供することができる。
また、この実施例では、ロボットは、対話相手の個人名等の情報を中央制御装置に問い合わせるようにしてあるが、中央制御装置のメモリに記憶された個人名,年代(年齢)および性別に関するデータベースと同様のデータベースをロボットのメモリに記憶しておいて、ロボット自身で、個人名,年代,性別の情報を取得できるようにしてもよい。
図1はこの発明の一実施例のロボット制御システムの概要を示す図解図である。 図2は図1に示すロボットの外観を正面から見た図解図である。 図3は図1に示すロボットの電気的な構成を示すブロック図である。 図4は図1に示す中央制御装置のメモリに記憶されるビヘービア履歴記録テーブルの一例を示す図解図である。 図5は図1に示す中央制御装置のメモリに記憶される遠隔操作履歴記録テーブルの一例を示す図解図である。 図6は、図1に示す中央制御装置のメモリに記憶される遠隔操作履歴記録テーブルから個人の名前が記録された動作履歴情報を抽出したデータセットの一例を示す図解図である。 図7は、図1に示す中央制御装置のメモリに記憶される遠隔操作履歴記録テーブルから年齢および性別が記録された動作履歴情報を抽出したデータセットの一例を示す図解図である。 図8は、図1に示す中央制御装置のメモリに記憶される遠隔操作履歴記録テーブルから場所が記録された動作履歴情報を抽出したデータセットの一例を示す図解図である。 図9は図1に示す中央制御装置のメモリに記憶される個人用ビヘービア遷移DBの一例を示す図解図である。 図10は図1に示す中央制御装置のメモリに記憶される年代・性別依存ビヘービア遷移DBの一例を示す図解図である。 図11は図1に示す中央制御措置のメモリに記憶される場所依存ビヘービア遷移DBの一例を示す図解図である。 図12は図1に示す中央制御措置のCPUの履歴記憶処理を示すフロー図である。 図13は図1に示す中央制御措置のCPUのデータベース構築処理を示すフロー図である。 図14は図1に示す中央制御措置のCPUの個人用ビヘービア遷移DBの構築処理を示すフロー図である。 図15は図1に示す中央制御措置のCPUの年代・性別依存ビヘービア遷移DBの構築処理を示すフロー図である。 図16は図1に示す中央制御措置のCPUの場所依存ビヘービア遷移DBの構築処理を示すフロー図である。 図17は図1に示すロボットのCPUの自律制御処理を示すフロー図である。 図18は図1に示すロボットのCPUの自律制御処理の他の一部であって、図17に後続するフロー図である。
符号の説明
10 …ロボット制御システム
12 …ロボット
14 …中央制御装置
14a …メモリ
16 …操作端末
18 …無線タグ
64 …スピーカ
66 …マイク
80 …CPU
82 …バス
84 …メモリ
88 …センサ入力/出力ボード
90 …音声入力/出力ボード
102 …通信LANボード
104 …無線通信装置
106 …無線タグ読取装置
200 …ネットワーク

Claims (7)

  1. 遠隔操作または自律制御により、人間との間で身体動作および音声の少なくとも一方によるコミュニケーション行動を行うロボットと、ネットワークを介して前記ロボットの遠隔操作を行う操作端末と、前記ネットワークを介して前記ロボットと前記操作端末とを仲介する中央制御装置とを備える、ロボット制御システムにおいて、
    前記ロボットは、
    前記操作端末からの遠隔操作に従ってコミュニケーション行動を実行する遠隔操作モードと、コミュニケーションの状況に応じたコミュニケーション行動についてのデータベースを参照して自律制御によるコミュニケーション行動を実行する自律制御モードとを切り替える切替手段、および
    前記切替手段によって切り替えられた前記遠隔操作モードまたは前記自律制御モードにおけるコミュニケーション行動についての動作履歴情報を中央制御装置に送信する送信手段を備え、
    前記中央制御装置は、
    前記送信手段によって送信された動作履歴情報を受信する受信手段、
    前記受信手段によって受信された動作履歴情報についてのコミュニケーション行動が遠隔操作によって実行されたかどうかを判断する判断手段、
    前記判断手段によって前記遠隔操作であることが判断された前記動作履歴情報を記憶装置に記憶する記憶手段、および
    前記記憶手段によって記憶された遠隔操作による前記動作履歴情報に基づいて前記データベースを構築する構築手段を備えることを特徴とする、ロボット制御システム。
  2. 前記中央制御装置は、前記ロボットがコミュニケーション行動を実行する対象である人間の属性情報を取得する属性情報取得手段をさらに備え、
    前記構築手段は、前記属性情報に応じた前記データベースを構築する、請求項1のロボット制御システム。
  3. 前記属性情報は、前記人間の名称の情報を含み、
    前記構築手段は、前記人間の名称の情報が示す名称毎に前記データベースを構築する、請求項2記載のロボット制御システム。
  4. 前記属性情報は、前記人間の年齢および性別の情報を含み、
    前記構築手段は、前記人間の年齢および性別の情報が示す年齢および性別毎に前記データベースを構築する、請求項2または3記載のロボット制御システム。
  5. 前記中央制御装置は、前記ロボットがコミュニケーション行動を行ったときに当該人間が存在した場所の情報を取得する場所情報取得手段をさらに備え、
    前記構築手段は、前記場所の情報が示す場所毎に前記データベースを構築する、請求項1ないし4のいずれかに記載のロボット制御システム。
  6. 前記ロボットは、前記人間との間でコミュニケーション行動を行う状況を検出する検出手段、および前記検出手段によって検出された状況に応じたデータベースを選択する選択手段をさらに備える、請求項5記載のロボット制御システム。
  7. 前記コミュニケーション行動を行う状況は、前記人間の名称と、前記人間の年齢および性別と、前記人間の存在場所との少なくとも1つを含む、請求項6記載のロボット制御システム。
JP2007308144A 2007-11-29 2007-11-29 ロボット制御システム Pending JP2009131914A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007308144A JP2009131914A (ja) 2007-11-29 2007-11-29 ロボット制御システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007308144A JP2009131914A (ja) 2007-11-29 2007-11-29 ロボット制御システム

Publications (1)

Publication Number Publication Date
JP2009131914A true JP2009131914A (ja) 2009-06-18

Family

ID=40864347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007308144A Pending JP2009131914A (ja) 2007-11-29 2007-11-29 ロボット制御システム

Country Status (1)

Country Link
JP (1) JP2009131914A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011067943A (ja) * 2009-09-22 2011-04-07 Gm Global Technology Operations Inc インターアクティブロボット制御システム及び使用方法
WO2012147394A1 (ja) * 2011-04-25 2012-11-01 ソニー株式会社 評価装置及び評価方法、サービス提供システム、並びにコンピューター・プログラム
JP2018001387A (ja) * 2016-07-08 2018-01-11 ロボットスタート株式会社 ロボット、プログラム、ロボットシステム及びサーバ
JP2019045928A (ja) * 2017-08-30 2019-03-22 株式会社国際電気通信基礎技術研究所 感覚刺激提示システム、プログラムおよび方法
CN109709947A (zh) * 2017-10-26 2019-05-03 株式会社日立大厦*** 机器人管理***
US10809715B2 (en) 2018-02-28 2020-10-20 Panasonic Intellectual Property Management Co., Ltd. Apparatus, robot, method, and recording medium
US11474499B2 (en) 2018-10-24 2022-10-18 Toyota Jidosha Kabushiki Kaisha Communication robot and control program of communication robot
US11491661B2 (en) 2018-10-24 2022-11-08 Toyota Jidosha Kabushiki Kaisha Communication robot and control program of communication robot

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04216107A (ja) * 1990-12-17 1992-08-06 Nippon Telegr & Teleph Corp <Ntt> 半自律行動ロボット遠隔操縦方法
JP2004227276A (ja) * 2003-01-23 2004-08-12 Advanced Telecommunication Research Institute International 人間のコミュニケーション行動記録システムおよび方法
JP2005131748A (ja) * 2003-10-31 2005-05-26 Advanced Telecommunication Research Institute International 関係検知システム
JP2005324278A (ja) * 2004-05-13 2005-11-24 Honda Motor Co Ltd ロボット制御装置
JP2006075948A (ja) * 2004-09-10 2006-03-23 Honda Motor Co Ltd ロボットの制御装置
JP2007190641A (ja) * 2006-01-19 2007-08-02 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2007216363A (ja) * 2006-02-20 2007-08-30 Saitama Univ コミュニケーションロボット

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04216107A (ja) * 1990-12-17 1992-08-06 Nippon Telegr & Teleph Corp <Ntt> 半自律行動ロボット遠隔操縦方法
JP2004227276A (ja) * 2003-01-23 2004-08-12 Advanced Telecommunication Research Institute International 人間のコミュニケーション行動記録システムおよび方法
JP2005131748A (ja) * 2003-10-31 2005-05-26 Advanced Telecommunication Research Institute International 関係検知システム
JP2005324278A (ja) * 2004-05-13 2005-11-24 Honda Motor Co Ltd ロボット制御装置
JP2006075948A (ja) * 2004-09-10 2006-03-23 Honda Motor Co Ltd ロボットの制御装置
JP2007190641A (ja) * 2006-01-19 2007-08-02 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2007216363A (ja) * 2006-02-20 2007-08-30 Saitama Univ コミュニケーションロボット

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011067943A (ja) * 2009-09-22 2011-04-07 Gm Global Technology Operations Inc インターアクティブロボット制御システム及び使用方法
WO2012147394A1 (ja) * 2011-04-25 2012-11-01 ソニー株式会社 評価装置及び評価方法、サービス提供システム、並びにコンピューター・プログラム
JP2012230506A (ja) * 2011-04-25 2012-11-22 Sony Corp 評価装置及び評価方法、サービス提供システム、並びにコンピューター・プログラム
JP2018001387A (ja) * 2016-07-08 2018-01-11 ロボットスタート株式会社 ロボット、プログラム、ロボットシステム及びサーバ
JP2019045928A (ja) * 2017-08-30 2019-03-22 株式会社国際電気通信基礎技術研究所 感覚刺激提示システム、プログラムおよび方法
JP7012953B2 (ja) 2017-08-30 2022-01-31 株式会社国際電気通信基礎技術研究所 感覚刺激提示システム、プログラムおよび方法
CN109709947A (zh) * 2017-10-26 2019-05-03 株式会社日立大厦*** 机器人管理***
JP2019079419A (ja) * 2017-10-26 2019-05-23 株式会社日立ビルシステム ロボット管理システム
CN109709947B (zh) * 2017-10-26 2021-11-16 株式会社日立大厦*** 机器人管理***
US10809715B2 (en) 2018-02-28 2020-10-20 Panasonic Intellectual Property Management Co., Ltd. Apparatus, robot, method, and recording medium
US11474499B2 (en) 2018-10-24 2022-10-18 Toyota Jidosha Kabushiki Kaisha Communication robot and control program of communication robot
US11491661B2 (en) 2018-10-24 2022-11-08 Toyota Jidosha Kabushiki Kaisha Communication robot and control program of communication robot

Similar Documents

Publication Publication Date Title
JP5429462B2 (ja) コミュニケーションロボット
JP2009131914A (ja) ロボット制御システム
JP5033994B2 (ja) コミュニケーションロボット
JP5070441B2 (ja) ロボット遠隔操作システム
JP5366048B2 (ja) 情報提供システム
JP7400923B2 (ja) 情報処理装置および情報処理方法
JP4639343B2 (ja) ロボット遠隔操作システム
JP4599522B2 (ja) コミュニケーションロボット
JP2009241166A (ja) ロボット遠隔操作システム
JP4386367B2 (ja) コミュニケーションロボット改良システム
JP4024683B2 (ja) コミュニケーションロボット
JP7120254B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2024023193A (ja) 情報処理装置及び情報処理方法
JP7416295B2 (ja) ロボット、対話システム、情報処理方法及びプログラム
JP2007160427A (ja) ロボット制御システム
JP4677593B2 (ja) コミュニケーションロボット
JP2007152445A (ja) 自走式ロボット
WO2020105309A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP5842245B2 (ja) コミュニケーションロボット
JP5324956B2 (ja) 道案内ロボット
JP5163202B2 (ja) 物品推定システム
US11938625B2 (en) Information processing apparatus, information processing method, and program
JP4779114B2 (ja) コミュニケーションロボット
JP5866646B2 (ja) コミュニケーションシステム、発話内容生成装置、発話内容生成プログラムおよび発話内容生成方法
JP5194314B2 (ja) コミュニケーションシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Effective date: 20100909

Free format text: JAPANESE INTERMEDIATE CODE: A621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120410

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120731